JP2009166783A - Symptom inference device - Google Patents

Symptom inference device Download PDF

Info

Publication number
JP2009166783A
JP2009166783A JP2008009558A JP2008009558A JP2009166783A JP 2009166783 A JP2009166783 A JP 2009166783A JP 2008009558 A JP2008009558 A JP 2008009558A JP 2008009558 A JP2008009558 A JP 2008009558A JP 2009166783 A JP2009166783 A JP 2009166783A
Authority
JP
Japan
Prior art keywords
driver
symptom
face information
state
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008009558A
Other languages
Japanese (ja)
Inventor
Michihiro Miyashita
亨裕 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008009558A priority Critical patent/JP2009166783A/en
Publication of JP2009166783A publication Critical patent/JP2009166783A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a symptom inference device that can infer a physiological symptom that gives uncomfortable feeling to a driver in a prior stage that leads to a dangerous driving state or the like. <P>SOLUTION: The symptom inference device has an image pickup device, a face data generation means, and an inference means. The image pickup device captures images in the direction of the driver seat from the front of the driver seat. The face data generation means detects the state of the driver's face using the images captured by the image pickup device and generates face data that show the state of the face. The inference device presumes the physiological symptom which gives uncomfortable feeling to the driver in a prior stage that leads to a dangerous driving state or the like. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、症状推定装置に関し、より特定的には、操縦者の顔の状態を検出し、操縦者の症状を推定することができる症状推定装置に関する。   The present invention relates to a symptom estimation apparatus, and more particularly, to a symptom estimation apparatus that can detect a pilot's condition by detecting a state of a pilot's face.

従来、カメラなどでドライバーの顔を撮像し、撮像された画像からドライバーの症状を判定する運転者状態判定装置がある(例えば、特許文献1参照)。上記特許文献1に開示されている運転者状態判定装置は、カメラによりドライバーの顔を撮像し、撮像された顔画像を解析することにより、居眠り、よそ見、わき見などの当該ドライバーが運転する際の認知判断が欠如するような症状を検知する。そして、上記運転者状態判定装置は、上記状態を検知した場合、ドライバーへ警告を行ったり、危険を未然に回避するためにドライバーが運転する車両を制御したりする。
特開2005−108033号公報
2. Description of the Related Art Conventionally, there is a driver state determination device that images a driver's face with a camera or the like and determines a driver's symptom from the captured image (for example, see Patent Document 1). The driver state determination device disclosed in Patent Document 1 captures a driver's face with a camera, and analyzes the captured face image, so that the driver can sleep, look aside, look aside, etc. Detect symptoms that lack cognitive judgment. And when the said driver | operator state determination apparatus detects the said state, it warns a driver and controls the vehicle which a driver drives in order to avoid danger beforehand.
JP 2005-108033 A

ここで、運転操作する際の認知判断が欠如するようなドライバーの症状とは、例えば、運転する車両と他の物体との衝突が不可避、または衝突の可能性が高い症状であり、直ちに事故に繋がるような危険な運転状態である。一方、ドライバーが疲労や眠気を感じていたり不快に感じていたりするなど、そのまま放置すれば上記危険な運転状態となることが予想されるような一歩手前の危険な運転状態もある。しかしながら、上記特許文献1に開示された運転者状態判定装置は、直ちに事故に繋がるような危険な運転状態のドライバー症状を検知するものであり、上記危険な運転状態に繋がる前段階のドライバーの症状など、ドライバーに違和感を与える生理的症状を検知するものではなかった。   Here, a driver's symptom that lacks cognitive judgment when driving is, for example, a symptom in which a collision between a driving vehicle and another object is unavoidable or a collision is likely to occur. It is a dangerous driving condition that leads to connection. On the other hand, there is a dangerous driving state one step ahead where it is expected that if the driver is left as it is, such as feeling tired, drowsy or uncomfortable, the above dangerous driving state is expected. However, the driver state determination device disclosed in Patent Document 1 detects a driver symptom in a dangerous driving state that immediately leads to an accident, and a symptom of the driver in the previous stage that leads to the dangerous driving state. It was not intended to detect physiological symptoms that made the driver feel uncomfortable.

本発明は、上記事情に鑑みてなされたものであり、その目的とするところは、危険な操縦状態に繋がる前段階となり得る操縦者の症状など、操縦者に違和感を与える生理的症状を推定する症状推定装置を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to estimate physiological symptoms that give an uncomfortable feeling to the driver, such as a driver's symptom that may be a preliminary stage leading to a dangerous driving state. The object is to provide a symptom estimation device.

上記のような目的を達成するために、本発明は、以下に示すような特徴を有している。 第1の発明は、移動体の操縦席に着席した操縦者の症状を推定する症状推定装置である。症状推定装置は、撮像手段と顔情報生成手段と推定手段とを備える。撮像手段は、操縦席前方から操縦席方向を撮像する。顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の顔の状態を検出し、顔の状態を示す顔情報を生成する。推定手段は、顔情報に基づいて、操縦者が危険な操縦状態に繋がる前段階となり得る症状など、操縦者に違和感を与える生理的症状が操縦者に生じているか否かを推定する。なお、上記症状推定装置は、自動車、飛行機、船舶等の移動体に設けられる。そして、上記操縦者は、自動車の運転者、飛行機の操縦者、船舶の操舵者等を含む概念である。また、上記操縦席は、自動車の運転席、飛行機の操縦席、船舶の操舵席等を含む概念である。   In order to achieve the above object, the present invention has the following features. 1st invention is the symptom estimation apparatus which estimates the symptom of the pilot who sat down in the cockpit of the moving body. The symptom estimation device includes an imaging unit, a face information generation unit, and an estimation unit. The imaging means images the direction of the cockpit from the front of the cockpit. The face information generation means detects the state of the driver's face using the image picked up by the image pickup means, and generates face information indicating the face state. Based on the face information, the estimating means estimates whether or not a physiological symptom that causes the driver to feel uncomfortable, such as a symptom that may be a stage before the driver leads to a dangerous driving state. In addition, the said symptom estimation apparatus is provided in moving bodies, such as a motor vehicle, an airplane, a ship. The pilot is a concept including a driver of a car, a pilot of a plane, a steering of a ship, and the like. The cockpit is a concept including a driver's seat of an automobile, an airplane's cockpit, a ship's steering seat, and the like.

第2の発明は、上記第1の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目の状態を検出し、目の状態を顔情報として生成する。   In a second aspect based on the first aspect, the face information generation means detects the state of the eyes of the driver using the image captured by the imaging means, and generates the eye state as face information.

第3の発明は、上記第2の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目が開眼状態にあるか閉眼状態であるかを予め定められた時間間隔で検出し、操縦者の目が単位時間あたりに開閉する回数を顔情報として生成する。   In a third aspect based on the second aspect, the face information generation means uses the image picked up by the image pickup means to determine whether the operator's eyes are in an open state or a closed eye state. And the number of times the pilot's eyes are opened and closed per unit time is generated as face information.

第4の発明は、上記第2の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目の充血状態を検出し、操縦者の目の充血状態を顔情報として生成する。   In a fourth aspect based on the second aspect, the face information generating means detects an eye fullness state of the pilot's eyes using the image captured by the image capturing means, and uses the eye fullness state of the pilot's eyes as face information. Generate.

第5の発明は、上記第4の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の白目部分を抽出し、白目部分内において輝度が変化するエッジ長さに基づいて、操縦者の目の充血状態を検出する。   In a fifth aspect based on the fourth aspect, the face information generation means extracts the pilot's white-eye portion using the image picked up by the image pickup means, and based on the edge length at which the luminance changes in the white-eye portion. And detecting the hyperemia state of the pilot's eyes.

第6の発明は、上記第2の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目から涙がこぼれた状態にあるにあるか否かを検出し、操縦者の涙の状態を顔情報として生成する。   In a sixth aspect based on the second aspect, the face information generating means detects whether or not tears are spilled from the pilot's eyes using the image picked up by the image pickup means. The state of the person's tears is generated as face information.

第7の発明は、上記第6の発明において、撮像手段が撮像した画像から操縦者の目頭または目尻の画像を抽出し、目頭または目尻の画像およびその周辺画像に予め定められた値以上の輝度差がある領域が存在した場合に、操縦者の目から涙がこぼれた状態にあると検出する。   In a seventh aspect based on the sixth aspect, the image of the driver's eyes or corners is extracted from the image captured by the imaging means, and the luminance is greater than or equal to a predetermined value for the eyes or corners and surrounding images. When there is an area with a difference, it is detected that tears are spilled from the pilot's eyes.

第8の発明は、上記第1または第2の発明において、顔情報生成手段が生成した顔情報に基づいて、操縦者にアレルギー反応を起こしている症状が生じているか否かを推定する。   According to an eighth aspect of the present invention, in the first or second aspect of the present invention, based on the face information generated by the face information generating means, it is estimated whether or not a symptom causing an allergic reaction has occurred.

第9の発明は、上記第1または第2の発明において、顔画像生成手段は、撮像手段が撮像した画像を用いて操縦者の目が開眼状態にあるか閉眼状態にあるかを予め定められた時間間隔で検出し、操縦者の目が単位時間あたりに開閉する瞬きの回数を前記顔情報として生成する。そして、推定手段は、瞬きの回数が予め定められた回数より多い場合に、アレルギー反応を起こしている症状および疲労状態を示す症状の何れか一方が操縦者に生じていると推定する。   In a ninth aspect based on the first or second aspect, the face image generation means determines in advance whether the eyes of the driver are in an open state or in a closed state using an image captured by the imaging means. The number of blinks that the driver's eyes open and close per unit time is generated as the face information. Then, when the number of blinks is greater than a predetermined number, the estimation means estimates that one of a symptom causing an allergic reaction and a symptom indicating a fatigue state has occurred in the pilot.

第10の発明は、上記第9の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目の充血状態を検出し、操縦者の目の充血状態を顔情報としてさらに生成する。そして、推定手段は、瞬きの回数が予め定められた回数より多く、かつ、操縦者の目が充血状態にある場合に、操縦者にアレルギー反応を起こしている症状が生じていると推定する。   In a tenth aspect based on the ninth aspect, the face information generating means detects an eye fullness of the driver's eyes using the image picked up by the image pick-up means, and uses the eye fullness of the pilot as face information. Generate more. Then, the estimating means estimates that a symptom causing an allergic reaction has occurred when the number of blinks is greater than a predetermined number and the eyes of the driver are in a congested state.

第11の発明は、上記第9の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目から涙がこぼれた状態にあるか否かを検出し、操縦者の涙の状態を顔情報としてさらに生成する。そして、推定手段は、瞬きの回数が所定の回数より多く、かつ、操縦者の目から涙がこぼれた状態にある場合に、操縦者にアレルギー反応を起こしている症状が生じていると推定する。   In an eleventh aspect based on the ninth aspect, the face information generating means detects whether or not tears are spilled from the pilot's eyes using the image picked up by the image pickup means. A tear state is further generated as face information. Then, the estimating means estimates that there is a symptom causing an allergic reaction when the number of blinks is greater than a predetermined number and tears are spilled from the eyes of the pilot. .

第12の発明は、上記第9の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目の充血状態を検出し、操縦者の目の充血状態を顔情報としてさらに生成する。そして、推定手段は、瞬きの回数が予め定められた回数より多く、かつ、操縦者の目が充血状態にない場合に、疲労状態を示す症状が操縦者に生じていると推定する。   In a twelfth aspect based on the ninth aspect, the face information generation means detects an eye fullness state of the pilot's eyes using the image captured by the image pickup means, and uses the blood pressure state of the pilot's eyes as face information. Generate more. Then, the estimating means estimates that a symptom indicating a fatigue state is occurring in the driver when the number of blinks is greater than a predetermined number and the eyes of the driver are not congested.

第13の発明は、上記第9の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目から涙がこぼれた状態にあるか否かを検出し、操縦者の涙の状態を顔情報としてさらに生成する。そして、推定手段は、瞬きの回数が所定の回数より多く、かつ、操縦者の目から涙がこぼれていない状態にある場合に、疲労状態を示す症状が操縦者に生じていると推定する。   In a thirteenth aspect based on the ninth aspect, the face information generation means detects whether or not tears have spilled from the pilot's eyes using the image captured by the imaging means. A tear state is further generated as face information. Then, the estimation means estimates that a symptom indicating a fatigue state has occurred in the driver when the number of blinks is greater than a predetermined number and tears are not spilled from the eyes of the driver.

第14の発明は、上記第1または第2の発明において、推定手段は、顔情報生成手段が生成した顔情報に基づいて、操縦者に疲労状態を示す症状が生じているか否かを推定する。   In a fourteenth aspect based on the first or second aspect, the estimating means estimates whether or not a symptom indicating a fatigue state has occurred in the pilot based on the face information generated by the face information generating means. .

第15の発明は、上記第14の発明において、顔画像生成手段は、撮像手段が撮像した画像を用いて操縦者の目が閉眼状態にあるか否かを検出することによって、操縦者の目が閉眼状態にある閉眼時間を算出して、閉眼時間を顔情報として生成する。そして、推定手段は、閉眼時間が予め定められた時間以上となる閉眼状態が予め定められた周期以下の間隔で生じている場合に、操縦者に疲労状態を示す症状が生じていると推定する。   In a fifteenth aspect based on the fourteenth aspect, the face image generation means detects whether or not the driver's eyes are closed using the image captured by the imaging means. Calculates an eye closure time when the eye is closed, and generates the eye closure time as face information. Then, the estimating means estimates that a symptom indicating a fatigue state has occurred in the operator when the closed eye state in which the closed eye time is equal to or longer than a predetermined time occurs at intervals equal to or less than a predetermined cycle. .

第16の発明は、上記第14の発明において、顔情報生成手段は、撮像手段が撮像した画像を用いて操縦者の目が開眼状態にあるか閉眼状態にあるかを予め定められた時間間隔で検出し、操縦者の目が単位時間あたりに開閉する瞬きの回数を顔情報として生成する。そして、推定手段は、瞬きの回数が予め定められた値より少ない場合に、操縦者に疲労状態を示す症状が生じていると推定する。   In a sixteenth aspect based on the fourteenth aspect, the face information generation means determines whether the operator's eyes are in an open state or a closed eye state using an image captured by the imaging means. And the number of blinks that the driver's eyes open and close per unit time is generated as face information. Then, when the number of blinks is less than a predetermined value, the estimation means estimates that a symptom indicating a fatigue state is occurring in the operator.

第17の発明は、上記第1または第2の発明において、操縦者は、車両の運転席に着座した運転者であり、症状推定装置は、車両に設置される。そして、推定手段が推定した運転者の症状に応じて、車両の車内環境を制御する装備品または運転者に情報を通知する装備品を制御する制御手段を、さらに備える。   In a seventeenth aspect based on the first or second aspect, the driver is a driver seated in the driver's seat of the vehicle, and the symptom estimation device is installed in the vehicle. The apparatus further includes control means for controlling equipment for controlling the in-vehicle environment of the vehicle or equipment for notifying the driver of information according to the driver's symptoms estimated by the estimation means.

第18の発明は、上記第17の発明において、推定手段は、顔情報生成手段が生成した顔情報に基づいて、運転者にアレルギー反応を起こしている症状が生じているか否かを推定する。そして、制御手段は、運転者にアレルギー反応を起こしている症状が生じていると推定手段が推定した場合、車両に設けられた空気清浄機を起動させる。   In an eighteenth aspect based on the seventeenth aspect, the estimating means estimates whether or not a symptom causing an allergic reaction has occurred based on the face information generated by the face information generating means. And a control means starts the air cleaner provided in the vehicle, when an estimation means estimates that the symptom which has caused the allergic reaction has arisen in the driver | operator.

第19の発明は、上記第17の発明において、推定手段は、顔情報生成手段が生成した顔情報に基づいて、運転者にアレルギー反応を起こしている症状が生じているか否かを推定する。そして、制御手段は、運転者にアレルギー反応を起こしている症状が生じていると推定手段が推定した場合、車両に設けられたパワーウィンドウ機構を制御して車両の窓を閉める。   In a nineteenth aspect based on the seventeenth aspect, the estimating means estimates whether or not a symptom causing an allergic reaction has occurred on the basis of the face information generated by the face information generating means. Then, when the estimation means estimates that the symptom causing an allergic reaction has occurred in the driver, the control means controls the power window mechanism provided in the vehicle to close the window of the vehicle.

第20の発明は、上記第17の発明において、顔情報生成手段が生成した顔情報に基づいて、運転者に疲労状態を示す症状が生じているか否かを推定する。そして、制御手段は、運転者に疲労状態を示す症状が生じていると推定手段が推定した場合、車両に設けられたエアコンディショナーの設定温度を調整する。   According to a twentieth aspect, in the seventeenth aspect, based on the face information generated by the face information generating means, it is estimated whether or not a symptom indicating a fatigue state has occurred in the driver. And a control means adjusts the preset temperature of the air conditioner provided in the vehicle, when an estimation means estimates that the symptom which shows a fatigue state has arisen in the driver | operator.

第21の発明は、上記第17の発明において、推定手段は、顔情報生成手段が生成した顔情報に基づいて、運転者に疲労状態を示す症状が生じている否かを推定する。そして、制御手段は、運転者に疲労状態を示す症状が生じていると推定手段が推定した場合、車両に設けられたカーナビゲーションシステムを制御して、最寄りの休息施設まで運転者をルート案内する。   In a twenty-first aspect based on the seventeenth aspect, the estimating means estimates whether or not a symptom indicating a fatigue state has occurred in the driver based on the face information generated by the face information generating means. The control means controls the car navigation system provided in the vehicle and guides the driver to the nearest resting facility when the estimation means estimates that a symptom indicating a fatigue condition has occurred in the driver. .

上記第1の発明によれば、操縦者の顔の状態から推定可能な症状が当該操縦者に生じているか、操縦中に判断することができ、当該判断結果を用いた事故予防が可能となる。例えば、操縦者が疲労や眠気を感じていたり不快に感じていたりするなど、そのまま放置すれば危険な操縦状態となることが予想されるような一歩手前の危険な操縦状態に陥るなど、操縦者に違和感を与える生理的症状を操縦中に推定することができ、操縦者に違和感を与える生理的症状が生じる前の対策が可能となる。   According to the first aspect of the present invention, it is possible to determine whether the symptom that can be estimated from the state of the face of the driver is occurring in the driver, and it is possible to prevent an accident using the determination result. . For example, if the pilot feels tired, sleepy, or uncomfortable, the pilot may fall into a dangerous piloting state one step ahead of which is expected to result in a dangerous piloting state if left unattended. Physiological symptoms that give a sense of incongruity to the driver can be estimated during the maneuvering, and measures can be taken before the physiological symptoms that give the operator a sense of incongruity.

上記第2の発明によれば、操縦者の目の状態を用いて操縦者の状態を検出し、当該目の状態を用いて上記症状が操縦者に生じているか推定する。したがって、限定された顔部品に絞って症状推定されるため、画像処理や症状推定処理が簡素化される。   According to the second aspect, the state of the driver is detected using the state of the driver's eyes, and it is estimated whether the symptom is occurring in the driver using the state of the eyes. Therefore, since the symptom estimation is performed by focusing on limited face parts, the image processing and the symptom estimation process are simplified.

上記第3の発明によれば、操縦者の瞬きの回数に応じた症状推定処理が可能となる。   According to the third aspect, the symptom estimation process according to the number of blinks of the driver is possible.

上記第4の発明によれば、操縦者の目の充血状態に応じた症状推定処理が可能となる。   According to the fourth aspect of the invention, the symptom estimation process according to the hyperemia state of the driver's eyes can be performed.

上記第5の発明によれば、撮像された画像の白目部分の輝度変化を用いて、容易に操縦者の目の充血状態を判別することができる。   According to the fifth aspect of the present invention, it is possible to easily determine the hyperemia state of the operator's eyes using the luminance change of the white eye portion of the captured image.

上記第6の発明によれば、操縦者の涙の状態に応じた症状推定処理が可能となる。   According to the sixth aspect, the symptom estimation process according to the state of the tears of the driver is possible.

上記第7の発明によれば、操縦者の目頭または目尻およびその周辺の輝度差を用いて、容易に操縦者の目の涙状態を判別することができる。   According to the seventh aspect, it is possible to easily determine the tear state of the driver's eyes using the brightness difference between the eyes or corners of the driver's eyes and the periphery thereof.

上記第8の発明によれば、操縦者の目の状態、汗の状態、顔色の状態などを示す顔情報から推定可能なアレルギー症状が当該操縦者に生じているか、操縦中に判断することができ、当該判断結果を用いた事故予防が可能となる。   According to the eighth aspect of the present invention, it is possible to determine whether or not an allergic symptom that can be estimated from face information indicating the state of the eyes of the driver, the state of sweat, the state of the face color, or the like has occurred in the driver. It is possible to prevent accidents using the judgment result.

上記第9の発明によれば、操縦者の瞬き回数によって、容易に操縦者のアレルギー症状や疲労状態を判別することができる。例えば、車内のホコリや植物の花粉等に操縦者の目の粘膜が過剰に反応して瞬きの回数が多くなるような場合や、目の疲労によって瞬きの回数が多くなるような場合等、一般的に操縦者の症状が瞬き回数に現れるような症状に対する症状推定処理を容易に行うことができる。   According to the ninth aspect, it is possible to easily determine the allergic symptom and fatigue state of the pilot based on the number of blinks of the pilot. For example, when the operator's eye mucous membrane reacts excessively with dust or plant pollen in the car and the number of blinks increases, or when the number of blinks increases due to eye fatigue, etc. Therefore, it is possible to easily perform the symptom estimation process for a symptom in which the symptom of the pilot appears in the number of blinks.

上記第10および第12の発明によれば、操縦者の充血の有無によって、容易にアレルギー症状と疲労状態とを区別することができる。   According to the tenth and twelfth aspects of the invention, it is possible to easily distinguish between allergic symptoms and fatigue states based on the presence or absence of the driver's hyperemia.

上記第11および第13の発明によれば、操縦者の涙の状態によって、容易にアレルギー症状と疲労状態とを区別することができる。   According to the eleventh and thirteenth inventions, it is possible to easily distinguish between allergic symptoms and fatigue states according to the state of tears of the pilot.

上記第14の発明によれば、操縦者の目の状態、汗の状態、顔色の状態などを示す顔情報から推定可能な疲労状態に当該操縦者があるのか、操縦中に判断することができ、当該判断結果を用いた事故予防が可能となる。   According to the fourteenth aspect of the present invention, it is possible to determine whether the driver is in a fatigue state that can be estimated from face information indicating the driver's eye state, sweat state, facial color state, and the like during the operation. Therefore, it is possible to prevent accidents using the judgment result.

上記第15の発明によれば、操縦者の閉眼時間とその周期によって、容易に操縦者の疲労状態を判別することができる。例えば、上まぶたが下がり薄目状態のもうろうとした状態が継続した場合、操縦者に疲労状態を示す症状が生じていると推定することができる。   According to the fifteenth aspect of the present invention, the operator's fatigue state can be easily determined based on the driver's eye-closing time and its period. For example, when the state where the upper eyelid is lowered and the thin state is continued, it can be estimated that the symptom indicating the fatigue state is generated in the operator.

第16の発明によれば、操縦者の瞬き回数によって、容易に操縦者の疲労状態を判別することができる。例えば、操縦者の目の上まぶたが下がり薄目状態のもうろうとした状態になり、瞬きの回数が少なくなるような場合に、操縦者は疲労状態を示す症状を生じていると推定することができる。   According to the sixteenth aspect, the driver's fatigue state can be easily determined based on the number of blinks of the driver. For example, when the upper eyelid of the pilot is lowered and the light eye is about to fall, and the number of blinks is reduced, it can be estimated that the pilot has a symptom indicating a fatigue state. .

第17の発明によれば、運転者の顔の状態から推定可能な症状が当該運転者に生じているか、車両の運転中に判断することができ、当該判断結果を用いた車両事故予防が可能となる。例えば、運転者が疲労や眠気を感じていたり不快に感じていたりするなど、そのまま放置すれば危険な運転状態となることが予想されるような一歩手前の危険な運転状態に陥るなど、運転者に違和感を与える生理的症状を車両運転中に推定することができ、運転者に違和感を与える生理的症状が生じる前の対策などを実施することが可能となる。   According to the seventeenth aspect, it is possible to determine whether a symptom that can be estimated from the state of the driver's face has occurred in the driver, while driving the vehicle, and vehicle accident prevention using the determination result is possible. It becomes. For example, if the driver feels tired or sleepy or feels uncomfortable, the driver may fall into a dangerous driving state one step ahead that is expected to result in a dangerous driving state if left unattended. Physiological symptoms that give a sense of incongruity to the driver can be estimated while driving the vehicle, and measures before the physiological symptoms that give the driver a sense of incongruity can be implemented.

第18の発明によれば、運転者がアレルギー反応を起こしている症状を生じていると推定された場合、空気清浄機を作動させるので、車内の花粉やホコリを除去することができ、アレルギー症状を軽減することができる。   According to the eighteenth aspect of the invention, when it is estimated that the driver is experiencing symptoms that cause an allergic reaction, the air cleaner is operated, so that pollen and dust in the vehicle can be removed, and allergic symptoms are observed. Can be reduced.

第19の発明によれば、運転者がアレルギー反応を起こしている症状を生じていると推定された場合、車両の窓が閉まるので、花粉やホコリが車内に進入してくるのを防ぐことができ、アレルギー症状を軽減することができる。   According to the nineteenth invention, when it is estimated that the driver is suffering from an allergic reaction, the vehicle window is closed, so that pollen and dust can be prevented from entering the vehicle. Can alleviate allergic symptoms.

第20の発明によれば、運転者が疲労状態を示す症状を生じていると推定された場合、車両に設けられたエアコンディショナーの設定温度を調整するので、運転者はエアコンディショナーの送風口からでる風によって爽快感を得ることができ、疲労を軽減することができる。   According to the twentieth aspect of the invention, when the driver is estimated to have a symptom indicating a fatigue state, the set temperature of the air conditioner provided in the vehicle is adjusted. A refreshing feeling can be obtained by the breeze coming out, and fatigue can be reduced.

第21の発明によれば、運転者が疲労状態を示す症状を生じていると推定された場合、最寄りの休息施設まで運転者をルート案内するので、運転者は最寄りの休息施設により休息を取ることができ、疲労を軽減することができる。   According to the twenty-first aspect, when it is estimated that the driver has a symptom indicating a fatigue state, the driver is routed to the nearest resting facility, so the driver takes rest at the nearest resting facility. Can reduce fatigue.

以下、図面を参照して、本発明の一実施形態に係る症状推定装置の構成および動作について説明する。なお、本実施形態では当該症状推定装置が車両に設置された場合を想定し、当該車両を運転するドライバーが危険な運転状態に繋がる前段階となり得る症状を生じているか否かを推定するものとする。   Hereinafter, the configuration and operation of a symptom estimation apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, assuming that the symptom estimation device is installed in a vehicle, it is estimated whether or not the driver driving the vehicle has a symptom that may be a previous stage leading to a dangerous driving state. To do.

図1は、本発明の一実施形態に係る症状推定装置の構成の一例を示すブロック図である。図1において、当該症状推定装置は、カメラ100と、ドライバモニタECU(Electronic Control Unit)110と、予防安全ECU(Electronic Control Unit)120とを有している。   FIG. 1 is a block diagram illustrating an example of a configuration of a symptom estimation apparatus according to an embodiment of the present invention. In FIG. 1, the symptom estimation apparatus includes a camera 100, a driver monitor ECU (Electronic Control Unit) 110, and a preventive safety ECU (Electronic Control Unit) 120.

カメラ100は、ドライバーの顔を撮像する、例えばCCDカメラ、赤外線カメラ等である。なお、カメラ100は、ズーム機能を有していてもかまわない。例えば、カメラ100は、液体レンズを内蔵することによってズーム機能を実現する。一般的に、液体レンズは、流す電流の電圧で光の屈折率を変化させることができ、機械的なオートフォーカスが有するモータ、ガラスなどを必要としないために省スペース化に有効であり、振動、耐用年数など車両の使用環境を考慮すると好適である。なお、カメラ100は、本発明の撮像手段の一例に相当する。   The camera 100 is, for example, a CCD camera, an infrared camera, or the like that images a driver's face. The camera 100 may have a zoom function. For example, the camera 100 implements a zoom function by incorporating a liquid lens. In general, a liquid lens can change the refractive index of light with the voltage of the current that flows, and is effective in space saving because it does not require a motor, glass, etc., which mechanical autofocus has. Considering the use environment of the vehicle such as the service life, it is preferable. The camera 100 corresponds to an example of the imaging unit of the present invention.

カメラ100は、運転席に着座したドライバーの顔を撮像できる位置に設置される。カメラ100の設置場所の一例として、運転席のメーターフード内、メーターパネル内、およびステアリングコラム上などが挙げられる。また、カメラ100は、例えば、所定時間間隔でドライバーの顔を撮像する。そして、カメラ100が撮像した画像は、ドライバモニタECU110に出力される。   The camera 100 is installed at a position where the face of the driver seated in the driver's seat can be imaged. As an example of the installation location of the camera 100, the inside of the meter hood of the driver's seat, the inside of the meter panel, and the steering column can be cited. In addition, the camera 100 captures the driver's face at predetermined time intervals, for example. The image captured by the camera 100 is output to the driver monitor ECU 110.

ドライバモニタECU110は、メインマイクロコンピュータ(以下メインマイコンと称す)111、サブマイクロコンピュータ(以下サブマイコンと称す)112、および顔画像パターン格納部113等を備えている。ドライバモニタECU110には、上述したドライバーの顔画像を撮像するカメラ100と、後述する予防安全ECU120とが接続されている。なお、ドライバモニタECU110は、本発明の顔情報生成手段の一例に相当する。   The driver monitor ECU 110 includes a main microcomputer (hereinafter referred to as a main microcomputer) 111, a sub microcomputer (hereinafter referred to as a sub microcomputer) 112, a face image pattern storage unit 113, and the like. The driver monitor ECU 110 is connected to the camera 100 that captures the driver's face image and a preventive safety ECU 120 described later. The driver monitor ECU 110 corresponds to an example of face information generating means of the present invention.

メインマイコン111は、CPU(中央演算装置)およびメモリ等で構成される。また、詳細は後述するが、メインマイコン111は、カメラ100が撮像した画像から、ドライバーの顔向きの検出を主に行う。   The main microcomputer 111 includes a CPU (Central Processing Unit) and a memory. Although details will be described later, the main microcomputer 111 mainly detects the face orientation of the driver from the image captured by the camera 100.

サブマイコン112は、CPUおよびメモリ等で構成される。また、詳細は後述するが、サブマイコン112は、カメラ100が撮像した画像から、ドライバーの目の瞬きの回数、閉眼時間、閉眼時刻、目の充血の有無、目の涙の有無といったドライバーの目に関する状態を検出して、それら状態を示す顔情報を生成し、予防安全ECU120に出力する。   The sub-microcomputer 112 includes a CPU and a memory. Although details will be described later, the sub-microcomputer 112 determines the driver's eyes such as the number of blinks of the driver's eyes, closed eye time, closed eye time, presence / absence of eye redness, and presence / absence of eye tears from an image captured by the camera 100. State is detected, face information indicating the state is generated, and output to the preventive safety ECU 120.

顔画像パターン格納部113は、読み書き可能な記憶媒体で構成され、人物の顔画像パターンを示す情報が記憶されている。具体的には、顔画像パターンは、顔の大きさ、目の位置や大きさ、口の位置や大きさ、鼻の位置や大きさ等の様々なパターンを含んでいる。また、顔画像パターンは、様々な人物の顔部品のテンプレート画像(例えば、口のテンプレート画像)を含んでいる。なお、顔画像パターン格納部113に記憶されている顔の情報は、例えば上記車両のユーザーの書き換え作業によって、適宜情報が更新されてもよい。   The face image pattern storage unit 113 is composed of a readable / writable storage medium, and stores information indicating a person's face image pattern. Specifically, the face image pattern includes various patterns such as a face size, an eye position and size, a mouth position and size, and a nose position and size. The face image pattern includes template images (for example, mouth template images) of various human face parts. Note that the face information stored in the face image pattern storage unit 113 may be appropriately updated by, for example, the rewriting operation of the user of the vehicle.

予防安全ECU120は、サブマイコン112が生成したドライバーの目に関する顔情報を用いて、ドライバーに危険な運転状態に繋がる前段階となり得る症状が生じているか否かを推定する。すなわち、予防安全ECU120は、「眠気を感じている」、「わき見をしている」、「居眠りをしている」などといった、直ちに事故に繋がるようなドライバーの状態だけでなく、「疲労を感じている」、「(花粉などで)アレルギー反応を起こしている」などといった、そのまま放置すればやがて事故に繋がると予想される症状がドライバーに生じているか否かまで推定する。なお、予防安全ECU120は、上記車両の車両情報(例えば、車両のシフトレバー位置情報など)を当該車両に備わった各装置より取得する。   The preventive safety ECU 120 uses the face information about the driver's eyes generated by the sub-microcomputer 112 to estimate whether or not there is a symptom that may be a previous stage that leads to a dangerous driving state for the driver. In other words, the preventive safety ECU 120 not only feels tired of the driver, such as “feeling sleepy”, “looking aside”, “sleeping”, but also “feeling tired”. It is estimated whether or not the driver has symptoms that are expected to lead to an accident if left unattended, such as “I have an allergic reaction” (with pollen, etc.). In addition, the preventive safety ECU 120 acquires vehicle information (for example, vehicle shift lever position information) of the vehicle from each device provided in the vehicle.

さらに、予防安全ECU120は、推定したドライバーの症状に基づいて、上記車両に設置されている各種装置の動作を制御して予防安全を行う。なお、詳細は後述するが、予防安全ECU120が上記各装置に対して行う制御とは、危険回避制御と危険運転予防制御とがある。   Further, the preventive safety ECU 120 performs preventive safety by controlling the operation of various devices installed in the vehicle based on the estimated driver's symptoms. Although details will be described later, the control performed by the preventive safety ECU 120 for each of the above devices includes danger avoidance control and danger driving prevention control.

上記危険回避制御とは、「ドライバーがわき見運転をしている」など、直ちに事故に繋がるような危険な運転状態であると予防安全ECU120が推定した場合に、上記各装置に対して行う制御である。具体的には、予防安全ECU120は、上記車両に備わった警告灯を点灯させたり警報ブザーを鳴動させたりしてドライバーに注意喚起を促す。典型的には、予防安全ECU120は、ドライバモニタECU110(メインマイコン111)から出力される顔向き検出結果に基づいてドライバーの運転状態を推定し、上記危険回避制御を行う。   The danger avoidance control is a control to be performed on each of the above devices when the preventive safety ECU 120 estimates that a dangerous driving state that immediately leads to an accident such as “the driver is driving aside”. is there. Specifically, the preventive safety ECU 120 urges the driver to be alerted by turning on a warning light provided in the vehicle or sounding an alarm buzzer. Typically, the preventive safety ECU 120 estimates the driving state of the driver based on the face orientation detection result output from the driver monitor ECU 110 (main microcomputer 111), and performs the risk avoidance control.

一方、上記危険運転予防制御とは、「ドライバーが疲労を感じている」、「ドライバーに(花粉などで)アレルギー反応を起こしている症状が生じている」など、そのまま放置すればやがて事故に繋がるような危険な運転状態となることが予想されるような症状がドライバーに生じていると予防安全ECU120が推定した場合に、上記各装置に対して行う制御である。第1の危険運転予防制御例として、予防安全ECU120は、エアコンディショナー(以下エアコンと称す)131を制御して、ドライバーの症状に応じた車内の温度調節をする。第2の危険運転予防制御例として、予防安全ECU120は、空気清浄機132を制御して車内の空気清浄を行う。第3の危険運転予防制御例として、予防安全ECU120は、車両のパワーウィンドウ機構133を制御して窓を閉め、車外から外気が侵入することを防止する。第4の危険運転予防制御例として、予防安全ECU120は、カーナビゲーションシステム134を制御してドライバーに最寄りの休息施設までの休息案内を行ったり、スピーカー135を制御して警報の報知を行ったりする。なお、危険運転予防制御を行うために上記車両に設置されている各種装置は、上述した装置に限られるものではない。なお、予防安全ECU120は、本発明の推定手段の一例および制御手段の一例に相当する。   On the other hand, the above dangerous driving prevention control means that the driver feels tired or that the driver is experiencing symptoms that are causing an allergic reaction (due to pollen, etc.). This control is performed on each of the above devices when the preventive safety ECU 120 estimates that a symptom that is expected to result in such a dangerous driving state occurs in the driver. As a first example of dangerous driving prevention control, the preventive safety ECU 120 controls an air conditioner (hereinafter referred to as an air conditioner) 131 to adjust the temperature in the vehicle according to the symptoms of the driver. As a second example of dangerous driving prevention control, the preventive safety ECU 120 controls the air cleaner 132 to clean the air in the vehicle. As a third example of dangerous driving prevention control, the preventive safety ECU 120 controls the power window mechanism 133 of the vehicle to close the window and prevent outside air from entering from the outside of the vehicle. As a fourth example of dangerous driving preventive control, the preventive safety ECU 120 controls the car navigation system 134 to give the driver rest guidance to the nearest rest facility, or controls the speaker 135 to issue an alarm. . In addition, the various apparatuses installed in the vehicle for performing the dangerous driving prevention control are not limited to the above-described apparatuses. The preventive safety ECU 120 corresponds to an example of an estimation unit and an example of a control unit of the present invention.

このように、ドライバモニタECU110は、カメラ100が撮像した画像からドライバーの顔に関する情報を生成する。そして、予防安全ECU120は、ドライバモニタECU110が生成したドライバーの顔に関する情報を用いて、危険な運転状態に繋がる前段階となり得る症状がドライバーに生じているか否かを推定する。さらに、予防安全ECU120は、推定結果に基づいて、上記車両に設置されている各種装置に対して危険運転予防制御を行う。以下、図2〜図9を参照して、本実施形態に係る症状推定装置の各部が行う処理の一例を説明する。   As described above, the driver monitor ECU 110 generates information related to the driver's face from the image captured by the camera 100. Then, the preventive safety ECU 120 uses the information regarding the driver's face generated by the driver monitor ECU 110 to estimate whether or not the driver has a symptom that may be a previous stage leading to a dangerous driving state. Further, the preventive safety ECU 120 performs dangerous driving preventive control on various devices installed in the vehicle based on the estimation result. Hereinafter, an example of processing performed by each unit of the symptom estimation apparatus according to the present embodiment will be described with reference to FIGS.

図2は、本実施形態に係る症状推定装置において行われる処理の流れの一例を示したフローチャートである。なお、図2に示したフローチャートに示される処理は、ドライバモニタECU110内に備わったメインマイコン111、サブマイコン112、および予防安全ECU120がそれぞれ所定のプログラムを実行することにより行われる。また、図2に示すフローチャートに示す処理は、上記症状推定装置の電源がON(例えば、上記症状推定装置が搭載された車両のイグニッションスイッチがON)されることによって開始される。また、当該処理は、上記症状推定装置の電源がOFF(例えば、イグニッションスイッチがOFF)されることによって終了する。なお、イグニッションスイッチは、以下IGと略す。   FIG. 2 is a flowchart showing an example of the flow of processing performed in the symptom estimation apparatus according to the present embodiment. 2 is performed by the main microcomputer 111, the sub-microcomputer 112, and the preventive safety ECU 120 provided in the driver monitor ECU 110 executing predetermined programs. 2 is started when the power of the symptom estimation apparatus is turned on (for example, the ignition switch of a vehicle on which the symptom estimation apparatus is mounted is turned on). In addition, the processing ends when the symptom estimation apparatus is powered off (for example, an ignition switch is turned off). The ignition switch is hereinafter abbreviated as IG.

図2のステップS201において、メインマイコン111は、カメラ100が撮像した画像を取得する。   In step S201 of FIG. 2, the main microcomputer 111 acquires an image captured by the camera 100.

次に、ステップS202において、メインマイコン111は、ドライバーの顔向きを算出する。以下、図3を用いて、ドライバーの顔向きを算出する動作について説明する。なお、図3は、図2のステップS202におけるドライバーの顔向きを算出する動作の一例を示すフローチャートである。   Next, in step S202, the main microcomputer 111 calculates the face orientation of the driver. Hereinafter, the operation for calculating the driver's face orientation will be described with reference to FIG. FIG. 3 is a flowchart showing an example of the operation for calculating the driver's face orientation in step S202 of FIG.

図3のステップS301において、メインマイコン111は、上記ステップS201で取得した撮像画像の所定方向(例えば、縦方向)にソーベルフィルタ処理を施す。そして、メインマイコン111は、処理後のソーベル画像内における輝度の差を用いて、当該ソーベル画像内から縦方向のエッジ点を抽出する処理を行い、次のステップS302へ処理を進める。   In step S301 in FIG. 3, the main microcomputer 111 performs a Sobel filter process in a predetermined direction (for example, the vertical direction) of the captured image acquired in step S201. Then, the main microcomputer 111 performs processing for extracting vertical edge points from the Sobel image using the luminance difference in the processed Sobel image, and proceeds to the next Step S302.

ステップS302において、メインマイコン111は、上記ステップS301でソーベル画像から抽出した縦方向のエッジ点を用いて、当該ソーベル画像におけるドライバーの顔の幅を算出する処理を行う。具体的には、メインマイコン111は、抽出された縦方向のエッジ点に対するヒストグラム(縦エッジヒストグラム)を生成し、顔の左右両端の長い輪郭を検出することによってドライバーの顔右端および顔左端を抽出する。そして、メインマイコン111は、抽出された顔右端の位置から顔左端の位置を減算した長さを、ドライバーの顔幅として算出する。また、メインマイコン111は、算出されたドライバーの顔の幅の情報をサブマイコン112に出力する。そして、メインマイコン111は、次のステップS303へ処理を進める。   In step S302, the main microcomputer 111 performs a process of calculating the width of the driver's face in the sobel image using the vertical edge points extracted from the sobel image in step S301. Specifically, the main microcomputer 111 generates a histogram (vertical edge histogram) for the extracted vertical edge points, and extracts the right edge and the left edge of the driver's face by detecting long contours at the left and right ends of the face. To do. Then, the main microcomputer 111 calculates the length obtained by subtracting the position of the left face of the face from the extracted position of the right face of the face as the face width of the driver. Also, the main microcomputer 111 outputs the calculated driver face width information to the sub-microcomputer 112. Then, the main microcomputer 111 proceeds to the next step S303.

ステップS303において、メインマイコン111は、上記ステップS302で顔の幅が算出できたか否かを判断する。そして、メインマイコン111は、顔幅が算出できた場合、次のステップS304に処理を進める。一方、撮像画像から縦方向のエッジ点が抽出できなかったり、ドライバーの顔右端および顔左端が抽出できなかったりした場合、メインマイコン111は、上記ステップS201に戻って処理を繰り返す。なお、カメラ100の撮像エリア内にドライバーの顔がない場合、すなわち撮像画像内にドライバーの顔全体が撮像されていない場合、メインマイコン111は、カメラ100の撮像倍率を制御し、ズームインまたはズームアウトしてドライバーを撮像するようにしてもよい。また、ドライバーが横を向いている場合、すなわちわき見運転をしている場合、ドライバーの顔幅が算出できないことがある。この場合、メインマイコン111は、予防安全ECU120に対して上記危険回避制御を指示してもかまわない。   In step S303, the main microcomputer 111 determines whether or not the face width can be calculated in step S302. Then, if the face width can be calculated, the main microcomputer 111 proceeds to the next step S304. On the other hand, if the vertical edge point cannot be extracted from the captured image, or if the driver's face right end and face left end cannot be extracted, the main microcomputer 111 returns to step S201 and repeats the process. When the driver's face is not in the imaging area of the camera 100, that is, when the entire driver's face is not captured in the captured image, the main microcomputer 111 controls the imaging magnification of the camera 100 to zoom in or zoom out. Then, the driver may be imaged. Further, when the driver is facing sideways, that is, when the driver is looking aside, the face width of the driver may not be calculated. In this case, the main microcomputer 111 may instruct the preventive safety ECU 120 to perform the danger avoidance control.

ステップS304において、メインマイコン111は、上記ステップS303で算出された顔の幅を用いて、撮像画像におけるドライバーの目、鼻、および口の位置(顔部品位置)を推定する。具体的な方法の一例として、メインマイコン111は、撮像画像の所定方向(例えば、横方向)にソーベルフィルタ処理を施す。そして、メインマイコン111は、横方向のソーベル画像を用いて顔部品を抽出した画像(白黒白エッジ画像)を作成して、顔部品(目、鼻、口)の位置を推定し、顔画像に対する左右対称性を検証する。そして、メインマイコン111は、ステップS305へ処理を進める。   In step S304, the main microcomputer 111 estimates the positions (face part positions) of the driver's eyes, nose, and mouth in the captured image using the face width calculated in step S303. As an example of a specific method, the main microcomputer 111 performs Sobel filter processing in a predetermined direction (for example, the horizontal direction) of the captured image. Then, the main microcomputer 111 creates an image (monochrome white edge image) from which facial parts are extracted using a horizontal Sobel image, estimates the position of the facial parts (eyes, nose, mouth), and Verify the symmetry. Then, the main microcomputer 111 advances the process to step S305.

ステップS305において、メインマイコン111は、推定された目、鼻、口の位置に基づいて顔画像に対する顔の中心線を求める。そして、ステップS306において、メインマイコン111は、顔の中心線が求まったか否かを判断する。そして、メインマイコン111は、顔の中心線が求まった場合、次のステップS307へ処理を進める。一方、メインマイコン111は、顔の中心線が求まらなかった場合、上記ステップS201に戻って処理を繰り返す。   In step S305, the main microcomputer 111 obtains the face centerline for the face image based on the estimated eye, nose, and mouth positions. In step S306, the main microcomputer 111 determines whether or not the center line of the face has been obtained. When the main microcomputer 111 finds the center line of the face, the main microcomputer 111 proceeds to the next step S307. On the other hand, when the center line of the face is not obtained, the main microcomputer 111 returns to step S201 and repeats the process.

ステップS307において、メインマイコン111は、上記ステップで検出された顔左端、顔右端、および顔の中心線を用いて、顔の左右比率を算出し、当該左右比率を角度に換算してドライバーの顔向き角度を算出する。そして、メインマイコン111は、当該フローチャートによる処理を終了する。   In step S307, the main microcomputer 111 calculates the left / right ratio of the face using the left end of the face, the right end of the face and the center line of the face detected in the above step, and converts the left / right ratio into an angle to convert the driver's face. Calculate the orientation angle. Then, the main microcomputer 111 ends the process according to the flowchart.

図2に戻り、上記ステップS202における顔向き算出処理の後、ステップS203において、メインマイコン111は、ドライバーの顔の向きが正面か否を判断する。そして、ドライバーの顔向きが正面である場合、ステップS205へ処理を進める。一方、ドライバーの顔向きが正面でない場合、ステップS204へ処理を進める。なお、ドライバーの顔向きが正面でない場合の一例として、ドライバーがわき見やよそ見をしている場合がある。   Returning to FIG. 2, after the face orientation calculation process in step S202, in step S203, the main microcomputer 111 determines whether or not the driver's face orientation is front. If the driver's face is front, the process proceeds to step S205. On the other hand, if the driver's face is not in front, the process proceeds to step S204. An example of the case where the driver's face is not in front is when the driver is looking aside or looking away.

このように、上記ステップS201〜ステップS203の処理によって、メインマイコン111は、カメラ100が撮像した画像から、ドライバーのわき見やよそ見を判断することができる。なお、上記ステップS303でドライバーの顔の幅が算出された場合、メインマイコン111は、現時点のカメラ100のズーム率等の撮像条件情報をメモリに保存してもよい。この撮像条件情報に応じてカメラ100が撮像すれば、処理が再開された状況において、処理に適した撮像画像を即時に取得することができる。   As described above, the main microcomputer 111 can determine whether the driver is looking aside or looking away from the image captured by the camera 100 through the processing in steps S201 to S203. When the driver's face width is calculated in step S303, the main microcomputer 111 may store imaging condition information such as the current zoom ratio of the camera 100 in a memory. If the camera 100 captures images according to the imaging condition information, a captured image suitable for the processing can be acquired immediately in a situation where the processing is resumed.

ステップS204において、メインマイコン111は、予防安全ECU120に対して上記危険回避制御を実行するように指示する。そして、メインマイコン111は、次のステップS205に処理を進める。   In step S204, the main microcomputer 111 instructs the preventive safety ECU 120 to execute the danger avoidance control. Then, the main microcomputer 111 proceeds to the next step S205.

ステップS205において、サブマイコン112は、ドライバーの目の瞬きの回数を算出する。以下、図4および図5を用いて、サブマイコン112が行う、目の瞬きの回数を算出する方法について説明する。なお、図4は、図2のステップS205における瞬き回数を算出する動作の一例を示す前半部分のフローチャートである。図5は、図2のステップS205における瞬き回数を算出する動作の一例を示す後半部分のフローチャートである。   In step S205, the sub-microcomputer 112 calculates the number of blinks of the driver's eyes. Hereinafter, a method for calculating the number of blinks performed by the sub-microcomputer 112 will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart of the first half showing an example of the operation for calculating the number of blinks in step S205 of FIG. FIG. 5 is a second half flowchart illustrating an example of the operation for calculating the number of blinks in step S205 of FIG.

図4のステップS401において、サブマイコン112は、上記ステップS201で取得した撮像画像からドライバーの鼻孔を探す。例えば、サブマイコン112は、メインマイコン111から取得した顔幅を示すデータと、顔画像パターン格納部113に格納されている顔画像パターンとを用いて、上記撮像画像において鼻孔が存在していると予想される範囲、すなわち鼻孔検索範囲を設定する。そして、サブマイコン112は、設定した鼻孔検索範囲内の撮像画像から輝度が相対的に低い画素を検出し、それら低輝度画素群の円らしさを算出する。そして、サブマイコン112は、円らしさが最も高い(円に近い)点群をドライバーの鼻孔とし、ステップS402へ処理を進める。   In step S401 of FIG. 4, the sub-microcomputer 112 searches for the driver's nostril from the captured image acquired in step S201. For example, when the sub-microcomputer 112 uses the data indicating the face width acquired from the main microcomputer 111 and the face image pattern stored in the face image pattern storage unit 113, the nostril is present in the captured image. An expected range, that is, a nostril search range is set. Then, the sub-microcomputer 112 detects pixels with relatively low luminance from the captured image within the set nostril search range, and calculates the circularity of the low-luminance pixel group. Then, the sub-microcomputer 112 sets the point group having the highest circularity (close to a circle) as the driver's nostril, and proceeds to step S402.

ステップS402において、サブマイコン112は、鼻孔を探すことができたか否かを判断する。サブマイコン112は、鼻孔を探すことができた場合、次のステップS405に処理を進める。一方、サブマイコン112は、鼻孔を探すことができなかった場合、ステップS403へ処理を進める。   In step S402, the sub-microcomputer 112 determines whether or not the nostril has been found. If the sub-microcomputer 112 can find the nostril, it proceeds to the next step S405. On the other hand, if the sub-microcomputer 112 cannot find the nostril, it proceeds to step S403.

ステップS403において、サブマイコン112は、上記ステップS201で取得した撮像画像からドライバーの口を探し、次のステップS404へ処理を進める。例えば、サブマイコン112は、メインマイコン111から取得した顔幅を示すデータと、顔画像パターン格納部113に格納されている顔画像パターンとを用いて、上記撮像画像において口が存在していると予想される範囲、すなわち口検索範囲を設定する。次に、サブマイコン112は、設定した口検索範囲内の撮像画像に対してエッジラインを抽出する画像処理を実施する。そして、サブマイコン112は、顔画像パターン格納部113に記憶されている口のテンプレート画像を用いて、エッジラインが抽出された画像に対するパターンマッチング処理を行って一致度を算出する。なお、上記ステップS403では、ニューラルネットワークやSVM(サポートベクターマシン)等の識別器を用いてパターン認識すればよく、後述するパターンマッチング処理も同様である。   In step S403, the sub-microcomputer 112 searches for the driver's mouth from the captured image acquired in step S201, and proceeds to the next step S404. For example, if the sub-microcomputer 112 uses the data indicating the face width acquired from the main microcomputer 111 and the face image pattern stored in the face image pattern storage unit 113, the mouth is present in the captured image. An expected range, that is, a mouth search range is set. Next, the sub-microcomputer 112 performs image processing for extracting an edge line for the captured image within the set mouth search range. Then, the sub-microcomputer 112 uses the mouth template image stored in the face image pattern storage unit 113 to perform pattern matching processing on the image from which the edge line has been extracted to calculate the degree of coincidence. In step S403, pattern recognition may be performed using a classifier such as a neural network or SVM (support vector machine), and the pattern matching process described later is the same.

ステップS404において、サブマイコン112は、口を探すことができたか否かを判断する。サブマイコン112は、口を探すことができた(例えば、口のテンプレート画像との一致度が予め定められた閾値以上)場合、ステップS405へ処理を進める。一方、サブマイコン112は、口を探すことができなかった場合、上記ステップS201に戻って処理を繰り返す。なお、上記ステップS201に戻って処理を実行する際、メインマイコン111は、カメラ100をズームインまたはズームアウトしてドライバーを撮像してもよい。   In step S404, the sub-microcomputer 112 determines whether or not the mouth has been searched. If the sub-microcomputer 112 can search for a mouth (for example, if the degree of coincidence with the template image of the mouth is equal to or greater than a predetermined threshold), the process proceeds to step S405. On the other hand, if the sub-microcomputer 112 cannot find the mouth, it returns to step S201 and repeats the process. When returning to step S201 and executing the processing, the main microcomputer 111 may zoom in or out of the camera 100 to image the driver.

ステップS405において、サブマイコン112は、上記ステップS201で取得した撮像画像からドライバーの目を特定して、ステップS406へ処理を進める。例えば、上記ステップS401またはステップS403で検出したドライバーの鼻孔または口の位置を基準として、上記撮像画像における目の位置を推定する。そして、サブマイコン112は、推定された目の位置における撮像画像に対して、エッジラインを抽出する画像処理を実施する。さらに、サブマイコン112は、顔画像パターン格納部113に記憶されている目のテンプレート画像を用いて、エッジラインが抽出された画像に対するパターンマッチング処理を行って一致度を算出する。   In step S405, the sub-microcomputer 112 identifies the driver's eyes from the captured image acquired in step S201, and proceeds to step S406. For example, the position of the eye in the captured image is estimated based on the position of the driver's nostril or mouth detected in step S401 or step S403. Then, the sub-microcomputer 112 performs image processing for extracting an edge line on the captured image at the estimated eye position. Further, the sub-microcomputer 112 uses the eye template image stored in the face image pattern storage unit 113 to perform a pattern matching process on the image from which the edge line has been extracted to calculate the degree of coincidence.

ステップS406において、サブマイコン112は、目を特定できたか否かを判断する。そして、サブマイコン112は、目を特定ができた(例えば、目のテンプレート画像との一致度が予め定められた閾値以上)場合、次のステップS407に処理を進める。一方、サブマイコン112は、目が特定できなかった場合、上記ステップS201に戻って処理を繰り返す。なお、上記ステップS201に戻って処理を実行する際、メインマイコン111は、カメラ100をズームインまたはズームアウトしてドライバーを撮像してもよい。例えば、ドライバーがサングラス等を装着している場合、撮像画像に対して目のエッジラインを抽出することができないため、目を特定することができない。このような場合、サブマイコン112は、車両に設けられたスピーカー等を介して、「サングラスを外してください」や「処理ができません」等、症状推定処理が不可能である旨を示す音声を発音させて、ドライバーに注意を促してもかまわない。   In step S406, the sub-microcomputer 112 determines whether eyes have been identified. Then, if the sub-microcomputer 112 has identified the eye (for example, the degree of coincidence with the template image of the eye is equal to or greater than a predetermined threshold value), the sub-microcomputer 112 proceeds to the next step S407. On the other hand, if the eye cannot be identified, the sub-microcomputer 112 returns to step S201 and repeats the process. When returning to step S201 and executing the processing, the main microcomputer 111 may zoom in or out of the camera 100 to image the driver. For example, when the driver wears sunglasses or the like, the eye edge line cannot be extracted from the captured image, and thus the eye cannot be specified. In such a case, the sub-microcomputer 112 generates a sound indicating that the symptom estimation process is impossible, such as “please remove sunglasses” or “cannot process” via a speaker or the like provided on the vehicle. You can let the driver be alerted.

ステップS407において、サブマイコン112は、ドライバーの目における黒目部分を検出し、処理をステップS408に進める。一般的に、黒目部分(虹彩と瞳孔)の形状は、撮像画像上においては、顔向きや瞼で遮られたりして円形にはならず、むしろ楕円形状になることが多い。ここで、サブマイコン112は、ステップS405において、撮像画像における目を特定しており、目の位置を特定している。上記ステップS407においては、特定された目の位置に対してサイズが異なる複数の楕円フィルタを用いる。そして、特定された目の領域に対して楕円フィルタを適用し、当該楕円フィルタの外側領域および内側領域に対する輝度をそれぞれ求める。このとき、外側領域の輝度と内側領域の輝度との間に輝度の差が生じれば、楕円フィルタの内側範囲を黒目とする。なお、黒目を検出する方法は、上述した例に限られるものではなく、目の黒目部分と白目部分とを認識できるような画像処理であれば、他の処理を用いてもかまわない。   In step S407, the sub-microcomputer 112 detects a black eye portion in the driver's eyes, and the process proceeds to step S408. In general, the shape of the black eye part (iris and pupil) is often not elliptical on the captured image because it is obstructed by the face direction or eyelids, but rather is elliptical. Here, in step S405, the sub-microcomputer 112 specifies the eye in the captured image and specifies the position of the eye. In step S407, a plurality of elliptic filters having different sizes with respect to the specified eye position are used. Then, an elliptic filter is applied to the identified eye region, and luminances for the outer region and the inner region of the elliptic filter are obtained. At this time, if there is a difference in luminance between the luminance of the outer region and the luminance of the inner region, the inner range of the elliptic filter is set to black eyes. The method for detecting the black eye is not limited to the above-described example, and other processing may be used as long as the image processing can recognize the black eye portion and the white eye portion of the eye.

図5に進み、ステップS408において、サブマイコン112は、黒目が検出できたか否かを判断する。そして、サブマイコン112は、黒目が検出できた場合、ステップS416に処理を進める。一方、サブマイコン112は、黒目が検出できなかった場合、ステップS409へ処理を進める。   Proceeding to FIG. 5, in step S <b> 408, the sub-microcomputer 112 determines whether or not a black eye has been detected. If the sub-microcomputer 112 detects a black eye, the sub-microcomputer 112 proceeds to step S416. On the other hand, if the sub-microcomputer 112 cannot detect the black eye, the process proceeds to step S409.

ステップS409において、サブマイコン112は開眼フラグがONになっているのか否かを判断する。ここで、後述により明らかとなるが、開眼フラグは、ドライバーの目が開眼している状態でONに設定され、ドライバーの目が閉眼している状態でOFFに設定されて、メモリに記憶される。サブマイコン112は、開眼フラグがONの場合、ステップS410に処理を進める。一方、サブマイコン112は、開眼フラグがOFFの場合、ステップS412に処理を進める。   In step S409, the sub-microcomputer 112 determines whether or not the eye opening flag is ON. Here, as will be apparent later, the eye opening flag is set to ON when the driver's eyes are open, and is set to OFF when the driver's eyes are closed, and stored in the memory. . If the eye opening flag is ON, the sub-microcomputer 112 advances the process to step S410. On the other hand, when the eye opening flag is OFF, the sub-microcomputer 112 advances the process to step S412.

ステップS410において、サブマイコン112は、瞬きを検出して、瞬きの回数を算出し、ステップS411に処理を進める。ここで、瞬きの回数とは、ドライバーの目が閉眼から開眼になり再び閉眼するまでを1サイクルとし、単位時間(例えば、1秒間)に当該サイクルが何回行われるかを示すものである。   In step S410, the sub-microcomputer 112 detects blinks, calculates the number of blinks, and proceeds to step S411. Here, the number of blinks indicates how many times the cycle is performed per unit time (for example, 1 second), from the time when the driver's eyes are opened from the closed eyes to the closed eyes.

ステップS411において、サブマイコン112は、開眼フラグをOFFに設定してメモリの開眼フラグを更新し、ステップS412へ処理を進める。   In step S411, the sub-microcomputer 112 sets the eye opening flag to OFF, updates the eye opening flag in the memory, and advances the process to step S412.

ステップS412において、サブマイコン112は、閉眼時間を加算する処理を行い、ステップS413に処理を進める。ここで、閉眼時間は、ドライバーが閉眼してから開眼するまでの時間であり、メモリに現時点までの閉眼時間が記憶される。上記ステップS412においては、現時点に記憶されている閉眼時間に処理周期を加算して新たな閉眼時間を算出し、新たな閉眼時間を用いて記憶されている閉眼時間を更新する。なお、後述により明らかとなるが、メモリに記憶されている閉眼時間は、ドライバーが開眼した状態で0に初期化される。   In step S412, the sub-microcomputer 112 performs a process of adding the eye closing time, and the process proceeds to step S413. Here, the eye closing time is the time from when the driver closes the eye until the driver opens the eye, and the eye closing time up to the present time is stored in the memory. In step S412, a new eye closing time is calculated by adding the processing period to the eye closing time stored at the current time, and the stored eye closing time is updated using the new eye closing time. As will become clear later, the eye-closing time stored in the memory is initialized to 0 when the driver is open.

ステップS413において、サブマイコン112は、記憶されている閉眼時間が時間T1以上であるか否かを判断する。つまり、上記ステップS413では、ドライバーが目を閉じた状態にある時間が、時間T1以上の長さまで継続しているか否か、すなわち、時間T1以上の長さの閉眼時間となった瞬きか否かを判断する。そして、サブマイコン112は、閉眼時間が時間T1以上である場合、ステップS414に処理を進める。一方、サブマイコン112は、閉眼時間が時間T1未満である場合、当該フローチャートによる処理を終了する。   In step S413, the sub-microcomputer 112 determines whether or not the stored eye closure time is equal to or longer than the time T1. That is, in the above step S413, whether or not the time when the driver is in the state of closing the eyes continues to the length of time T1 or more, that is, whether or not the eye blinks for the duration of time T1 or more. Judging. Then, if the closed eye time is equal to or longer than time T1, the sub-microcomputer 112 advances the process to step S414. On the other hand, if the closed eye time is less than the time T1, the sub-microcomputer 112 ends the process according to the flowchart.

ステップS414において、サブマイコン112は、現時点の閉眼状態に対する閉眼時刻が記録済みか否かを判断する。サブマイコン112は、現時点の閉眼状態に対する閉眼時刻が記録されていない場合、現在時刻を用いて現時点の閉眼状態に対する閉眼時刻を時系列順にメモリに記述し(ステップS415)、当該フローチャートによる処理を終了する。一方、サブマイコン112は、現時点の閉眼状態に対する閉眼時刻が既に記録されている場合、当該フローチャートによる処理を終了する。   In step S414, the sub-microcomputer 112 determines whether or not the closed eye time for the current closed eye state has been recorded. If the closing time for the current closed eye state is not recorded, the sub-microcomputer 112 describes the closed eye time for the current closed eye state in time series in the memory using the current time (step S415), and ends the processing according to the flowchart. To do. On the other hand, if the closed eye time for the current closed eye state has already been recorded, the sub-microcomputer 112 ends the process according to the flowchart.

また、上記ステップS408において黒目を検出できた場合、サブマイコン112は、ステップS416において開眼フラグをONに設定してメモリの開眼フラグを更新する。次に、ステップS417において、サブマイコン112は、メモリに記録されている閉眼時間を0に初期化し、当該フローチャートによる処理を終了する。   If the black eye can be detected in step S408, the sub-microcomputer 112 sets the eye opening flag to ON in step S416 and updates the eye opening flag in the memory. Next, in step S417, the sub-microcomputer 112 initializes the eye closing time recorded in the memory to 0, and ends the processing according to the flowchart.

このように、ステップS401〜ステップS417の処理により、サブマイコン112は、ドライバーの目の瞬きの回数を算出することができるだけでなく、ドライバーの目の閉眼状態が時間T1以上の長さまで継続した場合の閉眼時刻を記録することができる。   As described above, the sub-microcomputer 112 not only can calculate the number of blinks of the driver's eyes by the processing of step S401 to step S417, but also when the closed eye state of the driver's eyes continues for a length of time T1 or more. Can be recorded.

図2に戻り、上記ステップS205の瞬きの回数を算出する処理の後、ステップS206において、サブマイコン112は、ドライバーの目が充血しているか否かを判断する。以下、図6を参照して、目の充血の有無を判断する動作の一例について説明する。なお、図6は、図2に示すステップS206における目の充血の有無を判断する処理の一例を示すフローチャートである。   Returning to FIG. 2, after the process of calculating the number of blinks in step S205, in step S206, the sub-microcomputer 112 determines whether or not the driver's eyes are congested. Hereinafter, with reference to FIG. 6, an example of an operation for determining the presence or absence of eye redness will be described. FIG. 6 is a flowchart illustrating an example of processing for determining whether or not the eyes are red in step S206 illustrated in FIG.

図6のステップS501において、サブマイコン112は、上記ステップS201で取得した撮像画像上における白目部分を検出し、次のステップS502に処理を進める。例えば、サブマイコン112は、上記ステップS407で検出した黒目部分周辺の一定領域における撮像画像に対して、輝度を検出する。そして、サブマイコン112は、白目部分の輝度に対応する輝度が黒目周辺の上記一定領域で得られたとき、当該一定領域を白目部分として特定する。なお、上記ステップS501において、白目部分を特定する処理は、上述した例に限られるものではなく、白目部分を特定できるような画像処理であれば他の画像処理を用いてもかまわない。   In step S501 in FIG. 6, the sub-microcomputer 112 detects a white-eye portion on the captured image acquired in step S201, and proceeds to the next step S502. For example, the sub-microcomputer 112 detects the luminance of the captured image in a certain area around the black eye part detected in step S407. Then, when the luminance corresponding to the luminance of the white eye portion is obtained in the certain region around the black eye, the sub-microcomputer 112 identifies the certain region as the white eye portion. Note that the processing for specifying the white-eye portion in step S501 is not limited to the above-described example, and other image processing may be used as long as the image processing can specify the white-eye portion.

ステップS502において、サブマイコン112は、上記ステップS501で特定した白目部分について、所定方向(例えば、縦方向)にソーベルフィルタ処理等を行って当該白目部分からエッジ点を抽出する。そして、サブマイコン112は、次のステップS503に処理を進める。   In step S502, the sub-microcomputer 112 extracts the edge point from the white eye portion by performing a Sobel filter process or the like in a predetermined direction (for example, the vertical direction) for the white eye portion specified in step S501. Then, the sub-microcomputer 112 proceeds to the next step S503.

ステップS503において、サブマイコン112は、上記ステップS502で抽出したエッジ点について線分検出を行う。一例として、サブマイコン112は、上記ステップS502で抽出したエッジ点のうち、高輝度から低輝度に変化するエッジ点に対して曲線のハフ変換による処理を行う。これにより、当該エッジ点を通る線分を検出することができる。   In step S503, the sub-microcomputer 112 performs line segment detection for the edge points extracted in step S502. As an example, the sub-microcomputer 112 performs a process based on a curve Hough transform on an edge point that changes from high luminance to low luminance among the edge points extracted in step S502. Thereby, a line segment passing through the edge point can be detected.

ステップS504において、サブマイコン112は、上記ステップS503で検出した線分の長さの合計が閾値L以上であるか否かを判断する。そして、サブマイコン112は、線分の長さの合計が閾値L以上である場合、ステップS505に処理を進める。一方、サブマイコン112は、線分の長さの合計が閾値L未満である場合、ステップS506に処理を進める。   In step S504, the sub-microcomputer 112 determines whether or not the total length of the line segments detected in step S503 is equal to or greater than a threshold value L. Then, if the total length of the line segments is equal to or greater than the threshold value L, the sub-microcomputer 112 advances the process to step S505. On the other hand, if the total length of the line segments is less than the threshold value L, the sub-microcomputer 112 advances the process to step S506.

ステップS505において、サブマイコン112は、ドライバーの目が充血していると判断し、判断結果を予防安全ECU120に出力して、当該フローチャートによる処理を終了する。一方、ステップS506において、サブマイコン112は、ドライバーの目が充血していないと判断し、判断結果を予防安全ECU120に出力して、当該フローチャートによる処理を終了する。なお、サブマイコン112は、上記ステップS505またはステップS506で行われた判断結果をメモリに記憶してもよい。   In step S505, the sub-microcomputer 112 determines that the driver's eyes are congested, outputs the determination result to the preventive safety ECU 120, and ends the processing according to the flowchart. On the other hand, in step S506, the sub-microcomputer 112 determines that the driver's eyes are not congested, outputs the determination result to the preventive safety ECU 120, and ends the processing according to the flowchart. The sub-microcomputer 112 may store the determination result made in step S505 or step S506 in a memory.

このように、ステップS501〜ステップS506の処理により、サブマイコン112は、ドライバーの目が充血しているか否かを判断することができる。   As described above, the sub-microcomputer 112 can determine whether or not the driver's eyes are congested by the processing in steps S501 to S506.

図2に戻り、上記ステップS206における充血有無の判断の後、ステップS207において、サブマイコン112は、ドライバーの目における涙の有無を判断する。以下、図7を参照して、目における涙の有無を判断する処理の一例について説明する。なお、図7は、図2に示すステップS207における目の涙の有無を判断する処理の一例を示すフローチャートである。ここで、図7で示す処理で判断する涙とは、ドライバーの目の角膜、結膜、鼻粘膜などに対する刺激などによって、ドライバーの目から多量に分泌される分泌液のことである。   Returning to FIG. 2, after determining the presence or absence of hyperemia in step S206, in step S207, the sub-microcomputer 112 determines the presence or absence of tears in the eyes of the driver. Hereinafter, an example of processing for determining the presence or absence of tears in the eyes will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of processing for determining the presence or absence of eye tears in step S207 illustrated in FIG. Here, the tear determined in the process shown in FIG. 7 is a secreted fluid that is secreted in a large amount from the eyes of the driver due to stimulation of the cornea, conjunctiva, nasal mucosa, and the like of the driver's eyes.

図7のステップS601において、サブマイコン112は、上記ステップS501で検出された白目部分に対して、当該白目部分の左右の端が目頭または目尻の位置であると推定し、次のステップS602へ処理を進める。このとき、顔画像パターン格納部113から目のテンプレート画像を取得し、当該テンプレート画像を用いて白目部分の領域から目頭または目尻の位置を推定してもよい。   In step S601 of FIG. 7, the sub-microcomputer 112 estimates that the left and right ends of the white eye portion are the positions of the eyes or corners of the white eye portion detected in step S501, and the process proceeds to the next step S602. To proceed. At this time, a template image of the eye may be acquired from the face image pattern storage unit 113, and the position of the top of the eye or the corner of the eye may be estimated from the region of the white eye using the template image.

ステップS602において、サブマイコン112は、上記ステップS601で推定した目頭または目尻の位置周辺に閾値T以上の輝度差がある領域が存在するか否かを判断する。そして、サブマイコン112は、閾値T以上の輝度差がある領域が存在する場合、次のステップS603へ処理を進める。一方、サブマイコン112は、閾値T以上の輝度差がある領域が存在しない場合、次のステップS604へ処理を進める。例えば、上記ステップS602においては、上記ステップS602で推定された目尻または目頭の位置を基準とした周辺領域内(例えば、目尻または目頭の位置からの距離がA画素以内の領域)の輝度を検出する。そして、上記周辺領域内において、周辺に比べて閾値T以上輝度が高く、かつ、面積がB画素以上の領域が存在するか否かを判断する。これは、ドライバーの目の角膜、結膜、鼻粘膜などに対する刺激などによって、ドライバーの目から多量に分泌された涙が目頭および目尻周辺の皮膚に付着し、周辺の皮膚と比べて付着領域の輝度が高くなることを利用して、涙の有無を判定している。   In step S602, the sub-microcomputer 112 determines whether or not there is a region having a luminance difference equal to or larger than the threshold T around the position of the eye or the corner of the eye estimated in step S601. Then, if there is a region having a luminance difference equal to or greater than the threshold value T, the sub-microcomputer 112 proceeds to the next step S603. On the other hand, if there is no region having a luminance difference equal to or greater than the threshold T, the sub-microcomputer 112 proceeds to the next step S604. For example, in step S602, the luminance in the peripheral area (for example, an area within a pixel within a distance from the position of the corner of the eye or the eye) is detected based on the position of the eye corner or the eye estimated in step S602. . Then, in the peripheral region, it is determined whether or not there is a region whose luminance is higher than the threshold value T by the threshold T and whose area is B pixels or more. This is because the tears secreted from the eyes of the driver due to stimulation to the cornea, conjunctiva, nasal mucosa, etc. of the driver's eyes adhere to the skin around the eyes and the corners of the eyes, and the brightness of the adhesion area compared to the surrounding skin. The presence or absence of tears is determined by taking advantage of the increase in

ステップS603において、サブマイコン112は、ドライバーの涙が検出されたと判断し、判断結果を予防安全ECU120に出力して、当該フローチャートによる処理を終了する。一方、ステップS604において、サブマイコン112は、ドライバーの涙が検出されなかったと判断し、判断結果を予防安全ECU120に出力して、当該フローチャートによる処理を終了する。なお、上記ステップS603またはステップS604でおこなわれた判断結果をメモリに保存してもよい。   In step S603, the sub-microcomputer 112 determines that the driver's tears have been detected, outputs the determination result to the preventive safety ECU 120, and ends the process according to the flowchart. On the other hand, in step S604, the sub-microcomputer 112 determines that no driver's tears have been detected, outputs the determination result to the preventive safety ECU 120, and ends the process according to the flowchart. Note that the determination result made in step S603 or step S604 may be stored in a memory.

このように、ステップS601〜ステップS604の処理により、サブマイコン112は、ドライバーの涙の有無を判断することができる。   As described above, the sub-microcomputer 112 can determine the presence or absence of the driver's tears by the processing from step S601 to step S604.

図2に戻り、上記ステップS207における涙の有無を判断する処理の後、ステップS208において、予防安全ECU120は、危険な運転状態に繋がる前段階となり得る症状がドライバーに生じているか否かを推定する。具体的には、上述したように、サブマイコン112は、ドライバーの目に関する状態(ドライバーの目の瞬きの回数や閉眼時刻、目の充血の有無、涙の有無等)を取得した。これらの状態を示す情報を用いて、予防安全ECU120は、ドライバーに上記症状が生じているかを推定する。以下、図8を用いて、上記症状が生じていることを推定するための処理の一例を説明する。なお、図8は、ドライバーに上記症状が生じているか否かを推定する処理の一例を示すフローチャートである。   Returning to FIG. 2, after the process of determining the presence or absence of tears in step S <b> 207, in step S <b> 208, the preventive safety ECU 120 estimates whether or not a symptom that may lead to a dangerous driving state has occurred in the driver. . Specifically, as described above, the sub-microcomputer 112 acquires the state relating to the driver's eyes (number of blinks of the driver's eyes, eye closure time, presence / absence of eye redness, presence / absence of tears, etc.). Using information indicating these states, the preventive safety ECU 120 estimates whether or not the above-described symptoms occur in the driver. Hereinafter, an example of processing for estimating the occurrence of the above symptoms will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of processing for estimating whether or not the above-described symptom is occurring in the driver.

図8のステップS701において、予防安全ECU120は、サブマイコン112からドライバーの目の瞬きの回数を示すデータを取得し、次のステップS702に処理を進める。なお、予防安全ECU120は、サブマイコン112内に備わったメモリに目の瞬きの回数を示すデータが記憶されている場合、当該メモリから目の瞬きの回数を示すデータを取得する。   In step S701 in FIG. 8, the preventive safety ECU 120 acquires data indicating the number of blinks of the driver's eyes from the sub-microcomputer 112, and proceeds to the next step S702. When the data indicating the number of blinks of eyes is stored in the memory provided in the sub-microcomputer 112, the preventive safety ECU 120 acquires the data indicating the number of blinks of eyes from the memory.

ステップS702において、予防安全ECU120は、取得した目の瞬きの回数が閾値M1以上であるか否かを判断する。そして、予防安全ECU120は、瞬きの回数が閾値M1以上である場合、ステップS706に処理を進める。一方、予防安全ECU120は、瞬きの回数が閾値M1未満である場合、ステップS703に処理を進める。ここで、閾値M1は、普段人間が無意識に行っている、いわゆる周期性瞬きの回数の一般的な値の上限以上に設定される。一般的に、車内のホコリや植物の花粉等に目の粘膜が過剰に反応(アレルギー反応)した場合、それに伴い瞬きの回数は多くなる。また、ドライバーの目に疲労が生じた場合も瞬きの回数が多くなる。つまり、瞬きの回数が閾値M1を超える場合は、アレルギー疾患や目の疲労などがドライバーに生じていることが推定される。なお、閾値M1は、評価実験(一例として様々なタイプのアレルギー疾患者や目の疲労有無による瞬きの回数の層別)によって、具体的な数値を決定すればよい。   In step S702, the preventive safety ECU 120 determines whether or not the acquired number of eye blinks is equal to or greater than the threshold value M1. Then, when the number of blinks is equal to or greater than the threshold value M1, the preventive safety ECU 120 advances the process to step S706. On the other hand, when the number of blinks is less than the threshold value M1, the preventive safety ECU 120 advances the process to step S703. Here, the threshold value M1 is set to be equal to or higher than the upper limit of a general value of the number of so-called periodic blinks that humans usually perform unconsciously. Generally, when the eye mucosa reacts excessively (allergic reaction) with dust in the vehicle or pollen of a plant, the number of blinks increases accordingly. Also, when the driver's eyes become tired, the number of blinks increases. That is, when the number of blinks exceeds the threshold value M1, it is estimated that the driver has allergic disease, eye fatigue, or the like. The threshold value M1 may be determined by a specific numerical value based on an evaluation experiment (for example, stratification of the number of blinks depending on various types of allergic patients or eye fatigue).

ステップS703において、予防安全ECU120は、時間T1以上の長さの閉眼時間となった瞬きが時間T2以内に1回以上あるか否かを判断する。そして、予防安全ECU120は、上記瞬きが1回以上ある場合、ステップS704に処理を進める。一方、予防安全ECU120は、上記瞬きがない場合、ステップS705に処理を進める。   In step S703, the preventive safety ECU 120 determines whether or not there is one or more blinks within the time T2 that the eye closure time is longer than the time T1. Then, the preventive safety ECU 120 advances the process to step S704 when the blink has occurred once or more. On the other hand, when there is no blink, the preventive safety ECU 120 advances the process to step S705.

ここで、ステップS703の具体的な処理方法の第1の例を説明する。予防安全ECU120は、サブマイコン112が上記ステップS415で記録された閉眼時刻を参照する。そして、予防安全ECU120は、ステップS415で記録された最新の閉眼時刻から上記ステップS703の処理を実行する現在時刻までの時間を算出し、当該算出された時間が時間T2以下であるか否かを判断する(判定条件A)。また、予防安全ECU120は、上記ステップS415で記録された最新の閉眼時刻と当該最新の閉眼時刻の直前に記録された閉眼時刻との時間差が、時間T2以下である否かを判断する(判定条件B)。そして、予防安全ECU120は、記録されている閉眼時刻が判定条件Aおよび判定条件Bを共に満たしている場合、上記瞬きが1回以上あると判断する。例えば、上記瞬きが生じる原因の一例として、上まぶたが下がり薄目状態のもうろうとした状態、すなわち疲労状態などがある。なお、時間T2は、評価実験(一例として、被験者の脳波や心拍数から覚醒レベルを評価し、その時点において、瞬きの回数と覚醒レベルとを関連づける)によって、具体的な数値を決定すればよい。   Here, a first example of a specific processing method in step S703 will be described. The preventive safety ECU 120 refers to the closed eye time recorded in step S415 by the sub-microcomputer 112. Then, the preventive safety ECU 120 calculates the time from the latest closed eye time recorded in step S415 to the current time for executing the process of step S703, and determines whether or not the calculated time is equal to or less than time T2. Judgment (judgment condition A). Further, the preventive safety ECU 120 determines whether or not the time difference between the latest eye closing time recorded in step S415 and the eye closing time recorded immediately before the latest eye closing time is equal to or less than the time T2 (determination condition). B). Then, the preventive safety ECU 120 determines that the blink has occurred once or more when the recorded closed eye time satisfies both the determination condition A and the determination condition B. For example, as an example of the cause of the blink, there is a state in which the upper eyelid is lowered and a light state is about to be lost, that is, a fatigue state. The time T2 may be determined by a specific numerical value by an evaluation experiment (for example, the wakefulness level is evaluated from the subject's brain wave or heart rate, and the number of blinks and the wakefulness level are associated at that time). .

また、ステップS703の具体的な処理方法の第2の例を説明する。ステップS703において、予防安全ECU120は、上記ステップS701で取得した瞬きの回数が閾値M2以下であるか否かを判断する。そして、予防安全ECU120は、瞬きの回数が閾値M2以下である場合、ステップS704に処理を進める。一方、予防安全ECU120は、瞬きの回数が閾値M2より多い場合、ステップS705へ処理を進める。ここで、閾値M2は、普段人間が無意識に行っている、いわゆる周期性瞬きの回数の一般的な値の下限以下に設定される。また、閾値M2は、上述した評価実験によって、上記疲労状態の有無が区別可能な具体的な数値に設定してもかまわない。例えば、ドライバーが上述した上まぶたが下がり薄目状態のもうろうとした疲労状態にある場合、ドライバーの瞬き回数が少なくなることがある。つまり、第2の例による判定によっても、上述したドライバーの疲労状態を判定することができる。なお、上記ステップS703を当該第2の例で行う場合、上記ステップS412〜ステップS415の処理を行わなくてもかまわない。   Also, a second example of the specific processing method in step S703 will be described. In step S703, the preventive safety ECU 120 determines whether or not the number of blinks acquired in step S701 is equal to or less than the threshold value M2. Then, when the number of blinks is equal to or less than the threshold value M2, the preventive safety ECU 120 advances the process to step S704. On the other hand, when the number of blinks is greater than the threshold value M2, the preventive safety ECU 120 advances the process to step S705. Here, the threshold value M2 is set to be equal to or less than the lower limit of a general value of the number of so-called periodic blinks, which is usually performed unconsciously by humans. Further, the threshold value M2 may be set to a specific numerical value capable of distinguishing the presence or absence of the fatigue state by the evaluation experiment described above. For example, when the driver is in the above-mentioned fatigue state in which the upper eyelid is lowered and is thin, the number of blinks of the driver may be reduced. That is, the fatigue state of the driver described above can also be determined by the determination according to the second example. In addition, when performing said step S703 in the said 2nd example, it does not need to perform the process of said step S412-step S415.

ステップS704において、予防安全ECU120は、全身または目の疲労状態を示す症状がドライバーに生じていると推定して、当該フローチャートによる処理を終了する。なお、ドライバーが疲労によって眠気を感じることもあるので、予防安全ECU120は、広義においては、ドライバーが眠気を感じていると推定してもよい。そして、上記ステップS704における推定結果は、予防安全ECU120内に備わったメモリに保存される。詳細は後述するが、予防安全ECU120は、この推定結果に基づいて上記危険運転予防制御を行う。一方、ステップS705において、予防安全ECU120は、ドライバーの状態は異常なしと推定して、当該フローチャートによる処理を終了する。   In step S704, the preventive safety ECU 120 estimates that a symptom indicating the fatigue state of the whole body or eyes has occurred in the driver, and ends the process according to the flowchart. Since the driver may feel sleepy due to fatigue, the preventive safety ECU 120 may estimate that the driver feels sleepy in a broad sense. Then, the estimation result in step S704 is stored in a memory provided in the preventive safety ECU 120. Although details will be described later, the preventive safety ECU 120 performs the dangerous driving preventive control based on the estimation result. On the other hand, in step S705, the preventive safety ECU 120 estimates that the driver's state is normal, and ends the process according to the flowchart.

なお、ステップS704の処理において、予防安全ECU120は、疲労状態を示す症状がドライバーに生じている、若しくはドライバーは眠気を感じていると推定したが、以下のようにすれば、疲労状態と眠気とを区別することも可能である。例えば、ドライバーが眠気を感じたら、覚醒しようとして意図的に瞬きをすることがあり、これによりドライバーの目の瞬きの回数が時折多くなることがある。ステップS704の処理において、意図的な瞬きがあるか否かをさらに判断すれば、ドライバーの疲労状態と眠気とを区別して推定することができる。   In the process of step S704, the preventive safety ECU 120 estimates that a symptom indicating a fatigue state has occurred in the driver or the driver feels drowsy. It is also possible to distinguish. For example, if the driver feels sleepy, the driver may intentionally blink in an attempt to awaken, which may occasionally increase the number of blinks in the driver's eyes. If it is further determined whether or not there is an intentional blink in the process of step S704, the driver's fatigue state and sleepiness can be distinguished and estimated.

ステップS702で瞬きの回数が閾値M1以上であると判断された場合、ステップS706において、予防安全ECU120は、サブマイコン112から目の充血の有無に関する情報を取得し、次のステップS707に処理を進める。なお、予防安全ECU120は、サブマイコン112のメモリに目の充血の有無に関する情報を示すデータが記憶されている場合、当該メモリから充血の有無に関する情報を示すデータを取得する。   When it is determined in step S702 that the number of blinks is equal to or greater than the threshold value M1, in step S706, the preventive safety ECU 120 acquires information regarding the presence or absence of eye redness from the sub-microcomputer 112, and proceeds to the next step S707. . In addition, when the data which shows the information regarding the presence or absence of the redness of eyes is memorize | stored in the memory of the submicrocomputer 112, the preventive safety ECU120 acquires the data which shows the information regarding the presence or absence of the redness from the said memory.

ステップS707において、予防安全ECU120は、ドライバーの目が充血しているか否かを判断する。目が充血していない場合、次のステップS708において、予防安全ECU120は、ドライバーの目の疲労と推定し、当該フローチャートによる処理を終了する。なお、上記ステップS708における推定結果は、予防安全ECU120内に備わったメモリに保存される。詳細は後述するが、予防安全ECU120は、この推定結果に基づいて上記危険運転予防制御を行う。一方、目が充血している場合、予防安全ECU120は、次のステップS709に処理を進める。なお、ステップS708において、予防安全ECU120は、ドライバーの目の疲労と推定したが、全身が疲労状態であると推定してもよい。   In step S707, the preventive safety ECU 120 determines whether or not the driver's eyes are congested. If the eyes are not congested, in the next step S708, the preventive safety ECU 120 estimates that the driver's eyes are fatigued, and ends the process according to the flowchart. Note that the estimation result in step S708 is stored in a memory provided in the preventive safety ECU 120. Although details will be described later, the preventive safety ECU 120 performs the dangerous driving preventive control based on the estimation result. On the other hand, if the eyes are congested, the preventive safety ECU 120 proceeds to the next step S709. In step S708, the preventive safety ECU 120 estimates that the driver's eyes are fatigued, but may estimate that the whole body is in a fatigued state.

ステップS709において、予防安全ECU120は、サブマイコン112から目の涙に関する情報を取得し、次のステップS710に処理を進める。なお、予防安全ECU120は、サブマイコン112のメモリに目の涙に関する情報を示すデータが記憶されている場合、当該メモリから涙に関する情報を示すデータを取得する。   In step S709, the preventive safety ECU 120 acquires information related to eye tears from the sub-microcomputer 112, and proceeds to the next step S710. In addition, when the data which shows the information regarding tears of eyes are memorize | stored in the memory of the submicrocomputer 112, the preventive safety ECU120 acquires the data which shows the information regarding tears from the said memory.

ステップS710において、予防安全ECU120は、ドライバーの目の涙の有無、すなわちドライバーの目から涙がこぼれた状態にあるか否かを判断する。そして、予防安全ECU120は、ドライバーの目から涙がこぼれた状態にある場合、次のステップS711において、ドライバーにアレルギー反応を起こしている症状が生じていると推定し、当該フローチャートによる処理を終了する。なお、上記ステップS711における推定結果は、予防安全ECU120内に備わったメモリに保存される。詳細は後述するが、予防安全ECU120は、この推定結果に基づいて上記危険運転予防制御を行う。一方、予防安全ECU120は、ドライバーの目から涙がこぼれた状態にない場合、上記ステップS708に処理を進める。   In step S710, the preventive safety ECU 120 determines whether or not there are tears in the eyes of the driver, that is, whether or not tears have spilled from the eyes of the driver. When the tear is spilled from the eyes of the driver, the preventive safety ECU 120 estimates that a symptom causing an allergic reaction has occurred in the next step S711, and ends the processing according to the flowchart. . Note that the estimation result in step S711 is stored in a memory provided in the preventive safety ECU 120. Although details will be described later, the preventive safety ECU 120 performs the dangerous driving preventive control based on the estimation result. On the other hand, when the tear is not spilled from the driver's eyes, the preventive safety ECU 120 advances the process to step S708.

図2に戻り、上記ステップS208における上記症状がドライバーに生じているか推定する処理の後、ステップS209において、予防安全ECU120は、上述した推定結果に基づいて危険運転予防制御が必要か否かを判断する。そして、予防安全ECU120は、危険運転予防制御が必要である場合(すなわち、ドライバーに何らかの症状が生じている場合)、ステップS210へ処理を進める。一方、予防安全ECU120は、危険運転予防制御が不要である場合(すなわち、ドライバーが異常なしの場合)、ステップS211へ処理を進める。   Returning to FIG. 2, after the process of estimating whether or not the symptom is occurring in the driver in step S <b> 208, in step S <b> 209, the preventive safety ECU 120 determines whether or not dangerous driving preventive control is necessary based on the estimation result described above. To do. Then, the preventive safety ECU 120 advances the process to step S210 when the dangerous driving preventive control is necessary (that is, when some symptom occurs in the driver). On the other hand, the preventive safety ECU 120 advances the process to step S211 when the dangerous driving preventive control is unnecessary (that is, when the driver is normal).

ステップS210において、予防安全ECU120は、上記車両に設置されている各種装置に対して危険運転予防制御を行う。以下、図9を用いて、予防安全ECU120が行う危険運転予防制御処理の一例を説明する。なお、図9は、危険運転予防制御処理の一例を示したフローチャートである。   In step S210, the preventive safety ECU 120 performs dangerous driving preventive control for various devices installed in the vehicle. Hereinafter, an example of the dangerous driving prevention control process performed by the preventive safety ECU 120 will be described with reference to FIG. FIG. 9 is a flowchart showing an example of the dangerous driving prevention control process.

図9のステップS801において、予防安全ECU120は、上記ステップS208で行った推定結果を参照して、アレルギー反応を起こしている症状がドライバーに生じているか否かを判断する。そして、予防安全ECU120は、ドライバーにアレルギー反応を起こしている症状が生じている場合、ステップS802へ処理を進める。一方、予防安全ECU120は、アレルギー反応を起こしている症状がドライバーに生じていない場合、ステップS803へ処理を進める。   In step S801 in FIG. 9, the preventive safety ECU 120 refers to the estimation result performed in step S208, and determines whether or not a symptom causing an allergic reaction has occurred in the driver. If the symptom causing an allergic reaction has occurred in the driver, the preventive safety ECU 120 advances the process to step S802. On the other hand, when the symptom causing the allergic reaction has not occurred in the driver, the preventive safety ECU 120 advances the process to step S803.

ステップS802において、予防安全ECU120は、パワーウィンドウ機構133や空気清浄機132の動作を制御し、ステップS803に処理を進める。例えば、アレルギー反応を起こしている症状がドライバーに生じている場合、車内のホコリや植物の花粉等がドライバーの目の粘膜に過剰に反応している場合がある。そこで、上記ステップS802では、予防安全ECU120がパワーウィンドウ機構133を動作制御して上記車両の窓を閉め、窓からホコリや花粉が車内に侵入することを防ぐ。また、上記ステップS802では、予防安全ECU120が空気清浄機132を作動させ、車内のホコリや植物の花粉等を除去する。   In step S802, the preventive safety ECU 120 controls the operation of the power window mechanism 133 and the air purifier 132, and proceeds to step S803. For example, when a driver has symptoms that cause an allergic reaction, dust in the vehicle, plant pollen, or the like may react excessively on the mucous membrane of the driver's eyes. Therefore, in step S802, the preventive safety ECU 120 controls the operation of the power window mechanism 133 to close the window of the vehicle, thereby preventing dust and pollen from entering the vehicle from the window. In step S802, the preventive safety ECU 120 operates the air cleaner 132 to remove dust in the vehicle, plant pollen, and the like.

ステップS803において、予防安全ECU120は、上記ステップS208で行った推定結果を参照して、ドライバーに疲労状態を示す症状が生じはじめたか否か、およびドライバーに疲労状態を示す症状が継続している時間が所定時間(例えば、10分間隔毎)に到達したか否かを判断する。そして、予防安全ECU120は、疲労状態を示す症状が生じはじめた場合、または疲労状態を示す症状が継続している時間が所定時間に到達した場合、ステップS804へ処理を進める。一方、予防安全ECU120は、ドライバーに疲労状態を示す症状が生じていない場合、またはドライバーに疲労状態を示す症状が継続している時間が上記所定時間に到達していない場合、当該フローチャートによる処理を終了する。   In step S803, the preventive safety ECU 120 refers to the estimation result performed in step S208, and whether or not a symptom indicating a fatigue state has started to occur in the driver, and a time during which the symptom indicating the fatigue state continues to the driver is continued. Is reached at a predetermined time (for example, every 10 minutes). The preventive safety ECU 120 advances the process to step S804 when a symptom indicating a fatigue state starts to occur or when a time during which the symptom indicating the fatigue state continues reaches a predetermined time. On the other hand, the preventive safety ECU 120 performs the processing according to the flowchart when the symptom indicating the fatigue state does not occur in the driver or when the symptom indicating the fatigue state continues for the driver does not reach the predetermined time. finish.

ステップS804において、予防安全ECU120は、上記車両に設置されたエアコン131の動作を制御し、ステップS805に処理を進める。例えば、疲労状態を示す症状がドライバーに生じている場合、車内の環境をより快適にすればドライバーに爽快感が与えられて疲労回復につながることがある。そこで、上記ステップS804では、予防安全ECU120がエアコン131の設定温度を調整(例えば、設定温度を所定温度分下げる)したり、運転席側の送風口からの風量を調整(例えば、風量を1段階強くする)したり、エアコン131がOFFであればONに制御したりする。このようにすれば、エアコン131の送風口から出る冷風により、ドライバーは爽快感を得ることができ、ドライバーの疲労状態を軽減することができる。   In step S804, the preventive safety ECU 120 controls the operation of the air conditioner 131 installed in the vehicle, and proceeds to step S805. For example, in the case where a symptom indicating a fatigue state occurs in the driver, if the environment in the vehicle is made more comfortable, the driver may feel refreshed and may recover from fatigue. Therefore, in step S804, the preventive safety ECU 120 adjusts the set temperature of the air conditioner 131 (for example, lowers the set temperature by a predetermined temperature) or adjusts the air volume from the air vent on the driver's seat side (for example, the air volume is decreased by one step). Or if the air conditioner 131 is OFF, it is controlled to be ON. In this way, the cool air coming out of the air blowing port of the air conditioner 131 can give the driver a refreshing feeling and reduce the driver's fatigue state.

ステップS805において、予防安全ECU120は、上記車両から車両情報を取得して、車両が走行中か否かを判断する。ここで、予防安全ECU120が取得する車両情報には、車両のシフトレバー位置情報があり、当該車両のシフトレバー位置がニュートラルやパーキングの位置にない場合、当該車両が走行中であると判断される。そして、予防安全ECU120は、車両が走行中である場合、ステップS806に処理を進める。一方、予防安全ECU120は、車両が走行中でない場合、当該フローチャートによる処理を終了する。   In step S805, the preventive safety ECU 120 acquires vehicle information from the vehicle and determines whether the vehicle is traveling. Here, the vehicle information acquired by the preventive safety ECU 120 includes vehicle shift lever position information. If the shift lever position of the vehicle is not in the neutral or parking position, it is determined that the vehicle is running. . Then, when the vehicle is traveling, the preventive safety ECU 120 advances the process to step S806. On the other hand, when the vehicle is not traveling, the preventive safety ECU 120 ends the process according to the flowchart.

ステップS806において、予防安全ECU120は、カーナビゲーションシステム134の動作を制御して休息案内を開始し、当該フローチャートによる処理を終了する。例えば、上記ステップS806の予防安全ECU120の動作制御によって、カーナビゲーションシステム134は、最寄りの休息施設までのルート検索を行い、当該休息施設までのルートの音声案内を開始して、ドライバーに休息を促す。   In step S806, the preventive safety ECU 120 controls the operation of the car navigation system 134 to start rest guidance, and ends the process according to the flowchart. For example, by the operation control of the preventive safety ECU 120 in step S806, the car navigation system 134 searches for a route to the nearest resting facility, starts voice guidance of the route to the resting facility, and prompts the driver to rest. .

図2に戻り、ステップS211において、ドライバモニタECU110および予防安全ECU120は、上記車両のイグニッションスイッチがOFFされたか否かを判断する。そして、ドライバモニタECU110および予防安全ECU120は、イグニッションスイッチがOFFされた場合、当該フローチャートによる処理を終了する。一方、ドライバモニタECU110および予防安全ECU120は、イグニッションスイッチがOFFされていない場合、上記ステップS201に戻って処理を繰り返す。   Returning to FIG. 2, in step S211, the driver monitor ECU 110 and the preventive safety ECU 120 determine whether or not the ignition switch of the vehicle is turned off. And driver monitor ECU110 and preventive safety ECU120 complete | finish the process by the said flowchart, when an ignition switch is turned off. On the other hand, when the ignition switch is not turned off, the driver monitor ECU 110 and the preventive safety ECU 120 return to step S201 and repeat the process.

以上、説明したように、本実施形態の症状推定装置によれば、危険な操縦状態に繋がる前段階となり得る症状がドライバーに生じているか推定することができる。さらに、本実施形態の症状推定装置は、ドライバーに生じている上記症状に応じて、車両の備わった各装置を制御して、ドライバーに生じている上記症状に応じた適切な処置を実施することもできる。   As described above, according to the symptom estimation device of the present embodiment, it is possible to estimate whether a symptom that may be a previous stage leading to a dangerous maneuvering state occurs in the driver. Furthermore, the symptom estimation device of the present embodiment controls each device provided in the vehicle according to the symptom occurring in the driver, and performs an appropriate treatment according to the symptom occurring in the driver. You can also.

また、上述した実施形態では、メインマイコン111、サブマイコン112、および予防安全ECU120の処理が、順次直列に行われる一連の処理として繰り返される例を説明したが、他の処理順序で本発明の症状推定処理を行ってもかまわない。例えば、メインマイコン111、サブマイコン112、および予防安全ECU120が、上述した処理をそれぞれ並列に行ってもかまわない。この場合、上述した処理周期が短縮されて、一連の処理周期が短くなる効果が期待できる。   In the above-described embodiment, the example in which the processes of the main microcomputer 111, the sub-microcomputer 112, and the preventive safety ECU 120 are repeated as a series of processes that are sequentially performed in series has been described. An estimation process may be performed. For example, the main microcomputer 111, the sub microcomputer 112, and the preventive safety ECU 120 may perform the above-described processes in parallel. In this case, it can be expected that the above-described processing cycle is shortened and a series of processing cycles is shortened.

また、上述した実施形態では、サブマイコン112は、カメラ100よって撮像された画像から、目の瞬きの頻度、閉眼時刻、目の充血の有無、涙の有無といったドライバーの顔に関する情報を取得したが、他の顔情報を症状推定処理に加えてもかまわない。例えば、ドライバーの顔に汗が浮き出ているか否かやドライバー顔色を示す顔情報を用いて、症状推定処理を行ってもかまわない。例えば、ドライバーの顔に汗が浮き出していることを検出することに応じて、エアコン131の設定温度を下げたり、車両の窓を開けたりすることによって、ドライバーの不快感を和らげることができる。また、ドライバーの顔色が悪いことを検出することに応じて、上記疲労状態を生じているときと同様の動作制御を行うことによって、体調が悪い状態でドライバーが運転を続けることを防止することも可能となる。   In the above-described embodiment, the sub-microcomputer 112 acquires information on the driver's face such as the blinking frequency of the eyes, the eye closing time, the presence or absence of redness of the eyes, and the presence or absence of tears from the image captured by the camera 100. Other face information may be added to the symptom estimation process. For example, the symptom estimation process may be performed using face information indicating whether or not sweat is exposed on the driver's face and the driver's face color. For example, the driver's discomfort can be alleviated by lowering the set temperature of the air conditioner 131 or opening the vehicle window in response to detecting that the sweat is exposed on the driver's face. In addition, by detecting that the driver's complexion is bad, it is possible to prevent the driver from continuing driving in a poor physical condition by performing the same operation control as when the fatigue state occurs. It becomes possible.

なお、上述した実施形態に係る症状推定装置は、危険な運転状態に繋がる前段階となり得る症状がドライバーに生じているか否かを推定したが、危険な運転状態に繋がらないような症状がドライバーに生じているか否かを推定してもよい。例えば、ドライバーに疲労を示す症状やアレルギー反応を起こしている症状が非常に軽微であり、そのまま放置しても危険な運転状態には繋がらないが、ドライバーが違和感を覚える可能性があるようなことがある。具体的には、ドライバーに疲労を示す症状が生じドライバーが倦怠感を覚えたり、ドライバーにアレルギー反応を起こしている症状が生じ目の痒みを感じたりなど、ドライバーの体調が良好な状態とは違った状態であるとドライバーが違和感を覚えるようなことである。このように、上記症状推定装置は、危険な運転状態に繋がる前段階となり得る症状や危険な運転状態に繋がらないような症状など、ドライバーに違和感を与える生理的症状がドライバーに生じているか否かを推定してもよい。   Note that the symptom estimation device according to the above-described embodiment estimates whether or not the driver has a symptom that may be a previous stage leading to a dangerous driving state, but the driver does not have a symptom that does not lead to a dangerous driving state. It may be estimated whether or not it has occurred. For example, symptoms that cause fatigue to the driver or symptoms that cause allergic reactions are very minor, and if left as it is, it does not lead to a dangerous driving state, but the driver may feel uncomfortable There is. Specifically, the driver's physical condition is different, such as when the driver feels tired and feels tired, or the driver is experiencing allergic reactions and feels itchy eyes It seems that the driver feels uncomfortable when he / she is in trouble. In this way, the symptom estimation device determines whether the driver has physiological symptoms that make the driver feel uncomfortable, such as a symptom that may lead to a dangerous driving state or a symptom that does not lead to a dangerous driving state. May be estimated.

本実施形態では、カメラ100とドライバモニタECU110とを個別にしたが、例えば、カメラ100の筐体内にドライバモニタECU110を組み込んでもよい。このようにすれば、車両内の設置スペースが縮小されるため、省スペース化がはかれる。また、カメラ100とドライバモニタECU110とを別個に設置する必要がなくなり、車両にカメラ100とドライバモニタECU110とを取り付ける作業が容易となる。   In the present embodiment, the camera 100 and the driver monitor ECU 110 are separately provided. However, for example, the driver monitor ECU 110 may be incorporated in the housing of the camera 100. In this way, the installation space in the vehicle is reduced, so that space can be saved. Further, it is not necessary to install the camera 100 and the driver monitor ECU 110 separately, and the work of attaching the camera 100 and the driver monitor ECU 110 to the vehicle becomes easy.

また、図9のステップS805において、予防安全ECU120は、上記車両のパーキングブレーキなどの情報を参照して、上記車両の走行状態を判断してもよい。   Further, in step S805 in FIG. 9, the preventive safety ECU 120 may determine the traveling state of the vehicle by referring to information such as the parking brake of the vehicle.

上述した実施形態では、車両を例に説明したが、特に車両に限られるものではない。例えば、航空機や船舶や鉄道車両などの移動体に対して上記症状推定装置を適用し、上記移動体の操縦席前方にカメラを設置し、上記カメラにより撮像された画像から、上記移動体の操縦者の症状を推定することもできる。また、このとき、上記移動体に備わった各装置に応じて、上記操縦者の症状に対応した処置を実施すればよい。   In the above-described embodiment, the vehicle has been described as an example, but the present invention is not limited to the vehicle. For example, the symptom estimation apparatus is applied to a moving body such as an aircraft, a ship, or a railroad vehicle, a camera is installed in front of the cockpit of the moving body, and the moving body is controlled from an image captured by the camera. A person's symptom can also be estimated. At this time, a treatment corresponding to the symptom of the pilot may be performed according to each device provided in the moving body.

上記の実施形態で説明した態様は、単に具体例を示すものであり、本願発明の技術的範囲を何ら限定するものではない。よって本願の効果を奏する範囲内において、任意の構成を採用することが可能である。   The aspect described in the above embodiment is merely a specific example, and does not limit the technical scope of the present invention. Therefore, it is possible to employ any configuration within the range where the effects of the present application are achieved.

本発明に係る症状推定装置は、危険な操縦状態に繋がる前段階となり得る症状が車両等の移動体の操縦者に生じているか否かを推定することができ、操縦者の事故を未然に防止する装置等の用途に適用できる。   The symptom estimation apparatus according to the present invention can estimate whether or not a symptom that may be a previous stage leading to a dangerous maneuvering state occurs in a driver of a moving object such as a vehicle, and prevents an accident of the driver in advance. It can be applied to the use of a device or the like.

本発明の一実施形態に係る症状推定装置の構成を示すブロック図The block diagram which shows the structure of the symptom estimation apparatus which concerns on one Embodiment of this invention. 一実施形態に係る症状推定装置において行われる処理の流れを示したフローチャートThe flowchart which showed the flow of the process performed in the symptom estimation apparatus which concerns on one Embodiment. 図2のステップS202のドライバーの顔向きの検出方法の詳細を示すフローチャートThe flowchart which shows the detail of the detection method of the driver's face direction of step S202 of FIG. 図2のステップS205における瞬きの回数を算出する動作の一例を示す前半部分のフローチャートFlowchart for the first half showing an example of the operation for calculating the number of blinks in step S205 in FIG. 図2のステップS205における瞬きの回数を算出する動作の一例を示す後半部分のフローチャートFlowchart in the second half showing an example of the operation for calculating the number of blinks in step S205 in FIG. 図2に示すステップS206における目の充血の有無を判断する処理の一例を示すフローチャートThe flowchart which shows an example of the process which judges the presence or absence of the redness of the eye in step S206 shown in FIG. 図2に示すステップS207における目の涙の有無を判断する処理の一例を示すフローチャートThe flowchart which shows an example of the process which judges the presence or absence of the tear of the eye in step S207 shown in FIG. 図2に示すステップS208のトライバーの症状を推定する処理の一例を示すフローチャートThe flowchart which shows an example of the process which estimates the symptom of the triver of step S208 shown in FIG. 図2のステップS210における危険運転予防制御処理の一例を示したフローチャートThe flowchart which showed an example of the dangerous driving prevention control process in step S210 of FIG.

符号の説明Explanation of symbols

100 カメラ
110 ドライバモニタECU
111 メインマイコン
112 サブマイコン
113 顔画像パターン格納部
120 予防安全ECU
131 エアコン
132 空気清浄機
133 パワーウィンドウ機構
134 カーナビゲーションシステム
135 スピーカー
100 camera 110 driver monitor ECU
111 Main microcomputer 112 Sub microcomputer 113 Face image pattern storage unit 120 Preventive safety ECU
131 Air Conditioner 132 Air Cleaner 133 Power Window Mechanism 134 Car Navigation System 135 Speaker

Claims (21)

移動体の操縦席に着席した操縦者の症状を推定する症状推定装置であって、
前記操縦席前方から当該操縦席方向を撮像する撮像手段と、
前記撮像手段が撮像した画像を用いて前記操縦者の顔の状態を検出し、当該顔の状態を示す顔情報を生成する顔情報生成手段と、
前記顔情報に基づいて、前記操縦者に違和感を与える生理的症状が当該操縦者に生じているか否かを推定する推定手段とを備える、症状推定装置。
A symptom estimation device for estimating a symptom of a pilot seated in a cockpit of a moving body,
Imaging means for imaging the direction of the cockpit from the front of the cockpit;
Face information generating means for detecting the state of the face of the pilot using the image picked up by the image pickup means and generating face information indicating the face state;
A symptom estimation device comprising: estimation means for estimating whether or not a physiological symptom that gives a sense of incongruity to the pilot is occurring in the pilot based on the face information.
前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目の状態を検出し、当該目の状態を前記顔情報として生成する、請求項1に記載の症状推定装置。   The symptom estimation apparatus according to claim 1, wherein the face information generation unit detects an eye state of the driver using an image captured by the imaging unit, and generates the eye state as the face information. 前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目が開眼状態にあるか閉眼状態であるかを予め定められた時間間隔で検出し、前記操縦者の目が単位時間あたりに開閉する回数を前記顔情報として生成する、請求項2に記載の症状推定装置。   The face information generation means detects whether the driver's eyes are in an open state or a closed eye state using an image picked up by the image pickup means at a predetermined time interval. The symptom estimation device according to claim 2, wherein the number of times of opening and closing per unit time is generated as the face information. 前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目の充血状態を検出し、前記操縦者の目の充血状態を前記顔情報として生成する、請求項2に記載の症状推定装置。   The said face information generation means detects the hyperemia state of the said operator's eyes using the image imaged by the said imaging means, and produces the hyperemia state of the said operator's eyes as said face information. Symptom estimation device. 前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の白目部分を抽出し、当該白目部分内において輝度が変化するエッジ長さに基づいて、前記操縦者の目の充血状態を検出する、請求項4に記載の症状推定装置。   The face information generation unit extracts a white eye portion of the driver using an image captured by the image capturing unit, and based on an edge length in which luminance changes in the white eye portion, the redness of the eye of the driver The symptom estimation device according to claim 4 which detects a state. 前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目から涙がこぼれた状態にあるか否かを検出し、前記操縦者の涙の状態を前記顔情報として生成する、請求項2に記載の症状推定装置。   The face information generation means detects whether or not tears are spilled from the eyes of the pilot using the image captured by the imaging means, and generates the state of tears of the pilot as the face information The symptom estimation device according to claim 2. 前記顔情報生成手段は、前記撮像手段が撮像した画像から前記操縦者の目頭または目尻の画像を抽出し、当該目頭または目尻の画像およびその周辺画像に予め定められた値以上の輝度差がある領域が存在した場合に、前記操縦者の目から涙がこぼれた状態にあると検出する、請求項6に記載の症状推定装置。   The face information generation unit extracts an image of the driver's eyes or corners from the image captured by the imaging unit, and the eyes or corners image and surrounding images have a luminance difference equal to or greater than a predetermined value. The symptom estimation device according to claim 6, wherein when there is a region, it is detected that tears are spilled from the eyes of the pilot. 前記推定手段は、前記顔情報生成手段が生成した顔情報に基づいて、前記操縦者にアレルギー反応を起こしている症状が生じているか否かを推定する、請求項1または2に記載の症状推定装置。   3. The symptom estimation according to claim 1, wherein the estimation unit estimates whether or not a symptom causing an allergic reaction has occurred on the pilot based on the face information generated by the face information generation unit. apparatus. 前記顔画像生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目が開眼状態にあるか閉眼状態にあるかを予め定められた時間間隔で検出し、前記操縦者の目が単位時間あたりに開閉する瞬きの回数を前記顔情報として生成し、
前記推定手段は、前記瞬きの回数が予め定められた回数より多い場合に、アレルギー反応を起こしている症状および疲労状態を示す症状の何れか一方が前記操縦者に生じていると推定する、請求項1または2に記載の症状推定装置。
The face image generation means detects whether the driver's eyes are in an open state or a closed eye state using an image captured by the imaging unit at a predetermined time interval, and the driver's eyes Generate the number of blinks that open and close per unit time as the face information,
The estimating means estimates that one of a symptom causing an allergic reaction and a symptom indicating a fatigue state occurs in the pilot when the number of blinks is greater than a predetermined number. Item 3. The symptom estimation device according to Item 1 or 2.
前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目の充血状態を検出し、前記操縦者の目の充血状態を前記顔情報としてさらに生成し、
前記推定手段は、前記瞬きの回数が前記予め定められた回数より多く、かつ、前記操縦者の目が充血状態にある場合に、前記操縦者にアレルギー反応を起こしている症状が生じていると推定する、請求項9に記載の症状推定装置。
The face information generating means detects an eye fullness state of the pilot's eyes using an image picked up by the imaging means, and further generates the blood pressure state of the pilot's eyes as the face information;
When the number of blinks is greater than the predetermined number and the driver's eyes are congested, the estimating means has a symptom of causing an allergic reaction to the driver. The symptom estimation device according to claim 9 which estimates.
前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目から涙がこぼれた状態にあるか否かを検出し、前記操縦者の涙の状態を前記顔情報としてさらに生成し、
前記推定手段は、前記瞬きの回数が所定の回数より多く、かつ、前記操縦者の目から涙がこぼれた状態にある場合に、前記操縦者にアレルギー反応を起こしている症状が生じていると推定する、請求項9に記載の症状推定装置。
The face information generating means detects whether or not tears are spilled from the eyes of the pilot using the image captured by the imaging means, and further uses the state of the tears of the pilot as the face information. Generate
The estimating means has a symptom of causing an allergic reaction to the pilot when the number of blinks is greater than a predetermined number and tears are spilled from the eyes of the pilot. The symptom estimation device according to claim 9 which estimates.
前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目の充血状態を検出し、前記操縦者の目の充血状態を前記顔情報としてさらに生成し、
前記推定手段は、前記瞬きの回数が前記予め定められた回数より多く、かつ、前記操縦者の目が充血状態にない場合に、疲労状態を示す症状が前記操縦者に生じていると推定する、請求項9に記載の症状推定装置。
The face information generating means detects an eye fullness state of the pilot's eyes using an image picked up by the imaging means, and further generates the blood pressure state of the pilot's eyes as the face information;
The estimation means estimates that a symptom indicating a fatigue state occurs in the driver when the number of blinks is greater than the predetermined number of times and the eyes of the driver are not congested. The symptom estimation device according to claim 9.
前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目から涙がこぼれた状態にあるか否かを検出し、前記操縦者の涙の状態を前記顔情報としてさらに生成し、
前記推定手段は、前記瞬きの回数が所定の回数より多く、かつ、前記操縦者の目から涙がこぼれていない状態にある場合に、疲労状態を示す症状が前記操縦者に生じていると推定する、請求項9に記載の症状推定装置。
The face information generating means detects whether or not tears are spilled from the eyes of the pilot using the image captured by the imaging means, and further uses the state of the tears of the pilot as the face information. Generate
The estimation means presumes that the pilot has a symptom indicating a fatigue state when the number of blinks is greater than a predetermined number and no tears are spilled from the pilot's eyes. The symptom estimation device according to claim 9.
前記推定手段は、前記顔情報生成手段が生成した顔情報に基づいて、前記操縦者に疲労状態を示す症状が生じているか否かを推定する、請求項1または2に記載の症状推定装置。   The symptom estimation device according to claim 1, wherein the estimation unit estimates whether or not a symptom indicating a fatigue state has occurred in the pilot based on the face information generated by the face information generation unit. 前記顔画像生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目が閉眼状態にあるか否かを検出することによって、当該操縦者の目が閉眼状態にある閉眼時間を算出して、当該閉眼時間を前記顔情報として生成し、
前記推定手段は、前記閉眼時間が予め定められた時間以上となる閉眼状態が予め定められた周期以下の間隔で生じている場合に、前記操縦者に疲労状態を示す症状が生じていると推定する、請求項14に記載の症状推定装置。
The face image generation means calculates whether the eyes of the driver are in the closed state by detecting whether the eyes of the driver are in the closed state using the image captured by the imaging unit. Then, the closed eye time is generated as the face information,
The estimating means estimates that a symptom indicating a fatigue state is occurring in the driver when the closed eye state in which the closed eye time is equal to or longer than a predetermined time occurs at intervals equal to or less than a predetermined cycle. The symptom estimation device according to claim 14.
前記顔情報生成手段は、前記撮像手段が撮像した画像を用いて前記操縦者の目が開眼状態にあるか閉眼状態にあるかを予め定められた時間間隔で検出し、前記操縦者の目が単位時間あたりに開閉する瞬きの回数を前記顔情報として生成し、
前記推定手段は、前記瞬きの回数が予め定められた値より少ない場合に、前記操縦者に疲労状態を示す症状が生じていると推定する、請求項14に記載の症状推定装置。
The face information generation means detects whether the driver's eyes are in an open state or a closed eye state using an image captured by the imaging means at a predetermined time interval. Generate the number of blinks that open and close per unit time as the face information,
15. The symptom estimation device according to claim 14, wherein the estimation means estimates that a symptom indicating a fatigue state has occurred in the pilot when the number of blinks is less than a predetermined value.
前記操縦者は、車両の運転席に着座した運転者であり、
前記症状推定装置は、前記車両に設置され、
前記推定手段が推定した前記運転者の症状に応じて、前記車両の車内環境を制御する装備品または前記運転者に情報を通知する装備品を制御する制御手段を、さらに備える、請求項1または2に記載の症状推定装置。
The pilot is a driver seated in the driver's seat of the vehicle,
The symptom estimation device is installed in the vehicle,
The control device according to claim 1, further comprising: a control device that controls equipment for controlling an in-vehicle environment of the vehicle or equipment for notifying the driver of information according to a symptom of the driver estimated by the estimation device. 2. The symptom estimation device according to 2.
前記推定手段は、前記顔情報生成手段が生成した顔情報に基づいて、前記運転者にアレルギー反応を起こしている症状が生じているか否かを推定し、
前記制御手段は、前記運転者に前記アレルギー反応を起こしている症状が生じていると前記推定手段が推定した場合、前記車両に設けられた空気清浄機を起動させる、請求項17に記載の症状推定装置。
The estimating means estimates whether or not a symptom causing an allergic reaction has occurred based on the face information generated by the face information generating means,
The symptom according to claim 17, wherein the control unit activates an air cleaner provided in the vehicle when the estimation unit estimates that a symptom causing the allergic reaction has occurred in the driver. Estimating device.
前記推定手段は、前記顔情報生成手段が生成した顔情報に基づいて、前記運転者にアレルギー反応を起こしている症状が生じているか否かを推定し、
前記制御手段は、前記運転者に前記アレルギー反応を起こしている症状が生じていると前記推定手段が推定した場合、前記車両に設けられたパワーウィンドウ機構を制御して当該車両の窓を閉める、請求項17に記載の症状推定装置。
The estimating means estimates whether or not a symptom causing an allergic reaction has occurred based on the face information generated by the face information generating means,
The control means controls the power window mechanism provided in the vehicle and closes the window of the vehicle when the estimation means estimates that the symptom causing the allergic reaction has occurred in the driver. The symptom estimation device according to claim 17.
前記推定手段は、前記顔情報生成手段が生成した顔情報に基づいて、前記運転者に疲労状態を示す症状が生じているか否かを推定し、
前記制御手段は、前記運転者に疲労状態を示す症状が生じていると前記推定手段が推定した場合、前記車両に設けられたエアコンディショナーの設定温度を調整する、請求項17に記載の症状推定装置。
The estimation means estimates whether or not a symptom indicating a fatigue condition has occurred in the driver based on the face information generated by the face information generation means,
18. The symptom estimation according to claim 17, wherein the control unit adjusts a set temperature of an air conditioner provided in the vehicle when the estimation unit estimates that a symptom indicating a fatigue state is occurring in the driver. apparatus.
前記推定手段は、前記顔情報生成手段が生成した顔情報に基づいて、前記運転者に疲労状態を示す症状が生じている否かを推定し、
前記制御手段は、前記運転者に疲労状態を示す症状が生じていると前記推定手段が推定した場合、前記車両に設けられたカーナビゲーションシステムを制御して、最寄りの休息施設まで前記運転者をルート案内する、請求項17に記載の症状推定装置。
The estimation means estimates whether or not a symptom indicating a fatigue condition occurs in the driver based on the face information generated by the face information generation means,
The control means controls the car navigation system provided in the vehicle when the estimation means estimates that a symptom indicative of a fatigue condition has occurred in the driver, and sends the driver to the nearest resting facility. The symptom estimation device according to claim 17, which performs route guidance.
JP2008009558A 2008-01-18 2008-01-18 Symptom inference device Pending JP2009166783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008009558A JP2009166783A (en) 2008-01-18 2008-01-18 Symptom inference device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008009558A JP2009166783A (en) 2008-01-18 2008-01-18 Symptom inference device

Publications (1)

Publication Number Publication Date
JP2009166783A true JP2009166783A (en) 2009-07-30

Family

ID=40968471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008009558A Pending JP2009166783A (en) 2008-01-18 2008-01-18 Symptom inference device

Country Status (1)

Country Link
JP (1) JP2009166783A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015150150A (en) * 2014-02-13 2015-08-24 富士ゼロックス株式会社 Information providing device and program
JP2018059834A (en) * 2016-10-06 2018-04-12 三菱電機株式会社 Navigation system, occupant monitoring device, information terminal device, server, and navigation program
WO2018150485A1 (en) * 2017-02-15 2018-08-23 三菱電機株式会社 Driving state determination device and driving state determination method
JP2021014227A (en) * 2019-07-16 2021-02-12 株式会社Subaru Occupant protection system of vehicle
JP2021034035A (en) * 2019-08-28 2021-03-01 潘文橋 System, method, and device for intelligent vehicle loaded fatigue detection based on facial discrimination
KR20210119929A (en) * 2014-10-23 2021-10-06 현대모비스 주식회사 Apparatus and method for self-driving
JP2022058471A (en) * 2016-08-02 2022-04-12 アトラス5ディー, インコーポレイテッド System and method for identification of person with protection of privacy and/or identification of pain, fatigue, feeling, and intension, and quantization

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015150150A (en) * 2014-02-13 2015-08-24 富士ゼロックス株式会社 Information providing device and program
KR20210119929A (en) * 2014-10-23 2021-10-06 현대모비스 주식회사 Apparatus and method for self-driving
KR102528001B1 (en) * 2014-10-23 2023-05-02 현대모비스 주식회사 Apparatus and method for self-driving
JP2022058471A (en) * 2016-08-02 2022-04-12 アトラス5ディー, インコーポレイテッド System and method for identification of person with protection of privacy and/or identification of pain, fatigue, feeling, and intension, and quantization
JP2018059834A (en) * 2016-10-06 2018-04-12 三菱電機株式会社 Navigation system, occupant monitoring device, information terminal device, server, and navigation program
JPWO2018150485A1 (en) * 2017-02-15 2019-06-27 三菱電機株式会社 Operating state determination device, determination device, and operating state determination method
US10949690B2 (en) 2017-02-15 2021-03-16 Mitsubishi Electric Corporation Driving state determination device, determination device, and driving state determination method
CN110268455A (en) * 2017-02-15 2019-09-20 三菱电机株式会社 Driving condition decision maker and driving condition determination method
CN110268455B (en) * 2017-02-15 2022-12-09 三菱电机株式会社 Driving state determination device and driving state determination method
WO2018150485A1 (en) * 2017-02-15 2018-08-23 三菱電機株式会社 Driving state determination device and driving state determination method
JP2021014227A (en) * 2019-07-16 2021-02-12 株式会社Subaru Occupant protection system of vehicle
JP7285155B2 (en) 2019-07-16 2023-06-01 株式会社Subaru vehicle occupant protection system
JP2021034035A (en) * 2019-08-28 2021-03-01 潘文橋 System, method, and device for intelligent vehicle loaded fatigue detection based on facial discrimination

Similar Documents

Publication Publication Date Title
US9855956B2 (en) Driving assist device
US9888875B2 (en) Driver monitoring apparatus
JP2009166783A (en) Symptom inference device
WO2015200224A2 (en) System and method for responding to driver state
JP2016045714A (en) On-vehicle control device
JP6730096B2 (en) Occupant condition monitoring device
CN107719065B (en) Dangerous driving prevention and intelligent driving environment adjusting method and system
EP3885220B1 (en) Automatically estimating skill levels and confidence levels of drivers
JP6256433B2 (en) Driver status detection device
JP6756174B2 (en) Vehicle control device
JP2009294753A (en) Image processor and image processing method
JP2018128974A (en) Driver state monitoring device
JP2013105263A (en) Vehicle arousal degree detection device and vehicle alarm device
US11430231B2 (en) Emotion estimation device and emotion estimation method
JP4173083B2 (en) Arousal state determination device and arousal state determination method
JP6822325B2 (en) Maneuvering support device, maneuvering support method, program
JP7046748B2 (en) Driver status determination device and driver status determination method
JP2010100088A (en) Drive assist system
JP7024332B2 (en) Driver monitor system
JP6689470B1 (en) Information processing apparatus, program, and information processing method
JP4935762B2 (en) Face image processing device
US10945651B2 (en) Arousal level determination device
JP6852407B2 (en) Driver status detector
ES2387186T3 (en) Sleep Assistance System
JP2019079285A (en) Safe driving promotion system and safe driving promotion method