JP2005108033A - Driver condition determination device and method - Google Patents

Driver condition determination device and method Download PDF

Info

Publication number
JP2005108033A
JP2005108033A JP2003342538A JP2003342538A JP2005108033A JP 2005108033 A JP2005108033 A JP 2005108033A JP 2003342538 A JP2003342538 A JP 2003342538A JP 2003342538 A JP2003342538 A JP 2003342538A JP 2005108033 A JP2005108033 A JP 2005108033A
Authority
JP
Japan
Prior art keywords
driver
face
result
image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003342538A
Other languages
Japanese (ja)
Inventor
Tatsuo Kosakaya
達夫 小坂谷
Hiroaki Nakai
宏章 中井
Masahide Nishiura
正英 西浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003342538A priority Critical patent/JP2005108033A/en
Publication of JP2005108033A publication Critical patent/JP2005108033A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for stably determining conditions of a driver from an image of the driver. <P>SOLUTION: This driver condition determination device is provided with an image input part 101 acquiring a time series image, a face detection part 102 detecting a face from the input image, a face area determination part 104 determining whether the detected face position is a safe position or not, a driver condition determination part 106 determining the conditions of the driver from the result of the face area determination part, and a result output part 107 outputting the result of the driver condition determination part to the driver. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、自動車などの移動体に取り付けられたTVカメラのような受光装置によって撮影される画像内で、運転者の状態を解析することにより、居眠りやよそ見、わき見などの危険な状態を察知し、運転者への警告や移動体の制御を行う運転者状態解析装置および運転者状態解析方法に関する。   The present invention detects a dangerous state such as falling asleep, looking away, or looking aside by analyzing a driver's state in an image taken by a light receiving device such as a TV camera attached to a moving body such as an automobile. In addition, the present invention relates to a driver state analysis apparatus and a driver state analysis method that perform a warning to a driver and control of a moving body.

カメラ等の撮像素子を用いて自動車の運転者の居眠りなど運転者の状態を画像処理により判定する方法としては、カメラにより撮像された運転者の顔の画像から,その人の目の状態を解析し、まぶたを閉じている場合には居眠りと判断する手法(特許文献1)が検討されている。   As a method of determining the state of the driver, such as a driver's sleep falling asleep by using an image sensor such as a camera, image analysis of the person's eyes from the image of the driver's face captured by the camera However, a technique (Patent Document 1) for determining that the eyelid is asleep when the eyelid is closed has been studied.

しかし、被験者たる人間の目には個人差があり、目の細い人物や、まつげの長い人物の場合は、必ずしもまぶたの開閉状態を正確に判断できるとは限らない。また、居眠りの状態になった場合には、顔がうつむきの状態になることも考えられ、うつむいた時に目が隠れてしまうと、カメラの画像でまぶたの開閉状態を確認することができず、被験者の目の状態を解析することができないという問題がある。   However, there are individual differences in the eyes of the human subject, and in the case of a person with thin eyes or a person with long eyelashes, the open / closed state of the eyelids cannot always be accurately determined. In addition, if you fall asleep, your face may be in a state of depression, and if your eyes are hidden when you are depressed, you cannot check the open / closed state of the eyelids with the camera image, There is a problem that the eye state of the subject cannot be analyzed.

また被験者を画像処理で状態監視する方法として、カメラを用いて運転者のまばたきを検出し、その回数や周期を調べることにより運転者が居眠り状態であるかどうかを判断する方法(特許文献2)もある。しかし、前述の手法と同様に、目の個人差や開閉状態を正確に検出するのは難しい上に、まばたきの周期は個人によって異なるため、居眠り状態を正確に判断することは難しい。
特開2002−279410号公報 特開平08−225028号公報
Further, as a method for monitoring the state of a subject by image processing, a method of determining whether the driver is asleep by detecting the driver's blink using a camera and examining the number and cycle thereof (Patent Document 2). There is also. However, as in the above-described method, it is difficult to accurately detect the individual difference of eyes and the open / closed state, and the blinking cycle varies depending on the individual, so it is difficult to accurately determine the dozing state.
JP 2002-279410 A Japanese Patent Application Laid-Open No. 08-225028

以上説明した通り、運転者の居眠りなど運転者の状態を検出するためには、運転者に負担の少ない非接触型のカメラを使って画像を撮影し、解析する方法が有効であるが、個人差や状態判定の難しい目のみに頼らないで、正確に居眠りを判定する方法が望まれている。   As explained above, in order to detect the driver's state such as the driver's falling asleep, it is effective to take and analyze images using a non-contact camera with less burden on the driver. There is a demand for a method for accurately determining dozing without relying only on eyes that are difficult to determine the difference or state.

本発明は、カメラを用いて運転者の顔位置を検出し、その顔位置の動きに注目することにより、運転者の状態を個人差などに影響されず解析することを可能とする、運転者状態判別装置およびその方法を提供することを目的とする。   The present invention detects a driver's face position using a camera and pays attention to the movement of the face position, thereby enabling analysis of the driver's state without being influenced by individual differences. An object of the present invention is to provide a state discriminating apparatus and method.

本発明は、入力された時系列画像中から運転者の顔の特徴点または顔領域を検出する顔検出部と、検出された顔の特徴点または顔領域の位置が画像内の適正な位置にあるか判断する顔領域判定部と、顔領域判定部の結果または顔検出部の結果(わき見をして顔検出できなかった場合)から運転者の状態を判定する運転者状況判定部と、運転者に通知するため前記運転者状況判定結果を出力する結果出力部を有することを特徴とする運転者状況判定装置を提供する。   The present invention provides a face detection unit that detects a feature point or face area of a driver's face from an input time-series image, and a position of the detected face feature point or face area at an appropriate position in the image. A face area determination unit that determines whether there is a driver state determination unit that determines a driver's state from a result of the face area determination unit or a result of the face detection unit (when a face cannot be detected by looking aside), and driving There is provided a driver situation determination apparatus characterized by having a result output unit for outputting the driver situation determination result to notify the driver.

また本発明において、検出された顔が運転者本人のものであるか同定する運転者認識部を有し、前記運転者状況判定部は、前記認識結果に基づいて運転者の状態を判定することを特徴とする。   Further, in the present invention, a driver recognition unit that identifies whether the detected face belongs to the driver himself or herself, and the driver situation determination unit determines the state of the driver based on the recognition result. It is characterized by.

また本発明において、前記運転者状況判定部は、運転者が運転している機体の状態に関する情報に基づいて運転者の状態を判定することを特徴とする。   In the present invention, the driver situation determination unit may determine the state of the driver based on information related to the state of the aircraft that the driver is driving.

また本発明において、運転者以外の第三者に通知するため、前記運転者状況判定結果を出力する外部出力部を有することを特徴とする。   Moreover, in this invention, in order to notify to third parties other than a driver | operator, it has an external output part which outputs the said driver | operator condition determination result, It is characterized by the above-mentioned.

また本発明において、前記運転者状況判定部の結果に応じて機体を制御する機体制御部を有することを特徴とする。   Moreover, in this invention, it has an airframe control part which controls an airframe according to the result of the said driver | operator condition determination part, It is characterized by the above-mentioned.

また本発明は、入力された時系列画像中から運転者の顔の特徴点または顔領域を検出する顔検出手段と、検出された顔の特徴点または顔領域の位置が画像内の適性な位置にあるか判断する顔領域判定手段と、顔領域判定手段の結果または顔検出手段の結果(わき見をして顔検出できなかった場合)から運転者の状態を判定する運転者状況判定手段と、運転者に通知するため前記運転者状況判定結果を出力する結果出力手段を有することを特徴とする運転者状況判定方法を提供する。   In addition, the present invention provides a face detection unit that detects a feature point or face area of a driver's face from an input time-series image, and the position of the detected face feature point or face area is an appropriate position in the image. A face area determining means for determining whether the driver is in a vehicle, a driver situation determining means for determining a driver's state from the result of the face area determining means or the result of the face detecting means (when the face cannot be detected by looking aside), There is provided a driver situation determination method, characterized by comprising a result output means for outputting the driver situation determination result to notify the driver.

本発明によれば、カメラ画像から検出した運転者の顔の特徴点、顔領域等を検出し、検出位置、検出状態等を観測することにより、その顔全体に注目して調べることで安定して運転者の状態を検出することができる。   According to the present invention, a feature point, a face area, and the like of a driver's face detected from a camera image are detected, and the detected position, detection state, and the like are observed, so that it is stable by paying attention to the entire face. The driver's condition can be detected.

以下、図面を参照して本発明に関わる一実施例について述べる。   Hereinafter, an embodiment relating to the present invention will be described with reference to the drawings.

本実施例は、自動車、電車、航空機、船舶などの移動体に設置したカメラから運転者の画像を撮影し、顔が適切な領域内にあるかどうかを解析すると共に、その画像内から運転者の顔を検出し、状態を判定することにより運転者が居眠りやよそ見、わき見をしていないかどうか判別するものである。   In this embodiment, a driver's image is taken from a camera installed on a moving body such as an automobile, a train, an aircraft, and a ship, and whether or not the face is in an appropriate region is analyzed. The driver's face is detected and the state is determined to determine whether the driver is falling asleep, looking away, or looking aside.

図1は本実施例の構成を表す図である。画像入力部101は、運転者を撮影する撮像装置であり、例えば動画または静止画を撮影可能なカメラなどである。このカメラは通常の可視光を撮影するようなTVカメラやビデオカメラでも良いし、赤外光など可視光以外も撮像可能な特殊なカメラや、物体の3次元情報を取得するレンジファインダでも良い。またカメラにパンチルトズーム機構や、モーターなどでカメラ自体を可動させる機構があっても良い。   FIG. 1 is a diagram showing the configuration of this embodiment. The image input unit 101 is an imaging device that captures a driver and is, for example, a camera that can capture a moving image or a still image. This camera may be a TV camera or a video camera that captures normal visible light, a special camera that can capture images other than visible light such as infrared light, or a range finder that acquires three-dimensional information of an object. The camera may have a pan / tilt zoom mechanism or a mechanism for moving the camera itself by a motor or the like.

顔検出部102は、画像入力部で撮影された画像から被写体である人物の顔領域を検出するものである。撮影された画像から被写体としての人物の顔の領域を検出する方法は、例えば、福井、山口、「形状抽出とパターン照合の組合せによる顔特徴点抽出」, 信学論(D-II) vol.J80-D-II, No. 9, p.2170-2177, 1997 に記載されているものがある。これは、目(瞳)や鼻(鼻孔)などの顔の特徴点を、分離度フィルタによる幾何学的特徴と、パターンの形状との両方を用いることにより抽出し、特徴点の位置関係などから安定して顔領域を検出することができる手法である。この手法により例えば、顔検出部では、顔を含む画像から目と鼻の4点の位置情報を出力する。そのほかに口端や眉毛の位置、輪郭情報など、他の情報を出力することにより、顔の情報の精度を高めることができる。   The face detection unit 102 detects a face region of a person who is a subject from an image taken by the image input unit. For example, Fukui, Yamaguchi, `` Face feature point extraction by combination of shape extraction and pattern matching '', Science theory (D-II) vol. There are those described in J80-D-II, No. 9, p.2170-2177, 1997. This is because facial feature points such as eyes (pupil) and nose (nasal nostrils) are extracted by using both geometric features by the separability filter and the shape of the pattern. This is a technique that can stably detect a face region. With this technique, for example, the face detection unit outputs position information of four points of eyes and nose from an image including a face. In addition, the accuracy of the face information can be increased by outputting other information such as the position of the mouth edge and the eyebrows and the contour information.

顔領域判定部104は、顔検出部より出力された顔領域の位置情報を基に、運転者の状況を解析するものである。まず、例えば図2に示すように、顔画像検出領域、すなわちあらかじめ画像内に、移動体の運転中に運転者の顔が存在しても安全に運転することができると思われる範囲(被験者である運転者の顔画像を撮像するのに通常適する範囲)を設定しておく。この範囲は、画像内に矩形や円状など任意の形状で良い。図2では、例えば画面内中央の円形部分であるが、どのような場所にいくつ存在してもかまわない。   The face area determination unit 104 analyzes the situation of the driver based on the position information of the face area output from the face detection unit. First, as shown in FIG. 2, for example, a face image detection region, that is, a range in which the driver can safely drive even if the driver's face is present during the driving of the moving body (in the subject). A range that is usually suitable for capturing a face image of a driver is set. This range may be an arbitrary shape such as a rectangle or a circle in the image. In FIG. 2, for example, a circular portion in the center of the screen, but any number may exist at any location.

そして、図3に示すように、カメラで運転者を撮影し、撮影された運転者の画像の顔領域がこの範囲内(例えば図2の円形領域)に存在する場合には、一時的な判定として、運転者は正常な状態であると判断する。逆に図4のように、検出された運転者の顔領域がこの範囲(例えば図2の円形領域)から外れている場合、運転者の位置は移動体の運行に適する場所に無いとして、運転者は正常な状態ではない、あるいは異常な状態であると判断する。一方、上記範囲内に含まれるように運転者の画像が撮影されているものの、わき見をしている等の理由により、得られた画像から運転者の顔領域を検出することができなかった場合(図5参照)にも、同様に運転者は正常な状態ではないと判断する。また図2、図3などでは運転者の顔領域検出結果を円形の領域で表現したが、矩形や円形など任意の形状でよい。また目や鼻などの特徴点の中心点などの座標といった点情報で表されていてもよい。   Then, as shown in FIG. 3, when the driver is photographed with a camera and the face area of the photographed driver image is within this range (for example, the circular area in FIG. 2), a temporary determination is made. The driver determines that the state is normal. On the contrary, as shown in FIG. 4, when the detected driver's face area is out of this range (for example, the circular area in FIG. 2), it is assumed that the driver's position is not in a place suitable for the operation of the moving body. It is determined that the person is not in a normal state or in an abnormal state. On the other hand, when the driver's image is taken so as to be included in the above range, but the driver's face area could not be detected from the obtained image due to reasons such as looking aside Similarly (see FIG. 5), the driver determines that the driver is not in a normal state. 2 and 3 and the like, the driver's face area detection result is expressed as a circular area, but may be any shape such as a rectangle or a circle. Further, it may be represented by point information such as coordinates of the center point of a feature point such as an eye or nose.

運転者認識部103は、顔検出部より出力された領域に存在する顔パターンが、(通常運転している、あるいは予め登録された)運転者本人の顔パターンと一致するかどうか、具体的には予め取得された顔画像や顔の特徴点の情報と現在取得された顔画像や顔の特徴点情報とを比較して、運転者を同定するためのものである。例えば、図6に示すようにカメラの撮影範囲内に同乗者など運転者以外の顔が存在していた場合、運転者のみならず、運転者以外の顔が検出されてしまうことが考えられる。その場合、運転状況判断で間違った結果を出力してしまう可能性があるため、運転者を同定する機構は必要となる。   The driver recognition unit 103 determines whether or not the face pattern existing in the region output from the face detection unit matches the face pattern of the driver himself (regular driving or registered in advance). Is for comparing the face image and facial feature point information acquired in advance with the currently acquired face image and facial feature point information to identify the driver. For example, as shown in FIG. 6, when a face other than the driver such as a passenger is present in the photographing range of the camera, it is possible that not only the driver but also the face other than the driver is detected. In that case, since there is a possibility that an incorrect result is output in the driving situation determination, a mechanism for identifying the driver is necessary.

この顔パターンから人物を特定する方法については、例えば、山口、福井、「顔向き表情変化にロバストな顔認識システム'smartface'」, 信学論 (D-II), vol.J84-D-II, No.6, p.1045-1052, 2001. に記されている方法がある。これは、動画像を構成する複数の静止画群から得た複数の顔パターンから個人の顔特徴を表す分布を作成し、その分布同士を比較する手法であり、従来の一枚の静止画に基づいた手法より高精度に認識することができる。また、顔認識をするまでもなく、被験者の顔領域が検出された位置がカメラフレーム内において運転席付近に存在し、かつ顔のサイズが一定以上であるという条件を調べることで運転者かどうかチェックしても良い。   For example, Yamaguchi, Fukui, “Robust Face Recognition System 'smartface' for Facial Expression Changes,” IEICE (D-II), vol.J84-D-II. , No.6, p.1045-1052, 2001. This is a method of creating a distribution that represents individual facial features from a plurality of face patterns obtained from a plurality of still images constituting a moving image, and comparing the distributions. It can be recognized with higher accuracy than the based method. Whether the driver is a driver by examining the condition that the position where the subject's face area was detected is in the vicinity of the driver's seat in the camera frame and the face size is greater than a certain level, without needing face recognition. You may check it.

機体情報出力部105は、現在運転している自動車等の移動体の状態に関する情報を出力するものである。出力する情報は、例えば、エンジンが動いているか、どのくらいの速度・加速度で移動しているか、ブレーキを踏んでいるか、ボディの傾き、ハンドルの向きや進行方向などがある。これらの情報は自動車等の移動体本体で計測されたデータを出力するようにしても良いし、移動体とは別に設けられた各種センサで計測したデータを出力するようにしても良い。   The body information output unit 105 outputs information on the state of a moving body such as an automobile that is currently driving. The information to be output includes, for example, whether the engine is moving, how much speed and acceleration it is moving, whether the brake is stepped on, the inclination of the body, the direction of the steering wheel, and the traveling direction. As these information, data measured by a mobile body such as an automobile may be output, or data measured by various sensors provided separately from the mobile body may be output.

運転者状況判定部106は、顔領域判定部104の出力する情報及び必要に応じて運転者認識部103、機体情報出力部105の出力する情報に応じて、運転者の状況を判定するものである。それは例えば、顔領域判定部104から、撮像された顔領域が撮像領域の安全範囲内に存在しないという出力がある一定時間以上連続して得られた、もしくはある一定時間の間にある割合以上得られた(例えば、1分間のうち50秒以上など)場合について、運転者が正常な状態ではないと判断し、異常状態であると出力する。この異常状態であると判断するまでの時間間隔は、あらかじめ決めておいても良いし、ユーザが必要に応じて設定することによりユーザに合った間隔に制限することにより、誤検出を減らすこともできる。   The driver situation determination unit 106 determines the situation of the driver according to information output from the face area determination unit 104 and information output from the driver recognition unit 103 and aircraft information output unit 105 as necessary. is there. For example, the face area determination unit 104 obtains an output indicating that the captured face area does not exist within the safe range of the imaging area for a certain period of time or more than a certain ratio during a certain period of time. If it is determined (for example, 50 seconds or more in one minute), the driver determines that the state is not normal and outputs an abnormal state. The time interval until it is determined that this is an abnormal state may be determined in advance, or may be set as required by the user to limit the interval to suit the user, thereby reducing false detections. it can.

さらに、運転者認識部103と機体情報出力部105が存在すれば、それらの情報を組み合わせてより細かく判断できる。まず、運転者認識部103が存在する場合、顔領域判定部104が顔領域を検出しても、撮影された被験者の顔が運転者本人の顔と同定できないときは、「顔領域を検出した」という情報を出力しない、またはより詳細に顔領域を判定する、運転者との認識・照合を行なうようにすることで検出精度を向上できる。   Further, if the driver recognition unit 103 and the aircraft information output unit 105 exist, the information can be combined to make a more detailed determination. First, if the driver recognition unit 103 is present and the face area determination unit 104 detects the face area, the photographed subject's face cannot be identified as the driver's face. Is not output, or the face area is determined in more detail, and the recognition / collation with the driver is performed, so that the detection accuracy can be improved.

また、機体情報出力部105が存在する場合、機体(移動体)が全く移動していない場合は異常状態であっても「正常ではない」と出力しない、逆に機体が高速移動している場合は、通常よりも早めに警告をする必要があるため、異常状態を検知後、直ちに「正常ではない」と出力する、あるいは異常状態と判断にしているときに、機体の進路を変更しようとすると更により上位の警告を出す、といった処理を行うことにより、実際の機体との状況を踏まえたより適切な判断を下すことが期待できる。   Also, when the aircraft information output unit 105 is present, when the aircraft (moving body) is not moving at all, even if it is in an abnormal state, “not normal” is not output, and conversely, the aircraft is moving at high speed Because it is necessary to issue a warning earlier than usual, immediately after detecting an abnormal condition, it will output “not normal” or if it is determined to be abnormal, it will change the course of the aircraft. Furthermore, by performing a process such as issuing a higher-level warning, it can be expected to make a more appropriate judgment based on the situation with the actual aircraft.

結果出力部107は、運転者状況判定部106の要求に応じて、運転者に出力を与えるものである。運転者状況判定部106から異常な状態である、または正常な状態ではないとする判断が、あらかじめ指定された時間以上長期間に渡って続く場合は、運転者に警告として出力する。出力は、アラーム音等の音声情報でも良いし、モニター表示やランプなどの視覚的なもの、振動を与えたりシートベルトを軽く締めたりするなど、運転者に対する触覚に関するもの、運転者が気付く程度の匂いを発して嗅覚に刺激を与える、またはそれらの組合せによるもので良い。 外部出力部108は、運転している移動体の外部の者に検知できるように、運転者状況判定部106の結果を出力するものである。自動車等の運転者に対して異常が検知された場合、それを当該自動車の外部に出力することにより、それを見た周囲の人物は注意を払うことができ、あらかじめ何らかの対処を行うことができ、周囲の安全を確保できると考えられる。出力は警告ランプ、フラッシュなどの視覚的なものや、サイレンなどの音が考えられる。また、運転者がある一定以上の時間ずっと異常な状態が続くなど緊急の場合には、乗り物に搭載された電話や無線機器、運転者の携帯電話など外部と連絡を取ることのできる装置を利用して、警察、消防署、警備会社などに自動的に連絡を取り、事故防止や、万が一事故が起きた場合でもすばやい対策を行うことができる。   The result output unit 107 gives an output to the driver in response to a request from the driver situation determination unit 106. If the determination that the driver situation determination unit 106 is in an abnormal state or is not in a normal state continues for a long time longer than a predetermined time, a warning is output to the driver. The output may be audio information such as an alarm sound, visual information such as a monitor display or a lamp, a tactile sensation to the driver, such as giving a vibration or lightly tightening the seat belt, A scent may be emitted to stimulate the sense of smell, or a combination thereof. The external output unit 108 outputs the result of the driver situation determination unit 106 so that it can be detected by a person outside the moving body that is driving. When an abnormality is detected for a driver of a car or the like, by outputting it to the outside of the car, the surrounding people who see it can pay attention and take some measures in advance. It is thought that the surrounding safety can be secured. The output can be a visual signal such as a warning lamp or flash, or a sound such as a siren. In the event of an emergency, such as when the driver continues to be in an abnormal state for a certain period of time, use a device that can communicate with the outside, such as a phone mounted on the vehicle, a wireless device, or the driver's mobile phone. Then, you can automatically contact the police, fire department, security company, etc. to prevent accidents and to take quick measures in the event of an accident.

機体制御部109は、運転者状況判定部106の結果に応じて、機体のエンジン、ハンドル、アクセル、ブレーキなどの機構を直接的に制御するものである。例えば、運転者状況判定部106が運転者の異常な状態を検知した場合、機体制御部109は機体の速度をそれ以上に上げないように制御し、長時間異常な状態が続けば段階的に減速させ、最終的には停止させることで事故を未然に防ぐことができると考えられる。もし、安全な場所があらかじめ分かっている場合は、そちらのほうへ機体を移動させても良い。機体を制御しているときに、外部出力部と連携して、例えば自動車の場合ならハザードランプなど、何らかのシグナルを外部に提示することもできる。   The body control unit 109 directly controls mechanisms such as the engine, steering wheel, accelerator, and brake of the body according to the result of the driver situation determination unit 106. For example, when the driver situation determination unit 106 detects an abnormal state of the driver, the airframe control unit 109 performs control so that the speed of the airframe is not further increased, and if the abnormal state continues for a long time, step by step. It is thought that accidents can be prevented by slowing down and finally stopping. If the safe location is known in advance, the aircraft may be moved there. When controlling the aircraft, it is also possible to present some signal to the outside in cooperation with the external output unit, such as a hazard lamp in the case of an automobile.

また機体における運転者の位置は、通常、運転席として定まっている。機体情報出力部105では、運転席に設置された感圧センサーを用いて運転者が運転席にいるかどうかを物理的にチェックし、その情報を出力することもできる。感圧センサー以外にも、赤外線などを利用したセンサーなど、人物が座っていることを検出できればどのようなセンサーでも良い。運転者が不在の場合は、運転者状況判定部106で運転者の状況をチェックしないようにし、不必要な警告をおさえることが期待できる。また、もし運転者不在で機体が移動していた場合には、運転者状況判定部106で、警告するような出力を送ることもできる。   In addition, the position of the driver on the aircraft is usually determined as a driver's seat. The body information output unit 105 can physically check whether the driver is in the driver's seat using a pressure-sensitive sensor installed in the driver's seat, and can output the information. In addition to the pressure sensor, any sensor such as a sensor using infrared rays can be used as long as it can detect that a person is sitting. When the driver is absent, it can be expected that the driver status determination unit 106 does not check the driver status and suppresses unnecessary warnings. Also, if the aircraft is moving without the driver, the driver status determination unit 106 can send an output that warns.

機体によっては、必ずしも運転席が定まっていない場合もある。その場合には、床に感圧センサーなど、位置を特定できるようなセンサーを設置し、運転者の位置を物理的にチェックする。得られた位置情報は、機体情報出力部105で出力される。運転者状況判定部106では、運転者が不在の場合は不必要な警告をしない。   Depending on the aircraft, the driver's seat may not be fixed. In that case, a sensor that can specify the position, such as a pressure sensor, is installed on the floor, and the position of the driver is physically checked. The obtained position information is output by the body information output unit 105. The driver situation determination unit 106 does not give an unnecessary warning when the driver is absent.

得られた運転者の位置情報は、画像入力部101に送ることもできる。例えば、パンチルト機能などを有したカメラの場合、運転者の位置情報を用いて、運転者の顔が現在撮影しているカメラの撮影範囲の中に適切に収まるように、パンチルトの制御を行う。また、複数のカメラを利用している場合、運転者の位置から最も近いカメラの画像を利用するなどし、より運転者の顔が適切に撮影できるようにすることもできる。また、カメラ自体の運動や、複数のカメラの切り替えをしない場合でも、運転者の位置情報から撮影された画像の中で運転者の位置を限定することができる。このようにカメラと運転者の位置関係から画像の処理範囲を限定することで、顔の誤検出や必要な処理量を減らすことができる。   The obtained driver position information can also be sent to the image input unit 101. For example, in the case of a camera having a pan / tilt function or the like, pan / tilt control is performed using the position information of the driver so that the driver's face is properly within the shooting range of the camera currently shooting. Further, when a plurality of cameras are used, an image of the camera closest to the driver's position can be used so that the driver's face can be captured more appropriately. In addition, even when the camera itself does not move or a plurality of cameras are not switched, the position of the driver can be limited in the image taken from the position information of the driver. Thus, by limiting the image processing range based on the positional relationship between the camera and the driver, it is possible to reduce face misdetection and the required processing amount.

本発明の一実施形態の構成を示すブロック図The block diagram which shows the structure of one Embodiment of this invention 顔領域判定部の顔が安全に存在する領域の図The figure of the area where the face of the face area judgment part exists safely 運転者の顔が正常な位置にある場合の図Illustration when driver's face is in normal position 運転者の顔が安全な範囲の外にある図Figure with driver's face outside the safe range 運転者が横を向いて顔検出に失敗した図Figure where the driver failed to detect the face sideways 運転者以外が検出されてしまう場合を説明するための図The figure for explaining the case where other than the driver is detected

符号の説明Explanation of symbols

101…画像入力部
102…顔検出部
103…運転者認識部
104…顔領域判定部
105…機体情報出力部
106…運転者状況判定部
107…結果出力部
108…外部出力部
109…機体制御部
DESCRIPTION OF SYMBOLS 101 ... Image input part 102 ... Face detection part 103 ... Driver recognition part 104 ... Face area | region determination part 105 ... Airframe information output part 106 ... Driver situation determination part 107 ... Result output part 108 ... External output part 109 ... Airframe control part

Claims (6)

入力された時系列画像中から運転者の顔の特徴点または顔領域を検出する顔検出部と、検出された顔の特徴点または顔領域の位置が画像内の適正な位置にあるか判断する顔領域判定部と、顔領域判定部の結果または顔検出部の結果から運転者の状態を判定する運転者状況判定部と、運転者に通知するため前記運転者状況判定結果を出力する結果出力部を有することを特徴とする運転者状況判定装置。   A face detection unit that detects a feature point or face area of the driver's face from the input time-series image, and determines whether the detected face feature point or face area position is an appropriate position in the image A face area determination unit; a driver condition determination unit that determines a driver's state from a result of the face area determination unit or a result of the face detection unit; and a result output that outputs the driver condition determination result to notify the driver A driver situation determination device characterized by having a section. 予め取得された顔画像または顔の特徴点情報と比較して、検出された顔が運転者本人のものであるか同定する運転者認識部を有し、前記運転者状況判定部は、前記認識結果に基づいて運転者の状態を判定することを特徴とする請求項1記載の運転者状況判定装置。   A driver recognition unit that identifies whether the detected face belongs to the driver or not in comparison with the previously acquired face image or facial feature point information, and the driver situation determination unit The driver state determination apparatus according to claim 1, wherein the state of the driver is determined based on the result. 前記運転者状況判定部は、運転者が運転している機体の状態に関する情報に基づいて運転者の状態を判定することを特徴とする請求項1または2記載の運転者状況判定装置。   3. The driver status determination apparatus according to claim 1, wherein the driver status determination unit determines the status of the driver based on information related to a status of a body that the driver is driving. 運転者以外の第三者に通知するため、前記運転者状況判定結果を出力する外部出力部を有することを特徴とする請求項1、2または3記載の運転者状況判定装置。   4. The driver situation determination apparatus according to claim 1, further comprising an external output unit configured to output the driver situation determination result in order to notify a third party other than the driver. 前記運転者状況判定部の結果に応じて機体を制御する機体制御部を有することを特徴とする請求項1、2、3または4記載の運転者状況判定装置。   5. The driver situation determination apparatus according to claim 1, further comprising a machine body control unit that controls the machine body according to a result of the driver situation determination unit. 入力された時系列画像中から運転者の顔の特徴点または顔領域を検出する顔検出手段と、検出された顔の特徴点または顔領域の位置が画像内の適性な位置にあるか判断する顔領域判定手段と、顔領域判定手段の結果または顔検出手段の結果から運転者の状態を判定する運転者状況判定手段と、運転者に通知するため前記運転者状況判定結果を出力する結果出力手段を有することを特徴とする運転者状況判定方法。   Face detection means for detecting a feature point or face area of the driver's face from the input time-series image, and determining whether the detected face feature point or face area position is an appropriate position in the image A face area determination means; a driver status determination means for determining a driver's state from the result of the face area determination means or the result of the face detection means; and a result output for outputting the driver status determination result to notify the driver A driver status determination method characterized by comprising means.
JP2003342538A 2003-09-30 2003-09-30 Driver condition determination device and method Pending JP2005108033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003342538A JP2005108033A (en) 2003-09-30 2003-09-30 Driver condition determination device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003342538A JP2005108033A (en) 2003-09-30 2003-09-30 Driver condition determination device and method

Publications (1)

Publication Number Publication Date
JP2005108033A true JP2005108033A (en) 2005-04-21

Family

ID=34536781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003342538A Pending JP2005108033A (en) 2003-09-30 2003-09-30 Driver condition determination device and method

Country Status (1)

Country Link
JP (1) JP2005108033A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201756A (en) * 2008-02-28 2009-09-10 Omron Corp Information processor and information processing method, and program
JP2014515847A (en) * 2011-03-25 2014-07-03 ティーケー ホールディングス インク. Driver alertness determination system and method
JP2015007953A (en) * 2013-06-24 2015-01-15 由田新技股▲ふん▼有限公司 Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
JP2015150896A (en) * 2014-02-10 2015-08-24 日野自動車株式会社 steering control device
WO2015198541A1 (en) * 2014-06-23 2015-12-30 株式会社デンソー Device for detecting driving incapacity state of driver
JP6202550B1 (en) * 2016-11-04 2017-09-27 株式会社テクノワークス Portable electronic devices with accident prevention measures
JP2018059834A (en) * 2016-10-06 2018-04-12 三菱電機株式会社 Navigation system, occupant monitoring device, information terminal device, server, and navigation program
KR101885715B1 (en) * 2017-01-31 2018-09-10 주식회사 이랜텍 Electric bicycle drive control system
JP2018156453A (en) * 2017-03-17 2018-10-04 グローリー株式会社 System, method, and program for providing images
WO2019111696A1 (en) * 2017-12-08 2019-06-13 株式会社デンソー Abnormality detection device and abnormality detection program
WO2019187979A1 (en) * 2018-03-27 2019-10-03 日本電気株式会社 Look-away determination device, look-away determination system, look-away determination method, and storage medium
WO2021001944A1 (en) * 2019-07-02 2021-01-07 三菱電機株式会社 On-board image processing device and on-board image processing method
WO2021001943A1 (en) * 2019-07-02 2021-01-07 三菱電機株式会社 In-vehicle image processing device and in-vehicle image processing method
US10909399B2 (en) 2014-06-23 2021-02-02 Denso Corporation Apparatus detecting driving incapability state of driver
CN113947869A (en) * 2021-10-18 2022-01-18 广州海事科技有限公司 Alarm method, system, computer equipment and medium based on ship driving state
JP2022077282A (en) * 2020-11-11 2022-05-23 株式会社コムテック Warning system
JP2022077281A (en) * 2020-11-11 2022-05-23 株式会社コムテック Detection system
US11625927B2 (en) 2018-07-09 2023-04-11 Denso Corporation Abnormality determination apparatus

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201756A (en) * 2008-02-28 2009-09-10 Omron Corp Information processor and information processing method, and program
JP2014515847A (en) * 2011-03-25 2014-07-03 ティーケー ホールディングス インク. Driver alertness determination system and method
JP2015007953A (en) * 2013-06-24 2015-01-15 由田新技股▲ふん▼有限公司 Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
JP2015150896A (en) * 2014-02-10 2015-08-24 日野自動車株式会社 steering control device
US10909399B2 (en) 2014-06-23 2021-02-02 Denso Corporation Apparatus detecting driving incapability state of driver
JP2016027452A (en) * 2014-06-23 2016-02-18 株式会社デンソー Driving disabled state detector of driver
CN106463065A (en) * 2014-06-23 2017-02-22 株式会社电装 Device for detecting driving incapacity state of driver
CN114512030A (en) * 2014-06-23 2022-05-17 株式会社电装 Driving incapability state detection device for driver
US11820383B2 (en) 2014-06-23 2023-11-21 Denso Corporation Apparatus detecting driving incapability state of driver
CN114512030B (en) * 2014-06-23 2024-04-30 株式会社电装 Device for detecting driving incapacity state of driver
US10936888B2 (en) 2014-06-23 2021-03-02 Denso Corporation Apparatus detecting driving incapability state of driver
US10474914B2 (en) 2014-06-23 2019-11-12 Denso Corporation Apparatus detecting driving incapability state of driver
CN111311963B (en) * 2014-06-23 2024-05-07 株式会社电装 Device for detecting driving incapacity state of driver
WO2015198541A1 (en) * 2014-06-23 2015-12-30 株式会社デンソー Device for detecting driving incapacity state of driver
CN111311963A (en) * 2014-06-23 2020-06-19 株式会社电装 Driving incapability state detection device for driver
JP2018059834A (en) * 2016-10-06 2018-04-12 三菱電機株式会社 Navigation system, occupant monitoring device, information terminal device, server, and navigation program
JP6202550B1 (en) * 2016-11-04 2017-09-27 株式会社テクノワークス Portable electronic devices with accident prevention measures
JP2018073339A (en) * 2016-11-04 2018-05-10 株式会社テクノワークス Portable electronic apparatus with accident prevention function
KR101885715B1 (en) * 2017-01-31 2018-09-10 주식회사 이랜텍 Electric bicycle drive control system
JP2018156453A (en) * 2017-03-17 2018-10-04 グローリー株式会社 System, method, and program for providing images
JP2019105872A (en) * 2017-12-08 2019-06-27 株式会社デンソー Abnormality detection device and abnormality detection program
WO2019111696A1 (en) * 2017-12-08 2019-06-13 株式会社デンソー Abnormality detection device and abnormality detection program
JP7003612B2 (en) 2017-12-08 2022-01-20 株式会社デンソー Anomaly detection device and anomaly detection program
US11615632B2 (en) 2017-12-08 2023-03-28 Denso Corporation Abnormality detection device and abnormality detection program
JP2019174885A (en) * 2018-03-27 2019-10-10 日本電気株式会社 Looking-away determination device, looking-away determination system, looking-away determination method, and program
WO2019187979A1 (en) * 2018-03-27 2019-10-03 日本電気株式会社 Look-away determination device, look-away determination system, look-away determination method, and storage medium
US11893806B2 (en) 2018-03-27 2024-02-06 Nec Corporation Looking away determination device, looking away determination system, looking away determination method, and storage medium
US11625927B2 (en) 2018-07-09 2023-04-11 Denso Corporation Abnormality determination apparatus
WO2021001944A1 (en) * 2019-07-02 2021-01-07 三菱電機株式会社 On-board image processing device and on-board image processing method
JP7183420B2 (en) 2019-07-02 2022-12-05 三菱電機株式会社 In-vehicle image processing device and in-vehicle image processing method
JPWO2021001943A1 (en) * 2019-07-02 2021-11-25 三菱電機株式会社 In-vehicle image processing device and in-vehicle image processing method
JPWO2021001944A1 (en) * 2019-07-02 2021-11-04 三菱電機株式会社 In-vehicle image processing device and in-vehicle image processing method
WO2021001943A1 (en) * 2019-07-02 2021-01-07 三菱電機株式会社 In-vehicle image processing device and in-vehicle image processing method
JP7081844B2 (en) 2020-11-11 2022-06-07 株式会社コムテック Detection system
JP2022077281A (en) * 2020-11-11 2022-05-23 株式会社コムテック Detection system
JP2022077282A (en) * 2020-11-11 2022-05-23 株式会社コムテック Warning system
CN113947869B (en) * 2021-10-18 2023-09-01 广州海事科技有限公司 Alarm method, system, computer equipment and medium based on ship driving state
CN113947869A (en) * 2021-10-18 2022-01-18 广州海事科技有限公司 Alarm method, system, computer equipment and medium based on ship driving state

Similar Documents

Publication Publication Date Title
TWI758689B (en) Method, device, electronic equipment and storage medium for identifying the dangerous actions of persons in the vehicle
JP2005108033A (en) Driver condition determination device and method
US20150379362A1 (en) Imaging device based occupant monitoring system supporting multiple functions
WO2015122158A1 (en) Driving support device
JP4788620B2 (en) Drunk driving prevention support system
EP2908726B1 (en) Method and device for detecting decreased attentiveness of vehicle driver
KR101768847B1 (en) Black box equipped with gas sensitive function
US20150125126A1 (en) Detection system in a vehicle for recording the speaking activity of a vehicle occupant
WO2014188648A1 (en) Driver confirmation device
KR20120074820A (en) Control system for vehicle using face recognition function
CN109291794A (en) Driver status monitoring method, automobile and storage medium
US20200104617A1 (en) System and method for remote monitoring of a human
KR20160112213A (en) Audio navigation device, vehicle having the same, user device, and method for controlling vehicle
TW201328340A (en) Noticing system and method for looking for passengers
JP2002254956A (en) Device for detecting falling-off awakened condition
JP2008305190A (en) Doze warning device and car
KR101461911B1 (en) System and method of guiding to fasten safety belt correctly
KR20120119537A (en) System and method for intelligent monitoring using proximity sensor and in vehicle camera
US20220319200A1 (en) Device and method for determining image data of the eyes, eye positions and/or a viewing direction of a vehicle user in a vehicle
KR101324650B1 (en) apparatus for preventing dozing at the wheel
JP2018148530A (en) Vehicle display controller, vehicle display system, vehicle display control method, and program
Jamil et al. Design and implementation of an eye blinking detector system for automobile accident prevention
US11587335B2 (en) Method for influencing systems for monitoring alertness
JPH10272961A (en) Doze alarm device
TWI549100B (en) Driver detection apparatus and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070427

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070511

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070608