JP2021007717A - Occupant observation device, occupant observation method and program - Google Patents
Occupant observation device, occupant observation method and program Download PDFInfo
- Publication number
- JP2021007717A JP2021007717A JP2019124391A JP2019124391A JP2021007717A JP 2021007717 A JP2021007717 A JP 2021007717A JP 2019124391 A JP2019124391 A JP 2019124391A JP 2019124391 A JP2019124391 A JP 2019124391A JP 2021007717 A JP2021007717 A JP 2021007717A
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- eye
- unit
- degree
- index value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Abstract
Description
本発明は、乗員観察装置、乗員観察方法、及びプログラムに関する。 The present invention relates to an occupant observation device, an occupant observation method, and a program.
従来、車両の乗員が居眠りしていることを装置によって判定する仕組みについて研究が進められている。乗員が居眠りしていること判定するために重要な要素として、眼の状態が挙げられる。従って、カメラによって乗員を撮像し、画像を解析して眼の状態を観察する装置の実用化が進められている(例えば、特許文献1参照)。 Conventionally, research has been conducted on a mechanism for determining that a vehicle occupant is asleep by a device. An important factor for determining that an occupant is asleep is the condition of the eyes. Therefore, a device that captures an image of an occupant with a camera, analyzes the image, and observes the state of the eye is being put into practical use (see, for example, Patent Document 1).
ここで、乗員の眠気は眼以外の場所にも現れる場合がある。しかしながら、従来の技術では、眼の状態以外の要素に基づいて、乗員が居眠りしているかを判定することまではできなかった。 Here, the drowsiness of the occupant may appear in places other than the eyes. However, with the conventional technique, it has not been possible to determine whether or not the occupant is dozing based on factors other than the condition of the eyes.
本発明は、このような事情を考慮してなされたものであり、精度良く乗員が居眠りしているかを判定することができる乗員観察装置、乗員観察方法、及びプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an occupant observation device, an occupant observation method, and a program capable of accurately determining whether or not an occupant is asleep. Let's try.
この発明に係る乗員観察装置、乗員観察方法、及びプログラムは、以下の構成を採用した。
(1)この発明の一態様の乗員観察装置は、車両の乗員の頭部を撮像し、画像を生成する撮像部と、前記撮像部により生成された前記画像に基づいて、前記乗員の眼の開閉度合いを示す指標値を導出する指標値導出部と、前記乗員の頭部の傾きの、覚醒時を基準とした変化度合いを推定する傾き推定部と、前記指標値導出部によって導出された前記指標値と、前記傾き推定部によって検出された前記変化度合いとの双方に基づく判定の結果に基づいて、前記乗員が居眠りしているか否かを判定する判定部と、を備えるものである。
The occupant observation device, the occupant observation method, and the program according to the present invention have the following configurations.
(1) The occupant observation device according to one aspect of the present invention is an imaging unit that images the head of a vehicle occupant and generates an image, and the occupant's eyes based on the image generated by the imaging unit. The index value derivation unit for deriving the index value indicating the degree of opening / closing, the inclination estimation unit for estimating the degree of change of the inclination of the occupant's head with respect to the awakening time, and the index value derivation unit derived by the index value derivation unit. It is provided with a determination unit for determining whether or not the occupant is asleep based on the result of determination based on both the index value and the degree of change detected by the inclination estimation unit.
(2)の態様は、上記(1)の態様に係る乗員観察装置が、前記撮像部により生成された前記画像に基づいて、前記乗員の眼の輪郭の一部を少なくとも検出する眼検出部を更に備え、前記指標値導出部は、前記眼検出部により検出された輪郭における複数の特徴点の位置関係に基づいて、前記指標値を導出するものである。 The aspect (2) is an eye detection unit in which the occupant observation device according to the above aspect (1) detects at least a part of the contour of the occupant's eye based on the image generated by the imaging unit. Further, the index value deriving unit derives the index value based on the positional relationship of a plurality of feature points in the contour detected by the eye detecting unit.
(3)の態様は、上記(1)または(2)の態様に係る乗員観察装置において、前記判定部は、前記指標値が、開眼度合いが第1閾値未満であることを示し、または閉眼度合いが第2閾値以上であることを示す状態が第1所定時間以上継続した場合に、前記乗員が居眠りしていると判定するものである。 The aspect (3) is the occupant observation device according to the above aspect (1) or (2), and the determination unit indicates that the index value indicates that the degree of eye opening is less than the first threshold value, or the degree of eye closure. When the state indicating that is equal to or higher than the second threshold value continues for the first predetermined time or longer, it is determined that the occupant is dozing.
(4)の態様は、上記(1)から(3)のいずれかの態様に係る乗員観察装置において、前記判定部は、前記変化度合いが第3閾値以上傾いている状態が第2所定時間以上継続した場合に、前記乗員が居眠りしていると判定するものである。 In the aspect (4), in the occupant observation device according to any one of the above aspects (1) to (3), the determination unit is in a state where the degree of change is tilted by the third threshold value or more for the second predetermined time or more. If it continues, it is determined that the occupant is dozing.
(5)この発明の他の態様の乗員観察方法は、コンピュータが、車両の乗員の頭部を撮像して画像を生成し、生成された前記画像に基づいて、前記乗員の眼の開閉度合いを示す指標値を導出し、前記乗員の頭部の傾きの、覚醒時を基準とした変化度合いを推定し、導出された前記指標値と、推定された前記変化度合いとの双方に基づく判定の結果に基づいて、前記乗員が居眠りしているか否かを判定するものである。 (5) In another aspect of the occupant observation method of the present invention, a computer images the head of a vehicle occupant to generate an image, and based on the generated image, the degree of opening / closing of the occupant's eyes is determined. The indicated index value is derived, the degree of change in the inclination of the occupant's head with respect to the time of awakening is estimated, and the result of judgment based on both the derived index value and the estimated degree of change. Based on the above, it is determined whether or not the occupant is asleep.
(6)この発明の他の態様のプログラムは、コンピュータに、車両の乗員の頭部を撮像して画像を生成し、生成された前記画像に基づいて、前記乗員の眼の開閉度合いを示す指標値を導出し、前記乗員の頭部の傾きの、覚醒時を基準とした変化度合いを推定し、導出された前記指標値と、推定された前記変化度合いとの双方に基づく判定の結果に基づいて、前記乗員が居眠りしているか否かを判定するものである。 (6) The program of another aspect of the present invention uses a computer to image the head of a vehicle occupant to generate an image, and based on the generated image, an index indicating the degree of opening and closing of the occupant's eyes. A value is derived, the degree of change in the inclination of the occupant's head with respect to the time of awakening is estimated, and based on the result of determination based on both the derived index value and the estimated degree of change. Therefore, it is determined whether or not the occupant is asleep.
(1)〜(6)によれば、精度良く乗員が居眠りしているかを判定することができる。 According to (1) to (6), it is possible to accurately determine whether or not the occupant is asleep.
(3)〜(4)によれば、より精度良く乗員が居眠りしているかを判定することができる。 According to (3) to (4), it is possible to more accurately determine whether or not the occupant is dozing.
以下、図面を参照し、本発明の乗員観察装置、乗員観察方法、及びプログラムの実施形態について説明する。 Hereinafter, the occupant observation device, the occupant observation method, and the embodiment of the program of the present invention will be described with reference to the drawings.
<実施形態>
図1は、乗員観察装置1の構成と使用環境の一例を示す図である。乗員観察装置1は、例えば、撮像部10と、画像処理装置20とを備える。画像処理装置20は、例えば、眼検出部22と、開眼率導出部24と、傾き推定部26と、判定部28とを備える。乗員観察装置1は、例えば、車両の乗員の状態が居眠りしているかを判定し、判定結果を各種車載装置100に出力する。乗員は、少なくとも運転者を含み、助手席乗員を含んでもよい。各種車載装置100は、運転支援装置、自動運転制御装置、エージェント装置、その他の装置であり、乗員観察装置1は、各種車載装置100の種類や目的に応じた乗員の状態を推定して出力する。
<Embodiment>
FIG. 1 is a diagram showing an example of the configuration and usage environment of the
図2は、撮像部10の設置される位置を例示した図である。撮像部10は、例えば、車両のインストルメントパネルの中央部に設置され、車両の乗員の少なくとも頭部を撮像し、画像を生成する。撮像部10は、ステアリングホイールSWが設けられた運転席DS(着座位置の一例)と、助手席AS(着座位置の他の一例)とのいずれに対しても、それらに正対する位置から横方向にオフセットした位置に設置される。このため、撮像部10が生成した画像は、横方向に関して、斜めから乗員の頭部を撮像して生成された画像となる。換言すると、撮像部10の光軸上には乗員の少なくとも頭部が存在しない状況となる。
FIG. 2 is a diagram illustrating the position where the
図1に戻り、画像処理装置20の各部について説明する。画像処理装置20の構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
Returning to FIG. 1, each part of the
眼検出部22の機能について、一例として、エッジを抽出した後に眼を検出する手法について説明する。眼検出部22は、例えば、まず撮像部10によって生成された画像(以下、撮像画像と称する)において、エッジを抽出する。エッジとは、自身の周辺の画素との画素値の差が基準よりも大きい画素(或いは画素群)、すなわち特徴的な画素である。眼検出部22は、例えば、SOBELフィルタなどのエッジ抽出フィルタを用いて、エッジを抽出する。なお、SOBELフィルタを用いるのは単なる一例であり、眼検出部22は、他のフィルタ、或いはアルゴリズムに基づいてエッジを抽出してもよい。
As an example of the function of the
眼検出部22は、例えば、撮像画像において抽出されたエッジの分布に基づいて、撮像画像における少なくとも乗員の眼の一部を検出する。このとき、眼検出部22は、乗員の眼のうち撮像部10に近い方の眼を検出対象とする。撮像部10に近い方の眼とは、運転席DSに着座した乗員であれば左眼であり、助手席ASに着座した乗員であれば右目である。眼検出部22は、エッジを抽出するのではなく、ディープラーニングなどの機械学習手法により生成された学習済みモデルに撮像画像を入力することで、眼の一部(或いは後述する特徴点)を直接的に検出するようにしてもよい。
The
図3は、眼検出部22による処理の内容を模式的に示す図である。図中、IMは撮像画像にエッジEGを重畳させた画像を表している。また、本図では専ら運転席DSに着座した乗員に着目している。眼検出部22は、まず、図3の上図に示すように、エッジEGに対して楕円や卵型などのモデルをフィッティングすることで、顔の輪郭CTを抽出する。次に、眼検出部22は、図3の中図に示すように、顔の輪郭CTを基準として鼻検出ウインドウNMを設定し、鼻検出ウインドウNMの中で、エッジが明確に抽出されやすい部位である鼻梁BNの位置を検出する。次に、眼検出部22は、図3の下図に示すように、鼻梁BNの位置を基準として、乗員の左眼が存在する筈の鼻梁BNの右側に所定のサイズの眼検出ウインドウEWを設定し、眼検出ウインドウEWの中で眼の少なくとも一部を検出する。これによって、運転席DSに着座した乗員の左目に重なる位置に眼検出ウインドウEWが設定されることになるため、眼検出ウインドウEWの中で左目が検出されることになる。なお、「眼の少なくとも一部を検出する」処理の具体例については種々に定義されるが、以下の説明では、「目の輪郭の少なくとも一部を検出する」ものとする。輪郭を検出する際に、眼検出部22は、例えば、エッジEGの分布に曲線モデルをフィッティングすることで、輪郭を検出する。
FIG. 3 is a diagram schematically showing the content of processing by the
開眼率導出部24は、眼検出部22により検出された眼の輪郭における複数の特徴点の位置関係に基づいて、乗員の眼の開眼率αを導出する。複数の特徴点とは、例えば、眼の輪郭における、横方向に関して撮像部10に近い側の端部(目尻に相当する)である第1特徴点と、上端部である第2特徴点と、下端部である第3特徴点とを含む。図4は、開眼率導出部24の処理について説明するための図(その1)である。図中、P1は第1特徴点、P2は第2特徴点、P3は第3特徴点である。開眼率導出部24は、例えば、眼検出ウインドウEW内で垂直線を眼検出ウインドウEWの右端から左に向かって仮想的に移動させ、最初に眼の輪郭ECTと交わったときの交点を第1特徴点P1とする。また、開眼率導出部24は、例えば、眼検出ウインドウEW内で水平線を眼検出ウインドウEWの上端から下に向かって仮想的に移動させ、最初に眼の輪郭ECTと交わったときの交点を第2特徴点P2とする。また、開眼率導出部24は、例えば、眼検出ウインドウEW内で水平線を眼検出ウインドウEWの下端から上に向かって仮想的に移動させ、最初に眼の輪郭ECTと交わったときの交点を第3特徴点P3とする。
The eye opening
そして、開眼率導出部24は、第1特徴点P1と第2特徴点P2とを結ぶ第1直線と、第1特徴点P1と第3特徴点P3とを結ぶ第2直線とのなす角度に基づいて、乗員の開眼率αを導出する。図5は、開眼率導出部24の処理について説明するための図(その2)である。図中、L1が第1直線であり、L2が第2直線であり、θ1がそれらのなす角度である。開眼率導出部24は、例えば、当該乗員が車両に乗り込んでから最初の数分程度の撮像画像に基づいて導出された角度の平均を求めた基準角度θiniを開眼率αの100[%]と定義し、その後に導出された角度θ1を基準角度θiniで除算して開眼率αを導出する(式(1)参照)。なお、これに限らず、乗員の人物認証が行われる場合、乗員ごとの100[%]に対応する基準角度をメモリに記憶させ、乗員ごとに基準角度をメモリから読み出して計算に使用してもよい。また、規定値を基準角度θiniに設定してもよいし、最初は規定値を使用し、徐々に乗員の平均的な角度に合わせていくようにしてもよい。
Then, the eye opening
α=MIN{θ1/θini,100[%]} …(1) α = MIN {θ1 / θini, 100 [%]}… (1)
また、これまでの説明では、あくまで画像平面上での角度θ1に基づいて開眼率αを導出するものとしているが、例えば、眼の三次元モデルを用意しておき、顔の輪郭CTと鼻梁BNの関係から推定される顔向き角度に応じて回転させた目のモデルから二次元に写像した後に、上記説明した処理を行うことで、開眼率αの推定精度を向上させることができる。また、開眼率導出部24は、眼の開閉度合いを示す指標値として、乗員の閉眼率を導出してもよい。この場合、開眼率導出部24は、100[%]から開眼率αを差し引いた値を閉眼率βとして導出する。開眼率α、及び閉眼率βは、「眼の開閉度合いを示す指標値」の一例であり、開眼率導出部24は、「指標値導出部」の一例であり、開眼率αは、「開眼度合い」の一例であり、閉眼率βは、「閉眼度合い」の一例である。
Further, in the explanation so far, the eye opening rate α is derived based on the angle θ1 on the image plane. However, for example, a three-dimensional model of the eye is prepared, and the facial contour CT and the nasal bridge BN are prepared. The estimation accuracy of the eye opening rate α can be improved by performing the processing described above after two-dimensionally mapping the eye model rotated according to the face orientation angle estimated from the above relationship. Further, the eye opening
図6は、傾き推定部26による処理の内容を模式的に示す図である。また、本図では専ら運転席DSに着座した乗員に着目している。まず、傾き推定部26は、眼検出部22の処理過程の一部を利用し、図6の上図に示すように、エッジEGに対して楕円や卵型などのモデルをフィッティングすることで、顔の輪郭CTを抽出する。次に、傾き推定部26は、図6の中図に示すように、眼検出部22によって検出された左眼と右眼とを結ぶ仮想的な第1線分CL1の中点から、抽出した顔の輪郭CTの弧の中点(つまり、顎の位置)までを結ぶ第2線分CL2の位置を検出する。上記に代えて、傾き推定部26は、ディープラーニングなどの機械学習手法により生成された学習済みモデルに撮像画像を入力することで、第2線分CL2を直接的に検出するようにしてもよい。
FIG. 6 is a diagram schematically showing the content of processing by the
そして、傾き推定部26は、図6の下図に示すように、所定線分CL2dを基準とした第2線分CL2の変化度合いを推定する。所定線分CL2dは、乗員の覚醒時において検出されたものである。所定線分CL2dは、第2線分CL2が覚醒時に比してどれくらい傾いているかを評価する基準として用いられる。所定線分CL2dは、例えば、乗員が車両に乗車するタイミングに検出される。検出された所定線分CL2dを示す情報は、例えば、乗員観察装置1が備える記憶部(不図示)に記憶(更新)される。傾き推定部26は、例えば、第2線分CL2と、所定線分CL2dとの下方の端部とを重ね合わせた際の第2線分CL2と所定線分CL2dのなす角度θ2を、所定線分CL2dを基準とした第2線分CL2の変化度合いとして推定する。
Then, as shown in the lower figure of FIG. 6, the
なお、これまでの説明では、あくまで画像平面上での角度θ2に基づいて変化度合いを導出するものとしているが、例えば、第2線分CL2に係る三次元モデルを用意しておき、顔の輪郭CTと鼻梁BNの関係から推定される顔向き角度に応じて回転させた第2線分CL2のモデルから二次元に写像した後に、上記説明した処理を行うことで、変化度合いの推定精度を向上させることができる。 In the explanation so far, the degree of change is derived based on the angle θ2 on the image plane. However, for example, a three-dimensional model related to the second line segment CL2 is prepared and the contour of the face. After mapping two-dimensionally from the model of the second line segment CL2 rotated according to the face orientation angle estimated from the relationship between CT and the nasal bridge BN, the above-described processing is performed to improve the estimation accuracy of the degree of change. Can be made to.
判定部28は、例えば、開眼率導出部24により導出された開眼率αと、傾き推定部26により推定された角度θ2とに基づいて、乗員が居眠りしているかを判定し、各種車載装置100に出力する。例えば、判定部28は、開眼率αが小さくなるほど乗員の眠気が強いと判定し、開眼率αが第1閾値Th1未満である場合に、乗員の眠気が強い、或いは乗員が居眠りしていると判定する。また、判定部28は、閉眼率βが大きくなるほど乗員の眠気が強いと判定し、閉眼率βが第2閾値Th2以上である場合に、乗員の眠気が強い、或いは乗員が居眠りしていると判定する。例えば、第1閾値Th1は、乗員が居眠りしていない状態と、居眠りしている状態とを識別可能な開眼率αを示す値であり、第2閾値Th2は、乗員が居眠りしていない状態と、居眠りしている状態とを識別可能な閉眼率βを示す値である。
The
また、判定部28は、角度θ2が大きくなるほど乗員の眠気が強いと判定し、角度θ2が第3閾値Th3以上である場合に、乗員の眠気が強い、或いは乗員が居眠りしていると判定する。第3閾値Th3は、乗員が居眠りしていない状態と、居眠りしている状態とを識別可能な角度θ2を示す値である。
Further, the
なお、第1閾値Th1、第2閾値Th2、及び第3閾値Th3は、予め値が定められていてもよく、車両に乗車した乗員毎に決定されてもよく、撮像部10によって生成された画像を用いたディープラーニングにより学習された学習モデルを用いて導出されてもよい。
The values of the first threshold value Th1, the second threshold value Th2, and the third threshold value Th3 may be predetermined, may be determined for each occupant in the vehicle, and the image generated by the
また、判定部28は、開眼率αが第1閾値Th1未満である状態が第1所定時間以上継続した場合、又は閉眼率βが第2閾値Th2以上である状態が第1所定時間以上継続した場合に乗員が居眠りしていると判定する。また、判定部28は、角度θ2が第3閾値Th3以上である状態が第2所定時間以上継続した場合に乗員が居眠りしていると判定する。
Further, in the
[動作フロー]
図7は、画像処理装置20により実行される処理の流れの一例を示すフローチャートである。まず、画像処理装置20は、撮像部10により生成された画像を取得する(ステップS100)。次に、眼検出部22は、取得された画像においてエッジを抽出する(ステップS102)。
[Operation flow]
FIG. 7 is a flowchart showing an example of the flow of processing executed by the
眼検出部22は、撮像画像において抽出されたエッジの分布に基づいて、撮像画像における少なくとも乗員の眼の一部を検出する(ステップS104)。開眼率導出部24は、眼検出部22により検出された眼の輪郭における複数の特徴点の位置関係に基づいて、乗員の眼の開眼率αを導出する(ステップS106)。なお、開眼率導出部24は、複数の特徴点の位置関係に基づいて、乗員の眼の閉眼率βを導出してもよい。
The
判定部28は、開眼率導出部24によって導出された開眼率αが第1閾値Th1未満であるか否か、又は閉眼率βが第2閾値Th2以上であるか否かを判定する(ステップS108)。判定部28は、開眼率αが第1閾値Th1以上である、又は閉眼率βが第2閾値Th2未満であると判定した場合、乗員が眠気を感じていないものとして処理を終了する。判定部28は、開眼率αが第1閾値Th1未満である、又は閉眼率βが第2閾値Th2以上であると判定した場合、乗員が眠気を感じているものとし、更に、開眼率αが第1閾値Th1未満である状態、又は閉眼率βが第2閾値Th2以上である状態が第1所定時間以上継続したか否かを判定する(ステップS110)。判定部28は、開眼率αが第1閾値Th1未満である状態、又は閉眼率βが第2閾値Th2以上である状態が第1所定時間以上継続したと判定した場合、処理をステップS120に進め、乗員が居眠りしていると判定する(ステップS120)。
The
傾き推定部26は、判定部28によって乗員が眠気を感じているものの、開眼率αが第1閾値Th1未満である状態、又は閉眼率βが第2閾値Th2以上である状態が第1所定時間以上継続していないと判定された場合、眼検出部22によって抽出されたエッジEGに基づいて、第2線分CL2の位置を検出する(ステップS112)。傾き推定部26は、所定線分CL2dを基準とした第2線分CL2の変化度合い(つまり、角度θ2)を推定する(ステップS114)。
In the
判定部28は、傾き推定部26によって推定された角度θ2が第3閾値Th3以上であるか否かを判定する(ステップS116)。判定部28は、角度θ2が第3閾値Th3未満であると判定した場合、乗員が眠気を感じていないものとして処理を終了する。判定部28は、角度θ2が第3閾値Th3以上であると判定した場合、乗員が眠気を感じているものとし、更に、角度θ2が第3閾値Th3以上である状態が第2所定時間以上継続したか否かを判定する(ステップS118)。
The
判定部28は、乗員が眠気を感じていると判定したものの、開眼率αが第1閾値Th1未満である状態、又は閉眼率βが第2閾値Th2以上である状態が第1所定時間以上継続しなかった場合と、角度θ2が第3閾値Th3以上である状態が第2所定時間以上継続しなかった場合には、乗員が居眠りしていないものとして処理を終了する。判定部28は、角度θ2が第3閾値Th3以上である状態が第2所定時間以上継続したと判定した場合、乗員が居眠りしていると判定する(ステップS120)。
Although the
なお、上述では、画像処理装置20が、まず開眼率α、又は閉眼率βに係る判定処理(ステップS104〜S110の処理)を行った後、角度θ2に係る判定処理(ステップS112〜S118の処理)を行う場合について説明したが、これに限られない。画像処理装置20は、例えば、開眼率α、又は閉眼率βに係る判定処理と、角度θ2に係る判定処理とを並行して行ってもよく、角度θ2に係る判定処理を行った後、開眼率α、又は閉眼率βに係る判定処理を行ってもよい。
In the above description, the
以上説明したように、本実施形態の乗員観察装置1によれば、眼検出部22、及び開眼率導出部24の処理によって導出された眼の開閉度合いを示す指標値と、傾き推定部26によって推定された乗員の頭部の傾きの、覚醒時を基準とした変化度合いとの双方に基づく判定の結果に基づいて、どちらか1つの指標を用いるよりも精度良く乗員が居眠りしているかを判定することができる。
As described above, according to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1…乗員観察装置、10…撮像部、20…画像処理装置、22…眼検出部、24…開眼率導出部、26…推定部、28…判定部、100…各種車載装置、BN…鼻梁、CL1…第1線分、CL2…第2線分、CL2d…所定線分、CT…顔の輪郭、ECT…目の輪郭、EG…エッジ、EW…眼検出ウインドウ、NM…鼻検出ウインドウ、Th1…第1閾値、Th2…第2閾値、Th3…第3閾値、α…開眼率、β…閉眼率、θ1…角度、θ2…角度、θini…基準角度 1 ... Crew observation device, 10 ... Imaging unit, 20 ... Image processing device, 22 ... Eye detection unit, 24 ... Eye opening rate derivation unit, 26 ... Estimating unit, 28 ... Judgment unit, 100 ... Various in-vehicle devices, BN ... Nose bridge, CL1 ... 1st line segment, CL2 ... 2nd line segment, CL2d ... Predetermined line segment, CT ... Face contour, ECT ... Eye contour, EG ... Edge, EW ... Eye detection window, NM ... Nose detection window, Th1 ... 1st threshold, Th2 ... 2nd threshold, Th3 ... 3rd threshold, α ... eye opening rate, β ... eye closing rate, θ1 ... angle, θ2 ... angle, θini ... reference angle
Claims (6)
前記撮像部により生成された前記画像に基づいて、前記乗員の眼の開閉度合いを示す指標値を導出する指標値導出部と、
前記乗員の頭部の傾きの、覚醒時を基準とした変化度合いを推定する傾き推定部と、
前記指標値導出部によって導出された前記指標値と、前記傾き推定部によって検出された前記変化度合いとの双方に基づく判定の結果に基づいて、前記乗員が居眠りしているか否かを判定する判定部と、
を備える乗員観察装置。 An imaging unit that captures the head of the occupant of the vehicle and generates an image,
An index value deriving unit that derives an index value indicating the degree of opening and closing of the eyes of the occupant based on the image generated by the imaging unit, and
A tilt estimation unit that estimates the degree of change in the tilt of the occupant's head with respect to the time of awakening,
Judgment to determine whether or not the occupant is dozing based on the result of determination based on both the index value derived by the index value deriving unit and the change degree detected by the inclination estimation unit. Department and
An occupant observation device equipped with.
前記指標値導出部は、前記眼検出部により検出された輪郭における複数の特徴点の位置関係に基づいて、前記指標値を導出する、
請求項1に記載の乗員観察装置。 An eye detection unit that detects at least a part of the contour of the occupant's eye based on the image generated by the imaging unit is further provided.
The index value deriving unit derives the index value based on the positional relationship of a plurality of feature points in the contour detected by the eye detecting unit.
The occupant observation device according to claim 1.
請求項1または2に記載の乗員観察装置。 The determination unit indicates that the index value indicates that the degree of eye opening is less than the first threshold value, or the state indicating that the degree of eye closure is equal to or more than the second threshold value continues for the first predetermined time or longer. Judges that he is dozing,
The occupant observation device according to claim 1 or 2.
請求項1から3のうちいずれか一項に記載の乗員観察装置。 The determination unit determines that the occupant is dozing when the state in which the degree of change is tilted by the third threshold value or more continues for the second predetermined time or more.
The occupant observation device according to any one of claims 1 to 3.
車両の乗員の頭部を撮像して画像を生成し、
生成された前記画像に基づいて、前記乗員の眼の開閉度合いを示す指標値を導出し、
前記乗員の頭部の傾きの、覚醒時を基準とした変化度合いを推定し、
導出された前記指標値と、推定された前記変化度合いとの双方に基づく判定の結果に基づいて、前記乗員が居眠りしているか否かを判定する、
乗員観察方法。 The computer
The head of the occupant of the vehicle is imaged to generate an image,
Based on the generated image, an index value indicating the degree of opening and closing of the eyes of the occupant is derived.
Estimate the degree of change in the inclination of the occupant's head with respect to the time of awakening.
Based on the result of the determination based on both the derived index value and the estimated degree of change, it is determined whether or not the occupant is asleep.
Crew observation method.
車両の乗員の頭部を撮像して画像を生成し、
生成された前記画像に基づいて、前記乗員の眼の開閉度合いを示す指標値を導出し、
前記乗員の頭部の傾きの、覚醒時を基準とした変化度合いを推定し、
導出された前記指標値と、推定された前記変化度合いとの双方に基づく判定の結果に基づいて、前記乗員が居眠りしているか否かを判定する、
プログラム。 On the computer
The head of the occupant of the vehicle is imaged to generate an image,
Based on the generated image, an index value indicating the degree of opening and closing of the eyes of the occupant is derived.
Estimate the degree of change in the inclination of the occupant's head with respect to the time of awakening.
Based on the result of the determination based on both the derived index value and the estimated degree of change, it is determined whether or not the occupant is asleep.
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124391A JP2021007717A (en) | 2019-07-03 | 2019-07-03 | Occupant observation device, occupant observation method and program |
CN202010594597.2A CN112183176A (en) | 2019-07-03 | 2020-06-24 | Occupant observation device, occupant observation method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124391A JP2021007717A (en) | 2019-07-03 | 2019-07-03 | Occupant observation device, occupant observation method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021007717A true JP2021007717A (en) | 2021-01-28 |
Family
ID=73918816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019124391A Pending JP2021007717A (en) | 2019-07-03 | 2019-07-03 | Occupant observation device, occupant observation method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021007717A (en) |
CN (1) | CN112183176A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004314750A (en) * | 2003-04-15 | 2004-11-11 | Denso Corp | Vehicle instrument operation control device |
JP2009045418A (en) * | 2007-02-16 | 2009-03-05 | Denso Corp | Device, program, and method for determining sleepiness |
WO2017056401A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Control device, control method, and program |
US20180204078A1 (en) * | 2015-07-10 | 2018-07-19 | Innov Plus | System for monitoring the state of vigilance of an operator |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112014000934T5 (en) * | 2013-02-21 | 2016-01-07 | Iee International Electronics & Engineering S.A. | Imaging-based occupant monitoring system with broad functional support |
CN204303129U (en) * | 2014-11-27 | 2015-04-29 | 程长明 | Anti-fatigue warning system and anti-fatigue eyeglasses |
CN105701445A (en) * | 2014-12-15 | 2016-06-22 | 爱信精机株式会社 | determination apparatus and determination method |
CN205881127U (en) * | 2016-07-27 | 2017-01-11 | 尤明洲 | Vehicle driver fatigue monitors alarm system |
-
2019
- 2019-07-03 JP JP2019124391A patent/JP2021007717A/en active Pending
-
2020
- 2020-06-24 CN CN202010594597.2A patent/CN112183176A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004314750A (en) * | 2003-04-15 | 2004-11-11 | Denso Corp | Vehicle instrument operation control device |
JP2009045418A (en) * | 2007-02-16 | 2009-03-05 | Denso Corp | Device, program, and method for determining sleepiness |
US20180204078A1 (en) * | 2015-07-10 | 2018-07-19 | Innov Plus | System for monitoring the state of vigilance of an operator |
WO2017056401A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Control device, control method, and program |
Also Published As
Publication number | Publication date |
---|---|
CN112183176A (en) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9928404B2 (en) | Determination device, determination method, and non-transitory storage medium | |
JP5790762B2 (en) | 瞼 Detection device | |
JP4915413B2 (en) | Detection apparatus and method, and program | |
US9822576B2 (en) | Method for operating an activatable locking device for a door and/or a window, securing device for a vehicle, vehicle | |
JP6584717B2 (en) | Face orientation estimation apparatus and face orientation estimation method | |
JP2020052827A (en) | Occupant modeling device, occupant modeling method, and occupant modeling program | |
JP2016115117A (en) | Determination device and determination method | |
WO2017173480A1 (en) | Method and system of distinguishing between a glance event and an eye closure event | |
US11161470B2 (en) | Occupant observation device | |
JP5349350B2 (en) | Eye opening degree determination device and eye opening degree determination method | |
JP2016115120A (en) | Opened/closed eye determination device and opened/closed eye determination method | |
JP2018151930A (en) | Driver state estimation device and driver state estimation method | |
JP7267467B2 (en) | ATTENTION DIRECTION DETERMINATION DEVICE AND ATTENTION DIRECTION DETERMINATION METHOD | |
JP2011125620A (en) | Biological state detector | |
JP2021129700A (en) | Reference value determination device and reference value determination method | |
JP2021007717A (en) | Occupant observation device, occupant observation method and program | |
JP6982767B2 (en) | Detection device, learning device, detection method, learning method, and program | |
KR20170028631A (en) | Method and Apparatus for Detecting Carelessness of Driver Using Restoration of Front Face Image | |
WO2022113275A1 (en) | Sleep detection device and sleep detection system | |
CN111696312B (en) | Passenger observation device | |
TWI579173B (en) | An driver fatigue monitoring and detection method base on an ear-angle | |
JP4825737B2 (en) | Eye opening degree determination device | |
JPWO2020255238A1 (en) | Information processing equipment, programs and information processing methods | |
JP7127661B2 (en) | Eye opening degree calculator | |
WO2022118475A1 (en) | Passenger temperature estimating device, passenger state detection device, passenger temperature estimating method, and passenger temperature estimating system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |