JP5680667B2 - 運転者の覚醒状態の特定システム及び方法 - Google Patents

運転者の覚醒状態の特定システム及び方法 Download PDF

Info

Publication number
JP5680667B2
JP5680667B2 JP2012541628A JP2012541628A JP5680667B2 JP 5680667 B2 JP5680667 B2 JP 5680667B2 JP 2012541628 A JP2012541628 A JP 2012541628A JP 2012541628 A JP2012541628 A JP 2012541628A JP 5680667 B2 JP5680667 B2 JP 5680667B2
Authority
JP
Japan
Prior art keywords
eye
histogram
face
image
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012541628A
Other languages
English (en)
Other versions
JP2013513155A (ja
Inventor
チダナンダ、ケー.エス.
ブホウミック、ブロジェスワー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2013513155A publication Critical patent/JP2013513155A/ja
Application granted granted Critical
Publication of JP5680667B2 publication Critical patent/JP5680667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Description

本発明は、目の追跡及び運転者の覚醒度を識別するためのシステム及び方法に関する。具体的には、本発明は、運転者の目の覚醒状態を特定し追跡するための、費用対効果が高く、ロバストなシステム及び方法に関し、車両上に設置される近赤外線(IR)カメラによって撮像した画像を用いて事故を回避するものである。
運転者の疲労及び運転者の睡眠不足、特にトラックやバスなどの大型車両を運転する運転者の疲労及び睡眠不足は、長年にわたる問題である。毎年、眠気を催した個人が運転中に居眠りをした結果、多くの路上事故及び死亡者が発生している。運転者の覚醒状態を検知し、眠気を催して居眠りをする運転者に警告する機構を有することができれば、このような事故を大幅に防ぐことができる。
車両の運転者の覚醒度を検知する方法がないことは、長年にわたる問題である。
次に挙げるように、目の追跡及び運転者の覚醒度認識に関するいくつかの発明が公知である。
Kingman Yeeの特許文献1は、目の位置を導き出すために、強膜と虹彩との間のコントラストを利用して目の位置を感知し、追跡するための改良型装置、システム及び方法を教示している。この発明は、具体的には、角膜切除屈折手術(PRK)、角膜混濁除去手術(PTK)、レーシック(LASIK)など、レーザによる目の手術の間に目の位置を追跡するために有益である。
Taboadaの特許文献2は、人間の目の視線を追跡する装置を開示している。より具体的には、特許文献2は、目に反射する赤外線(IR)ビームを分析することによって、目の動きを追跡する光学装置を開示している。
Smithの特許文献3は、人の頭部及び顔の特徴を単一の搭載カメラによって追跡することを開示している。この搭載カメラは自動的に起動可能な全自動システムを備え、必要に応じて再初期化し、リアルタイムに出力を提供することができる。特許文献3が提示するシステムは、重要であると選択された画素の赤(R)、緑(G)、青(B)要素を示すRGB列を用いており、また、日中と夜間条件では異なるアルゴリズムで動作する。
Clarke Srの特許文献4は、赤外線カメラを介して、運転者の目が開いている場合と閉じている場合との画素色における赤外線画像の変化を監視する装置を開示している。この装置は、映像電荷結合素子を通過するデジタル画像の熱に敏感な赤外線部分を用いる。動きがないことと、低換気に対する生理的反応、つまり眠気を催す、息の温度の低下が組み合わさると、赤外線カメラが起動し、運転者の目領域を拡大する。
Christos T. Kyrtsoの特許文献5は、車両の挙動、たとえば速度、横方向の位置、曲がる角度などを測定することによって覚醒度を検知することを開示している。
Tomokazu Nakamuraの特許文献6は、目領域を構成する画素の画素データに基づき、目領域の目の状態を示す特徴値を算出することによって、目の状態(瞬きを含む)を識別する手段を教示する。閾値設定手段は、対象となる目が開状態のときの対象となる目に対して算出された特徴値に基づいて、開状態から閉状態への第1の遷移点における特徴値を示す第1の閾値及び閉状態から開状態への第2の遷移点における特徴値を示す第2の閾値を算出する。
Riad I. Hammoudの特許文献7は、目的物追跡方法を教示している。この方法では、背景から対象目的物を抽出するためにグレースケールのハットフィルタを用いて、対象目的物を順次生成される赤外線映像画像の中から追跡する。目的物が人の目である場合は、目の状態及び決定の確かさは、バイナリブロブの形状と外観をその大きさの変化及び以前の目の状態と合わせて分析し、対応するパラメータを目の状態の決定行列に適用することによって決定される。
Ruiの特許文献8は、映像及び/または音声内容のフレームを受信し、フレームの新しい顔領域に対する候補区域を特定することによって、複数の個人を自動的に検知及び追跡することを教示している。1または複数の階層的検証レベルを用いて、人間の顔が候補区域にあるかを検証し、1または複数の階層的検証レベルによって、候補区域に人間の顔があると検証されると、候補区域に顔が含まれることを示す指標が作成される。複数の音声及び/または映像の合図を用いて、検証された各顔をフレームごとに映像内容において追跡する。
上記に記載した覚醒度検知装置のほとんどはセンサ技術に頼っている。この中にはコンピュータによる資格技術を用いて作成されているものもあるが、これらの覚醒度検知装置は覚醒度を検知するために複雑な方法を用いており、費用がかかる。全体として、上記の方法は、疲労と睡眠不足に悩む運転者の覚醒を監視するために目領域を追跡するには、不適切であり、不正確である。
したがって、上記先行技術に照らして、簡便で、設置が簡単であり、低費用で高精度を提供する、目の追跡及び運転者の覚醒度識別のためのシステム及び方法に対する必要性があることは明らかである。
米国特許第6283954号 米国特許第5345281号 米国特許第6927694号 米国特許第5689241号 米国特許第5900819号 米国公開特許第20080252745号 米国特許第7362885号 米国特許第7130446号
本発明の主な目的は、車両上に設置される近赤外線(IR)カメラによって撮像した画像を用いて、事故を回避するために運転者の目の覚醒状態を特定し追跡するための、費用対効果が高く、ロバストなシステム及び方法を提供することである。
本発明の別の目的は、瞳孔現象とは独立して、目の追跡を行うことであり、収縮画像においてヒストグラム均等化及びモルフォロジ変換を行うことによって、顔バウンディングボックス内でモルフォロジ収縮処理を実行する。
本発明の別の目的は、カーネル追跡アルゴリズムを用いて、目の追跡及び顔の追跡を行うためのロバストな方法を構想するシステム及び方法を提供することである。
本発明の別の目的は、目の部分の位置を特定することである。その方法は、まず顔の追跡を行い、次に顔バウンディングボックス内でカーネルに基づく顔及び目の追跡アルゴリズムを用いて、目の追跡を行うことである。
本発明の別の目的は、モルフォロジ変換画像及びヒストグラム均等化画像などの、後にカーネル追跡アルゴリズムのパラメータとなる特徴を収集する方法を提供することである。
本発明のさらに別の目的は、ヒストグラム均等化、モルフォロジ演算及びヒストグラム及び濃度共起行列を用いる及びテクスチャベースのパラメータを用いて、目の状態を検知するシステム及び方法を提供することである。
本発明の別の目的は、運転者が居眠り状態にあることを検知した後に、運手者に警告をするための、運転者に対する音声または音声映像を提供することである。
本発明の方法、システム及びハードウェアの使用可能性について説明するに当たり、本発明は、記載した特定のシステム及び方法論に制限されない。本開示では明示的に例示されない本発明の複数の可能な実施形態があるためである。また、本明細書で使用する用語は特定の様式または実施形態を説明する目的でのみ使用されるものであり、本発明の範囲を制限することを意図するものではなく、本発明の範囲は添付の請求の範囲によってのみ制限される。
本発明は、車両上に設置される近赤外線(IR)カメラによって撮像した画像を用いて、事故を回避するために運転者の目の覚醒状態を特定し追跡するための、費用対効果が高く、ロバストなシステム及び方法を提供する。
本発明は、車両上に設置される近赤外線(IR)カメラによって撮像した画像を用いて、事故を回避するために運転者の目の覚醒状態を特定し追跡するための、費用対効果が高く、ロバストな方法を実現する。上記方法は、プロセッサが実行する以下のステップを備える。すなわち、撮像画像においてリアルタイムに顔の追跡を行い、顔バウンディングボックス内で目バウンディングボックスの位置を、セグメンテーション処理を用いて濃淡値と閾値を比較することによって特定するステップと、目の重心を計算して目の追跡を行い、1つの場所から別の場所まで、対象のモデルヒストグラム及び対象候補のモデルヒストグラムを算出し、続いてそれらを比較して距離を特定し、その後に加重平均によって対象の中心の変位を算出するステップであって、対象のモデルヒストグラム及び対象候補のモデルヒストグラムを、ヒストグラム均等化画像範囲及びモルフォロジ変換画像を含む特徴空間に基づいて算出するステップと、ヒストグラム均等化、モルフォロジ演算及びヒストグラムと濃度共起行列を用いたテクスチャベースのパラメータを用いて目の覚醒状態を検知するステップである。
本発明のさらに別の態様では、衝突を避けるために、検知した目の覚醒状態を用いて運転者に警告するための警報手段を備える。警報手段は、音声及び音声映像装置であってよく、警報、音声による注意、画面を備える表示器を含むが、これらに限定されない。本発明の別の態様によれば、近赤外線カメラは運転者に向かって車両内部に設置される。
本発明の様々な実施形態による、事故のために運転者の目の覚醒状態を特定し追跡するための方法を例示するフローチャート 本発明による、運転者の1つの例示的な頭部位置において、閉じた目に対して検知された目領域を例示する写真 本発明による、運転者の1つの例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化を例示する写真 本発明による、運転者の1つの例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する写真 本発明による、運転者の1つの例示的な頭部位置において、開いた目に対して検知された目領域を例示する写真 本発明による、運転者の1つの例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化を例示する写真 本発明による、運転者の1つの例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する写真 本発明による、運転者の別の例示的な頭部位置において、閉じた目に対して検知された目領域を例示する写真 本発明による、運転者の別の例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化を例示する写真 本発明による、運転者の別の例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する写真 本発明による、運転者の別の例示的な頭部位置において、開いた目に対して検知された目領域を例示する写真 本発明による、運転者の別の例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化を例示する写真 本発明による、運転者の別の例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する写真 本発明の例示的実施形態による、運転者の覚醒度識別状態を例示するグラフ 本発明の例示的な実施形態による、運転者の覚醒度識別状態を例示するグラフ
上記の概要、及び下記の発明を実施するための形態の詳細な説明は、添付図と合わせて説明される。本発明を例示するために、本発明の構成例を図に示すが、本発明は図に開示される特定の方法及び装置に限定されない。
本発明の実施形態のいくつかを、特徴を例示しながら詳細に説明する。「備える(comprising)」、「有する(having)」、「含有する(containing)」、「含む(including)」という単語及びこれらの活用形は、意味として同義であり、これらの単語に続く1または複数の項目が、該当する1または複数の項目の完全な列記であることを意味するものではなく、また、列記した1または複数の項目にのみ限定されることを意味するものではないという点で制約を受けないことを意図している。また、本明細書及び付属の特許請求の範囲に用いられるように、単数形の「a」、「an」及び「the」は、別途明確に指示がない限り、複数の参照を含むことに注意すべきである。本明細書に記載するシステム及び方法と類似するか同等である任意のシステム及び方法を用いて、本発明の実施形態の実施または試験を行うことができるが、好ましいシステム及び方法を以下に説明する。開示する実施形態は単に本発明の実施例であり、当業者によって様々な形態で実施されてもよい。
車両上に設置される近赤外線(IR)カメラで撮像した画像を用いて、事故を回避するために運転者の覚醒状態を決定するための費用対効果が高くロバストな方法であって、その方法はプロセッサが実行する以下のステップを備える。すなわち、
a)顔の右端と顔の左端の座標間の差異に基づいて顔の幅を決定することによって、及び鼻の先端位置と眉の位置との差を2倍したものと、眉の位置の座標との差異に基づいて顔の高さを決定することによって、顔バウンディングボックスを決定し、セグメンテーション処理を用いて目バウンディングボックスを決定するステップと、
b)セグメンテーション処理から得た、閾値よりも大きな濃淡値を収集することによって、リアルタイムに顔追跡を行うステップと、
c)顔バウンディングボックス内でモルフォロジ収縮を実行することによってリアルタイムに目追跡を行い、次にヒストグラム均等化及びその後モルフォロジ変換を顔バウンディングボックスで収集するステップと、
d)目の重心を計算することによって目追跡を行い、対象のモデルヒストグラム及び対象候補のモデルヒストグラムを、ヒストグラム均等化画像範囲及びモルフォロジ変換画像の輝度範囲に基づいて算出するステップと、
e)対象のモデルヒストグラムと対象候補のモデルヒストグラムとの間の距離を算出し、対象の中心の変位を算出するステップ、
である。
本発明の1つの例示的実施形態によると、費用対効果が高くロバストなシステムは、画像を撮像するための、運転者に対向して車両上に設置される近赤外線カメラと、近赤外線カメラ内に収容され、事故を回避するために、撮像画像をリアルタイムで分析し、運転者の目の覚醒度の状態を特定し、追跡するプロセッサとを備える。
図1は本発明の様々な実施形態による、事故を回避するために運転者の目の覚醒度の状態を特定し追跡するための、方法100を例示するフローチャートである。
本発明の1つの例示的実施形態では、車両上に設置される近赤外線(IR)カメラで撮像した画像110を用いて、事故を回避するために運転者の目の覚醒状態を識別し、追跡するための費用対効果が高いシステムを用いる。本発明の別の態様によれば、近赤外線カメラは運転者に向かって、車両の外部または内部のいずれかに設置することができる。本発明の1つの例示的実施形態では、近赤外線カメラは運転者に向かって車両内部に設置される。
本発明の1つの態様によれば、近赤外線カメラの解像度は352×288である。本発明の1つの態様によれば、近赤外線カメラの近赤外線範囲は、歩行者を検知し、追跡するために、(0.7〜1)ミクロンから5ミクロンの範囲から選択することができる。本発明の1つの態様によれば、近赤外線カメラの温度範囲は、歩行者を検知し、追跡するために、740ケルビンから3、000〜5、200ケルビンから選択することができる。
本発明の1つの態様によれば、プロセッサは、近赤外線カメラ本体、車両の外部または内部、車両の上面またはダッシュボードの上端部のいずれかに設置することができる。本発明の1つの例示的実施形態では、プロセッサは近赤外線カメラ本体の内部に設置される。本発明の別の態様によれば、プロセッサはDavinci DM6446プロセッサ、ADSP−BF533、750MHz Blackfinプロセッサの群から選択することができる。
上記の費用対効果の高い方法は、プロセッサが実行する様々なステップを備える。全体の画像の中で、目のような小さい目的物を追跡することは困難である。したがって、目の検索の位置を特定するために、提案する方法の第1のステップにおいて、顔バウンディングボックスの中で、最初に顔の追跡を行い、次に目の追跡を行う。
プロセッサはセグメンテーション処理を用いて、目の形120、及び眉毛、鼻の先端、垂直方向の顔の中心などの顔の目印を識別するコードを実行する。顔の追跡を行うために、プロセッサは次の方程式を用いて、顔の座標を決定するコードを実行する。
顔の幅=顔の右端−顔の左端
顔の高さ=2×(鼻の先端位置−眉毛の位置)−眉毛の位置
目の追跡を行うために、プロセッサは、セグメンテーション処理を用いて目バウンディングボックスを決定するコードを実行する。顔130を追跡するために、プロセッサは特徴を集めるコードを実行し、この特徴はセグメンテーション処理から得る閾値よりも大きい濃淡値のみである。目の追跡140を行うために、プロセッサは特徴を集めるコードを実行する。この特徴は顔バウンディングボックスにおけるヒストグラム均等化及び顔バウンディングボックスにおけるモルフォロジ変換である。
目の追跡の際の主な障害は、瞳孔現象を除外することである。目の追跡を瞳孔現象とは独立して行うためには、プロセッサは第1のモルフォロジ収縮処理を顔バウンディングボックス内で実行する。この収縮画像から、ヒストグラム均等化及びモルフォロジ変換が行われる。
ヒストグラム均等化は、入力画像のレベルを広範な輝度にわたって広げることによって、均等なヒストグラムを有する出力画像を生成する。プロセッサがヒストグラム均等化を出力画像に適用するコードを実行すると、暗い画像ははるかに暗くなり、明るい画像ははるかに明るくなる。プロセッサは、暗い目的物(つまり目)を明るい背景(つまり顔バウンディングボックス)から、モルフォロジ変換を用いて抽出するコードを実行する。
提案する方法の第2のステップでは、プロセッサは1つの場所から別の場所まで、目の重心、対象のモデルヒストグラム及び対象候補のモデルヒストグラムを計算することによって目の追跡を行い、続いてそれらを比較して距離を特定し、その後に加重平均によって対象の中心の変位を算出する。対象のモデルヒストグラム及び対象候補のモデルヒストグラムを、ヒストグラム均等化画像範囲及びモルフォロジ変換画像を含む特徴空間に基づいて計算する。
目の追跡140のために、プロセッサは次のステップを実行する。第1のステップでは、プロセッサは、目のブロブの重心を中心m0と見なし、次に特徴空間を考慮して対象のモデルヒストグラムを算出するコードを実行する。
Figure 0005680667
対象モデル:
Figure 0005680667
次のフレームからは、対象の中心を以前の場所(y0)に初期化し、プロセッサは同じ特徴空間を考慮して対象候補のヒストグラムを算出するコードを実行する。
Figure 0005680667
次に、プロセッサは、対象モデルと対象候補ヒストグラム間の距離を算出するコードを実行する。
Figure 0005680667
式中、ρ[.]はpとqとの間のバタチャリヤ係数である。
次に、プロセッサは対象の中心の変位を加重平均によって算出する。
Figure 0005680667
式中、次式となる。
Figure 0005680667
新しい対象の場所を発見すると、プロセッサは次のコードを実行する。
1)ヒストグラム均等化画像範囲及びモルフォロジ変換画像に関与する、同じ特徴空間での新しい場所での対象候補ヒストグラムを計算する。
2)次に次項を計算する。
Figure 0005680667
3)
Figure 0005680667
4)次式のときは停止する。
Figure 0005680667
または、y<−yを設定し、加重を取り除き、次に新しい場所に行き、ステップ1に戻る。
上記の追跡処理を用いると、目の揺れがあることもある。その理由は主に次の通りである。
a)モルフォロジ変換画像において、ノイズも非常に明るく現れることがあり、その結果、画素が鼻の画素なのか目の画素なのかあいまいになる。
b)位置及び速度情報は含まれていない。
上記の問題を解決するために、プロセッサはモルフォロジ変換画像において目を眉に対してマッピングして目の画素を識別し、それによってモルフォロジ変換画像で明るく見える鼻の画素を回避する。
モルフォロジ変換画像において目を眉に対してマッピングするために、プロセッサは次のステップを実行する。
a)目を眉に対してマッピングする
目は眉の下に現れるため、本発明者らはこの手がかりを用いて画素が目の画素か鼻の画素かを識別する。
モルフォロジ変換画像において目を眉に対してマッピングすることは以下に関与する。
Figure 0005680667
一方、モルフォロジ変換画像において鼻を眉に対してマッピングすることは、次のいずれかに関与する。
Figure 0005680667
b)方向推定
最初の4フレームでは、目の重心の位置をFIFO(先入先出法)またはキューで保存する。現在のフレームに関しては、新しい重心をカーネル追跡アルゴリズムを用いて算出する前に、プロセッサは、次の方程式を用いて重心を更新するコードを実行する。
Figure 0005680667
車環境において必然的に起こる急な動きがある場合、頭部の位置及び目の位置は急激に変化する。目の追跡を行うために、プロセッサは前のフレームに対する現在のフレームの頭部の位置の変化を検知するコードを実行する。コードの条件は次の通りである。
Figure 0005680667
上記の条件が確認され設定されると、カーネル追跡アルゴリズムは目の追跡を行うことはできなくなるが、顔は目に比べてサイズが大きいため、顔の追跡は行われる。
大きな変化(動き)がある場合でも目の追跡を続けて行うために、プロセッサはSAD(絶対値の差の総和)に基づいて目のテンプレートマッチングを算出する。カーネル追跡アルゴリズムの最後には、追跡された目はテンプレート画像として保存される。
追跡過程において、目バウンディングボックスの位置を特定する。最終ステップでは、プロセッサは、目150の覚醒状態をヒストグラム均等化、モルフォロジ演算及び、ヒストグラム及び濃度共起行列を用いる、テクスチャベースのパラメータによって検知する。
このようなプロセッサが実行する方法を下記で詳細に検討する。
ヒストグラム均等化処理に移る前に、プロセッサは、目バウンディングボックスを眉の重心に向かって上方に延長するコードを実行する。この領域で、プロセッサは、ヒストグラム均等化処理を目バウンディングボックスに適用するコードを実行する。ヒストグラム均等化は画像のヒストグラムを用いてコントラストを調整する、画像処理における方法である。ヒストグラム均等化とは、画像のヒストグラムのダイナミックレンジを増加させる技法である。ヒストグラム均等化は出力画像が均一の輝度分布を有するように、入力画像の画素の輝度値を割り当てる。それによりコントラストが向上する。ヒストグラム均等化の目的は均一のヒストグラムを得ることである。本技法は画像全体または画像の一部のみにも行うことができる。
ヒストグラム均等化は輝度分布を再分布する。任意の画像のヒストグラムに多くの谷または山がある場合は、均等化後もまだ谷や山を有するものの、谷及び山の位置はずれる。このため、ヒストグラム均等化を説明するには「拡張」という用語の方が「平坦化」よりもふさわしい。ヒストグラム均等化では、各画素には前の輝度に基づいて新しい輝度が割り当てられる。
次のステップにおいて、プロセッサは、構造要素を持つこのような画像の線収縮を計算することによって、ヒストグラム均等化画像の明瞳孔現象を排除する。構造要素の幅は眉の幅の1/3に等しく、構造要素の高さは1に等しい。
明瞳孔現象を排除するために、プロセッサは次のステップを実行する。
個別の濃度画像{x}を考慮し、nを濃度iの発生数とする。画像中の濃度iの画素の発生確率を次の式で求める。
(i)=p(x=i)=n/n,0≦i≦L
式中、Lは画像の濃度の総数であり、nは画像の画素の総数であり、及びはpは実際の画像のヒストグラムであり、[0、1]区間に正規化される。
に対応する累積分布関数を次式のように定義する。
Figure 0005680667
上記式も画像の累積正規化ヒストグラムである。
さらに、変換をy=T(x)の形で行い、新しい画像{y}を生成し、新しい画像のCDFが、ある定数Kに対して値の範囲にわたって、
cdf(i)=iK
と、直線となるようにする。
CDFの特性によって、次の変換の実行が可能となる。
y=T(x)=cdf(x)
Tが濃度を範囲[0、1]にマッピングすることに注意されたい。値を元の範囲に戻してマッピングするためには、次の簡単な変換を結果に適用する必要がある。
=y.(max{x}−min{x})+min{x}
ヒストグラム均等化処理後は、濃度画像の暗い部分はさらに暗く、濃度画像の明るい部分をさらに明るく見える。目の明瞳孔現象ははるかに明るく見え、また、ときには明瞳孔現象が検知されないときもあるため、明瞳孔現象を抑制するために、線収縮を構造要素に対して行い、構造要素の幅を眉の1/3とし、構造要素の高さを1とする。
Aが濃度画像であり、Bが構造要素である場合、Zにおける集合A及びBに対して、BによるAの収縮を次式で算出する。
Figure 0005680667
収縮後、小さな不要成分も存在することがある。不要成分を抑制し、目領域を保持するために、高さ及び幅が3に等しい構造要素に対してグレースケールオープニングを行う。
数学的モルフォロジにおいて、オープニングは、集合Aの収縮を構造要素Bによって膨張させることである。
Aが濃度画像であり、Bが構造要素の場合、Zにおける集合A及びBに対して、BによるAのモルフォロジオープニングは次式で算出する。
Figure 0005680667
次のステップでは、プロセッサはヒストグラムベースの手法を用いて、テクスチャ解析を行う。この手法は、ヒストグラムとして表される画像のすべてまたは一部における、輝度濃度に基づき、目の状態を識別する。一様性の値または角二次モーメント(ASM)テクスチャパラメータの値は目を閉じている場合には高くなり、目を開いている場合には低くなる。
テクスチャ解析を行うために、プロセッサは次のステップを実行する。
第1のステップでは、プロセッサはテクスチャベースの解析を画像に実施するコードを実行する。
テクスチャは画像の表面及び構造を表す特性である。テクスチャは、表面の要素またはパターンの定期的な繰り返しとして定義することができる。画像テクスチャは複雑な映像パターンであり、明るさ、色、形、大きさなどの特徴を持つサブパターンを有するエンティティまたは領域から構成される。画像領域は、その特徴のセットが一定であれば、ゆっくりと変化するか、または適切に周期的である一定のテクスチャを有する。テクスチャ解析はテクスチャ分類、画像セグメンテーション、及び画像形状認識作業において主なステップである。画像セグメンテーション及び形状認識は、通常は画像内の対象または目的物認識の前処理のステップである。
テクスチャを特徴づける数学的手順は次の2つの主なカテゴリに分類される。
1.統計的
2.統語的
統計的手法は様々な特性を計算し、テクスチャのプリミティブな大きさと画素の大きさとが同程度である場合には適切である。これらの手法にはフーリエ変換、畳み込みフィルタ、共起行列、空間的自己相関、フラクタルなどがある。
統語的方法及び混合方法(統計的方法と統語的方法)は、プリミティブを色調の特性だけではなく、たとえば形状記述など多種の特性を用いて記述できるテクスチャに適している。これらの特性を用いて、プリミティブを識別、定義することができ、ラベルを割り当てることができる。濃度画像にたいしては、色調を明るさと置き換えることもできる。
テクスチャを記述するための最も簡単な手法の1つは、画像または領域の濃度ヒストグラムの統計学的モーメントを用いることである。ヒストグラムベースのテクスチャ解析方法はヒストグラムとして表される画像のすべてまたは一部の輝度濃度に基づく。一般的な特徴は、平均、変数、分散、二乗平均値または平均エネルギ、エントロピ、歪度及び尖度などのモーメントを含む。
Zを濃度を表す無作為な変数とし、p(Z),I=0,1,2,L−1を対応するヒストグラムとすると、Lは区別される濃度の数である。
平均のZのn番目のモーメントは次式で求められる。
Figure 0005680667
式中、mはZの平均値(平均濃度)であり、以下のように求められる。
Figure 0005680667
本発明の一実施形態では、「一様性または角二次モーメント(ASM)」テクスチャパラメータを用いた。これは局所的な同質性の測定値である。移動窓の画素が非常に類似しているときに、ASMの値は高くなる。
上記の一様性は次の方程式で求められる。
Figure 0005680667
一様性の値は0から1までの間である。このパラメータは目を閉じている場合には高くなり、目を開いている場合には低くなる。
任意には、プロセッサは濃度共起行列のコントラストを用いて、Nフレームの帯域が同じ特性を有する場合は、目が閉じていることを検知することによって、目の状態を識別する。
目の状態を検知するために、プロセッサは次のステップを実行する。
共起行列は、共起分布ともよばれるが、所定のオフセットで共起値を分布する画像上に画定される。数学的には、共起行列Cはn×m画像I上に画定され、オフセット(Δx、Δy)によって、次のようにパラメータ化される。
Figure 0005680667
この濃度共起行列において、1つのパラメータである「コントラスト」が目の状態を検知する識別要素であることが分かった。
プロセッサは次式を用いてコントラストを算出するコードを実行する。
Figure 0005680667
分類のために、プロセッサを用いて、第1のTフレームを追跡開始時から観察する。各フレームに対して、プロセッサは、各特徴のμ及びσを動的に算出するコードを実行する。初期値ではμ=特徴値であり、σ=0である。特徴>μ+3×σであるフレームまたは特徴<μ−3×σであるフレームでは、これらの2つのパラメータの更新は行われない。Nフレームの帯域が同じ特性を持っていると判明する場合は、目が閉じていることを示す信号が送られる。
図2Aは本発明による、運転者の1つの例示的な頭部位置において、閉じた目に対して検知された目領域を例示する。
図2Bは本発明による、運転者の1つの例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化を例示する。
図2Cは本発明による、運転者の1つの例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する。
図2Dは本発明による、運転者の1つの例示的な頭部位置において、開いた目に対して検知された目領域を例示する。
図2Eは本発明による、運転者の1つの例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化を例示する。
図2Fは本発明による、運転者の1つの例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する。
図3Aは本発明による、運転者の別の例示的な頭部位置において、閉じた目に対して検知された目領域を例示する。
図3Bは本発明による、運転者の別の例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化を例示する。
図3Cは本発明による、運転者の別の例示的な頭部位置において、閉じた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する。
図3Dは本発明による、運転者の別の例示的な頭部位置において、開いた目に対して検知された目領域を例示する。
図3Eは本発明による、運転者の別の例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化を例示する。
図3Fは本発明による、運転者の別の例示的な頭部位置において、開いた目に対して検知された目領域のヒストグラム均等化をモルフォロジ変換した結果を例示する。
図4A及び図4Bは、本発明の例示的実施形態による、運転者の覚醒度識別状態を例示するグラフを示す。
本発明のさらに別の態様では、警報手段を用いて衝突を避けるために、検知した目の覚醒状態を用いて運転者に警告を与え、警報手段は音声及び音声映像装置、警報の発生、音声による注意、指標及び表示であってよい。
本発明の様々な実施形態を参照して上記の説明を提示してきた。
本発明の技術分野の当業者には、説明した処理及び操作方法において修正及び変更が、本発明の原理、精神及び範囲を無意味に逸脱せずに実行できる。
以上より、目の追跡及び運転者の覚醒度識別のために本発明が提示するシステム及び方法の有利性のいくつかは以下の通りである。
1.ヒストグラム均等化、モルフォロジ演算及びテクスチャベースの解析を用いることによって、目の位置をより正確に追跡できる。
2.突然の動きがある場合には、目の位置の変化に対してシステムを適用する。
3.運転者に対する警告戦略を本システムの覚醒度検知の適用と連動する。
4.目の追跡を瞳孔現象とは独立して行う。モルフォロジ収縮処理を、収縮画像においてヒストグラム均等化及びモルフォロジ変換を実施することによって、顔バウンディングボックス内で行う。

Claims (7)

  1. 車両上に設置される近赤外線(IR)カメラによって撮像した画像を用いて、運転者の覚醒状態を特定する方法であって、
    その方法は、プロセッサが実行するものであり、
    a)顔の右端と顔の左端の座標間の差異に基づいて顔の幅を決定することと、鼻の先端位置と眉の位置との差を2倍したものと、眉の位置の座標との差異に基づいて顔の高さを決定することとによって、顔バウンディングボックスを決定し、セグメンテーション処理を用いて目バウンディングボックスを決定するステップと、
    b)セグメンテーション処理から得た、閾値よりも大きな濃淡値を収集することによって、リアルタイムに顔追跡を行うステップと、
    c)顔バウンディングボックス内でモルフォロジ収縮処理を実行することによってリアルタイムに目の追跡を行い、次にヒストグラム均等化及びその後モルフォロジ変換を顔バウンディングボックスで収集して瞳孔現象を除外するステップと、
    d)目の重心を計算することによって目の追跡を行い、対象のモデルヒストグラム及び対象候補のモデルヒストグラムを、ヒストグラム均等化画像及びモルフォロジ変換画像の輝度範囲に基づいて算出するステップと、
    e)対象のモデルヒストグラムと対象候補のモデルヒストグラムとの間の距離を算出し、対象の中心の変位を算出するステップと、
    )モルフォロジ変換画像において、目を眉に対してマッピングすることによって、目を鼻と識別するステップと、
    )SAD(絶対値の差の総和)に基づいて目のテンプレートマッチングを算出し、前のフレームに対する現在のフレームの頭部の位置の変化を検知して、急な動きに対して目の追跡を行うステップと、を有する
    ことを特徴とする方法。
  2. 検知した目の覚醒度の状態を用いて、運転者に警告を与える
    請求項1に記載の方法。
  3. 近赤外線カメラを、運転者に向かって車両の外部または内部に設置する
    請求項1に記載の方法。
  4. 目の覚醒状態を検知するに当たり、
    a)目バウンディングボックスを眉の重心まで上方に延長するステップと、
    b)ヒストグラム均等化処理を目バウンディングボックスに適用するステップと、
    c)ヒストグラム均等化画像の明瞳孔現象を、構造要素を有するヒストグラム均等化画像の線収縮を計算することによって排除するステップであり、構造要素の幅を眉の幅の1/3に等しく、構造要素の高さを1に等しくするステップと、
    d)ヒストグラムとして表される画像のすべてまたは一部の輝度濃度に基づくヒストグラムベースのテクスチャ解析手法を用いて、目の状態を識別するステップであり、一様性の値または角二次モーメント(ASM)テクスチャパラメータの値は目を閉じている場合には高くし、目を開いている場合には低くするステップと、を有する
    請求項1に記載の方法。
  5. ステップ(d)を任意に、濃度共起行列のコントラストを用いて、Nフレームの帯域が同じ特性を有する場合は、目を閉じていることを検知することによって、目の状態を識別する
    請求項4に記載の方法。
  6. 近赤外線(IR)カメラを用いて、運転者の覚醒状態を特定するシステムであって、
    a)画像を撮像するために車両上に設置される近赤外線カメラと、
    b)運転者の目の覚醒状態を特定し、追跡するために、リアルタイムで撮像画像を分析するプロセッサと、を備え、
    そのプロセッサは、
    a)顔の右端と顔の左端の座標間の差異に基づいて顔の幅を決定することと、鼻の先端位置と眉の位置との差を2倍したものと、眉の位置の座標との差異に基づいて顔の高さを決定することとによって、顔バウンディングボックスを決定し、セグメンテーション処理を用いて目バウンディングボックスを決定するステップと、
    b)セグメンテーション処理から得た、閾値よりも大きな濃淡値を収集することによって、リアルタイムに顔追跡を行うステップと、
    c)顔バウンディングボックス内でモルフォロジ収縮処理を実行することによってリアルタイムに目の追跡を行い、次にヒストグラム均等化及びその後モルフォロジ変換を顔バウンディングボックスで収集して瞳孔現象を除外するステップと、
    d)目の重心を計算することによって目の追跡を行い、対象のモデルヒストグラム及び対象候補のモデルヒストグラムを、ヒストグラム均等化画像及びモルフォロジ変換画像の輝度範囲に基づいて算出するステップと、
    e)対象のモデルヒストグラムと対象候補のモデルヒストグラムとの間の距離を算出し、対象の中心の変位を算出するステップと、
    )モルフォロジ変換画像において、目を眉に対してマッピングすることによって、目を鼻と識別するステップと、
    )SAD(絶対値の差の総和)に基づいて目のテンプレートマッチングを算出し、前のフレームに対する現在のフレームの頭部の位置の変化を検知して、急な動きに対して目の追跡を行うステップと、を実行可能である
    ことを特徴とするシステム。
  7. 運転者の覚醒状態により、運転者に警告するための音声または映像の警報手段を備える
    請求項6に記載のシステム。
JP2012541628A 2009-12-02 2010-12-02 運転者の覚醒状態の特定システム及び方法 Active JP5680667B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN2784MU2009 2009-12-02
IN2784/MUM/2009 2009-12-02
PCT/IN2010/000781 WO2011067788A2 (en) 2009-12-02 2010-12-02 A cost effective and robust system and method for eye tracking and driver drowsiness identification

Publications (2)

Publication Number Publication Date
JP2013513155A JP2013513155A (ja) 2013-04-18
JP5680667B2 true JP5680667B2 (ja) 2015-03-04

Family

ID=44115374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012541628A Active JP5680667B2 (ja) 2009-12-02 2010-12-02 運転者の覚醒状態の特定システム及び方法

Country Status (5)

Country Link
US (1) US9483695B2 (ja)
EP (1) EP2507742A2 (ja)
JP (1) JP5680667B2 (ja)
CN (1) CN102696041B (ja)
WO (1) WO2011067788A2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9460601B2 (en) * 2009-09-20 2016-10-04 Tibet MIMAR Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
KR101046677B1 (ko) * 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
US9050035B2 (en) 2012-03-22 2015-06-09 The Curators Of The University Of Missouri Device to measure pupillary light reflex in infants and toddlers
US9314157B2 (en) 2012-03-22 2016-04-19 The Curators Of The University Of Missouri Device to measure pupillary light reflex in infants and toddlers
CN103411535B (zh) * 2013-08-07 2015-08-05 北京信息科技大学 一种针对回光反射标志的可变权重像点定位方法
CN103955695B (zh) * 2013-11-27 2017-07-07 苏州清研微视电子科技有限公司 计算机基于灰度共生矩阵能量变化智能识别视频中人眼状态的方法
JP6442942B2 (ja) * 2014-09-11 2018-12-26 株式会社デンソー ドライバ状態判定装置
EP3040726A1 (en) 2014-12-29 2016-07-06 General Electric Company Method and system to determine vehicle speed
US10984237B2 (en) * 2016-11-10 2021-04-20 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance
EP3562394B1 (en) * 2016-12-28 2023-07-26 Ficosa Adas, S.L.U. Respiratory signal extraction
US10290158B2 (en) * 2017-02-03 2019-05-14 Ford Global Technologies, Llc System and method for assessing the interior of an autonomous vehicle
US10121084B2 (en) * 2017-03-07 2018-11-06 Wipro Limited Method and a system for detecting drowsiness state of a vehicle user
US10509974B2 (en) 2017-04-21 2019-12-17 Ford Global Technologies, Llc Stain and trash detection systems and methods
US10304165B2 (en) 2017-05-12 2019-05-28 Ford Global Technologies, Llc Vehicle stain and trash detection systems and methods
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
TWI647666B (zh) * 2017-08-28 2019-01-11 緯創資通股份有限公司 瞌睡偵測裝置及其瞌睡偵測方法
CN107977623A (zh) * 2017-11-30 2018-05-01 睿视智觉(深圳)算法技术有限公司 一种鲁棒性人眼状态判断方法
US10943092B2 (en) 2018-05-23 2021-03-09 ClairLabs Ltd. Monitoring system
CN109086740B (zh) * 2018-08-25 2019-08-23 上海首安工程技术有限公司 分级式渡口安检机构
CN109584303B (zh) * 2018-12-03 2023-04-14 电子科技大学 一种基于Lp范数和核范数的红外弱小目标检测方法
US11200438B2 (en) 2018-12-07 2021-12-14 Dus Operating Inc. Sequential training method for heterogeneous convolutional neural network
CN109886780B (zh) * 2019-01-31 2022-04-08 苏州经贸职业技术学院 基于眼球跟踪的商品目标检测方法及装置
US11068069B2 (en) * 2019-02-04 2021-07-20 Dus Operating Inc. Vehicle control with facial and gesture recognition using a convolutional neural network
CN110264670A (zh) * 2019-06-24 2019-09-20 广州鹰瞰信息科技有限公司 基于客运车辆司机疲劳驾驶状态分析装置
CN110400274B (zh) * 2019-07-19 2022-02-15 西安科技大学 一种车载红外行人检测用红外图像增强方法
WO2021059096A1 (en) * 2019-09-27 2021-04-01 Alcon Inc. Patient-induced trigger of a measurement for ophthalmic diagnostic devices
CN112764524A (zh) * 2019-11-05 2021-05-07 沈阳智能机器人国家研究院有限公司 一种基于纹理特征的肌电信号手势动作识别方法
CN113807126A (zh) * 2020-06-12 2021-12-17 广州汽车集团股份有限公司 一种疲劳驾驶检测方法及其系统、计算机设备、存储介质
JP7048997B2 (ja) * 2020-06-26 2022-04-06 みこらった株式会社 自動運転車及び自動運転車用プログラム
US11763595B2 (en) * 2020-08-27 2023-09-19 Sensormatic Electronics, LLC Method and system for identifying, tracking, and collecting data on a person of interest
US11861916B2 (en) * 2021-10-05 2024-01-02 Yazaki Corporation Driver alertness monitoring system
CN114758403B (zh) * 2022-06-10 2022-09-13 武汉憬然智能技术有限公司 疲劳驾驶智能分析方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5345281A (en) 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
JPH1086696A (ja) * 1996-09-13 1998-04-07 Toyota Motor Corp 顔画像における特徴部位の検出方法
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
US5900819A (en) 1998-04-21 1999-05-04 Meritor Heavy Vehicle Systems, Llc Drowsy driver detection system
US6283954B1 (en) 1998-04-21 2001-09-04 Visx, Incorporated Linear array eye tracker
JP2003006654A (ja) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> 動画像における移動体の特徴量抽出方法と自動追跡方法及びそれらの装置、並びに、それらの方法の実行プログラムとこの実行プログラムを記録した記録媒体
US6927694B1 (en) 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
CN1275185C (zh) * 2002-06-30 2006-09-13 贺贵明 驾驶员面像识别方法
JP2004356683A (ja) * 2003-05-27 2004-12-16 Fuji Photo Film Co Ltd 画像管理システム
US7430315B2 (en) * 2004-02-13 2008-09-30 Honda Motor Co. Face recognition system
US7362885B2 (en) 2004-04-20 2008-04-22 Delphi Technologies, Inc. Object tracking and eye state identification method
JP4501003B2 (ja) * 2005-07-15 2010-07-14 国立大学法人静岡大学 顔姿勢検出システム
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US7742621B2 (en) * 2006-06-13 2010-06-22 Delphi Technologies, Inc. Dynamic eye tracking system
JP4895874B2 (ja) * 2007-03-15 2012-03-14 アイシン精機株式会社 目状態判別装置、目状態判別方法及び目状態判別プログラム
JP4307496B2 (ja) * 2007-03-19 2009-08-05 株式会社豊田中央研究所 顔部位検出装置及びプログラム
JP4898532B2 (ja) 2007-04-13 2012-03-14 富士フイルム株式会社 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
CN101375796B (zh) * 2008-09-18 2010-06-02 浙江工业大学 疲劳驾驶实时检测系统

Also Published As

Publication number Publication date
JP2013513155A (ja) 2013-04-18
CN102696041A (zh) 2012-09-26
EP2507742A2 (en) 2012-10-10
WO2011067788A3 (en) 2011-10-06
US9483695B2 (en) 2016-11-01
WO2011067788A2 (en) 2011-06-09
US20130010096A1 (en) 2013-01-10
CN102696041B (zh) 2016-03-02

Similar Documents

Publication Publication Date Title
JP5680667B2 (ja) 運転者の覚醒状態の特定システム及び方法
Alioua et al. Driver’s fatigue detection based on yawning extraction
CN104616438B (zh) 一种用于疲劳驾驶检测的打哈欠动作检测方法
Wang et al. Driver fatigue detection: a survey
Alshaqaqi et al. Driver drowsiness detection system
Eriksson et al. Driver fatigue: a vision-based approach to automatic diagnosis
Junaedi et al. Driver drowsiness detection based on face feature and PERCLOS
EP1589485A2 (en) Object tracking and eye state identification method
US20040234103A1 (en) Method and apparatus for detection of drowsiness and quantitative control of biological processes
KR20190083155A (ko) 운전자 상태 검출 장치 및 그 방법
Liu et al. A practical driver fatigue detection algorithm based on eye state
Panicker et al. Open-eye detection using iris–sclera pattern analysis for driver drowsiness detection
US11161470B2 (en) Occupant observation device
CN108921010A (zh) 一种瞳孔检测方法及检测装置
CN116012822B (zh) 一种疲劳驾驶的识别方法、装置及电子设备
JP7263094B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN111860437A (zh) 一种基于面部表情判断疲劳程度的方法及装置
Jiao et al. Real-time eye detection and tracking under various light conditions
Daniluk et al. Eye status based on eyelid detection: A driver assistance system
JP6046559B2 (ja) 特定動作検出装置
Dixit et al. Face detection for drivers’ drowsiness using computer vision
Vinoth et al. A drowsiness detection using smart sensors during driving and smart message alert system to avoid accidents
Murthy et al. Smart Alert System for Driver Drowsiness Using Eegand Eyelid Movements
Kumari Real time detecting driver’s drowsiness using computer vision
JP5276381B2 (ja) 眼部領域検出装置、眼部領域検出方法および眼部領域検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140219

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140917

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150107

R150 Certificate of patent or registration of utility model

Ref document number: 5680667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250