JP3812298B2 - 眼の状態検出装置 - Google Patents
眼の状態検出装置 Download PDFInfo
- Publication number
- JP3812298B2 JP3812298B2 JP2000191365A JP2000191365A JP3812298B2 JP 3812298 B2 JP3812298 B2 JP 3812298B2 JP 2000191365 A JP2000191365 A JP 2000191365A JP 2000191365 A JP2000191365 A JP 2000191365A JP 3812298 B2 JP3812298 B2 JP 3812298B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- area
- redetection
- tracking
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Pathology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
Description
【発明の属する技術分野】
本発明は、車両の運転者、船舶の操船者、プラント等のオペレータ等の脇見状態を検出し警報することなどに供する眼の状態検出装置に関する。
【0002】
【従来の技術】
従来の画像処理によるこの種の装置には、例えば特開9−44680号に記載されたようなものがある。この装置では、眼の検出領域を設定し、該検出領域内で眼の領域を抽出し、その抽出結果に応じて眼の検出領域の位置、大きさ、数、及び形状の少なくとも1つを変更して設定することで短時間に効率よく眼領域が抽出できるようにしている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来の装置では、眼が抽出できないときに、検出領域を単に拡大して眼を再検出する構成であるため、ノイズとなるデータが拡大された検出領域内に多数含まれるようになり、眼の検出精度向上に限界があると共に、眼の検出に時間がかかるという問題があった。
【0004】
また、運転者が横を向いたような場合、眼の追跡限界を超えて脇見状態となるが、仮にその脇見時間が短くすぐに車両前方を見た場合には脇見状態と検出する必要はない。しかし、上記従来の装置を用いて脇見検出を実現しようとすると、運転者が横を向いて眼の追跡限界を超えてからすぐに車両前方を見たとしても、再度眼を検出するまでに時間がかかることで脇見状態の誤検出を起こし、誤警報などの煩わしさを招き易かった。
【0005】
この発明は、目の検出精度向上と、目の検出時間を短縮することのできる眼の状態検出装置の提供を課題とする。
【0006】
【課題を解決するための手段】
請求項1の発明は、運転者の顔を撮像して顔画像データを出力する画像出力手段と、該画像出力手段から出力された顔画像データを処理して眼の位置を検出する眼の位置検出手段と、前記検出された眼の位置を基準に眼を含む追跡領域を設定し追跡対象である両眼を検出しながら独立に追跡する眼の追跡手段と、前記眼の追跡手段による追跡結果から、運転者の眼の位置が移動したかどうかを判定する第1の判定手段と、前記眼の追跡手段の追跡対象である両眼の画像データを画像処理することで、運転者が前を見ているかどうかを判定する第2の判定手段と、前記第1の判定手段によって、運転者の眼の位置が移動したことが判定され、前記第2の判定手段によって、運転者が前を見ていると判定されたことに応じて、眼の再検出領域を学習する再検出領域の学習手段と、前記眼の再検出領域の学習手段によって学習した眼の再検出領域の切り替え優先順位を決定する再検出領域の優先順位決定手段と、前記決定された優先順位で眼の再検出領域を切り替え、該切り替えた眼の再検出領域内で追跡対象としての眼を再度検出する眼の再検出手段とを備えたことを特徴とする。
【0007】
請求項2の発明は、請求項1記載の眼の状態検出装置であって、前記眼の再検出領域の学習手段が、両眼を含む矩形領域を前記再検出領域として記憶することで、眼の再検出領域を学習することを特徴とする。
【0008】
請求項3の発明は、請求項1又は請求項2記載の眼の状態検出装置であって、前記第1の判定手段が、前記眼の追跡手段による追跡結果から、追跡対象である両眼の前記追跡領域の画像上での座標位置が所定値以上移動し、且つ両眼の相対位置関係が保持できている場合に、前記運転者の眼の位置が移動したことを判定し、前記第2の判定手段が、前記眼の追跡手段の追跡対象である両眼の画像データをパターンマッチングした結果に応じて、運転者が前を見ているかどうかを判定することを特徴とする。
【0009】
請求項4の発明は、請求項2記載の眼の状態検出装置であって、前記眼の再検出領域の学習手段は、運転対象の運転信号の入力に基づいて前記パターンマッチングを行うことを特徴とする。
【0010】
請求項5の発明は、請求項1記載の眼の状態検出装置であって、前記眼の再検出領域の優先順位決定手段は、前記眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域の代表座標値の接近度合いでグループ化し、各グループ毎に眼の再検出領域を更新設定し、更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に更新設定した眼の再検出領域を切り替えて眼の再検出を行うことを特徴とする。
【0011】
請求項6の発明は、請求項5記載の眼の状態検出装置であって、前記眼の再検出領域の優先順位決定手段は、前記更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に前記更新設定する眼の検出領域の大きさを可変とすることを特徴とする。
【0012】
請求項7の発明は、請求項1記載の眼の状態検出装置であって、前記眼の再検出領域の優先順位決定手段は、前記眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域を時系列的に新しいものから古いものへ順次切り替えて眼の再検出を行うことを特徴とする。
【0013】
請求項8の発明は、請求項5〜7の何れかに記載の眼の状態検出装置であって、前記眼の再検出領域の優先順位決定手段は、運転対象の状態に応じて眼の再検出領域の優先順位の決定方法を変更することを特徴とする。
【0014】
請求項9の発明は、請求項1〜8の何れかに記載の眼の状態検出装置であって、前記眼の追跡手段と前記眼の再検出手段との少なくとも一方の情報を用いることにより運転者の脇見運転を検出する脇見検出手段を備えたことを特徴とする。
【0015】
請求項10の発明は、請求項9記載の眼の状態検出装置であって、前記脇見検出手段は、眼の追跡ができなくなったときから眼の再検出領域において再度眼の検出ができるようになるまでの時間の長さで脇見運転を検出することを特徴とする。
【0016】
【発明の効果】
請求項1の発明では、顔画像出力手段により運転者の顔を撮像して顔画像データを出力し、眼の位置検出手段より、前記画像出力手段から出力された顔画像データを処理して眼の位置を検出し、眼の追跡手段により、前記検出された眼の位置を基準に眼を含む追跡領域を設定し追跡対象である両眼を検出しながら独立に追跡することができる。
【0017】
眼の再検出領域の学習手段では、第1の判定手段によって、運転者の眼の位置が移動したことが判定され、第2の判定手段によって、運転者が前を見ていると判定されたことに応じて、眼の再検出領域を複数学習し、再検出領域の優先順位決定手段では、前記眼の再検出領域の学習手段によって学習した複数の眼の再検出領域の優先順位を決定し、眼の再検出手段では、前記決定された優先順位で眼の再検出領域内の追跡対象として再度眼を検出することができる。
【0018】
従って、運転者が前方を見ているときに両眼が存在する必要最小限の領域を学習することが可能となり、ノイズとなるデータが含まれる可能性が減少し、目の検出精度を向上させることができる。
【0019】
また、目の再検出領域を切り替える優先順位を決定することで効率的に目の再検出ができ、目の再検出の時間を短縮することができる。従って、顔の大きな動きを伴う脇見状態が発生しても、すぐに前方を向くような場合には直ちに目の再検出ができ、目の誤検出の可能性を抑制することができる。
【0020】
請求項2の発明では、請求項1記載の発明の効果に加え、眼の再検出領域の学習手段が、両眼を含む矩形領域を再検出領域として記憶することで、眼の再検出領域を学習することができる。
【0021】
従って、眼の検出精度向上と、眼の誤検出抑制とをより確実に行うことができる。
【0022】
請求項3の発明は、請求項1又は請求項2記載の発明の効果に加え、第1の判定手段が、眼の追跡手段による追跡結果から、追跡対象である両眼の追跡領域の画像上での座標位置が所定値以上移動し、且つ両眼の相対位置関係が保持できている場合に、運転者の眼の位置が移動したことを判定し、第2の判定手段が、眼の追跡手段の追跡対象である両眼の画像データをパターンマッチングした結果に応じて、運転者が前を見ているかどうかを判定することができる。
【0023】
従って、眼の検出精度向上と、眼の誤検出抑制とをより確実に行うことができる。
【0024】
請求項4の発明は、請求項2記載の発明の効果に加え、眼の再検出領域の学習手段は、運転対象の運転信号の入力に基づいてパターンマッチングを行うことができる。
【0025】
従って、運転者が前方を見ているという条件で確実に目の再検出領域を学習することができ、目の検出精度向上と、目の誤検出抑制とをより確実に行うことができる。
【0026】
請求項5の発明では、請求項1記載の発明の効果に加え、眼の再検出領域の優先順位決定手段は、前記眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域の代表座標値の接近度合いでグループ化し、各グループ毎に眼の再検出領域を更新設定し、更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に更新設定した眼の再検出領域を切り替えて眼の再検出を行うことができる。
【0027】
従って、運転者の両眼のある確率の高い順に目の再検出を行うことができ、より確実に短時間で目の再検出を行うことができ、誤検出を抑制することができる。
【0028】
請求項6の発明では、請求項5記載の発明の効果に加え、眼の再検出領域の優先順位決定手段は、前記更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に前記更新設定する眼の検出領域の大きさを可変とすることができる。
【0029】
従って、運転者が前方を見ているときに両眼が存在する必要最小限の領域を確実に学習することが可能となり、ノイズとなるデータが含まれる可能性が減少し、目の検出精度を確実に向上させることができ、誤検出を確実に抑制することができる。
【0030】
請求項7の発明では、請求項1記載の発明の効果に加え、眼の再検出領域の優先順位決定手段は、前記眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域を時系列的に新しいものから古いものへ順次切り替えて眼の再検出を行うことができる。
【0031】
従って、運転者の両眼のある確率の高い順に目の再検出をより確実に行うことができ、短時間で目の再検出を行うことができ、誤検出を抑制することができる。
【0032】
請求項8の発明では、請求項5〜7の何れかに記載の発明の効果に加え、眼の再検出領域の優先順位決定手段は、運転対象の状態に応じて眼の再検出領域の優先順位の決定方法を変更することができる。
【0033】
従って、運転対象の状態に応じて、運転者の両眼のある確率の高い順に目の再検出を行うことができ、より確実に短時間で目の再検出を行うことができ、誤検出を抑制することができる。
【0034】
請求項9の発明では、請求項1〜8の何れかに記載の発明の効果に加え、脇見検出手段により、眼の追跡手段と前記眼の再検出手段との少なくとも一方の情報を用い運転者の脇見運転を検出することができる。
【0035】
従って、確実な脇見検出を行うことができる。
【0036】
請求項10の発明では、請求項9記載の発明の効果に加え、脇見検出手段は、眼の追跡ができなくなったときから眼の再検出領域において再度眼の検出ができるようになるまでの時間の長さで脇見運転を検出することができる。
【0037】
従って、目の追跡が困難な顔の大きな動きを伴う脇見状態も検出することができる。
【0038】
【発明の実施の形態】
本装置は、自動車の他に鉄道車両、船舶、プラントのオペレータ等の居眠り運転警報として用いることができるが、本実施例では運転対象として自動車に適用した場合で説明する。
【0039】
図1は、本発明を適用した眼の状態検出装置の構成ブロック図にかかり、該装置は、画像出力手段CL1と、眼の位置検出手段CL2と、眼の追跡手段CL3と、眼の再検出領域の学習手段CL4と、眼の再検出領域の優先順位決定手段CL5と、眼の再検出手段CL6と、脇見検出手段CL7とを備えている。
【0040】
前記画像出力手段CL1は、乗員の顔を撮像して顔画像データを出力するものである。前記眼の位置検出手段CL2は、前記画像出力手段CL1から出力された顔画像データを処理して眼の位置を検出するものである。
【0041】
前記眼の追跡手段CL3は、前記検出された眼の位置を基準に眼を含む追跡領域を設定し追跡対象である両眼を検出しながら独立に追跡するものである。
【0042】
前記眼の再検出領域の学習手段CL4は、前記眼の追跡手段CL3により眼の追跡を行いながら運転者が前を見ているという条件の下に眼の再検出領域を学習するものである。すなわち、眼の再検出領域の学習手段CL4は、運転者が前を見ている条件として両眼のパターンマッチングが可能となったときに両眼を含む矩形領域を前記再検出領域として記憶する。または、眼の再検出領域の学習手段CL4は、追跡領域の画像上での座標位置が所定値以上移動し、且つ両眼の間隔が保持できているときに前記パターンマッチングを行う。または、眼の再検出領域の学習手段CL4は、運転対象の運転信号の入力に基づいて前記パターンマッチングを行う。
【0043】
前記眼の再検出領域の優先順位決定手段CL5は、前記眼の再検出領域の学習手段CL4によって学習した眼の再検出領域の優先順位を決定するものである。すなわち、眼の再検出領域の優先順位決定手段CL5は、前記眼の再検出領域の学習手段CL4によって学習した複数個の眼の再検出領域の代表座標値の接近度合いでグループ化し、各グループ毎に眼の再検出領域を更新設定し、更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に更新設定した眼の再検出領域を切り替えて眼の再検出を行う。または、眼の再検出領域の優先順位決定手段CL5は、前記更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に前記更新設定する眼の検出領域の大きさを可変とする。または、眼の再検出領域の優先順位決定手段CL5は、前記眼の再検出領域の学習手段CL4によって学習した複数個の眼の再検出領域を時系列的に新しいものから古いものへ順次切り替えて眼の再検出を行う。または、眼の再検出領域の優先順位決定手段CL5は、運転対象の状態に応じて眼の再検出領域の優先順位の決定方法を変更する。
【0044】
前記眼の再検出手段CL6は、前記決定された優先順位で眼の再検出領域内の追跡対象として再度眼を検出するものである。
【0045】
前記脇見検出手段CL7は、前記眼の追跡手段CL3と前記眼の再検出手段CL6との少なくとも一方の情報を用いることにより運転者の脇見運転を検出する。また、前記脇見検出手段CL7は、眼の追跡ができなくなったときから眼の再検出領域において再度眼の検出ができるようになるまでの時間の長さで脇見運転を検出する。
【0046】
図2は、本発明の一実施形態にかかる構成ブロック図である。
【0047】
同図のように、TVカメラ201が自動車のインストルメントに設置され、運転者の顔部分を正面から撮影する。TVカメラ201の入力画像は、本実施形態では、例えば横方向(X)512画素、縦方向(Y)480画素からなる。前記TVカメラ1で撮像された入力画像は、A−D変換器202を介して画素毎のアナログ電圧が256階調のデジタル値に変換され、入力画像データとして画像メモリ203に格納される。画像メモリ203の出力は、画像データ演算回路204に入力される。
【0048】
従って、TVカメラ201、A−D変換器202、画像メモリ203は、本実施形態において前記画像出力手段CL1を構成している。
【0049】
前記画像データ演算回路204は、後述する眼の位置検出回路206と共に前記眼の位置検出手段CL2を構成し、前記入力された顔画像データから顔の縦方向の画素列に沿って画素の濃度値を読み出し、該濃度値の局所的な高まり毎に1個づつの画素を定めて抽出点とし、隣接した抽出点を連続させて顔の横方向に延びる連続データを抽出して顔の特徴量とし、その出力を眼の位置検出回路205に入力する。
【0050】
前記眼の位置検出回路205は、前記眼の位置検出手段CL2を構成し、前記検出された顔の特徴量から予め記憶された眼の特徴情報に合致する特徴量を抽出して眼の位置を検出する。すなわち、前記検出された顔の特徴量の代表座標値から該特徴量を含んで特定された存在領域内で、前記検出された顔の特徴量の画像上の位置、長さ、形状情報を用いてパターンマッチングにより眼に合致する特徴量を抽出して眼の位置を検出し、その出力は眼の追跡回路206に入力される。
【0051】
前記眼の追跡回路206は、前記眼の追跡手段CL3を構成し、前記眼の位置検出回路205において検出された眼の位置を基準に眼を含む追跡領域を設定すると共に、該追跡領域内で顔の特徴量を検出して眼の詳細位置を検出し、両眼を独立に追跡する。
【0052】
眼の再検出領域学習回路207は、前記眼の再検出領域の学習手段CL4を構成し、前記眼の追跡回路206からの信号により、眼の追跡を行いながら運転者が前を見ているという条件の下に眼の再検出領域を学習し、眼の再検出領域の優先順位決定回路208へ入力する。眼の再検出領域の優先順位決定回路208は、前記眼の再検出領域の優先順位決定手段CL5を構成し、眼の再検出領域学習回路207によって学習した眼の再検出領域の切り替え優先順位を決定し、眼の再検出回路209へ入力する。眼の再検出回路209は、前記眼の再検出手段CL6を構成し、前記決定された優先順位で眼の再検出領域を切り替え、該切り替えた眼の再検出領域内で追跡対象として眼を再度検出し、脇見運転検出回路210へ入力する。
【0053】
脇見運転検出回路210は、前記脇見検出手段CL7を構成し、前記眼の追跡回路206と眼の再検出回路209との少なくとも一方の情報を用いることにより運転者の脇見運転を検出する。
【0054】
次に、上記構成における動作の流れを、図3のフローチャートに基づいて説明する。まず、ステップS301において、TVカメラによって顔部分が撮影され、ステップS302で1フレーム分の入力画像がA−D変換器でデジタル信号に変換されたうえ画像メモリに格納される。
【0055】
次に、ステップS303において、眼の追跡ミスフラグがONかどうかをチェックする。初期状態では眼の追跡ミスフラグはOFFであるため、ステップS304に移行する。ステップS304では、画像全体からの眼の初期位置の検出がなされているかどうかをチェックする。このステップにおいても初期状態では眼の初期位置は検出できていないため、ステップS305に移行し、画像全体からの眼の位置検出を行う。その後、ステップS306に移行して、眼の追跡領域を設定し、眼の初期位置としての眼の再検出領域Aの設定を行う。
【0056】
眼の追跡領域の設定方法と、眼の追跡処理方法については、図5を用いて後述し、眼の初期位置としての眼の再検出領域Aの設定方法について図6を用いて後述する。
【0057】
ステップS306で上記の領域Aの設定後、ステップS307に移行する。ステップS307では、眼の追跡が行えているか否かを判定している。普通、眼の追跡領域内に眼の位置が留まる範囲内の眼の動きであれば眼の追跡ができる。眼の追跡が正常に行われている場合は、その座標情報により脇見検出の判定が行える。しかし、一旦眼を見失ってしまうと従来の装置での脇見検出はできなくなってしまう。また、顔の大きな動きを伴う脇見状態を想定すると、眼の追跡に失敗することも多々あると考えるのが自然である。ステップS307で眼の追跡状態がOKである場合は、ステップS308に移行し、眼の座標位置が所定値以上移動し、且つ両眼の相対位置関係が保持されているか否かを判定する。ステップS308の条件を満たす場合は、ステップS312に移行して眼の追跡領域内で検出できるデータが眼のパターン条件を満たすかどうかを判定する。
【0058】
ステップS308とS312での判定は、眼の位置の移動があっても運転者が前方を見ていると考えられる条件を当てはめたもので、この2つの条件に合う場合は、眼の位置の移動があっても運転者は車両前方を見ている確率が高いといえる。ステップS308とS312での判定方法については、図7、図8を用いて後述する。
【0059】
ステップS308またはS312で、諸条件を満たさないと判定された時は、ステップS309に移行して眼の追跡領域を更新してステップS301に戻り次の画像データの取り込みを行う。このループを回る処理は、眼の追跡が正常に行われている場合のもので、眼の追跡に失敗しなければ眼の位置の移動状態による脇見検出を行うことができる。このステップS309の追跡領域の更新処理の内容は、後述の図5で説明するものと同様である。
【0060】
ステップS308とステップS312で、諸条件を満たしたと判定された時は、ステップS313に移行する。ステップS313では、眼を見失った時に用いる眼の再検出領域を学習する。この考え方は、ステップS306の眼の初期位置での眼の再検出領域Aの設定方法と同じで有り後述する。その後、ステップS314に移行して眼の再検出領域の優先順位の決定更新を行う。眼の再検出領域の優先順位の決定更新方法は、図9〜図11を用いて後述する。
【0061】
このように眼の再検出領域の学習、優先順位を決定、更新を行いながらの眼の追跡を続ける中で、眼を見失った場合は、図3のステップS307で、そのことを認識しステップS310に移行する。ステップS310では、脇見判定タイマーをスタートさせ、ステップS311で眼の追跡ミスフラグをONにする。その後、図4のステップS401に移行し、眼の再検出領域が所定箇所設定できているかどうかをチェックする。このステップでは、運転者が前方を見ていて、且つ眼が存在する領域がある程度、学習できたかどうかを判定しており、初期段階で眼を見失った場合は、ステップS410に移行して、眼の初期位置の設定を解除して、脇見判定タイマーをストップ、リセットさせ、眼の追跡ミスフラグをOFFにする。その後、ステップS301に戻り、また、初期状態からの眼の位置検出と、眼の再検出領域の設定を行う。
【0062】
このループの処理は、異常状態のバックアップとして用意しているもので、眼の再検出領域の所定箇所の設定は、眼の追跡を行いながらする処理であるため、長い時間がかかるということはなく、通常状態ではステップS402に移行する。ステップS402からステップS407の処理は、3つの眼の再検出領域での眼の再検出を行っている例である。ステップS402,S404,S406の眼の再検出領域の設定は、図4のステップS313とS314において行われ、その順序も随時変更される。
【0063】
ステップS403,S405,S407は、各々の同領域内において眼の再検出を行っており、眼の再検出ができた場合は、ステップS411に移行し、脇見判定タイマーをストップ、リセットして、眼の追跡ミスフラグをOFFにする。その後、ステップS412で同領域内で検出できた眼のデータを基準に眼の追跡領域を設定し、眼の追跡を開始する。
【0064】
また、ステップS403,S405,S407のどの領域においても、眼の再検出ができない場合は、ステップS408に移行し、脇見運転タイマーが所定時間を越えたかどうかを判定する。脇見許容時間を越えていない場合は、ステップS301に戻り、次の画像データでの眼の再検出に移る。このループの判定中にステップS408で脇見許容時間を越えたと判定された場合は、ステップS409に移行して脇見状態が発生していると判断する。このように運転者が前方を見ていると考えられる時に眼が存在する領域を、効率的に検索できる構成としたため、ステップS408で脇見許容時間を越える状態が発生した場合は、運転者が脇見をしている状態である確率は高く、眼の追跡に失敗するような場面があったとしても精度高い脇見検出が可能となる。
【0065】
ここで、前記ステップS306における眼の追跡領域の設定方法と、眼の追跡処理方法について図5を用いて説明する。図5(a)のように、画像全体から検出した眼の位置が中央になるようにして眼の追跡領域W1の基準点を左上に設定する。図5の(b)は、次の画像データを取り込んだ状態を示すものである。前の画像データで設定した眼の追跡領域W1に対し、次の画像データでの眼の位置は、顔の動きなどで必ずしも該領域の中央にこない。この時、次の画像データでは、この眼の追跡領域内で検出された眼の位置が中央になるようにして、(a)の場合と同様に眼の追跡領域W2の基準点を左上に設定する。このようにして眼の追跡領域内に眼が検出できる場合は、順次、基準点の座標を更新しながら眼の追跡を続ける。
【0066】
つぎに、前記ステップS306における、眼の初期位置としての眼の再検出領域Aの設定について図6を用いて説明する。眼の再検索は、眼の追跡に失敗し眼を見失ってしまった時に、運転者が車両前方を見ている場合に両眼が存在する可能性が高い領域として設定する。図6の(a)は初期状態での眼の検出位置に基づき、両眼が入る横長の1つの矩形領域として設定した例を示す。図6の(b)は、左右の眼の領域を独立させて2つの小さな矩形領域として設定した例を示す。
【0067】
前記ステップS313では、前記のように眼を見失った時に用いる眼の再検出領域を学習するが、この考え方は、前記ステップS306の眼の初期位置での眼の再検出領域Aの設定方法と同じで、図7のように両眼が所定値以上移動しても、運転者が車両前方を見ている状態であることを判定した上で、図6に示すように、その位置を眼の再検出領域Bとして学習する。この眼の再検出領域の学習は、眼の位置の移動がある毎に繰り返されるので、眼の再検出領域はB以降、C,D,…と学習していく。
【0068】
前記テップS308、S312での判定方法については、図7、図8を用いて説明する。ステップS308で、図7に示すように、数フレームでの眼の追跡状態をモニタすることによって、所定値以上の眼の座標位置の移動が認識され、且つ両眼の左右間隔D1が保持されていると判定された場合に、前記のようにステップS312に移行して、追跡対象であるデータに対し、眼のパターンマッチングを行う。眼のパターンマッチングは、図8に示すような2値化した形状で行っており、普通、光環境が良く安定した画像であれば図8の(a)に示すようなものになる。しかし、光環境が悪化した時は、図8の(b)や(c)のような形状になることもあるので、眼のパターンは、横幅が眼の幅の相場値の2/3以上あり、且つ上に凸の所定範囲の曲率を持っていることの条件▲1▼と、黒眼の左側の凹み形状条件の▲2▼と、黒目の右側の凹み形状条件の▲3▼を組み合わせることにより設定し、図8の(b),(c)の例を許容するために▲1▼と▲2▼、または▲1▼と▲3▼の条件を満たすものであってもOKとする。
【0069】
前記ステップS314の眼の再検出領域の優先順位の決定更新方法は、図9〜図11のようになる。
【0070】
図9は、眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域の代表座標値の接近度合いでグループ化を行い、各グループ毎に眼の再検出領域を更新設定し、その度数が多い順に更新した眼の再検出領域を切り替えて眼の再検出を行う方法を説明したものである。図6に示す眼の再検出領域の1つまたは2つの代表座標値を基準に、図9に示すように代表座標値の度数カウント領域を設定する。本例は眼の再検出領域を1つとした場合である。
【0071】
つぎに、この代表座標値の接近度合いでの該データのグルーピング方法と、各グループ毎の眼の再検出領域の更新設定方法を説明する。図9の(1)〜(12)の数字は、眼の再検出領域の代表座標値が設定されていった順序を示すものである。
【0072】
まず、始めに(1)の眼の再検出領域の代表座標値を基準に度数カウント領域を設定すると共に、今後、設定される眼の再検出領域の代表座標値が該度数カウント領域に含まれた場合の更新対象としての眼の再検出領域も設定する。つぎに(2)の眼の再検出領域の代表座標値が設定された場合、(1)の度数カウント領域内に含まれるため、(2)の該領域を(1)の該領域に更新して、(1)の該領域の度数をカウントアップする。つぎに(3)の眼の再検出領域の代表座標値が設定された場合、(3)の座標位置は(1)の度数カウント領域内に含まれないため、新たに動領域を新たな更新対象としての眼の再検出領域を設定する。このようにして眼の再検出領域の代表座標値が設定される毎に、既に設定されている度数カウント領域に含まれるか否かを判定しながら、各更新対象としての眼の再検出領域を設定し、その領域の度数をカウントアップする。この時(6)のように2つ以上の度数カウント領域に含まれる代表座標値があった場合は、両方の眼の再検出領域の度数をカウントアップする。
【0073】
図9の例に示すように(12)までの代表座標値が設定された場合、(1)の該領域の度数が5つ、(3)と(7)の該領域の度数が3つ、(8)と(12)の該領域の度数が1つとなる。
【0074】
よって、図3のフローチャートのステップS314での眼の再検出領域の優先順位の決定、更新方法は、このカウントアップされる各領域の度数の多さによって決定する。また、その度数が同じ値になった場合は、決定した順序が後の方を優先させるなどの条件付けがなされている。
【0075】
このようにして、顔を撮像して顔画像データを出力し、顔画像データを処理して眼の位置を検出し、検出された眼の位置を基準に眼を含む追跡領域を設定し追跡対象である両眼を検出しながら独立に追跡し、眼の追跡を行いながら運転者が前を見ているという条件の下に眼の再検出領域を複数学習し、学習した複数の眼の再検出領域の切り替え優先順位を決定し、眼の再検出手段では、前記決定された優先順位で眼の再検出領域を切り替え、該切り替えた眼の再検出領域内で追跡対象として眼を再度検出することができる。
【0076】
従って、運転者が前方を見ているときに両眼が存在する必要最小限の領域を学習することが可能となり、ノイズとなるデータが含まれる可能性が減少し、目の検出精度を向上させることができる。
【0077】
また、目の再検出領域を切り替える優先順位を決定することで効率的に目の再検出ができ、目の再検出の時間を短縮することができる。従って、顔の大きな動きを伴う脇見状態が発生しても、すぐに前方を向くような場合には直ちに目の再検出ができ、目の誤検出の可能性を抑制することができる。
【0078】
運転者が前を見ている条件として両眼のパターンマッチングが可能となったとき、すなわち、追跡領域の画像上での座標位置が所定値以上移動し、且つ両眼の間隔が保持できているときにパターンマッチングを行うことができるとして両眼を含む矩形領域を再検出領域として記憶することができる。このため、運転者が前方を見ているという条件で確実に目の再検出領域を学習することができ、目の検出精度向上と、目の誤検出抑制とをより確実に行うことができる。
【0079】
さらに、学習した複数個の眼の再検出領域の代表座標値の接近度合いでグループ化し、各グループ毎に眼の再検出領域を更新設定し、更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に更新設定した眼の再検出領域を切り替えて眼の再検出を行うため、運転者の両眼のある確率の高い順に目の再検出を行うことができ、より確実に短時間で目の再検出を行うことができ、誤検出を抑制することができる。
【0080】
また、眼の追跡ができなくなったときから眼の再検出領域において再度眼の検出ができるようになるまでの時間の長さで脇見運転を検出することができ、目の追跡が困難な顔の大きな動きを伴う脇見状態も検出することができる。
【0081】
図10は、更新対象としての眼の再検出領域の大きさを、度数カウントの多さに応じて可変させる方法について説明したものである。図10の(5),(3),(1)は該領域の度数を示したものである。各眼の再検出領域は、その度数が少ない時は大きめに設定し、度数が増えてくるに従い該領域を更新して縮小していく。よって、図10の例では、眼の再検出領域が、度数1>度数3>度数5の関係になるようにしている。
【0082】
このように、更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順から前記更新設定する眼の検出領域の大きさを次第に大きくするように可変とするため、運転者が前方を見ているときに両眼が存在する必要最小限の領域を確実に学習することが可能となり、ノイズとなるデータが含まれる可能性が減少し、目の検出精度を確実に向上させることができる。
【0083】
図11は、眼の再検出領域の優先順位決定手段において、眼の再検出領域の学習手段によって学習した眼の再検出領域を時系列的に新しいものから、古いものに順次切り替えて眼の再検出を行う方法について説明したものである。図11の(a)の(1)〜(5)の数字は、眼の再検出領域の代表座標値が設定されていった順序を示すものである。本例では、度数の代わりに時系列の眼があった位置の情報を用いることを目的としており、眼の再検索を行う領域を新しく設定された(5)から順に(4),(3),…と切り替えていく。また、時系列的にどこまでの情報を参考にするかは、予め決めておき、例えば5領域とした場合は、図11の(b)に示すように(1)の領域をカットとして(6)から(2)を眼の検索対象とする。
【0084】
このように時系列的に切り替えた場合も、運転者の両眼のある確率の高い順に目の再検出をより確実に行うことができ、短時間で目の再検出を行うことができ、誤検出を抑制することができる。
【0085】
なお、眼の再検出領域の数は、脇見検出に対する許容時間を可変させるのに関連して変更することも有効であると考える。例えば、車速が高い場合や、先行車との車間距離が短い場合は、運転者の眼の位置が存在する領域は、狭まってくることから対象とする眼の検索領域の数も少なくすることが望ましい。すなわち、自動車の車速状態等に応じて、運転者の両眼のある確率の高い順に目の再検出を行うことができ、より確実に短時間で目の再検出を行うことができ、誤検出を抑制することができる。
【0086】
最後に、眼の再検出領域の学習のトリガーが、車速、蛇角、スロットル開度、ブレーキなど、運転対象である自動車の運転状態が推定できる運転信号(車両信号)とした場合の例を、図12を用いて説明する。図12のフローチャートは、ステップS1208以外は、図3のフローチャートと同じものである。ステップS1208は、運転者が前を見ていると推定できる状態を、運転信号によって判断する処理を行っている。その例としては、運転者がブレーキを踏んだ時は、車両前方を見ている確率が高いといえることや、ハンドルが切られていない状態で、加速している時は、運転者が前方を見ている確率が高いということに基づいている。そして、車両信号の入力があったときには、ステップS1212へ移行することになる。
【0087】
このようにして、運転対象の運転信号の入力に基づいてパターンマッチングを行うことができ、運転者が前方を見ているという条件で確実に目の再検出領域を学習することができ、目の検出精度向上と、目の誤検出抑制とをより確実に行うことができる。
【0088】
なお、本発明の内容にある眼の位置検出方法は、「特開平10−40361号」、「特開平10−143669号」等にも記載されている方法を用いることが出来るのはもちろんである。
【図面の簡単な説明】
【図1】本発明の眼の状態検出装置の構成ブロック図である。
【図2】本発明の一実施形態に係る眼の状態検出装置のブロック図である。
【図3】一実施形態に係り、脇見運転検出の全体動作を示すフローチャートである。
【図4】一実施形態に係り、脇見運転検出の全体動作を示すフローチャートである。
【図5】一実施形態の眼の追跡領域の設定方法、眼の追跡方法に係り、(a)は眼の追跡領域及び基準点を示し、(b)は次のデータを取り込んだ状態を示す説明図である。
【図6】一実施形態に係る眼の再検出領域の設定方法に係り、(a)は1つの横長の矩形領域として設定した場合、(b)は2つの小さな矩形領域として設定した場合の説明図である。
【図7】一実施形態に係り、眼の再検出領域の学習方法の説明図である。
【図8】一実施形態に係る眼のパターンマッチングに係り、(a)は光環境が安定している場合、(b)(c)は光環境が悪化した場合の説明図である。
【図9】一実施形態に係り、眼の再検出領域の優先順位の決定方法に関する説明図である。
【図10】一実施形態に係り、度数情報による眼の再検出領域の可変方法に関する説明図である。
【図11】一実施形態に係り、眼の再検出領域の優先順位の決定方法に関する説明図である。
【図12】一実施形態に係り、眼の再検出領域を学習するトリガー情報として車両信号を用いた場合の動作を示すフローチャートである。
【符号の説明】
CL1 画像出力手段
CL2 眼の位置検出手段
CL3 眼の追跡手段
CL4 眼の再検出領域の学習手段
CL5 眼の再検出領域の優先順位決定手段
CL6 眼の再検出手段
CL7 脇見検出手段
Claims (10)
- 運転者の顔を撮像して顔画像データを出力する画像出力手段と、
該画像出力手段から出力された顔画像データを処理して眼の位置を検出する眼の位置検出手段と、
前記検出された眼の位置を基準に眼を含む追跡領域を設定し追跡対象である両眼を検出しながら独立に追跡する眼の追跡手段と、
前記眼の追跡手段による追跡結果から、運転者の眼の位置が移動したかどうかを判定する第1の判定手段と、
前記眼の追跡手段の追跡対象である両眼の画像データを画像処理することで、運転者が前を見ているかどうかを判定する第2の判定手段と、
前記第1の判定手段によって、運転者の眼の位置が移動したことが判定され、前記第2の判定手段によって、運転者が前を見ていると判定されたことに応じて、眼の再検出領域を学習する再検出領域の学習手段と、
前記眼の再検出領域の学習手段によって学習した眼の再検出領域の切り替え優先順位を決定する再検出領域の優先順位決定手段と、
前記決定された優先順位で眼の再検出領域を切り替え、該切り替えた眼の再検出領域内で追跡対象としての眼を再度検出する眼の再検出手段とを備えたことを特徴とする眼の状態検出装置。 - 請求項1記載の眼の状態検出装置であって、
前記眼の再検出領域の学習手段は、両眼を含む矩形領域を前記再検出領域として記憶することで、眼の再検出領域を学習することを特徴とする眼の状態検出装置。 - 請求項1又は請求項2記載の眼の状態検出装置であって、
前記第1の判定手段は、前記眼の追跡手段による追跡結果から、追跡対象である両眼の前記追跡領域の画像上での座標位置が所定値以上移動し、且つ両眼の相対位置関係が保持できている場合に、前記運転者の眼の位置が移動したことを判定し、
前記第2の判定手段は、前記眼の追跡手段の追跡対象である両眼の画像データをパターンマッチングした結果に応じて、運転者が前を見ているかどうかを判定することを特徴とする眼の状態検出装置。 - 請求項2記載の眼の状態検出装置であって、
前記眼の再検出領域の学習手段は、運転対象の運転信号の入力に基づいて前記パターンマッチングを行うことを特徴とする眼の状態検出装置。 - 請求項1記載の眼の状態検出装置であって、
前記眼の再検出領域の優先順位決定手段は、前記眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域の代表座標値の接近度合いでグループ化し、各グループ毎に眼の再検出領域を更新設定し、更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に更新設定した眼の再検出領域を切り替えて眼の再検出を行うことを特徴とする眼の状態検出装置。 - 請求項5記載の眼の状態検出装置であって、
前記眼の再検出領域の優先順位決定手段は、前記更新設定した眼の再検出領域内に含まれる代表座標値の度数が多い順に前記更新設定する眼の検出領域の大きさを可変とすることを特徴とする眼の状態検出装置。 - 請求項1記載の眼の状態検出装置であって、
前記眼の再検出領域の優先順位決定手段は、前記眼の再検出領域の学習手段によって学習した複数個の眼の再検出領域を時系列的に新しいものから古いものへ順次切り替えて眼の再検出を行うことを特徴とする眼の状態検出装置。 - 請求項5〜7の何れかに記載の眼の状態検出装置であって、
前記眼の再検出領域の優先順位決定手段は、運転対象の状態に応じて眼の再検出領域の優先順位の決定方法を変更することを特徴とする眼の状態検出装置。 - 請求項1〜8の何れかに記載の眼の状態検出装置であって、
前記眼の追跡手段と前記眼の再検出手段との少なくとも一方の情報を用いることにより運転者の脇見運転を検出する脇見検出手段を備えたことを特徴とする眼の状態検出装置。 - 請求項9記載の眼の状態検出装置であって、
前記脇見検出手段は、眼の追跡ができなくなったときから眼の再検出領域において再度眼の検出ができるようになるまでの時間の長さで脇見運転を検出することを特徴とする眼の状態検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000191365A JP3812298B2 (ja) | 2000-06-26 | 2000-06-26 | 眼の状態検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000191365A JP3812298B2 (ja) | 2000-06-26 | 2000-06-26 | 眼の状態検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002008020A JP2002008020A (ja) | 2002-01-11 |
JP3812298B2 true JP3812298B2 (ja) | 2006-08-23 |
Family
ID=18690675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000191365A Expired - Fee Related JP3812298B2 (ja) | 2000-06-26 | 2000-06-26 | 眼の状態検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3812298B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3861600B2 (ja) * | 2001-01-29 | 2006-12-20 | 日産自動車株式会社 | 脇見運転および居眠り運転警報装置 |
US7206435B2 (en) | 2002-03-26 | 2007-04-17 | Honda Giken Kogyo Kabushiki Kaisha | Real-time eye detection and tracking under various light conditions |
JP4052081B2 (ja) * | 2002-10-10 | 2008-02-27 | 日産自動車株式会社 | 視線方向検出装置 |
JP4192643B2 (ja) * | 2003-03-20 | 2008-12-10 | アイシン精機株式会社 | 車両運転者の視線検出装置 |
JP4696571B2 (ja) * | 2005-01-27 | 2011-06-08 | 日産自動車株式会社 | 眼位置検出装置 |
JP5270319B2 (ja) * | 2008-11-28 | 2013-08-21 | トヨタ自動車株式会社 | 画像監視装置 |
JP2012084967A (ja) | 2010-10-07 | 2012-04-26 | Hyundai Motor Co Ltd | 運転者状態検知カメラ |
JP6023654B2 (ja) | 2013-05-15 | 2016-11-09 | 本田技研工業株式会社 | 運転支援装置および運転支援方法 |
CN104013414B (zh) * | 2014-04-30 | 2015-12-30 | 深圳佑驾创新科技有限公司 | 一种基于移动智能手机的驾驶员疲劳检测系统 |
JP6947099B2 (ja) | 2018-03-27 | 2021-10-13 | 日本電気株式会社 | 余所見判定装置、余所見判定システム、余所見判定方法、プログラム |
-
2000
- 2000-06-26 JP JP2000191365A patent/JP3812298B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002008020A (ja) | 2002-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7969470B2 (en) | Moving object detection apparatus, method and program | |
CN110412516B (zh) | 毫米波雷达对静止物体和缓慢变化物体的检测方法和装置 | |
JP3812298B2 (ja) | 眼の状態検出装置 | |
JPH09322155A (ja) | 映像監視方法及び装置 | |
JP2003067752A (ja) | 車両周辺監視装置 | |
JPH0696397A (ja) | 画像追尾装置および画像追尾方法 | |
JP2002074339A (ja) | 車載撮像装置 | |
JP3814779B2 (ja) | 侵入者自動追尾方法および装置並びに画像処理装置 | |
JPH04313199A (ja) | 車間距離検出装置 | |
JP3388087B2 (ja) | 物体検出装置 | |
CN110088807A (zh) | 分隔线识别装置 | |
JP2003281700A (ja) | 割り込み車両検出装置及びその方法 | |
JP2003028635A (ja) | 画像測距装置 | |
JPH11296660A (ja) | 道路白線検出装置 | |
JPH11345392A (ja) | 障害物検出装置及び障害物検出方法 | |
JP2007172504A (ja) | 付着物検出装置及び付着物検出方法 | |
JPH1040361A (ja) | 居眠り状態検出装置 | |
JP2000142164A (ja) | 眼の状態検出装置及び居眠り運転警報装置 | |
JP3942289B2 (ja) | 車両監視装置 | |
JPH10143669A (ja) | 居眠り状態検出装置 | |
JP2007233487A (ja) | 歩行者検出方法、装置、およびプログラム | |
JPH0757200A (ja) | 走路認識装置および走路認識方法 | |
JP3858534B2 (ja) | 眼の状態検出装置 | |
JPH07239998A (ja) | 車両用周辺監視装置 | |
JP2931709B2 (ja) | 走行車両検知装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060522 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090609 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100609 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |