JP6960995B2 - 状態判定装置および状態判定方法 - Google Patents

状態判定装置および状態判定方法 Download PDF

Info

Publication number
JP6960995B2
JP6960995B2 JP2019523262A JP2019523262A JP6960995B2 JP 6960995 B2 JP6960995 B2 JP 6960995B2 JP 2019523262 A JP2019523262 A JP 2019523262A JP 2019523262 A JP2019523262 A JP 2019523262A JP 6960995 B2 JP6960995 B2 JP 6960995B2
Authority
JP
Japan
Prior art keywords
driver
image
posture
determination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019523262A
Other languages
English (en)
Other versions
JPWO2018225176A1 (ja
Inventor
翔悟 甫天
友美 保科
和樹 國廣
洸暉 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018225176A1 publication Critical patent/JPWO2018225176A1/ja
Application granted granted Critical
Publication of JP6960995B2 publication Critical patent/JP6960995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Description

この発明は、車両を運転する運転者の状態を判定する技術に関するものである。
従来、車両を運転する運転者を撮像した撮像画像から運転者の運転姿勢の崩れを検出し、運転者が運転することができない状態(以下、運転不能状態と記載する)であるか否か判定する技術がある。例えば、特許文献1には、車両に搭載されたカメラにより撮像された運転席の撮像画像から、運転者の首よりも上の頭部を逐次検出し、車両の走行中に検出された運転者の頭部が、撮像画像の所定範囲から外れている場合に運転姿勢が崩れているとして運転者が運転不能状態であることを検出するドライバの運転不能状態検出装置が開示されている。
特開2016−27452号公報
上記特許文献1に記載されたドライバの運転不能状態検出装置では、撮像画像に映りこんだ他の乗員の頭部、車両内装または風景などの運転者の頭部以外を運転者の頭部であると誤って検出した場合、運転不能状態でない運転者を運転不能状態であると誤検出してしまうという課題があった。
この発明は、上記のような課題を解決するためになされたもので、運転者の運転不能状態の誤検出を抑制し、運転者の状態の判定精度を向上させることを目的とする。
この発明に係る状態判定装置は、運転者を含む車内の撮像画像を取得する画像取得部と、前記画像取得部が取得した撮像画像から、前記運転者の顔位置を検出する顔検出部と、前記顔検出部が検出した前記運転者の顔位置と、予め算出された前記運転者の基準点とを比較し、設定された移動方向に、第1の姿勢崩れ判定量以上の前記運転者の顔位置の移動を検出した場合に、前記運転者の姿勢が崩れていると判定する姿勢判定部と、前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、前記画像取得部が取得した撮像画像内の第1領域の画像と、比較画像内の第1領域の画像との比較を行って前記運転者の姿勢が崩れているか否か再判定を行うことにより、前記姿勢判定部による前記運転者の姿勢が崩れているとの判定が正しいか否かを判定する画像比較部と、前記画像比較部の再判定の結果に基づいて、前記運転者が運転不能状態であるか否か判定を行う状態判定部と、前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、前記画像取得部が取得した撮像画像内の第2領域の画像から、前記運転者の輪郭を検出し、検出した輪郭のうち、前記運転者の首周りの輪郭に、予め定義した三角形の形状が含まれる場合、前記運転者の姿勢が崩れているとの判定を解除する輪郭検出部とを備える。
また、この発明に係る状態判定方法は、画像取得部が、運転者を含む車内の撮像画像を取得するステップと、顔検出部が、前記取得された撮像画像から、前記運転者の顔位置を検出するステップと、姿勢判定部が、前記検出された前記運転者の顔位置と、予め算出された前記運転者の基準点とを比較し、設定された移動方向に、第1の姿勢崩れ判定量以上の前記運転者の顔位置の移動を検出した場合に、前記運転者の姿勢が崩れていると判定するステップと、画像比較部が、前記運転者の姿勢が崩れていると判定した場合に、前記取得された撮像画像内の第1領域の画像と、比較画像内の第1領域の画像との比較を行って前記運転者の姿勢が崩れているか否か再判定を行うことにより、前記姿勢判定部による前記運転者の姿勢が崩れているとの判定が正しいか否かを判定するステップと、前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、輪郭検出部が、前記画像取得部が取得した撮像画像内の第2領域の画像から、前記運転者の輪郭を検出し、検出した輪郭のうち、前記運転者の首周りの輪郭に、予め定義した三角形の形状が含まれる場合、前記運転者の姿勢が崩れているとの判定を解除するステップと、状態判定部が、前記再判定の結果に基づいて、前記運転者が運転不能状態であるか否か判定を行うステップとを備える。
この発明によれば、運転者の運転不能状態の誤検出を抑制し、運転者の状態の判定精度を向上させることができる。
実施の形態1に係る状態判定装置の構成を示すブロック図である。 図2A、図2Bは、実施の形態1に係る状態判定装置の画像比較部が設定する第1領域の一例を示す図である。 図3A、図3Bは、実施の形態1に係る状態判定装置のハードウェア構成例を示す図である。 実施の形態1に係る状態判定装置の顔検出部および基準点算出部の処理を示す図である。 実施の形態1の状態判定装置による運転者の頭部の移動方向の設定および各移動方向に設定された第1の姿勢崩れ判定量の一例を示す図である。 図6A、図6B、図6Cは、実施の形態1に係る状態判定装置の画像比較部の処理を示す図である。 図7A、図7B、図7Cは、実施の形態1に係る状態判定装置の画像比較部の処理を示す図である。 実施の形態1に係る状態判定装置の基準点算出処理の動作を示すフローチャートである。 実施の形態1に係る状態判定装置の状態判定処理の動作を示すフローチャートである。 図10A、図10B、図10Cは、実施の形態1に係る状態判定装置の姿勢判定部による運転者の顔向きの変位量の判定を示す図である。 実施の形態1の状態判定装置による運転者の頭部の移動方向の設定および各移動方向に設定された第2の姿勢崩れ判定量の一例を示す図である。 実施の形態2に係る状態判定装置の構成を示すブロック図である。 図13A、図13Bは、実施の形態2に係る状態判定装置の軸検出部による頭部中心軸の検出を示す図である。 図14A、図14B、図14Cは、実施の形態2に係る状態判定装置の軸検出部による頭部中心軸の傾きの判定を示す図である。 実施の形態2に係る状態判定装置の状態判定処理の動作を示すフローチャートである。 実施の形態3に係る状態判定装置の構成を示すブロック図である。 図17A,図17Bは、実施の形態3に係る状態判定装置の輪郭検出部が設定する第2領域の設定例を示す図である。 実施の形態3に係る状態判定装置の状態判定処理の動作を示すフローチャートである。 実施の形態1から実施の形態3に係る発明の状態判定装置の判定結果に基づく表示例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る状態判定装置100の構成を示すブロック図である。
状態判定装置100は、まず、運転者の顔を検出し当該検出した顔の移動量および移動方向に基づいて、運転者の姿勢が崩れているか否かを判定する。そして、状態判定装置100は、姿勢が崩れていると判定したときに車室内の撮像装置から取得した第1の運転席の撮像画像と、車室内の撮像装置によって予め撮像された画像であって、正常な状態の運転者が運転席に着座しているときの第2の運転席の画像とを比較する。状態判定装置100は、第1の運転席の撮像画像と、第2の運転席の画像との比較結果に基づいて、運転者の姿勢崩れを判定し、運転者が運転不能状態であるか否かを判定する。
または、状態判定装置100は、姿勢が崩れていると判定したときに車室内の撮像装置から取得した第1の運転席の撮像画像と、車室内の撮像装置によって予め撮像された画像であって、運転者が着座していない運転席の座席を撮像した第3の運転席の画像とを比較する。状態判定装置100は、第1の運転席の撮像画像と、第3の運転席の画像との比較結果に基づいて、運転者の姿勢崩れを判定し、運転者が運転不能状態であるか否かを判定する。
詳細は後述するが、状態判定装置100は、第1の運転席の撮像画像と第2の運転席の撮像画像との一致度を算出する。または、状態判定装置100は、第1の運転席の撮像画像と第3の運転席の撮像画像との乖離度を算出する。
状態判定装置100は、算出した一致度または乖離度が小さい場合は運転者が正常な状態の姿勢とは異なる姿勢、即ち姿勢が崩れていると判定し、運転者が運転不能状態であると判定する。
一方、状態判定装置100は、算出した一致度または乖離度が大きい場合は運転者が正常な状態の姿勢と同等の姿勢、即ち姿勢が崩れていないと判定し、運転者が運転不能状態でないと判定する。
これにより、状態判定装置100が、例えば他の乗員の頭部等を運転者の顔であると誤検出し、当該検出結果に基づいて運転者の姿勢が崩れていると判定した場合であっても、第1の運転席の撮像画像と第2の運転席の撮像画像との比較、または第1の運転席の撮像画像と第3の運転席の撮像画像との比較によって、当該判定のチェックを行うことができるため、運転不能状態であると誤検出することを抑制することができる。
状態判定装置100は、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105、比較画像蓄積部106および状態判定部107を備える。
また、状態判定装置100には、カメラ200、車両情報認識装置300、警告装置400および車両制御装置500が接続されている。
カメラ200は、状態判定装置100を搭載した車両内を撮像する撮像手段である。カメラ200は、例えば赤外線カメラ等である。カメラ200は、運転席に着座した運転者の少なくとも頭部を撮影可能な位置に設置される。また、カメラ200は、1台または複数台で構成される。
車両情報認識装置300は、状態判定装置100を搭載した車両の車両情報を認識する装置である。車両情報認識装置300は、例えば車速センサおよびブレーキセンサを備える。車速センサは、車両の走行速度を取得するセンサである。ブレーキセンサは、車両のブレーキペダルの操作量を検出するセンサである。
警告装置400は、状態判定装置100の判定結果に基づいて、車両の運転者に対して音声または音声と表示によって、注意喚起を示す情報または警告を示す情報を生成する。警告装置400は、生成した注意喚起を示す情報または警告を示す情報の出力制御を行う。警告装置400を構成する、例えばスピーカ、またはスピーカおよびディスプレイは、出力制御に基づいて、注意喚起を示す情報または警告を示す情報を音声出力、または音声出力および表示する。
車両制御装置500は、状態判定装置100の判定結果に基づいて、車両の走行を制御する。
状態判定装置100の各構成について説明する。
画像取得部101は、カメラ200が撮像した撮像画像を取得する。撮像画像は、車内の運転者の少なくとも頭部が映るように撮像された画像である。画像取得部101は、取得した撮像画像を顔検出部102および画像比較部105に出力する。
顔検出部102は、画像取得部101により取得された撮像画像を解析して運転者の顔位置を検出し、後述する基準点算出部103および姿勢判定部104に出力する。顔位置は、撮像画像上の二次元座標で表され、例えば、顔検出部102は、撮像画像に基づいて運転者の頭部の輪郭に接する枠を設定し、当該設定した枠の中心点の座標を運転者の顔位置とする。顔検出部102の処理の詳細については後述する。なお、これに限らず、顔検出部102は、例えば撮像画像を解析して両目を検出し、両目の中心を顔位置としてもよい。
基準点算出部103は、顔検出部102から取得した顔位置に基づいて、運転者が正常な状態で運転しているときの姿勢における顔位置(以下、基準点と記載する)を算出する。基準点算出部103は、当該算出した基準点を姿勢判定部104に出力する。基準点算出部103の処理の詳細については後述する。
姿勢判定部104は、基準点と顔検出部102が取得した運転者の顔位置に基づいて、基準点からの運転者の頭部の移動量および移動方向を算出する。姿勢判定部104は、算出した移動量が、算出した移動方向において予め設定された顔位置の移動量の閾値である第1の姿勢崩れ判定量以上である場合、運転者の姿勢が崩れていると判定する。一方、姿勢判定部104は、算出した移動量が、算出した移動方向において予め設定された第1の姿勢崩れ判定量未満である場合、運転者の姿勢が崩れていないと判定する。姿勢判定部104は、判定結果を画像比較部105に出力する。
姿勢判定部104は、基準点算出部103が算出した基準点と顔検出部102が取得した運転者の顔位置との距離を算出する。この実施の形態1においては、算出した距離を運転者の頭部の移動量とする。また、姿勢判定部104は、基準点算出部103が算出した基準点を中心として、撮像画像を複数の領域に分割し、顔検出部102が取得した運転者の顔位置がいずれの領域に属するかを判定する。この実施の形態1においては、判定結果である領域を頭部の移動方向とする。
なお、姿勢判定部104は、基準点と顔検出部102が取得した運転者の顔位置とを結んだ直線が、基準点を原点としたX軸となす角度を頭部の移動方向としてもよい。姿勢判定部104の処理の詳細については後述する。
画像比較部105は、姿勢判定部104の判定結果が姿勢崩れを示すものである場合、当該判定の際に用いられた撮像画像(以下、姿勢判定時の撮像画像と記載する)における第1領域の画像と、予め撮像された比較画像における第1領域の画像とを比較し、運転者の姿勢崩れを判定する。
ここで、比較画像は、運転者が正常な状態で運転席に着座しているときに撮像した撮像画像、または運転者が着座していない運転席の座席を撮像した撮像画像である。
また、第1領域は、運転席の座席の前後方向への調整幅、運転席の座席の傾きの調整幅、および運転席のヘッドレストの上下方向への調整幅を考慮して定められた領域であり、且つ運転席のヘッドレストを全て含む領域である。また、第1領域は、運転席の平均的な座席位置、運転者の平均的な座高または一般の運転者が通常の運転動作を行う際に撮像される範囲を考慮して定めてもよい。第1領域は、車種毎の運転座席の位置および撮像装置の位置に基づいて予め設定される領域である。
画像比較部105は、比較画像として運転者が着座しているときに撮像した撮像画像を用いる場合、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との一致度を算出する。一方、画像比較部105は、比較画像として運転者が着座していない運転席の座席の撮像画像を用いる場合、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との乖離度を算出する。画像比較部105は、算出した一致度または乖離度に基づいて、運転者の姿勢が崩れているか否かの再判定を行う。
画像比較部105は、一致度または乖離度が閾値以上である場合は、運転者の姿勢が崩れていないと判定する。即ち、画像比較部105は、顔検出部102が運転者の顔以外を運転者の顔であると誤検出した顔位置に基づいて、姿勢判定部104が、当該誤った顔位置と基準点とに基づいて姿勢崩れと誤判定したものと判定する。一方、画像比較部105は、一致度または乖離度が閾値未満である場合は、運転者の姿勢が崩れている、即ち姿勢判定部104の判定結果が正しいと判定する。画像比較部105は、判定結果を状態判定部107に出力する。
なお、一致度、乖離度および画像比較部105による一致度または乖離度の算出方法の詳細は後述する。
図2は、実施の形態1に係る状態判定装置100の画像比較部105が用いる第1領域の一例を示す図である。図2Aは、運転席を正面から撮像した撮像画像における第1領域の例を示し、図2Bは運転席を斜め前方から撮像した撮像画像における第1領域の例を示した図である。
図2Aおよび図2Bで示した第1領域Ea,Ebは、運転席のヘッドレストHを全て含む領域である。また、第1領域Ea,Ebは、運転席の座席位置、運転者Xの座高、通常の運転動作を考慮した領域である。なお、第1領域Ea,Ebは、運転席の座席位置が最前位置であった場合にも、最後位置にあった場合にも、運転席のヘッドレストHが全て含まれる領域である。
比較画像蓄積部106は、画像比較部105が撮像画像を比較する際に参照する比較画像を蓄積する。比較画像は、姿勢判定時の撮像画像における第1領域と同一の領域を予め撮像した撮像画像である。比較画像は、運転者が正常な状態で運転席に着座しているときに撮像した撮像画像、または運転者が運転席に着座していない運転席の座席を撮像した撮像画像である。運転者が正常な状態で運転席に着座している撮像画像は、例えば、後述する基準点を算出する際に撮像された画像である。運転者を撮像した撮像画像である場合、比較画像蓄積部106は、運転者毎に比較画像を蓄積する。
状態判定部107は、画像比較部105の判定結果に基づいて、運転者が運転不能状態であるか否か判定を行う。状態判定部107は、当該判定結果に基づいて姿勢崩れの状態が一定時間以上継続した場合、運転者が運転不能状態であると判定する。
より具体的には、状態判定部107は、当該判定結果に基づいて姿勢崩れの状態が、注意喚起が必要であると判定する時間(以下、注意喚起判定時間と記載する)継続した場合、運転者に対して注意喚起を行う必要がある状態(以下、注意喚起状態)であると判定する。状態判定部107は、注意喚起状態が運転不能状態であると判断する時間(以下、運転不能判定時間と記載する)継続した場合、運転者が運転不能状態であると判定する。
状態判定部107は、運転者が注意喚起状態であると判定した場合、または運転者が運転不能状態であると判定した場合、当該判定結果を、外部の警告装置400または車両制御装置500に出力する。
次に、状態判定装置100のハードウェア構成例を説明する。
図3Aおよび図3Bは、状態判定装置100のハードウェア構成例を示す図である。
状態判定装置100における画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107の各機能は、処理回路により実現される。即ち、状態判定装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図3Aに示すように専用のハードウェアである処理回路100aであってもよいし、図3Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図3Aに示すように、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図3Bに示すように、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107の各機能を実現する。即ち、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107は、プロセッサ100bにより実行されるときに、後述する図8および図9に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、画像取得部101、顔検出部102、基準点算出部103、姿勢判定部104、画像比較部105および状態判定部107の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、状態判定装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、顔検出部102および基準点算出部103による基準点算出処理の詳細について、図4を参照しながら説明する。
図4は、実施の形態1に係る状態判定装置100の顔検出部102および基準点算出部103の処理を示す図である。
顔検出部102は、撮像画像Aが撮像された際の車速を車両情報認識装置300から取得し、取得した車速が予め設定した閾値、例えば30km/h以上であるか否か判定を行う。顔検出部102は、車速が例えば30km/h以上であると判定した場合に、撮像画像Aから運転者のXの顔領域Bを検出する。車速が低速度帯よりも高速度帯である方が、運転者の頭部の位置が固定されることを考慮して、車速の閾値は例えば30km/h以上の任意の値が設定される。顔検出部102は、撮像画像Aから検出した顔領域Bの中で、運転者Xの首から上の頭部の輪郭に接する枠Cを設定し、設定した枠Cの中心点Pを取得する。顔検出部102は、取得した中心点Pの、撮像画像A上の二次元座標(px、py)を算出し、運転者Xの顔位置として取得する。顔検出部102は、算出した中心点Pの二次元座標(px、py)を基準点算出部103に出力する。
基準点算出部103は、顔検出部102が算出した中心点Pの二次元座標(px、py)を記録領域(図示しない)に記録する。基準点算出部103は、記録した運転者Xの二次元座標(px、py)の数が、予め設定されたサンプル数以上となった場合、記録された二次元座標の平均値を求めて基準点を算出する。予め設定されるサンプル数は、例えば任意の固定時間分の座標数に基づいて設定される。具体的には、カメラ200の撮像速度が10fpsの場合、固定時間である3秒分となる30個がサンプル数として設定される。基準点算出部103は、算出した基準点を、運転者Xの基準点として姿勢判定部104に出力する。運転者Xの基準点は、運転者Xによる運転が終了するまで、姿勢判定部104において保持される。
ここで、運転者Xによる運転が終了するまでとは、目的の場所に到達するまで、車両のエンジンを停止させるまで、または他の運転者と運転を交代するまでである。基準点算出部103は、車両情報認識装置300から入力される情報、例えば車速情報およびブレーキ情報等を参照し、運転者Xによる運転が終了したと判断した場合には、基準点算出部103の記憶領域に記録した情報、および姿勢判定部104に設定した基準点のリセットを行う。
なお、顔検出部102は、車速が予め設定した閾値未満である場合、または撮像画像から運転者の顔領域が検出されない場合、中心点の二次元座標の算出を行わない。また、基準点算出部103は、中心点の二次元座標の記録数が予め設定したサンプル数未満である場合、基準点の算出を行わない。
次に、顔検出部102および姿勢判定部104による姿勢判定処理の詳細について、図4および図5を参照しながら説明する。
顔検出部102は、姿勢判定部104をモニタし、既に基準点が設定されている場合に、姿勢判定処理のための顔位置を取得する。顔検出部102は、姿勢判定処理のための顔位置の取得は、車両の車速に関係することなく行う。顔検出部102は、図4で示したように画像取得部101が取得した撮像画像Aから、運転者Xの顔領域Bを検出し、検出した顔領域Bに含まれる頭部の輪郭に接する枠Cの中心点Pを取得する。顔検出部102は、取得した中心点Pの、撮像画像A上の二次元座標(px、py)を運転者Xの顔位置Paとして取得する。顔検出部102は、取得した運転者の顔位置Paを姿勢判定部104に出力する。
姿勢判定部104は、予め算出された基準点Qが設定されており、当該基準点Qに対する運転者Xの顔位置Paの移動方向および顔位置Paの移動量を算出する。姿勢判定部104は、算出した顔位置Paの移動量が、算出した顔位置Paの移動方向において予め設定された第1の姿勢崩れ判定量以上であるか否か判定することにより、運転者の姿勢が崩れているか否か判定を行う。
図5は、実施の形態1の状態判定装置100による運転者の頭部の移動方向の設定および各移動方向に設定された第1の姿勢崩れ判定量の一例を示す図である。
図5では、基準点Qを中心として、4つに分割された領域、Area1、Area2、Area3およびArea4が設定されている。当該各領域が顔位置Paの移動方向を示す。図5の例では、顔位置PaがArea2に位置していることから、姿勢判定部104は、顔位置Paの移動方向がArea2であると特定する。
また、各領域には、第1の姿勢崩れ判定量が設定されている。図5の例では、Area1における第1の姿勢崩れ判定量がmthr1、Area2における第1の姿勢崩れ判定量がmthr2、Area3における第1の姿勢崩れ判定量がmthr3およびArea4における第1の姿勢崩れ判定量がmthr4と設定されている。顔位置PaはArea2に位置していることから、顔位置Paの第1の姿勢崩れ判定量はmthr2となる。
姿勢判定部104は、顔位置Paと基準点Qとの2点間の距離mを算出し、顔位置Paの移動量mとする。姿勢判定部104は、算出した顔位置Paの移動量mと、顔位置Paの第1の姿勢崩れ判定量mthr2とを比較し、移動量mが第1の姿勢崩れ判定量mthr2以上であった場合、運転者Xの姿勢が崩れていると判定する。一方、姿勢判定部104は、移動量mが第1の姿勢崩れ判定量mthr2未満であった場合、運転者Xの姿勢が崩れていないと判定する。
次に、画像比較部105の詳細について、図6および図7を参照しながら説明する。画像比較部105が姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との一致度に基づいて比較する場合と、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との乖離度に基づいて比較する場合とに分けて説明する。
図6,図7は、実施の形態1に係る状態判定装置100の画像比較部105の処理を示す図である。
まず、図6を参照しながら、画像比較部105が、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との一致度に基づいて比較する場合について説明する。図6は、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との一致度に基づいて比較する場合を示し、図6Aは比較画像蓄積部106に蓄積された比較画像における第1領域の画像、図6Bおよび図6Cは姿勢判定時の撮像画像および当該撮像画像における第1領域の画像の一例を示している。また、図6Aは、運転者Xが正常な状態で運転席に着座しているときに撮像した比較画像の第1領域Daを示している。
図6Aの比較画像の第1領域Daの画像と、図6Bまたは図6Cの姿勢判定時の撮像画像Aの第1領域Ea,Ebの画像とは、同一領域を撮像した画像となる。画像比較部105は、撮像画像Aの第1領域Eaの画像と比較画像の第1領域Daの画像とを比較、または撮像画像Aの第1領域Ebの画像と比較画像の第1領域Daの画像とを比較し、2つの画像の一致度を算出する。画像比較部105は、比較画像の第1領域Daの画像と撮像画像Aの第1領域Ea,Ebの画像との一致度を、ヘッドレストを撮像した領域の一致度、即ち領域Haと領域Hb、または領域Haと領域Hcの一致度に基づいて算出する。画像比較部105は、ヘッドレストを撮像した領域の一致度を、ヘッドレストが撮像されているピクセル数、ヘッドレストが視認可能な輪郭の長さ、第1領域の画像の輝度の少なくともいずれかを用いて算出する。
画像比較部105が、図6Aの比較画像の第1領域Daの画像と、図6Bの撮像画像Aの第1領域Eaの画像との比較を行う場合、比較画像の第1領域Daの画像のヘッドレストを撮像した領域Haと、撮像画像Aの第1領域Eaの画像におけるヘッドレストを撮像した領域Hbとの一致度を算出する。画像比較部105は、領域Haと領域Hbとの高い一致度を算出する。
一方、画像比較部105が、図6Aの比較画像の第1領域Daの画像と、図6Cの第1領域Ebの画像との比較を行う場合、比較画像の第1領域Daの画像のヘッドレストを撮像した領域Haと、撮像画像Aの第1領域Ebの画像におけるヘッドレストを撮像した領域Hcとの一致度を算出する。画像比較部105は、領域Haと領域Hcとの低い一致度を算出する。
画像比較部105は、算出した一致度が予め設定した閾値以上であった場合には、運転者の姿勢が崩れていないと判定する。画像比較部105は、例えば、図6Aの比較画像の第1領域Daの画像と、図6Bの撮像画像Aの第1領域Eaの画像との比較では、領域Haと領域Hbとの一致度が高いことから、運転者Xの姿勢が崩れていないと判定する。
一方、画像比較部105は、算出した一致度が予め設定した閾値未満であった場合には運転者の姿勢が崩れていると判定する。画像比較部105は、例えば、図6Aの比較画像の第1領域Daと、図6Cの撮像画像Aの第1領域Ebの画像との比較では、領域Haと領域Hbとの一致度が低いことから、運転者Xの姿勢が崩れていると判定する。
次に、図7を参照しながら、画像比較部105が、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との乖離度に基づいて判定する場合について説明する。図7は、姿勢判定時の撮像画像における第1領域の画像と、比較画像における第1領域の画像との乖離度に基づいて判定する場合を示し、図7Aは比較画像蓄積部106に蓄積された比較画像における第1領域の画像、図7Bおよび図7Cは姿勢判定時の撮像画像および当該撮像画像における第1領域の画像の一例を示している。また、図7Aは、運転者が着座していない運転席の座席を撮像した比較画像の第1領域Dbを示している。
図7Aの比較画像の第1領域Dbの画像と、図7Bまたは図7Cの姿勢判定時の撮像画像Aの第1領域Fa,Fbの画像とは、同一領域を撮像した画像となる。画像比較部105は、撮像画像Aの第1領域Faの画像と比較画像の第1領域Dbの画像とを比較、または撮像画像Aの第1領域Fbの画像と比較画像の第1領域Dbの画像とを比較し、2つの画像の乖離度を算出する。画像比較部105は、比較画像の第1領域Dbの画像と撮像画像Aの第1領域Fa,Fbの画像との乖離度を、ヘッドレストを撮像した領域の乖離度、即ち領域Hcと領域Hd、または領域Hcと領域Heの乖離度に基づいて算出する。画像比較部105は、ヘッドレストを撮像した領域の乖離度を、ヘッドレストが撮像されているピクセル数、ヘッドレストが視認可能な輪郭の長さ、第1領域の画像の輝度の少なくともいずれかを用いて算出する。
画像比較部105が、図7Aの比較画像の第1領域Dbの画像と、図7Bの撮像画像Aの第1領域Faの画像との比較を行う場合、比較画像の第1領域Dbの画像のヘッドレストを撮像した領域Hcと、撮像画像Aの第1領域Faの画像におけるヘッドレストを撮像した領域Hdとの乖離度を算出する。画像比較部105は、領域Hcと領域Hdとの高い乖離度を算出する。
一方、画像比較部105が、図7Aの比較画像の第1領域Dbの画像と、図7Cの撮像画像Aの第1領域Fbの画像との比較を行う場合、比較画像の第1領域Dbのヘッドレストを撮像した領域Hcと、撮像画像Aの第1領域Fbの画像におけるヘッドレストを撮像した領域Heとの乖離度を算出する。画像比較部105は、領域Hcと領域Heとの低い乖離度を算出する。
画像比較部105は、算出した乖離度が予め設定した閾値以上であった場合には、運転者の姿勢が崩れていないと判定する。状態判定部107は、例えば、図7Aの比較画像の第1領域Dbの画像と、図7Bの撮像画像Aの第1領域Faの画像との比較では、領域Hcと領域Hdとの乖離度が高いことから、運転者Xの姿勢が崩れていないと判定する。
一方、画像比較部105は、算出した乖離度が予め設定した閾値未満であった場合には、運転者の姿勢が崩れていると判定する。画像比較部105は、例えば、図7Aの比較画像の第1領域Dbと、図7Cの撮像画像Aの第1領域Fbの画像との比較では、領域Haと領域Hbとの一致度が低いことから、運転者Xの姿勢が崩れていると判定する。
次に、状態判定装置100の動作について説明する。
状態判定装置100の動作は、基準点算出処理の動作と、状態判定処理の動作とに分けて説明する。まず、図8のフローチャートを参照しながら、基準点算出処理の動作について説明する。
図8は、実施の形態1に係る状態判定装置100の基準点算出処理の動作を示すフローチャートである。
顔検出部102は、画像取得部101から撮像画像が入力されると(ステップST1)、当該撮像画像が撮像された際の車速が予め設定した閾値以上であるか否か判定を行う(ステップST2)。車速が予め設定した閾値未満である場合(ステップST2;NO)、処理を終了する。一方、車速が予め設定した閾値以上である場合(ステップST2;YES)、顔検出部102はステップST1で入力された撮像画像から顔領域が検出可能か否か判定を行う(ステップST3)。顔領域が検出可能でない場合(ステップST3;NO)、処理を終了する。一方、顔領域が検出可能である場合(ステップST3;YES)、顔検出部102はステップST1で入力された撮像画像から顔領域を検出し、検出した顔領域から顔位置を取得し、基準点算出部103に出力する(ステップST4)。
基準点算出部103は、ステップST4で取得された顔位置をバッファ等に記録する(ステップST5)。基準点算出部103は、顔位置の記録数が、予め設定した閾値以上となったか否か判定を行う(ステップST6)。顔位置の記録数が、予め設定した閾値未満である場合(ステップST6;NO)、処理を終了する。一方、顔領域の位置情報の記録数が、予め設定した閾値以上である場合(ステップST6;YES)、記録した顔位置から基準点を算出する(ステップST7)。基準点算出部103は、ステップST7で算出した基準点を姿勢判定部104に出力し(ステップST8)、処理を終了する。
次に、図9のフローチャートを参照しながら、状態判定処理の動作について説明する。
図9は、実施の形態1に係る状態判定装置100の状態判定処理の動作を示すフローチャートである。画像取得部101は、常時、撮像画像を取得し、顔検出部102および画像比較部105に出力しているものとする。
顔検出部102は、画像取得部101から撮像画像が入力されると(ステップST21)、姿勢判定部104により運転者の姿勢が崩れていると判定されているか否か判定を行う(ステップST22)。姿勢判定部104により運転者の姿勢が崩れていると判定されている場合(ステップST22;YES)、フローチャートはステップST27の処理に進む。一方、姿勢判定部104により運転者の姿勢が崩れていると判定されていない場合(ステップST22;NO)、顔検出部102は姿勢判定部104に基準点が設定されているか否か判定を行う(ステップST23)。ステップST23の判定処理は、顔検出部102が姿勢判定部104をモニタして行う。姿勢判定部104に基準点が設定されていない場合(ステップST23;NO)、処理を終了する。一方、姿勢判定部104に基準点が設定されている場合(ステップST23;YES)、顔検出部102はステップST21で入力された撮像画像から運転者の顔位置を取得し、姿勢判定部104に出力する(ステップST24)。
姿勢判定部104は、予め基準点算出部103によって設定された基準点と、ステップST23で取得された運転者の顔位置とを比較し、運転者の顔位置の移動方向および移動量を算出する(ステップST25)。姿勢判定部104は、ステップST25で算出した運転者の顔位置の移動方向および移動量に基づいて、運転者の姿勢が崩れているか否か判定を行う(ステップST26)。運転者の姿勢が崩れていない場合(ステップST26;NO)、処理を終了する。
一方、運転者の姿勢が崩れている場合(ステップST26;YES)、画像比較部105は画像取得部101が取得した姿勢判定時の撮像画像における第1領域の画像を取得する(ステップST27)。画像比較部105は、ステップST27で取得した姿勢判定時の撮像画像の第1領域の画像と、比較画像蓄積部106に蓄積された比較画像の第1領域の画像との比較を行い、一致度または乖離度が予め設定した閾値以上であるか否か判定を行う(ステップST28)。一致度または乖離度が予め設定した閾値以上である場合(ステップST28;YES)、画像比較部105は姿勢判定部104の誤判定であると判定する。状態判定部107は、画像比較部105の判定結果に基づいて、姿勢判定部104による運転者の姿勢が崩れているとの判定を解除、およびカウンタをリセットし(ステップST29)、処理を終了する。
一方、一致度または乖離度が予め設定した閾値以上でない場合(ステップST28;NO)、画像比較部105は姿勢判定部104の判定結果が正しいと判定する。状態判定部107は、画像比較部105の判定結果に基づいて、カウンタ(図示しない)が起動済みであるか否か判定を行う(ステップST30)。カウンタが起動済みである場合(ステップST30;YES)、ステップST32の処理に進む。一方、カウンタが起動済みでない場合(ステップST30;NO)、状態判定部107はカウンタのカウントを開始し(ステップST31)、カウンタのカウントアップを行う(ステップST32)。状態判定部107は、カウンタのカウント値を参照し、注意喚起判定時間(例えば、3秒)が経過したか否か判定を行う(ステップST33)。注意喚起判定時間が経過していない場合(ステップST33;NO)、フローチャートは処理を終了する。
一方、注意喚起判定時間が経過している場合(ステップST33:YES)、状態判定部107はさらにカウンタのカウント値を参照し、運転不能判定時間(例えば、10秒)が経過したか否か判定を行う(ステップST34)。運転不能判定時間が経過していない場合(ステップST34;NO)、状態判定部107は、運転者が注意喚起を必要とする状態であると判定する(ステップST35)。状態判定部107は当該判定結果を外部の警告装置400または車両制御装置500に出力し、処理を終了する。一方、運転不能判定時間が経過している場合(ステップST34;YES)、状態判定部107は、運転者が運転不能状態であると判定する(ステップST36)。状態判定部107は当該判定結果を外部の警告装置400または車両制御装置500に出力し、処理を終了する。
図9のフローチャートのステップST35において、状態判定部107が、運転者が注意喚起を必要とする状態であると判定すると、その後の画像比較部105の処理頻度を低下させるように構成してもよい。状態判定部107は、運転者が注意喚起を必要とする状態であると判定すると、当該判定結果を画像比較部105に出力する。画像比較部105は、出力された判定結果に基づいて、第1領域の画像と、比較画像とを比較をする処理頻度を低下させる。さらに、状態判定部107が、運転者が運転不能状態であるとの判定結果を画像比較部105に出力すると、画像比較部105は、第1領域の画像と、比較画像とを比較をする処理頻度をさらに低く設定してもよい。これにより、画像比較処理の処理負荷を軽減することができる。
上述した説明では、姿勢判定部104が、基準点に対する運転者の顔位置の移動方向および顔位置の移動量を算出し、算出した顔位置の移動量を、顔位置の移動方向における第1の姿勢崩れ判定量と比較することにより、運転者の姿勢が崩れているか否か判定を行う構成を示した。
姿勢判定部104は、運転者の顔位置の移動方向および移動量に加えて、運転者の顔向きも考慮して、運転者の姿勢が崩れているか否か判定する構成としてもよい。運転者の顔向きは、運転者の顔向きの左右方向へのある時間における変位量、および運転者の顔向きの上下方向へのある時間における変位量に基づいて算出する。
図10は、実施の形態1に係る状態判定装置100の姿勢判定部104による運転者の顔向きの変位量の算出を示す図である。
図10Aは、運転者の顔向きの左右方向および上下方向を定義した図である。
運転者Xの正面視において、Yaw方向が、運転者Xの顔向きの左右方向であり、Pitch方向が、運転者Xの顔向きの上下方向である。
姿勢判定部104は、画像取得部101が取得した撮像画像から、運転者の正面視に対するYaw方向およびPitch方向への変位量を算出する。図10Bは、姿勢判定部104が時間の経過に伴って、Yaw方向に変位量「Y」を算出した場合を示している。図10Cは、姿勢判定部104が時間の経過に伴って、Pitch方向に変位量「P」を算出した場合を示している。
姿勢判定部104は、顔位置の移動量と、第1の姿勢崩れ判定量との比較に加えて、図10Bで算出した変位量「Y」または図10Cで算出した変位量「P」を、予め設定された顔向きの変位量の閾値である第2の姿勢崩れ判定量と比較することにより、運転者の姿勢が崩れているか否か判定を行う。第2の姿勢崩れ判定量は、顔向きのYaw方向判定量、または顔向きのPitch方向判定量の少なくともいずれか一方で構成される。
図11は、実施の形態1の状態判定装置100による運転者の頭部の移動方向の設定および各移動方向に設定された第2の姿勢崩れ判定量の一例を示す図である。
図11は、図5と同様に、基準点Qを中心として、4つに分割された領域、Area1、Area2、Area3およびArea4が設定されている。各領域には、第1の姿勢崩れ判定量に加えて、第2の姿勢崩れ判定量が設定されている。図11の例では、Area1における第1の姿勢崩れ判定量がmthr1、顔向きのYaw方向判定量(第2の姿勢崩れ判定量)がythr1、顔向きのPitch方向判定量(第2の姿勢崩れ判定量)がPthr1と設定されている。また、Area3における顔位置の移動量の第1の姿勢崩れ判定量がmthr3、顔向きのPitch方向判定量がPthr3と設定されている。
次に、姿勢判定部104は、顔位置Paと基準点Qとの2点間の距離mを算出し、顔位置Paの移動量mとする。また、姿勢判定部104は、顔位置Paにおける運転者の顔向きの変位量Yおよび変位量Pを算出する。姿勢判定部104は、算出した顔位置Paの移動量mが第1の姿勢崩れ判定量mthr2以上であり、算出した顔向きの変位量YがYaw方向判定量Ythr2以上であり、且つ変位量PがPitch方向判定量Pthr2以上である場合に、運転者の姿勢が崩れていると判定する。一方、姿勢判定部104は、移動量mが第1の姿勢崩れ判定量mthr2未満であった場合、顔向きの変位量YがYaw方向判定量Ythr2未満であった場合、または変位量PがPitch方向判定量Pthr2未満であった場合、運転者の姿勢が崩れていないと判定する。
このように、姿勢判定部104が、運転者の顔向きのある時間における変位量も考慮して、運転者の姿勢が崩れているか否か判定することにより、運転者の運転状態判定の精度が向上する。
以上のように、この実施の形態1によれば、運転者を含む車内の撮像画像を取得する画像取得部101と、取得された撮像画像から、運転者の顔位置を検出する顔検出部102と、検出された運転者の顔位置と、予め算出された運転者の基準点とを比較し、設定された移動方向に、第1の姿勢崩れ判定量以上の運転者の顔位置の移動を検出した場合に、運転者の姿勢が崩れていると判定する姿勢判定部104と、運転者の姿勢が崩れていると判定された場合に、取得された撮像画像内の第1領域の画像と、比較画像内の第1領域の画像との比較を行って運転者の姿勢が崩れているか否か再判定を行う画像比較部105と、再判定の結果に基づいて、運転者が運転不能状態であるか否か判定を行う状態判定部107とを備えように構成したので、撮像画像に映りこんだ他の乗員の頭部、車両内装または風景などの運転者の頭部以外を運転者の頭部であると誤って検出した場合であっても、運転不能状態でない運転者を運転不能状態であると誤検出するのを抑制することができる。これにより、運転者の運転不能状態の判定を精度よく行うことができる。
また、この実施の形態1によれば、姿勢判定部104が、第2の姿勢崩れ判定量以上の運転者の顔向きの変位を検出した場合に、運転者の姿勢が崩れていると判定するように構成したので、運転者の運転状態をより精度よく判定することができる。
また、この実施の形態1によれば、画像比較部105は、状態判定部107が、運転者が注意喚起を必要とする状態、または運転不能状態であると判定すると、撮像画像内の第1領域の画像と、比較画像内の第1領域の画像とを比較する処理の頻度を低下させるように構成したので、状態判定装置の処理負荷を軽減することができる。
実施の形態2.
この実施の形態2では、運転者の頭部中心軸の傾きを考慮して運転者の運転状態を判定する構成を示す。
図12は、実施の形態2に係る状態判定装置100Aの構成を示すブロック図である。
実施の形態2に係る状態判定装置100Aは、図1に示した実施の形態1の状態判定装置100に、軸検出部108を追加して構成している。以下では、実施の形態1に係る状態判定装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
軸検出部108は、姿勢判定部104の判定結果を参照し、運転者の姿勢が崩れているとの判定結果であった場合、画像取得部101が取得した姿勢判定時の撮像画像から運転者の頭部中心軸を検出する。軸検出部108は、検出した頭部中心軸の、予め設定した軸に対する傾きを算出する。軸検出部108は、算出した傾きが予め設定した閾値範囲内であるか否か判定を行う。軸検出部108は、算出した傾きが予め設定した閾値範囲内である場合には、姿勢判定部104による運転者の姿勢が崩れているとの判定を解除する。一方、軸検出部108は、算出した角度が閾値範囲内でないと判定した場合、姿勢判定部104による運転者の姿勢が崩れているとの判定を維持し、画像比較部105に出力する。
軸検出部108が検出する頭部中心軸および頭部中心軸の傾きの判定について、図13および図14を参照しながら説明する。
図13は、実施の形態2に係る状態判定装置100Aの軸検出部108による頭部中心軸の検出を示す図である。図13Aは、運転者Xが運転席に正常な状態で着座した場合を示している。運転者Xが搭乗している車両(図示しない)の横方向且つ路面に水平な方向をx軸、車両の前後方向且つ路面に水平な方向をy軸、車両の上下方向且つx軸およびy軸に垂直な方向をz軸とする。
図13Bは、運転者Xの頭部を上方から見た図である。頭部中心軸Rは、運転者Xの頭部を上方から視認した場合に得られる円Xaの中心を通る軸である。軸検出部108は、画像取得部101が取得した姿勢判定時の撮像画像から得られる、両目の位置、鼻の付け根の位置および鼻の頂部の位置に基づいて、頭部中心軸Rを検出する。例えば、軸検出部108は、両目の中央位置と、鼻の頂部の位置に基づいて、頭部中心軸Rのx軸に対する傾きを検出する。また、例えば軸検出部108は、鼻の頂部と、鼻の付け根との間の距離に基づいて、頭部中心軸Rのy軸に対する傾きを検出する。
図14は、実施の形態2に係る状態判定装置100Aの軸検出部108による頭部中心軸の傾きの判定を示す図である。図14Aは、頭部中心軸Rのx軸に対する傾きを示す図であり、図14Bは頭部中心軸Rのy軸に対する傾きを示す図である。
軸検出部108は、頭部中心軸Rと、x軸とのなす角度θf−xを算出する。同様に、軸検出部108は、頭部中心軸Rと、y軸とのなす角度θf−yを算出する。軸検出部108は、算出した角度θf−xおよび角度θf−yが、図14Cで示した閾値範囲(角度θthr1から角度θthr2の間の範囲)内であるか否か判定を行う。角度θf−xおよび角度θf−yが角度θthr1から角度θthr2の間の範囲内である場合、軸検出部108は、姿勢判定部104による運転者の姿勢が崩れているとの判定を解除する。一方、角度θf−xまたは角度θf−yが、0°から角度θthr1の範囲内または角度θthr2から180°の範囲内である場合、軸検出部108は、姿勢判定部104による運転者の姿勢が崩れているとの判定を維持する。
なお、上述した閾値範囲は一例であり、適宜設定可能である。また角度θf−xの閾値範囲と、角度θf−yの閾値範囲とをそれぞれ別々に設定してもよい。
次に、状態判定装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
状態判定装置100Aにおける軸検出部108は、図3Aで示した処理回路100a、または図3Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、状態判定装置100Aによる状態判定処理の動作について説明する。
図15は、実施の形態2に係る状態判定装置100Aの状態判定処理の動作を示すフローチャートである。
なお、以下では、実施の形態1に係る状態判定装置100と同一のステップには図9で使用した符号と同一の符号を付し、説明を省略または簡略化する。また、実施の形態1と同様に、画像取得部101は、常時、撮像画像を取得し、顔検出部102、軸検出部108および画像比較部105に出力しているものとする。
ステップST26において、姿勢判定部104が、運転者の姿勢が崩れていると判定した場合(ステップST26;YES)、軸検出部108は、画像取得部101が取得した姿勢判定時の撮像画像から運転者の頭部中心軸を検出する(ステップST41)。軸検出部108は、検出した頭部中心軸とx軸とのなす角度、および頭部中心軸とy軸とのなす角度を算出する(ステップST42)。
軸検出部108は、算出したx軸とのなす角度、およびy軸とのなす角度が、予め設定した閾値範囲内であるか否か判定を行う(ステップST43)。算出したx軸とのなす角度、およびy軸とのなす角度が、予め設定した閾値範囲内である場合(ステップST43;YES)、軸検出部108は姿勢判定部104による運転者の姿勢が崩れているとの判定を解除し(ステップST44)、処理を終了する。
一方、算出したx軸とのなす角度、またはy軸とのなす角度が、予め設定した閾値範囲内でない場合(ステップST43;NO)、軸検出部108は、姿勢判定部104による運転者の姿勢が崩れているとの判定を維持し、画像比較部105に対して姿勢判定部104による運転者の姿勢が崩れているとの判定を通知する(ステップST45)。画像比較部105は、ステップST45で通知された判定に基づいて、画像取得部101が取得した姿勢判定時の撮像画像における第1領域の画像を取得する(ステップST27)。その後、フローチャートはステップST28以降の処理を行う。
以上のように、この実施の形態2によれば、姿勢判定部104が運転者の姿勢が崩れていると判定した場合に、取得された撮像画像から運転者の頭部中心軸の傾きを検出し、検出した頭部中心軸の傾きが予め設定された閾値範囲内である場合、運転者の姿勢が崩れているとの判定を解除する軸検出部108を備えるように構成したので、正常な状態の姿勢とは異なる姿勢で運転している運転者を、注意喚起を必要とする状態、または運転不能状態と誤判定するのを抑制することができる。これにより、運転者の運転状態判定の精度を向上させることができる。また、運転者の頭部が車両前方側に移動した状態での運転、または運転者が車両前方側を覗き込む動作を、注意喚起を必要とする状態、または運転不能状態と誤判定するのを抑制することができる。
実施の形態3.
この実施の形態3では、車両の構造部に肘を掛けて運転(以下、肘掛運転と記載する)を行っている運転者を、注意喚起を必要とする状態、または運転不能状態と誤判定するのを抑制する構成を示す。ここで、肘掛運転とは、例えば運転者の頭部が移動し、運転席ドアの窓枠、または運転席ドアの肘掛に肘をついた状態での運転である。
図16は、実施の形態3に係る状態判定装置100Bの構成を示すブロック図である。
実施の形態3に係る状態判定装置100Bは、図1に示した実施の形態1の状態判定装置100に、輪郭検出部109を追加して構成している。以下では、実施の形態1に係る状態判定装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
輪郭検出部109は、姿勢判定部104の判定結果を参照し、運転者の姿勢が崩れているとの判定結果であった場合、画像取得部101が取得した姿勢判定時の撮像画像における第2領域の画像を取得する。第2領域は、運転席のヘッドレストを全て含む領域である。さらに、第2領域は、運転者が運転席に正常な状態で着座した場合に、運転者の腕の付け根が入る範囲、且つ運転者が両腕を広げた際に当該運転者の両肘が入る範囲の領域である。
図17は、実施の形態3に係る状態判定装置100Bの輪郭検出部109が取得する第2領域の一例を示す図である。図17Aは、運転席を正面から撮像した撮像画像に設定される第2領域の例を示し、図17Bは運転席を斜め前方から撮像した撮像画像から取得される第2領域の例を示している。
図17Aおよび図17Bで示した第2領域Ec,Edは、運転席のヘッドレストHを全て含む領域である。また、第2領域Ec,Edは、運転者Xの腕の付け根Xbの位置、および運転者Xが両腕を広げた際の両肘Xcの位置を考慮した領域である。図17Aおよび図17Bで示した第2領域Ec,Edは、運転席のヘッドレストHを全て含む領域である。また、第2領域Ec,Edは、運転席の座席位置、運転者Xの座高、通常の運転動作を考慮した領域である。なお、第2領域Ec,Edは、運転席の座席位置が最前位置であった場合にも、最後位置にあった場合にも、領域内に運転席のヘッドレストHを全て含む領域である。
輪郭検出部109は、取得した第2領域の画像にエッジ検出を行い、運転者の輪郭を検出する。輪郭検出部109は、検出した運転者の輪郭のうち、運転者の首周りの輪郭に予め定義した三角形状が存在する場合に、運転者は肘掛運転を行っていると判断する。輪郭検出部109は、運転者が肘掛運転を行っていると判断した場合に、姿勢判定部104による運転者の姿勢が崩れているとの判定を解除する。一方、輪郭検出部109は、運転者の首周りの輪郭に予め定義した三角形状が存在しない場合、姿勢判定部104による運転者の姿勢が崩れているとの判定を維持し、画像比較部105に出力する。
輪郭検出部109は、例えば図17Aおよび図17Bで示した第2領域Ec,Edの画像に対してエッジ検出を行い、運転者Xの輪郭を検出した場合、首周りの輪郭に三角形状Saおよび三角形状Sbが存在すると判断する。輪郭検出部109は、図17Aおよび図17Bで示した撮像画像に対して、運転者Xが肘掛運転を行っていると判断する。
次に、状態判定装置100Bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
状態判定装置100Bにおける輪郭検出部109は、図3Aで示した処理回路100a、または図3Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、状態判定装置100Bによる状態判定処理の動作について説明する。
図18は、実施の形態3に係る状態判定装置100Bの状態判定処理の動作を示すフローチャートである。
なお、以下では、実施の形態1に係る状態判定装置100と同一のステップには図9で使用した符号と同一の符号を付し、説明を省略または簡略化する。また、実施の形態1と同様に、画像取得部101は、常時、撮像画像を取得し、顔検出部102、輪郭検出部109および画像比較部105に出力しているものとする。
ステップST26において、姿勢判定部104が、運転者の姿勢が崩れていると判定した場合(ステップST26;YES)、輪郭検出部109は画像取得部101が取得した姿勢判定時の撮像画像における第2領域の画像を取得する(ステップST51)。輪郭検出部109は、ステップST51で取得した第2領域の画像から運転者の輪郭を検出する(ステップST52)。
輪郭検出部109は、ステップST52で検出した運転者の輪郭のうち、運転者の首周りに輪郭に対して予め設定した三角形状と一致または類似する形状が存在するか否か判定を行う(ステップST53)。予め設定した三角形状と一致または類似する形状が存在する場合(ステップST53;YES)、輪郭検出部109は運転者が肘掛運転をしていると判断する。(ステップST54)。また、輪郭検出部109は、姿勢判定部104による運転者の姿勢が崩れているとの判定を解除し(ステップST55)、処理を終了する。
一方、予め設定した三角形状と一致または類似する形状が存在しない場合(ステップST53;NO)、輪郭検出部109は、姿勢判定部104による運転者の姿勢が崩れているとの判定を維持し、画像比較部105に対して姿勢判定部104による運転者の姿勢が崩れているとの判定を通知する(ステップST56)。画像比較部105は、ステップST56で通知された判定に基づいて、画像取得部101が取得した姿勢判定時の撮像画像における第1領域の画像を取得する(ステップST27)。その後、フローチャートはステップST28以降の処理を行う。
以上のように、この実施の形態3によれば、姿勢判定部104が運転者の姿勢が崩れていると判定した場合に、取得された姿勢判定時の撮像画像内の第2領域の画像から、運転者の輪郭を検出し、検出した輪郭に三角形の形状が含まれる場合、運転者の姿勢が崩れているとの判定を解除する輪郭検出部109を備えるように構成したので、頭部が移動した状態で肘掛運転を行っている運転者を、注意喚起を必要とする状態、または運転不能状態と誤判定するのを抑制することができる。これにより、運転者の運転状態判定の精度を向上させることができる。
なお、上述した実施の形態3では、実施の形態1で示した状態判定装置100に輪郭検出部109を追加して適用する構成を示したが、実施の形態2で示した状態判定装置100Aに輪郭検出部109を追加して構成してもよい。
その場合、輪郭検出部109は、軸検出部108と並行して処理を行ってもよいし、軸検出部108の処理の後段で処理を実行してもよい。
上述した実施の形態1から実施の形態3で示した状態判定装置100,100A,100Bにおいて、運転者が注意喚起を必要とする状態であると判定した場合、または運転者が運転不能状態であると判定した場合、外部の警告装置400が音声により警告を行う。
また、警告装置400はディスプレイに運転不能状態と判定していることを表示し、当該運転不能状態との判定を解除する入力を受け付けるボタンを表示してもよい。
図19は、実施の形態1から実施の形態3に係る発明の状態判定装置100,100A,100Bの判定結果を運転者に通知する一例を示す図である。
ディスプレイ401には、状態判定装置100,100A,100Bの判定結果402と、当該判定結果を解除するためのボタン403が表示される。判定結果402は、例えば「運転不能状態と判定中」と表示される。また、ボタン403は、例えば「正常状態にリセット」と表示される。
運転者は、ディスプレイ401に表示された判定結果402を参照し、自身が運転不能状態でない場合には、ボタン403を押下することにより、状態判定装置100,100A,100Bに、判定結果を解除させることができる
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る状態判定装置は、判定精度の向上が求められるドライバモニタリングシステム等に適用し、運転者の姿勢崩れに基づいて運転状態を判定するのに適している。
100,100A,100B 状態判定装置、101 画像取得部、102 顔検出部、103 基準点算出部、104 姿勢判定部、105 画像比較部、106 比較画像蓄積部、107 状態判定部、108 軸検出部、109 輪郭検出部。

Claims (8)

  1. 運転者を含む車内の撮像画像を取得する画像取得部と、
    前記画像取得部が取得した撮像画像から、前記運転者の顔位置を検出する顔検出部と、
    前記顔検出部が検出した前記運転者の顔位置と、予め算出された前記運転者の基準点と
    を比較し、設定された移動方向に、第1の姿勢崩れ判定量以上の前記運転者の顔位置の移動を検出した場合に、前記運転者の姿勢が崩れていると判定する姿勢判定部と、
    前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、前記画像取得部が取得した撮像画像内の第1領域の画像と、比較画像内の第1領域の画像との比較を行って前記運転者の姿勢が崩れているか否か再判定を行うことにより、前記姿勢判定部による前記運転者の姿勢が崩れているとの判定が正しいか否かを判定する画像比較部と、
    前記画像比較部の再判定の結果に基づいて、前記運転者が運転不能状態であるか否か判定を行う状態判定部と、
    前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、前記画像取得部が取得した撮像画像内の第2領域の画像から、前記運転者の輪郭を検出し、検出した輪郭のうち、前記運転者の首周りの輪郭に、予め定義した三角形の形状が含まれる場合、前記運転者の姿勢が崩れているとの判定を解除する輪郭検出部とを備えた状態判定装置。
  2. 前記姿勢判定部は、第2の姿勢崩れ判定量以上の前記運転者の顔向きの変位を検出した場合に、前記運転者の姿勢が崩れていると判定し、
    前記輪郭検出部は、前記姿勢判定部が前記第2の姿勢崩れ判定量以上の前記運転者の顔向きの変位を検出することにより前記運転者の姿勢が崩れていると判定した場合に、前記画像取得部が取得した撮像画像内の前記第2領域の画像から、前記運転者の輪郭を検出し、検出した輪郭のうち、前記運転者の首周りの輪郭に、予め定義した三角形の形状が含まれる場合、前記運転者の姿勢が崩れているとの判定を解除することを特徴とする請求項1記載の状態判定装置。
  3. 前記画像比較部は、前記比較画像が、前記運転者が運転席に着座しているときの当該運転席を撮像した撮像画像である場合、前記撮像画像内の第1領域の画像と、前記比較画像内の第1領域の画像との一致度を算出し、当該算出した一致度に応じて、前記運転者の姿勢が崩れているか否かの再判定を行うことを特徴とする請求項1記載の状態判定装置。
  4. 前記画像比較部は、前記比較画像が、前記運転者が着座していない運転席を撮像した撮像画像である場合、前記撮像画像内の第1領域の画像と、前記比較画像内の第1領域の画像との乖離度を算出し、当該算出した乖離度に応じて、前記運転者の姿勢が崩れているか否かの再判定を行うことを特徴とする請求項1記載の状態判定装置。
  5. 前記状態判定部は、前記画像比較部により前記運転者の姿勢が崩れていると再判定された状態が注意喚起判定時間以上継続した場合に、前記運転者が注意喚起を必要とする状態であると判定し、前記運転者の姿勢が崩れているとの再判定された状態が、前記注意喚起判定時間よりも長い運転不能判定時間以上継続した場合に、前記運転者が運転不能状態であると判定することを特徴とする請求項1記載の状態判定装置。
  6. 前記画像比較部は、前記状態判定部が、前記運転者が前記注意喚起を必要とする状態、
    または運転不能状態であると判定した場合に、前記撮像画像内の第1領域の画像と、前記比較画像内の第1領域の画像とを比較する処理の頻度を低下させることを特徴とする請求項5記載の状態判定装置。
  7. 前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、前記画像取得部が取得した撮像画像から前記運転者の頭部中心軸の傾きを検出し、検出した前記頭部中心軸の傾きが予め設定された閾値範囲内である場合、前記運転者の姿勢が崩れているとの判定を解除する軸検出部を備えたことを特徴とする請求項1記載の状態判定装置。
  8. 画像取得部が、運転者を含む車内の撮像画像を取得するステップと、
    顔検出部が、前記取得された撮像画像から、前記運転者の顔位置を検出するステップと、
    姿勢判定部が、前記検出された前記運転者の顔位置と、予め算出された前記運転者の基準点とを比較し、設定された移動方向に、第1の姿勢崩れ判定量以上の前記運転者の顔位置の移動を検出した場合に、前記運転者の姿勢が崩れていると判定するステップと、
    画像比較部が、前記運転者の姿勢が崩れていると判定した場合に、前記取得された撮像画像内の第1領域の画像と、比較画像内の第1領域の画像との比較を行って前記運転者の姿勢が崩れているか否か再判定を行うことにより、前記姿勢判定部による前記運転者の姿勢が崩れているとの判定が正しいか否かを判定するステップと、
    前記姿勢判定部が前記運転者の姿勢が崩れていると判定した場合に、輪郭検出部が、前記画像取得部が取得した撮像画像内の第2領域の画像から、前記運転者の輪郭を検出し、検出した輪郭のうち、前記運転者の首周りの輪郭に、予め定義した三角形の形状が含まれる場合、前記運転者の姿勢が崩れているとの判定を解除するステップと、
    状態判定部が、前記再判定の結果に基づいて、前記運転者が運転不能状態であるか否か判定を行うステップとを備えた状態判定方法。
JP2019523262A 2017-06-07 2017-06-07 状態判定装置および状態判定方法 Active JP6960995B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/021121 WO2018225176A1 (ja) 2017-06-07 2017-06-07 状態判定装置および状態判定方法

Publications (2)

Publication Number Publication Date
JPWO2018225176A1 JPWO2018225176A1 (ja) 2019-12-12
JP6960995B2 true JP6960995B2 (ja) 2021-11-05

Family

ID=64566648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019523262A Active JP6960995B2 (ja) 2017-06-07 2017-06-07 状態判定装置および状態判定方法

Country Status (2)

Country Link
JP (1) JP6960995B2 (ja)
WO (1) WO2018225176A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144573A (ja) * 2019-03-06 2020-09-10 オムロン株式会社 運転者監視装置
CN110103816B (zh) * 2019-03-15 2022-04-19 河南理工大学 一种驾驶状态检测方法
US11074769B2 (en) * 2019-03-26 2021-07-27 Cambridge Mobile Telematics Inc. Safety for vehicle users
CN112149482A (zh) * 2019-06-28 2020-12-29 深圳市商汤科技有限公司 驾驶员在岗状态检测方法、装置、设备和计算机存储介质
DE112019007358T5 (de) * 2019-07-02 2022-03-17 Mitsubishi Electric Corporation Onboard-Bildverarbeitungsvorrichtung und Onboard-Bildverarbeitungsverfahren
WO2021001944A1 (ja) * 2019-07-02 2021-01-07 三菱電機株式会社 車載用画像処理装置、および、車載用画像処理方法
JP7351253B2 (ja) * 2020-03-31 2023-09-27 いすゞ自動車株式会社 許否決定装置
WO2024069785A1 (ja) * 2022-09-28 2024-04-04 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法、プログラム及び車両制御システム
WO2024100814A1 (ja) * 2022-11-10 2024-05-16 三菱電機株式会社 異常姿勢検知装置、異常姿勢検知方法、および、車両制御システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4175573B2 (ja) * 2006-11-06 2008-11-05 クオリティ株式会社 車両制御装置および車両制御プログラム
JP6364997B2 (ja) * 2014-06-23 2018-08-01 株式会社デンソー ドライバの運転不能状態検出装置

Also Published As

Publication number Publication date
JPWO2018225176A1 (ja) 2019-12-12
WO2018225176A1 (ja) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6960995B2 (ja) 状態判定装置および状態判定方法
CN104573623B (zh) 人脸检测装置、方法
JP6739672B2 (ja) 体格推定装置および体格推定方法
JP2008002838A (ja) 車両乗員検出システム、作動装置制御システム、車両
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
US20150098634A1 (en) Face detection apparatus, face detection method, and program
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2019189101A (ja) 乗員情報判定装置
JP2020056717A (ja) 位置検出装置
JPWO2006087812A1 (ja) 画像処理方法、画像処理システム、画像処理装置及びコンピュータプログラム
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
JP4840638B2 (ja) 車両の乗員監視装置
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
JP6594595B2 (ja) 運転不能状態判定装置および運転不能状態判定方法
JP2005066023A (ja) 運転者状態検出装置
US11995898B2 (en) Occupant monitoring device for vehicle
JP2005018655A (ja) 運転者行動推定装置
WO2022176037A1 (ja) 調整装置、調整システム、表示装置、乗員監視装置、および、調整方法
JP2009278185A (ja) 画像認識装置
US20230060049A1 (en) Face detection device
US11355015B2 (en) Display device for vehicle, display method for vehicle, and storage medium
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
WO2024075205A1 (ja) 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム
US11919454B2 (en) Occupant monitoring device for vehicle
WO2024079779A1 (ja) 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200624

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6960995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250