JP7420277B2 - 運転状態判定装置、方法、及びプログラム - Google Patents

運転状態判定装置、方法、及びプログラム Download PDF

Info

Publication number
JP7420277B2
JP7420277B2 JP2022551488A JP2022551488A JP7420277B2 JP 7420277 B2 JP7420277 B2 JP 7420277B2 JP 2022551488 A JP2022551488 A JP 2022551488A JP 2022551488 A JP2022551488 A JP 2022551488A JP 7420277 B2 JP7420277 B2 JP 7420277B2
Authority
JP
Japan
Prior art keywords
driver
distance
driving
determination
shoulder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022551488A
Other languages
English (en)
Other versions
JPWO2022064592A5 (ja
JPWO2022064592A1 (ja
Inventor
康則 二木
康博 水越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022064592A1 publication Critical patent/JPWO2022064592A1/ja
Publication of JPWO2022064592A5 publication Critical patent/JPWO2022064592A5/ja
Application granted granted Critical
Publication of JP7420277B2 publication Critical patent/JP7420277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、運転状態判定装置、方法、及びコンピュータ可読媒体に関する。
関連技術として、特許文献1は、運転者画像に基づいて運転者の状態を検出する運転状態監視装置を開示する。特許文献1に記載の運転状態監視装置は、運転者の顔の向きを検出し、顔の向きに基づいて運転者が運転に集中しているかどうかを決定する。顔の向き(頭部姿勢)は、頭部の正規化球面座標における水平偏向角度(ヨー角)及び垂直偏向角度(ピッチ角)で表される。運転状態監視装置は、水平偏向角度及び/又は垂直偏向角度が角度しきい値より大きく、かつその持続時間が時間しきい値より長い場合、運転者が散漫状態であることを検出する。
監視状態装置は、上記に加えて、運転者の手、及び目標物体などを検出する。運転状態監視装置は、目標物体のタイプが容器又は食物の場合で、かつ目標物体の検出ボックスと口の検出ボックスとが重なる場合、運転者は飲食していると判定する。運転状態監視装置は、目標物体のタイプが電子機器である場合は、手の検出ボックスと目標物体の検出ボックスが重なり、かつ目標物体の検出ボックスと口又は目の検出ボックスとの最小距離が所定距離より短い場合、運転者は電子機器を使用していると判定する。
別の関連技術として、特許文献2は、別のタイプの運転状態監視装置を開示する。特許文献2に記載の運転状態監視装置は、運転者の顔画像から、運転者の顔の状態を示す顔情報を検出する。運転状態監視装置は、運転者の顔に変化が生じた場合、あらかじめ設定された時間区間での顔情報の頻度分布を作成する。運転状態監視装置は、顔情報の頻度分布から顔情報の最頻値を算出し、顔情報の最頻値に基づいて、運転者の定常状態を示す基準値を算出する。運転状態監視装置は、算出した基準値と、運転者の顔情報とを比較し、運転者の運転状態を判定する。運転状態監視装置は、算出した基準値に基づいて、運転者ごとの正常視認範囲を設定し、その正常視認範囲と現在の視認範囲とを比較することで、運転者の脇見状態を判定する。
特表2019-536673号公報 国際公開第2018/150485号
特許文献1では、顔の水平偏向角度及び垂直偏向角度が角度しきい値より大きい場合に、運転者が散漫状態であると判定される。しかしながら、カメラや車両に依存して画角や焦点距離が異なり得るため、運転者画像における運転者の大きさや向きは、カメラや車両に応じて変化し得る。特許文献1では、角度しきい値などに所定の固定値が使用されており、そのような固定のしきい値を使用して運転者が散漫状態であるか否かを正確に判定することは困難である。
特許文献2では、顔情報の最頻値に基づいて基準値が設定され、基準値に基づいて正常視認範囲が設定される。特許文献2において、正常視認範囲の上限及び下限は、基準値からある値だけずれた値に設定されると考えられる。このため、特許文献2は、運転者画像における運転者の大きさが相互に異なる複数の運転者を考えた場合、各運転者の脇見状態を正確に判定できない可能性がある。
本開示は、上場事情に鑑み、運転者画像における運転者の大きさが一定ではない場合でも、運転者の運転状態を精度よく判定可能な運転状態判定装置、方法、及びコンピュータ可読媒体を提供することを目的とする。
上記目的を達成するために、本開示は、第1の態様として、運転状態判定装置を提供する。運転状態判定装置は、運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出する位置検出手段と、前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出する肩幅算出手段と、前記算出された肩幅に基づいて1以上の判定しきい値を決定するしきい値決定手段と、前記検出された2以上の部位の位置と、前記1以上の判定しきい値とを用いて、前記運転者の運転状態を判定する判定手段とを備える。
本開示は、第2の態様として、運転状態判定方法を提供する。運転状態判定方法は、運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出し、前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出し、前記算出された肩幅に基づいて1以上の判定しきい値を決定し、前記検出された2以上の部位の位置と、前記1以上の判定しきい値とを用いて、前記運転者の運転状態を判定することを含む。
本開示は、第3の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出し、前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出し、前記算出された肩幅に基づいて1以上の判定しきい値を決定し、前記検出された2以上の部位の位置と、前記1以上の判定しきい値とを用いて、前記運転者の運転状態を判定する処理をプロセッサに実行させるためのプログラムを格納する。
本開示に係る運転状態判定装置、方法、及びコンピュータ可読媒体は、運転者画像における運転者の大きさが一定ではない場合でも、運転者の運転状態を精度よく判定することができる。
本開示に係る運転状態判定装置の概略的な構成を示すブロック図。 本開示の第1実施形態に係る運転状態判定装置を示すブロック図。 運転者画像から検出される部位を模式的に示す図。 運転状態判定装置の動作手順を示すフローチャート。 本開示の第2実施形態に係る運転状態判定装置を示すブロック図。 運転者画像から検出される頭部及び手を模式的に示す図。 ながら運転の判定の動作手順を示すフローチャート。 電子機器のハードウェア構成を示すブロック図。
本開示の実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示に係る運転状態判定装置の概略的な構成を示す。運転状態判定装置10は、位置検出手段11、肩幅算出手段12、しきい値決定手段13、及び判定手段14を有する。位置検出手段11は、カメラ20から画像を取得する。カメラ20は、車両の運転者を撮影し、運転者画像を位置検出手段11に出力する。位置検出手段11は、取得した運転者画像から、運転者の右肩及び左肩の位置を検出する。さらに、位置検出手段11は、2以上の身体部位の位置を検出する。
肩幅算出手段12は、位置検出手段11で検出された右肩及び左肩の位置に基づいて、運転者の肩幅を算出する。しきい値決定手段13は、肩幅算出手段12で算出された肩幅に基づいて、1以上の判定しきい値を決定する。判定手段14は、位置検出手段11で検出された2以上の部位の位置と、しきい値決定手段13で決定された1以上の判定しきい値とを用いて、運転者の運転状態を判定する。
本開示では、しきい値決定手段13は、判定手段14で使用される判定しきい値を、運転者の肩幅に基づいて決定する。肩幅は、運転者画像における運転者の大きさを表すと考えられる。判定手段14は、運転者が大きい場合と、運転者が小さい場合とで、適切に設定された判定しきい値を用いて、運転状態を判定することができる。このように、本開示に係る運転状態判定装置10は、カメラ20の画角や画像中の運転者の大きさに依存せずに、運転者の運転状態を精度よく判定できる。
以下、本開示の実施の形態を詳細に説明する。図2は、本開示の第1実施形態に係る運転状態判定装置を示す。運転状態判定装置100は、位置検出部101、肩幅推定部102、しきい値決定部103、及び脇見運転判定部104を有する。
運転状態判定装置100は、例えば、車両に後から取り付け可能な電子機器として構成される。運転状態判定装置100は、車両に取り付けられる電子機器に内蔵されていてもよい。例えば、運転状態判定装置100は、例えば車両の外部を撮影するカメラと、撮影した映像を記録媒体に記録するコントローラとを含むドライブレコーダに内蔵される。運転状態判定装置100は、図1に示される運転状態判定装置10に対応する。
運転状態判定装置100は、カメラ200から運転者画像を含む映像を取得する。カメラ200は、例えば、車両の幅方向において運転席の中心よりも助手席側の位置で、かつ運転者の顔の位置より車両の前方側の位置から運転席(運転者)を撮影する。一例として、カメラ200は、ウィンドシールドのルームミラーの根元などの位置に設置され、車両の中央部から運転席に座る運転者を斜め方向から撮影する。例えば、車両が右ハンドル車である場合、カメラ200は、運転者をその左前方から撮影する。
カメラ200は、車両の内部の映像だけでなく、車両の外部の映像を撮影してもよい。例えば、カメラ200は、車両の前方、後方、右側面、左側面、及び車室を撮影する360度カメラであってもよい。カメラ200は、撮影した映像を、動画像として運転状態判定装置100に出力する。カメラ200は、運転状態判定装置100の一部であってもよい。カメラ200は、図1に示されるカメラ20に対応する。
運転状態判定装置100は、カメラ200から取得した運転者画像に基づいて、運転者の運転状態を判定する。運転状態判定装置100は、例えば、運転者が運転に集中していない運転状態であるか否かを判定する。本実施形態において、運転状態判定装置100は、運転者が脇見運転している状態を、運転者が運転に集中していない運転状態として判定するものとする。
位置検出部101は、カメラ200から取得した運転者画像から、運転者の右肩及び左肩の位置を検出する。位置検出部101は、例えば、運転者画像から、運転者の2次元骨格構造を推定し、推定した2次元骨格構造に基づいて右肩及び左肩の位置を検出してもよい。位置検出部101は、検出した右肩及び左肩の位置を肩幅推定部102に出力する。
位置検出部101は、更に、運転者の2以上の身体部位の位置を検出する。本実施形態において、位置検出部101は、運転者の右目、左目、右耳、及び左耳の位置を検出する。運転者の右目、左目、右耳、及び左耳の位置の検出には、任意のアルゴリズムが用いられ得る。位置検出部101は、検出した右目、左目、右耳、及び左耳の位置を脇見運転判定部104に出力する。位置検出部101は、身体部位以外の任意の物の位置を検出してもよい。位置検出部101は、図1に示される位置検出手段11に対応する。
図3は、運転者画像から検出される部位を模式的に示す。位置検出部101は、運転者の骨格構造を推定し、運転者の右肩305R、及び左肩305Lの位置を検出する。また、位置検出部101は、運転者の右目301R、左目301L、右耳302R、及び左耳302Lの位置を検出する。
肩幅推定部102は、位置検出部101において検出された右肩及び左肩の位置に基づいて、運転者の肩幅を算出する。肩幅推定部102は、例えば、図3に示される、検出された右肩305Rと左肩305Lとの間の距離を、肩幅として算出する。肩幅推定部102は、図1に示される肩幅算出手段12に対応する。
しきい値決定部103は、肩幅推定部102において算出された肩幅に基づいて、運転状態の判定に使用される1以上の判定しきい値を決定する。判定しきい値は、例えば、人体の特定の部位間の距離のしきい値を示す。
本実施形態において、しきい値決定部103は、運転者が右方向に脇見をしている状態を判定するために使用される第1及び第2の判定しきい値と、運転者が左方向に脇見をしている状態を判定するために使用される第3及び第4の判定しきい値とを決定する。第1及び第3の判定しきい値は、それぞれ、右目と左目との間の距離のしきい値を示す。第2の判定しきい値は、左目と左耳との間の距離のしきい値を示す。第4の判定しきい値は、右目と右耳との間の距離のしきい値を示す。
例えば、しきい値決定部103は、各判定しきい値について、基準肩幅と、基準判定しきい値との組を記憶する。しきい値決定部103は、例えば肩幅推定部102が算出した肩幅と基準肩幅とを比較し、比較結果に基づいて判定しきい値を決定する。例えば、しきい値決定部103は、肩幅推定部102が算出した肩幅と、基準肩幅との差又は比を計算する。しきい値決定部103は、計算した差又は比に応じて、基準判定しきい値を増加又は減少させることで、判定しきい値を決定する。しきい値決定部103は、肩幅推定部102が算出した肩幅が基準肩幅より狭い場合、判定しきい値を、基準判定しきい値より小さい値に決定する。しきい値決定部103は、肩幅推定部102が算出した肩幅が基準肩幅より広い場合は、判定しきい値を、基準判定しきい値より大きい値に決定する。しきい値決定部103は、図1に示されるしきい値決定手段13に対応する。
脇見運転判定部104は、位置検出部101で検出された右目、左目、右耳、及び左耳の位置に基づいて、特定部位間の距離を計算する。本実施形態において、脇見運転判定部104は、右目及び左目の位置に基づいて、運転者画像における右目と左目との間の距離を計算する。また、脇見運転判定部104は、左目及び左耳の位置に基づいて、運転者画像における左目と左耳との間の距離を計算する。脇見運転判定部104は、右目及び右耳の位置に基づいて、運転者画像における右目と右耳との間の距離を計算する。
脇見運転判定部104は、上記計算した右目と左目との間の距離と、しきい値決定部103で決定された第1の判定しきい値とを比較する。また、脇見運転判定部104は、上記計算した左目と左耳との間の距離と、第2の判定しきい値とを比較する。脇見運転判定部104は、右目と左目との間の距離と第1の判定しきい値との比較結果、及び、左目と左耳との間の距離と第2の判定しきい値との比較結果に基づいて、運転者が脇見運転しているか否かを判定する。車両が右ハンドル車の場合、脇見運転判定部104は、右目と左目との間の距離が第1の判定しきい値以下で、かつ、左目と左耳との間の距離が第2の判定しきい値以上の場合、運転者は右方向に脇見をしていると判定する。
また、脇見運転判定部104は、上記計算した右目と左目との間の距離と、しきい値決定部103で決定された第3の判定しきい値とを比較する。脇見運転判定部104は、上記計算した右目と右耳との間の距離と、第4の判定しきい値とを比較する。脇見運転判定部104は、右目と左目との間の距離と第3の判定しきい値との比較結果、及び、右目と右耳との間の距離と第4の判定しきい値との比較結果に基づいて、運転者が脇見運転しているか否かを判定する。車両が右ハンドル車の場合、脇見運転判定部104は、右目と左目との間の距離が第3の判定しきい値より大きく、かつ、右目と右耳との間の距離が第4の判定しきい値より小さい場合、運転者は左方向に脇見をしていると判定する。脇見運転判定部104は、図1に示される判定手段14に対応する。
次いで、動作手順を説明する。図4は、運転状態判定装置100における動作手順(運転状態判定方法)を示す。位置検出部101は、カメラ200から運転者画像を取得する。位置検出部101は、運転者画像から、運転者の両肩、両目、及び両耳の位置を検出する(ステップA1)。肩幅推定部102は、ステップA1で検出された運転者の両肩の位置から、運転者の肩幅を推定する(ステップA2)。
しきい値決定部103は、ステップA2で推定された肩幅に基づいて、判定しきい値を決定する(ステップA3)。しきい値決定部103は、ステップA3では、両目の間の距離に関する第1の判定しきい値、及び第3の判定しきい値を決定する。また、しきい値決定部103は、左耳と左目との間の距離に関する第2の判定しきい値、及び右目と右耳との間の距離に関する第4の判定しきい値を決定する。
脇見運転判定部104は、ステップA1で検出された両目及び両耳の位置に基づいて、両目間の距離、左目と左耳との間の距離、及び右目と右耳との間の距離を計算する。脇見運転判定部104は、計算した両目間の距離、左目と左耳との間の距離、及び右目と右耳との間の距離と、それぞれの判定しきい値とを比較する(ステップA4)。脇見運転判定部104は、ステップA4では、両目間の距離と第1の判定しきい値とを比較し、左目と左耳との間の距離を第2の判定しきい値と比較する。また、脇見運転判定部104は、両目間の距離と第3の判定しきい値とを比較し、右目と右耳との間の距離を第4の判定しきい値と比較する。
脇見運転判定部104は、ステップA4での比較結果に基づいて、運転者が脇見運転しているか否かを判定する(ステップA5)。脇見運転判定部104は、ステップA5では、例えば、両目間の距離が第1の判定しきい値以下であり、かつ左目と左耳との間の距離が第2の判定しきい値以上の場合、運転者は右方向に脇見しながら運転していると判定する。脇見運転判定部104は、両目間の距離が第3の判定しきい値以上であり、かつ右目と右耳との間の距離が第4の判定しきい値以下の場合、運転者は左方向に脇見しながら運転していると判定する。
本実施形態では、位置検出部101は運転者の右肩及び左肩の位置を検出し、肩幅推定部102は、検出された右肩及び左肩の位置に基づいて運転者の肩幅を算出する。しきい値決定部103は、算出された肩幅に基づいて、脇見運転判定部104で使用される判定しきい値を決定する。本実施形態では、脇見運転判定部104は、固定のしきい値ではなく、しきい値決定部103において肩幅に応じて決定された判定しきい値を用いて、運転者が脇見運転しているか否かの判定を行う。このため、運転状態判定装置100は、運転者画像における運転者の大きさに依存せずに、運転者が脇見運転しているか否かを判定できる。このように、本実施形態では判定しきい値が肩幅に応じて決定されるため、運転状態判定装置100は、カメラ200の画角や焦点距離が異なる場合でも、脇見運転を精度よく検出することができる。
続いて、本開示の第2実施形態を説明する。図5は、本開示の第2実施形態に係る運転状態判定装置を示す。本実施形態において、運転状態判定装置100aは、図2に示される第1実施形態に係る運転状態判定装置100の構成要素に加えて、ながら運転判定部105を有する。運転状態判定装置100aは、運転者が脇見運転しているか否かを判定することに加えて、運転者がながら運転しているか否かを判定する。本実施形態において、運転者が脇見運転しているか否かを判定する場合の運転状態判定装置100aの動作は、第1実施形態で説明した動作と同様でよい。
本実施形態において、運転者がながら運転をしている状態とは、運転者が車両の運転以外の動作をしながら運転している状態を示す。運転者がながら運転している状態は、運転者が電話しながら運転している状態の少なくとも一方を含み得る。これに加えて、又はこれに代えて、運転者がながら運転している状態は、運転者が何かを食べながら運転している状態、運転者が飲み物を飲みながら運転している状態、及び運転者がたばこを吸いながら運転している状態の少なくとも1つを含んでいてもよい。
本実施形態において、位置検出部101は、右肩、左肩、右目、左目、右耳、及び左耳の位置に加えて、運転者の頭部、右手、及び左手の位置を検出する。位置検出部101は、検出した運転者の頭部、右手、及び左手の位置をながら運転判定部105に出力する。しきい値決定部103は、脇見運転判定部104で使用される判定しきい値に加えて、ながら運転判定部105で使用される判定しきい値(第5の判定しきい値)を決定する。第5の判定しきい値は、運転者の頭部と手との間の距離のしきい値を示す。しきい値決定部103は、決定した第5の判定しきい値をながら運転判定部105に出力する。
ながら運転判定部105は、運転者の頭部と手との間の距離を計算する。ながら運転判定部105は、頭部と右手との間の距離、及び頭部と左手との間の距離のうち、距離が短い方を頭部と手との間の距離として使用する。ながら運転判定部105は、頭部と手との間の距離と、第5の判定しきい値とを比較する。ながら運転判定部105は、頭部と手との間の距離が第5の判定しきい値以下の場合、運転者がながら運転していると判定する。
図6は、運転者画像から検出される頭部及び手を模式的に示す。位置検出部101は、運転者画像から、頭部303、右手306R、及び左手306Lの位置を検出する。ながら運転判定部105は、頭部303と右手306Rとの間の距離、及び頭部303と左手306Lとの間の距離を計算する。図6の例では、頭部303と左手306Lとの間の距離の方が、頭部303と右手306Rとの間の距離より短い。ながら運転判定部105は、頭部303と左手306Lとの間の距離と第5の判定しきい値とを比較する。図6の例では、頭部303と左手306Lとが重なっているため、ながら運転判定部105は、運転者がながら運転していると判定する。
次いで、動作手順を説明する。図7は、ながら運転を判定する場合の運転状態判定装置100aの動作手順を示す。運転状態判定装置100aが、運転者が脇見運転している状態を判定する場合の動作手順は、図4に示される動作手順と同様である。
位置検出部101は、カメラ200から取得した運転者画像から、運転者の両肩、頭部、及び両手の位置を検出する(ステップB1)。肩幅推定部102は、ステップB1で検出された運転者の両肩の位置から、運転者の肩幅を推定する(ステップB2)。しきい値決定部103は、ステップB2で推定された肩幅に基づいて、頭部と手との間の距離に関する判定しきい値を決定する(ステップB3)。
ながら運転判定部105は、ステップB1で検出された頭部と両手の位置に基づいて、頭部と手との間の距離を計算する。ながら運転判定部105は、計算した頭部と手との間の距離と、ステップB3で決定された判定しきい値とを比較する(ステップB4)。ながら運転判定部105は、ながら運転判定部105は、ステップB4での比較結果に基づいて、運転者がながら運転しているか否かを判定する(ステップB5)。ながら運転判定部105は、ステップB5では、例えば、頭部と手との距離が判定しきい値以下の場合、運転者はながら運転していると判定する。
本実施形態では、しきい値決定部103は、運転者の肩幅に基づいて、ながら運転判定部105で使用される判定しきい値を決定する。ながら運転判定部105は、肩幅に応じて決定された判定しきい値を用いて、運転者がながら運転しているか否かを判定する。本実施形態においても、判定しきい値は運転者の肩幅に応じて決定される。このため、運転状態判定装置100aは、運転者画像における運転者の大きさに依存せずに、運転者がながら運転しているか否かを判定でき、カメラ200の画角や焦点距離が異なる場合でも、ながら運転を精度よく検出することができる。
なお、上記第2実施形態では、運転状態判定装置100aが脇見運転判定部104とながら運転判定部105とを有する例を説明したが、本開示はこれには限定されない。運転状態判定装置100aは、運転者の運転状態を少なくとも1つ判定すればよく、脇見運転判定部104を有していなくてもよい。あるいは、運転状態判定装置100aは、脇見運転及びながら運転以外の運転状態を判定する判定部を有していてもよい。
本開示において、運転状態判定装置100はプロセッサを有する電子機器として構成され得る。図8は、運転状態判定装置100に使用され得る電子機器のハードウェア構成を示す。電子機器500は、プロセッサ501、ROM(read only memory)502、及びRAM(random access memory)503を有する。電子機器500において、プロセッサ501、ROM502、及びRAM503は、バス504を介して相互に接続される。電子機器500は、図示は省略するが、周辺回路、及びインタフェース回路などの他の回路を含み得る。
ROM502は、不揮発性の記憶装置である。ROM502には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。ROM502は、プロセッサ501が実行するプログラムを格納する。
上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、電子機器500に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体を含む。非一時的なコンピュータ可読媒体の例は、例えばフレキシブルディスク、磁気テープ、又はハードディスクなどの磁気記録媒体、例えば光磁気ディスクなどの光磁気記録媒体、CD(compact disc)、又はDVD(digital versatile disk)などの光ディスク媒体、及び、マスクROM、PROM(programmable ROM)、EPROM(erasable PROM)、フラッシュROM、又はRAMなどの半導体メモリを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体を用いて電子機器に供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムを電子機器に供給できる。
RAM503は、揮発性の記憶装置である。RAM503には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM540は、データなどを一時的に格納する内部バッファとして用いられ得る。
プロセッサ501は、ROM502に格納されたプログラムをRAM503に展開し、プログラムを実行する。プロセッサ501がプログラムを実行することで、運転状態判定装置100の各部の機能が実現され得る。
以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出する位置検出手段と、
前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出する肩幅算出手段と、
前記算出された肩幅に基づいて1以上の判定しきい値を決定するしきい値決定手段と、
前記検出された2以上の部位の位置と、前記1以上の判定しきい値とを用いて、前記運転者の運転状態を判定する判定手段とを備える運転状態判定装置。
[付記2]
前記位置検出手段は、前記運転者画像に基づいて前記運転者の骨格構造を推定し、該推定した骨格構造に基づいて前記右肩及び左肩の位置を検出する付記1に記載の運転状態判定装置。
[付記3]
前記しきい値決定手段は、基準肩幅と基準判定しきい値との組を記憶し、前記算出された肩幅と前記基準肩幅との差又は比に応じて、前記基準判定しきい値を増加又は減少させることで、前記判定しきい値を決定する付記1又は2に記載の運転状態判定装置。
[付記4]
前記判定手段は、前記運転者が運転に集中していない運転状態を、前記運転者の運転状態として判定する付記1から3何れか1つに記載の運転状態判定装置。
[付記5]
前記判定しきい値は、人体の特定の部位間の距離のしきい値を示す付記1から4何れか1つに記載の運転状態判定装置。
[付記6]
前記2以上の身体部位は、前記運転者の頭部、及び前記運転者の手を含み、
前記しきい値決定手段は、前記頭部と前記手との間の距離のしきい値を前記判定しきい値として決定し、
前記判定手段は、前記頭部と前記手の間の距離が前記判定しきい値以下の場合、前記運転者は運転以外の動作をしながら運転していると判定する付記5に記載の運転状態判定装置。
[付記7]
前記2以上の身体部位は、前記運転者の右目、左目、及び左耳を含み、
前記しきい値決定手段は、前記右目と前記左目との間の距離のしきい値を示す第1の判定しきい値、及び前記左目と前記左耳との間の距離のしきい値を示す第2の判定しきい値を決定し、
前記判定手段は、前記右目と前記左目との間の距離と前記第1の判定しきい値とを比較し、かつ前記左目と前記左耳との間の距離と前記第2の判定しきい値とを比較し、前記右目と前記左目との間の距離と前記第1の判定しきい値との比較結果、及び前記左目と前記左耳との間の距離と前記第2の判定しきい値との比較結果に基づいて、前記運転者が脇見運転をしている否かを判定する付記5又は6に記載の運転状態判定装置。
[付記8]
前記2以上の身体部位は、前記運転者の右目、左目、及び右耳を含み、
前記しきい値決定手段は、前記右目と前記左目との間の距離のしきい値を示す第3の判定しきい値、及び前記右目と前記右耳との間の距離のしきい値を示す第4の判定しきい値を決定し、
前記判定手段は、前記右目と前記左目との間の距離と前記第3の判定しきい値とを比較し、かつ、前記右目と前記右耳との間の距離と前記第4の判定しきい値とを比較し、前記右目と前記左目との間の距離と前記第3の判定しきい値との比較結果、及び、前記右目と前記右耳との間の距離と前記第4の判定しきい値との比較結果に基づいて、前記運転者が脇見運転をしているか否かを判定する付記5から7何れか1つに記載の運転状態判定装置。
[付記9]
前記運転者画像は、車両の幅方向において運転席の中心よりも助手席側の位置で、かつ前記運転者の顔の位置より前記車両の前方側の位置から前記運転席を撮影することで得られた画像である付記1から8何れか1つに記載の運転状態判定装置。
[付記10]
運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出し、
前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出し、
前記算出された肩幅に基づいて1以上の判定しきい値を決定し、
前記検出された2以上の部位の位置と、前記1以上の判定しきい値とを用いて、前記運転者の運転状態を判定する運転状態判定方法。
[付記11]
運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出し、
前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出し、
前記算出された肩幅に基づいて1以上の判定しきい値を決定し、
前記検出された2以上の部位の位置と、前記1以上の判定しきい値とを用いて、前記運転者の運転状態を判定する処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
10:運転状態判定装置
11:位置検出手段
12:肩幅算出手段
13:しきい値決定手段
14:判定手段
20:カメラ
100:運転状態判定装置
101:位置検出部
102:肩幅推定部
103:しきい値決定部
104:脇見運転判定部
105:ながら運転判定部
200:カメラ

Claims (9)

  1. 運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出する位置検出手段と、
    前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出する肩幅算出手段と、
    前記算出された肩幅に基づいて、人体の特定の部位間の距離のしきい値を示す1以上の判定しきい値を決定するしきい値決定手段と、
    前記検出された2以上の部位の位置の間の距離を計算し、該計算した距離と、前記1以上の判定しきい値とを比較し、該比較の結果に応じて、前記運転者の運転状態を判定する判定手段とを備える運転状態判定装置。
  2. 前記位置検出手段は、前記運転者画像に基づいて前記運転者の骨格構造を推定し、該推定した骨格構造に基づいて前記右肩及び左肩の位置を検出する請求項1に記載の運転状態判定装置。
  3. 前記しきい値決定手段は、基準肩幅と基準判定しきい値との組を記憶し、前記算出された肩幅と前記基準肩幅との差又は比に応じて、前記基準判定しきい値を増加又は減少させることで、前記判定しきい値を決定する請求項1又は2に記載の運転状態判定装置。
  4. 前記判定手段は、前記運転者が運転に集中していない運転状態を、前記運転者の運転状態として判定する請求項1から3何れか1項に記載の運転状態判定装置。
  5. 前記2以上の身体部位は、前記運転者の頭部、及び前記運転者の手を含み、
    前記しきい値決定手段は、前記頭部と前記手との間の距離のしきい値を前記判定しきい値として決定し、
    前記判定手段は、前記頭部と前記手の間の距離が前記判定しきい値以下の場合、前記運転者は運転以外の動作をしながら運転していると判定する請求項1から4何れか1項に記載の運転状態判定装置。
  6. 前記2以上の身体部位は、前記運転者の右目、左目、及び左耳を含み、
    前記しきい値決定手段は、前記右目と前記左目との間の距離のしきい値を示す第1の判定しきい値、及び前記左目と前記左耳との間の距離のしきい値を示す第2の判定しきい値を決定し、
    前記判定手段は、前記右目と前記左目との間の距離と前記第1の判定しきい値とを比較し、かつ前記左目と前記左耳との間の距離と前記第2の判定しきい値とを比較し、前記右目と前記左目との間の距離と前記第1の判定しきい値との比較結果、及び前記左目と前記左耳との間の距離と前記第2の判定しきい値との比較結果に基づいて、前記運転者が脇見運転をしている否かを判定する請求項1から5何れか1項に記載の運転状態判定装置。
  7. 前記2以上の身体部位は、前記運転者の右目、左目、及び右耳を含み、
    前記しきい値決定手段は、前記右目と前記左目との間の距離のしきい値を示す第3の判定しきい値、及び前記右目と前記右耳との間の距離のしきい値を示す第4の判定しきい値を決定し、
    前記判定手段は、前記右目と前記左目との間の距離と前記第3の判定しきい値とを比較し、かつ、前記右目と前記右耳との間の距離と前記第4の判定しきい値とを比較し、前記右目と前記左目との間の距離と前記第3の判定しきい値との比較結果、及び、前記右目と前記右耳との間の距離と前記第4の判定しきい値との比較結果に基づいて、前記運転者が脇見運転をしているか否かを判定する請求項から何れか1項に記載の運転状態判定装置。
  8. 運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出し、
    前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出し、
    前記算出された肩幅に基づいて、人体の特定の部位間の距離のしきい値を示す1以上の判定しきい値を決定し、
    前記検出された2以上の部位の位置の間の距離を計算し、該計算した距離と、前記1以上の判定しきい値とを比較し、該比較の結果に応じて、前記運転者の運転状態を判定する運転状態判定方法。
  9. 運転者を撮影した運転者画像から該運転者の右肩及び左肩の位置と、2以上の身体部位の位置とを検出し、
    前記検出された右肩及び左肩の位置に基づいて前記運転者の肩幅を算出し、
    前記算出された肩幅に基づいて、人体の特定の部位間の距離のしきい値を示す1以上の判定しきい値を決定し、
    前記検出された2以上の部位の位置の間の距離を計算し、該計算した距離と、前記1以上の判定しきい値とを比較し、該比較の結果に応じて、前記運転者の運転状態を判定する処理をプロセッサに実行させるためのプログラム。
JP2022551488A 2020-09-24 2020-09-24 運転状態判定装置、方法、及びプログラム Active JP7420277B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/036005 WO2022064592A1 (ja) 2020-09-24 2020-09-24 運転状態判定装置、方法、及びコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2022064592A1 JPWO2022064592A1 (ja) 2022-03-31
JPWO2022064592A5 JPWO2022064592A5 (ja) 2023-05-18
JP7420277B2 true JP7420277B2 (ja) 2024-01-23

Family

ID=80844613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022551488A Active JP7420277B2 (ja) 2020-09-24 2020-09-24 運転状態判定装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230311899A1 (ja)
JP (1) JP7420277B2 (ja)
WO (1) WO2022064592A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002838A (ja) 2006-06-20 2008-01-10 Takata Corp 車両乗員検出システム、作動装置制御システム、車両
JP2017010560A (ja) 2015-06-24 2017-01-12 スズキ株式会社 車両の運転支援装置
WO2018150485A1 (ja) 2017-02-15 2018-08-23 三菱電機株式会社 運転状態判定装置および運転状態判定方法
JP6725121B1 (ja) 2019-11-13 2020-07-15 株式会社スワローインキュベート 視線検出方法、視線検出装置、及び制御プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219810A (ja) * 1996-02-09 1997-08-19 Toyota Motor Corp 移動体のキャビン内撮影装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008002838A (ja) 2006-06-20 2008-01-10 Takata Corp 車両乗員検出システム、作動装置制御システム、車両
JP2017010560A (ja) 2015-06-24 2017-01-12 スズキ株式会社 車両の運転支援装置
WO2018150485A1 (ja) 2017-02-15 2018-08-23 三菱電機株式会社 運転状態判定装置および運転状態判定方法
JP6725121B1 (ja) 2019-11-13 2020-07-15 株式会社スワローインキュベート 視線検出方法、視線検出装置、及び制御プログラム

Also Published As

Publication number Publication date
US20230311899A1 (en) 2023-10-05
JPWO2022064592A1 (ja) 2022-03-31
WO2022064592A1 (ja) 2022-03-31

Similar Documents

Publication Publication Date Title
JP6573193B2 (ja) 判定装置、判定方法、および判定プログラム
JP6960995B2 (ja) 状態判定装置および状態判定方法
KR20160108362A (ko) 차량 미러 조절
US20150138066A1 (en) Gaze detecting apparatus and method
KR20200095384A (ko) 운전자 상태에 따라 맞춤형의 캘리브레이션을 위해 운전자 보조 장치를 자동으로 조정하는 방법 및 장치
US11216968B2 (en) Face direction estimation device and face direction estimation method
JP2018511376A (ja) 車両のドライバの疲労状態及び/又は睡眠状態を判定する方法及び装置
US10964046B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
JP2017024711A (ja) 乗員の視線方向を予測する方法および装置
CN115376113A (zh) 驾驶员分心检测方法、驾驶员监控系统及存储介质
JP7420277B2 (ja) 運転状態判定装置、方法、及びプログラム
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
JP6572538B2 (ja) 下方視判定装置および下方視判定方法
KR101775874B1 (ko) 깊이정보 기반의 안면인식 자동차제어방법
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
WO2021166742A1 (ja) 物体測距装置、方法、及びコンピュータ可読媒体
JP7175381B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
JP6689470B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP6847323B2 (ja) 視線検出装置および視線検出方法
WO2023095297A1 (ja) 乗車位置判定装置、システム、方法、及びコンピュータ可読媒体
JP7416276B2 (ja) 不安全運転検出装置、方法、及びプログラム
JP7019394B2 (ja) 視認対象検知装置、視認対象検知方法、およびプログラム
JP2009003644A (ja) 開眼度判定装置
JP2020194224A (ja) 運転者判定装置、運転者判定方法、および運転者判定プログラム
TW201604054A (zh) 基於耳朵影像角度變化的駕駛疲勞監控與偵測方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7420277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151