JP2019091255A - 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2019091255A
JP2019091255A JP2017219770A JP2017219770A JP2019091255A JP 2019091255 A JP2019091255 A JP 2019091255A JP 2017219770 A JP2017219770 A JP 2017219770A JP 2017219770 A JP2017219770 A JP 2017219770A JP 2019091255 A JP2019091255 A JP 2019091255A
Authority
JP
Japan
Prior art keywords
driver
vehicle
unit
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017219770A
Other languages
English (en)
Other versions
JP6693489B2 (ja
Inventor
初美 青位
Hatsumi Aoi
初美 青位
相澤 知禎
Chitei Aizawa
知禎 相澤
匡史 日向
Tadashi Hyuga
匡史 日向
義朗 松浦
Yoshiro Matsuura
義朗 松浦
将士 田中
Masashi Tanaka
将士 田中
啓輔 横田
Keisuke Yokota
啓輔 横田
齋藤 尚
Hisashi Saito
尚 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Nidec Mobility Corp
Original Assignee
Omron Corp
Omron Automotive Electronics Co Ltd
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Automotive Electronics Co Ltd, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017219770A priority Critical patent/JP6693489B2/ja
Priority to CN201811278699.2A priority patent/CN109774722A/zh
Priority to US16/178,500 priority patent/US20190147270A1/en
Priority to DE102018127605.2A priority patent/DE102018127605A1/de
Publication of JP2019091255A publication Critical patent/JP2019091255A/ja
Application granted granted Critical
Publication of JP6693489B2 publication Critical patent/JP6693489B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)

Abstract

【課題】運転者の視線方向の検出精度を向上させることができる技術を提供する。【解決手段】車両の運転者の顔を含む画像を取得する画像取得部と、該画像取得部により取得された前記画像から前記運転者の視線方向を検出する検出部と、該検出部による検出結果を蓄積する蓄積部と、該蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定部とを装備する。【選択図】図3

Description

本発明は情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラムに関する。
近年、カメラで撮影された運転者の顔画像から運転者の顔の向きや視線の方向を検出し、該検出した運転者の顔の向きや視線の方向などに基づいて、車両走行時の運転者の状態を判定する技術が提案されている。
例えば、特許文献1には、カメラで撮影された運転者の顔画像から求めた眼球中心位置と瞳孔中心位置とに基づいて運転者の視線の方向を検出する技術が開示されている。また、特許文献2には、カメラで撮影された運転者の顔画像から顔の中央線を決定し、該中央線から顔の輪郭位置までの距離に基づき、正面方向をゼロ度としたときの左右方向への顔向き度を検出する技術が開示されている。
[発明が解決しようとする課題]
上記特許文献1、2に開示されている運転者の顔の向きや視線方向を検出する技術は、装置側で予め設定された正面方向を基準として、運転者の顔の向きや視線方向を推定している。ところが、運転者が車両の進行方向の正面を見ている場合でも運転者の視線方向、例えば、奥行き方向(上下方向)の視線などには個人差がある。また、同じ運転者であっても、運転環境などによって車両の進行方向の正面を見ている状態での視線方向が変化していることもある。
上記特許文献1、2に開示されている従来の技術では、車両の進行方向の正面に対する運転者の視線方向の個人差が考慮されていないため、前記運転者の視線方向を精度良く検出することができないという課題があった。
特開2007−68917号公報 特開2009−232945号公報
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、運転者の視線方向の検出精度を向上させることができる情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラムを提供することを目的としている。
上記目的を達成するために本開示に係る情報処理装置(1)は、
車両の運転者の顔を含む画像を取得する画像取得部と、
該画像取得部により取得された前記画像から前記運転者の視線方向を検出する検出部と、
該検出部による検出結果を蓄積する蓄積部と、
該蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定部とを備えていることを特徴としている。
上記情報処理装置(1)によれば、前記検出部により前記画像から前記運転者の視線方向が検出され、該検出結果が前記蓄積部に蓄積され、前記基準決定部により前記検出結果を用いることで、前記運転者にとっての視線方向の基準が決定される。したがって、前記運転者の視線方向の個人差に対応させた形で前記基準を決定することができ、前記基準を用いることで、前記運転者の視線方向の検出精度を向上させることが可能となる。
また本開示に係る情報処理装置(2)は、上記情報処理装置(1)において、前記基準決定部が、前記蓄積部に蓄積された前記検出結果から求めた視線方向の最頻値を前記基準として決定することを特徴としている。
上記情報処理装置(2)によれば、前記基準決定部により、前記検出結果から求めた視線方向の最頻値が前記基準として決定される。したがって、前記運転者にとって最も良く見ていると推定される方向を前記基準として決定することができ、前記運転者の視線方向の検出精度を向上させることが可能となる。
また本開示に係る情報処理装置(3)は、上記情報処理装置(1)又は(2)において、前記基準決定部で決定された前記基準を用い、前記画像から前記基準に対する前記運転者の視線方向を算出する算出部を備えていることを特徴としている。
上記情報処理装置(3)によれば、前記基準決定部で決定された前記基準を用いることで、前記運転者の視線方向、例えば、前記基準からのずれを算出することでき、前記運転者の視線方向の検出精度を高めることができる。
また本開示に係る情報処理装置(4)は、上記情報処理装置(3)において、前記算出部で算出された、前記基準に対する前記運転者の視線方向に基づいて、所定の処理を行う処理部を備えていることを特徴としている。
上記情報処理装置(4)によれば、前記処理部により、前記算出部で算出された前記基準に対する前記運転者の視線方向に基づいて、所定の処理を行うことが可能となる。前記所定の処理は、例えば、前記運転者の脇見を判定する処理でもよいし、前記運転者の集中度や疲労度などの意識状態を判定する処理でもよい。また、前記車両が自動運転システムを搭載している場合には、前記所定の処理は、自動運転から手動運転への切替許可の判定処理などであってもよい。
また本開示に係る情報処理装置(5)は、上記情報処理装置(4)において、前記処理部により処理された結果を前記運転者へ報知する報知部を備えていることを特徴としている。
上記情報処理装置(5)によれば、前記報知部によって、前記処理部で処理された結果を前記運転者へ報知することが可能となる。
また本開示に係る情報処理装置(6)は、上記情報処理装置(3)〜(5)のいずれかにおいて、前記基準決定部で決定された前記基準を記憶する基準記憶部を備え、
前記算出部が、前記基準記憶部から読み出した前記基準を用いることで、前記画像から前記基準に対する前記運転者の視線方向を算出することを特徴としている。
上記情報処理装置(6)によれば、前記基準記憶部から前記基準を読み出して、前記運転者の視線方向を算出することができるので、前記基準決定部による前記基準を決定するための処理負担を減らすことができる。
また本開示に係る情報処理装置(7)は、上記情報処理装置(3)〜(6)のいずれかにおいて、前記基準決定部で決定された前記基準を変更する基準変更部を備えていることを特徴としている。
上記情報処理装置(7)によれば、前記基準変更部により前記基準を変更することが可能となるので、前記基準を適正に維持することができ、精度の高い視線方向の検出を継続的に行うことができる。
また本開示に係る情報処理装置(8)は、上記情報処理装置(7)において、前記基準変更部が、前記算出部で算出された、前記基準に対する前記運転者の視線方向と、前記基準との差が所定範囲内である状態で継続している場合に、前記差が小さくなるように前記基準を補正することを特徴としている。
上記情報処理装置(8)によれば、長時間の運転や運転環境の変化などにより、前記運転者の視線方向が無意識のうちに少しずつ変化した場合であっても、前記基準を適切に補正することができるので、精度の高い視線方向の検出を継続的に行うことができる。
また本開示に係る情報処理装置(9)は、上記情報処理装置(1)〜(8)のいずれかにおいて、前記車両の走行状態に関する情報を取得する情報取得部と、
該情報取得部により取得された前記情報に基づいて、前記車両が特定の走行状態にあるかを判定する判定部とを備え、
前記基準決定部が、前記判定部により前記特定の走行状態にあると判定されているときの前記視線方向に基づいて前記基準を決定することを特徴としている。
上記情報処理装置(9)によれば、前記特定の走行状態にあるときの前記運転者の視線方向に基づいて、前記基準が決定される。したがって、前記基準を前記特定の走行状態と対応させた形で決定することができ、前記車両の運転に適切な前記基準を決定することができる。
また本開示に係る情報処理装置(10)は、上記情報処理装置(9)において、前記特定の走行状態が、前記車両が直進している走行状態であることを特徴としている。
上記情報処理装置(10)によれば、前記車両が直進している走行状態における、前記運転者の視線方向に基づいて前記基準が決定される。したがって、前記運転者が前記車両の直進方向を見ていると推定される状態における前記運転者の視線方向を前記基準にすることができる。
また本開示に係る情報処理装置(11)は、上記情報処理装置(9)において、前記情報取得部が、少なくとも前記車両の車速情報と、前記車両の操舵情報とを取得し、
前記判定部が、前記車両の車速が所定の速度域にあり、かつ前記車両が所定の非操舵状態にある場合、前記車両が特定の走行状態にあると判定することを特徴としている。
上記情報処理装置(11)によれば、前記車両の車速が所定の速度域にあり、かつ前記車両が所定の非操舵状態にある場合、前記車両が特定の走行状態にあると判定される。したがって、前記運転者が前記車両の直進方向を見ていると推定される状態における前記運転者の視線方向に基づいて、前記基準を決定することができる。
また本開示に係る情報処理装置(12)は、上記情報処理装置(9)において、前記情報取得部が、少なくとも前記車両の加減速情報、及び前記車両の傾斜情報のうちのいずれかを取得し、
前記判定部が、前記車両が所定の加速又は減速の状態にある場合、或いは前記車両が所定の傾斜姿勢にある場合を、前記車両が特定の走行状態から除外することを特徴としている。
上記情報処理装置(12)によれば、前記車両が所定の加速又は減速の状態にある場合、或いは前記車両が所定の傾斜姿勢にある場合は、前記運転者の視線が大きく揺れたりして、視線の向きが変化する可能性があるため、このような状況下で前記基準が決定されることを防止できる。
また本開示に係る情報処理装置(13)は、上記情報処理装置(9)において、前記情報取得部が、前記車両の位置情報と、前記車両の周辺の地図情報とを取得するものであり、
前記判定部が、前記車両が直線道路を移動している場合、前記車両が特定の走行状態にあると判定することを特徴としている。
上記情報処理装置(13)によれば、前記車両の位置情報と、前記車両の周辺の地図情報とに基づいて、前記車両が直線道路を移動していると判定された場合に、前記車両が特定の走行状態にあると判定される。したがって、前記運転者が前記車両の直進方向を見ていると推定される状態における前記運転者の視線方向に基づいて、前記基準を決定することができる。
また本開示に係る情報処理装置(14)は、上記情報処理装置(1)〜(13)のいずれかにおいて、前記運転者を識別する識別部を備え、前記基準決定部が、前記識別部で識別された運転者毎に、前記基準を決定することを特徴としている。
上記情報処理装置(14)によれば、前記識別部により前記運転者が識別され、該識別された運転者毎に、前記基準を決定することができるので、前記運転者が異なる場合でも、運転者毎に精度の高い視線方向の検出を行うことが可能となる。
また本開示に係る運転者モニタリングシステムは、上記情報処理装置(1)〜(14)のいずれかと、前記画像取得部で取得される前記運転者の顔を含む画像を撮像する少なくとも1つのカメラとを備えていることを特徴としている。
上記運転者モニタリングシステムによれば、上記情報処理装置のいずれかの効果を得ることができる運転者モニタリングシステムを安価に実現することができる。
また本開示に係る情報処理方法は、車両の運転者の顔を含む画像を取得する画像取得ステップと、
該画像取得ステップにより取得された前記画像から前記運転者の視線方向を検出する検出ステップと、
該検出ステップによる検出結果を蓄積部に蓄積する蓄積ステップと、
前記蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定ステップとを含むステップを実行させることを特徴としている。
上記情報処理方法によれば、前記検出ステップにより前記画像から前記運転者の視線方向が検出され、前記蓄積ステップにより前記検出結果が前記蓄積部に蓄積され、前記基準決定ステップにより前記検出結果を用いることで、前記運転者にとっての視線方向の基準が決定される。したがって、前記基準を前記運転者の視線方向の個人差に対応させた形で決定することができ、前記基準を用いることで、前記運転者の視線方向の検出精度を向上させることが可能となる。
また本開示に係る情報処理プログラムは、少なくとも1つのコンピュータに、
車両の運転者の顔を含む画像を取得する画像取得ステップと、
該画像取得ステップにより取得された前記画像から前記運転者の視線方向を検出する検出ステップと、
該検出ステップによる検出結果を蓄積部に蓄積する蓄積ステップと、
前記蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定ステップとを実行させることを特徴としている。
上記情報処理プログラムによれば、前記少なくとも1つのコンピュータに、上記各ステップを実行させることにより、前記運転者の視線方向の個人差に対応した前記基準を決定することができ、前記基準を用いることで、前記運転者の視線方向の検出精度を向上させることが可能な情報処理装置を実現できる。
実施の形態に係る情報処理装置を含む運転者モニタリングシステムの車両への適用例を示す概略図である。 実施の形態(1)に係る運転者モニタリングシステムを備えた車載システムの構成例を示すブロック図である。 実施の形態(1)に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 実施の形態(1)に係る情報処理装置における制御ユニットの行う基準決定処理動作の一例を示すフローチャートである。 実施の形態(1)に係る情報処理装置における制御ユニットの行う視線方向検出処理動作の一例を示すフローチャートである。 実施の形態(1)に係る情報処理装置における制御ユニットの行うモニタリング処理動作の一例を示したフローチャートである。 実施の形態(2)に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 実施の形態(2)に係る情報処理装置における制御ユニットの行う基準決定処理動作の一例を示すフローチャートである。 実施の形態(2)に係る情報処理装置における制御ユニットの行うモニタリング処理動作の一例を示したフローチャートである。 実施の形態(2)に係る情報処理装置における制御ユニットの行う基準変更処理動作の一例を示したフローチャートである。
以下、本発明に係る情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラムの実施の形態を図面に基づいて説明する。
[適用例]
図1は、実施の形態に係る情報処理装置を含む運転者モニタリングシステムの車両への適用例を示す概略図である。
運転者モニタリングシステム1は、車両2の運転者Dの状態を把握するための情報処理を行う情報処理装置10と、運転者Dの顔を含む画像を撮像するカメラ20とを含んで構成されている。
情報処理装置10は、車両2に搭載されている車載機器3に接続され、車載機器3から車両2の走行状態に関する各種情報を取得できるとともに、車載機器3に対して制御信号などを出力できる。情報処理装置10は、制御ユニット、記憶ユニット、入出力インターフェースなどが電気的に接続されて構成されている。
車載機器3には、車両2の動力源、操舵機構、制動機構などを制御する各種の制御装置の他、車両2の各種情報を提示する提示装置、車外と通信する通信装置、車両2の状態や車外の状態を検出する各種のセンサなどが含まれてもよい。また、車載機器3は、車載ネットワーク、例えば、CAN(Controller Area Network)で相互に通信可能に構成されていてもよい。
前記制御装置には、車両2の加減速、操舵、及び制動のうちのいずれかの運転操作を自動で制御して、運転者の運転操作を支援する運転支援装置が含まれてよい。また、前記制御装置には、車両2の加減速、操舵、及び制動のうちの複数又は全ての運転操作を自動で制御する自動運転制御装置が含まれてよい。前記提示装置には、ナビゲーション装置、報知装置、各種のユーザインターフェースが含まれてもよい。また、情報処理装置10が、車載機器3の一部に組み込まれてもよい。
カメラ20は、運転者Dを撮像する装置であり、例えば、図示しないレンズ部、撮像素子部、光照射部、インターフェース部、これら各部を制御する制御部などを含んで構成されている。前記撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、紫外線又は赤外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。前記制御部は、例えば、CPU(Central Processing Unit)、メモリ、画像処理回路などを含んで構成されている。前記制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。カメラ20は所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、カメラ20で撮像された画像のデータが情報処理装置10へ出力されるようになっている。
カメラ20の数は、1台でもよいし、2台以上であってもよい。また、カメラ20は、情報処理装置10と別体(別筐体)で構成してもよいし、情報処理装置10と一体(同一筐体)で構成してもよい。カメラ20は、単眼カメラでもよいし、ステレオカメラであってもよい。
カメラ20の車室内での設置位置は、少なくとも運転者Dの顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドル部分、ハンドルコラム部分、メーターパネル部分、ルームミラー近傍位置、Aピラー部分、又はナビゲーション装置などに設置してもよい。また、カメラ20の仕様(画角や画素数(縦×横)など)及び位置姿勢(取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がカメラ20又は情報処理装置10に記憶されてもよい。
情報処理装置10は、車両2の運転者Dの状態を把握するための情報処理の一つとして、運転者Dの視線方向を把握する処理を実行する。そして、情報処理装置10の特徴の一つは、運転者Dの視線方向を把握する処理を行うときに用いる、運転者Dにとっての視線方向の基準を決定する処理にある。
背景技術の欄に記載したように、運転者が車両の進行方向の正面を見ている状態でも運転者の視線方向、例えば、奥行き方向の視線の方向などには個人差がある。また、同じ運転者であっても、運転環境などによって車両の進行方向の正面を見ている状態での視線方向が変化していることもある。
そこで、情報処理装置10では、運転者の視線方向を把握する処理を行う場合に、前記視線方向に個人差等があったとしても、高い精度で視線方向の検出が行えるように、運転者Dにとっての視線方向の基準を決定する。情報処理装置10は、運転者Dにとっての視線方向の基準を用いることで、運転者の視線方向の検出精度を高めようとするものである。
具体的には、情報処理装置10は、カメラ20で撮像された画像を取得し、該取得した画像から運転者Dの視線方向を検出し、検出結果を蓄積する。
なお、別の実施の形態では、情報処理装置10が、カメラ20で撮像された画像を取得する処理を行い、また、車載機器3から車両2の走行状態に関する情報を取得し、車両2が特定の走行状態にあるか否かを判定し、前記特定の走行状態にあるときの運転者Dの視線方向を検出し、その検出結果を蓄積(記憶)するようにしてもよい。車両2の走行状態に関する情報として、例えば、車両2の車速情報や操舵情報を取得してもよい。これら情報は、後述されている「車両情報」の一例である。この車両情報は、例えば、CANで接続された車載機器3から取得したデータであってもよい。前記特定の走行状態は、例えば、車速が所定の車速域にあり、かつ非操舵状態にある走行状態、すなわち、車両2が直進している走行状態とすることができる。
次に、蓄積された検出結果を用いて、運転者にとっての視線方向の基準を決定する処理を実行する。例えば、蓄積された検出結果を分析し、検出頻度が最も高い視線方向を示す最頻値を視線方向の基準として決定してもよい。
運転者Dの視線方向には、運転者の顔の向きと、目領域の情報(目頭、眼尻及び瞳孔の位置など)との関係から推定される視線方向が含まれてもよい。運転者Dの視線方向は、画像例21に示すように、例えば、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者Dの顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
本実施の形態では、情報処理装置10が、カメラ20から運転者Dの画像を取得し、取得した画像から運転者Dの視線方向を検出し、検出結果を蓄積していく。そして、情報処理装置10が、蓄積された視線方向の検出結果を用いて、運転者Dにとっての視線方向の基準を決定する。したがって、前記視線方向の基準を、例えば、運転者Dの正面に対する視線方向の個人差に対応させた形で決定することができ、決定した前記視線方向の基準を用いることで、運転者により異なる視線方向の個人差の影響を受けることなく、運転者Dにとっての視線方向の検出精度を高めることができる。
また、従来行われていた一般的なカメラのキャリブレーションの方法は、所定のスイッチなどを運転者に注視させて、前記スイッチと運転者との位置関係を取得し、取得した位置関係からキャリブレーションを行う方法である。そのため、運転者が意識的に何らかの操作や注視を行わなければならず、手間がかかり煩わしいものであったが、本実施の形態では、運転者が意識することなく、視線方向の基準が決定されるので、使い勝手も向上させることができる。
[構成例1]
図2は、実施の形態(1)に係る運転者モニタリングシステムが搭載された車載システムの一例を示すブロック図である。
車載システム4は、運転者モニタリングシステム1と、自動運転制御装置30とを含んで構成されている。運転者モニタリングシステム1は、上記したように情報処理装置10と、カメラ20とを含んで構成されている。情報処理装置10のハードウェア構成については後述する。なお、本実施の形態では車載システム4に自動運転システムを適用した一例について説明するが、適用可能なシステムはこれに限定されない。
自動運転制御装置30は、車両2の加減速、操舵、及び制動を含む走行制御のうちの少なくとも一部又は全ての運転操作をシステムが主体となって自動的に行う自動運転モードと、運転者が運転操作を行う手動運転モードとを切り替える構成を備えてもよい。自動運転とは、例えば、運転者が運転操作を行うことなく、自動運転制御装置30の行う制御によって車両2を自動で走行させる運転のことである。前記自動運転は、米国自動車技術会(SAE)が提示している自動運転レベルにおけるレベル1(ドライバー支援)、レベル2(部分的自動運転)、レベル3(条件付自動運転)、レベル4(高度自動運転)、及びレベル5(完全自動運転)のうちのいずれのレベルであってもよい。また、手動運転とは、運転者が運転操作を行う主体となって車両2を走行させる運転のことである。
車載システム4には、運転者モニタリングシステム1、及び自動運転制御装置30の他、自動運転及び手動運転の各種制御に必要なセンサや制御装置などが含まれている。例えば、操舵センサ31、アクセルペダルセンサ32、ブレーキペダルセンサ33、操舵制御装置34、動力源制御装置35、制動制御装置36、報知装置37、始動スイッチ38、周辺監視センサ39、GPS受信機40、ジャイロセンサ41、車速センサ42、ナビゲーション装置43、通信装置44などが含まれている。これら各種センサや制御装置が通信ライン50を介して電気的に接続されている。
また、車両2には、エンジンやモーターなどの動力源であるパワーユニット51、運転者が操舵するハンドル52を備えた操舵装置53が装備されている。
自動運転制御装置30は、車両2の自動運転に関する各種制御を実行する装置であり、図示しない制御部、記憶部、入出力部などを備えた電子制御ユニットで構成されている。前記制御部は、1つ以上のハードウェアプロセッサを含み、前記記憶部に記憶されているプログラムを読み出して、各種の車両制御を実行する。
自動運転制御装置30は、情報処理装置10の他、操舵センサ31、アクセルペダルセンサ32、ブレーキペダルセンサ33、操舵制御装置34、動力源制御装置35、制動制御装置36、周辺監視センサ39、GPS(Global Positioning System)受信機40、ジャイロセンサ41、車速センサ42、ナビゲーション装置43、通信装置44などに接続されている。自動運転制御装置30は、これら各部から取得した情報に基づいて、自動運転を行うための制御信号を各制御装置へ出力して、車両2の自動操舵、自動速度調整、自動制動などの自動運転制御を行う。
また、自動運転制御装置30は、予め定められた条件を満たした場合、自動運転を終了してもよい。例えば、自動運転制御装置30は、自動運転中の車両2が予め定められた自動運転の終了地点に到達したと判定した場合、運転者の姿勢が手動運転可能な姿勢になったと判断した場合に自動運転を終了してもよい。また、自動運転制御装置30は、運転者が自動運転解除操作(例えば、自動運転解除ボタンの操作、運転者によるハンドル52、アクセル又はブレーキの操作など)を行なった場合に、自動運転を終了する制御を行ってもよい。
操舵センサ31は、ハンドル52に対する操舵量を検出するセンサであり、例えば、車両2のステアリングシャフトに設けられ、運転者によりハンドル52に与えられる操舵トルク又はハンドル52の操舵角を検出する。操舵センサ31で検出された、運転者のハンドル操作に応じた信号が自動運転制御装置30と操舵制御装置34の少なくとも一方へ出力される。
アクセルペダルセンサ32は、アクセルペダルの踏込み量(アクセルペダルの位置)を検出するセンサであり、例えばアクセルペダルのシャフト部分に設けられる。アクセルペダルセンサ32で検出されたアクセルペダルの踏込み量に応じた信号が自動運転制御装置30と動力源制御装置35の少なくとも一方へ出力される。
ブレーキペダルセンサ33は、ブレーキペダルの踏込み量(ブレーキペダルの位置)又は操作力(踏力など)を検出するセンサである。ブレーキペダルセンサ33で検出されたブレーキペダルの踏込み量や操作力に応じた信号が自動運転制御装置30と制動制御装置36の少なくとも一方へ出力される。
操舵制御装置34は、車両2の操舵装置(例えば、電動パワーステアリング装置)53を制御する電子制御ユニットである。操舵制御装置34は、車両2の操舵トルクをコントロールするモーターを駆動させることにより、車両2の操舵トルクを制御する。また、自動運転モードでは、操舵制御装置34は、自動運転制御装置30からの制御信号に応じて操舵トルクを制御する。
動力源制御装置35は、パワーユニット51を制御する電子制御ユニットである。動力源制御装置35は、例えば、エンジンに対する燃料の供給量及び空気の供給量、又はモーターに対する電気の供給量を制御することで車両2の駆動力を制御する。また、自動運転モードでは、動力源制御装置35は、自動運転制御装置30からの制御信号に応じて車両2の駆動力を制御する。
制動制御装置36は、車両2のブレーキシステムを制御する電子制御ユニットである。制動制御装置36は、例えば、液圧ブレーキシステムに付与する液圧を調整することで、車両2の車輪へ付与する制動力を制御する。また、自動運転モードでは、制動制御装置36は、自動運転制御装置30からの制御信号に応じて車輪への制動力を制御する。
報知装置37は、運転者に対して所定の情報を伝えたり、知らせたりするための装置である。報知装置37は、例えば、各種案内又は警告などを音又は音声で出力する音声出力部、各種案内又は警告を文字又は図形で表示したり、ランプを点灯表示したりする表示出力部、或いは運転席又はハンドルなどを振動させたりする振動通知部(いずれも図示せず)などを含んで構成されてよい。報知装置37は、例えば、情報処理装置10や自動運転制御装置30などから出力された制御信号に基づいて動作する。
始動スイッチ38は、パワーユニット51を始動及び停止させるためのスイッチであり、エンジンを始動させるイグニッションスイッチや走行用モーターを始動させるパワースイッチなどで構成されている。始動スイッチ38の操作信号が、情報処理装置10や自動運転制御装置30に入力されてもよい。
周辺監視センサ39は、車両2の周辺に存在する対象物を検出するセンサである。前記対象物には、車、自転車、人などの移動物体、路面標示(白線など)、ガードレール、中央分離帯、その他車両の走行に影響を与える構造物などを含めてよい。周辺監視センサ39は、前方監視カメラ、後方監視カメラ、レーダ(Radar)、ライダー、即ちLight Detection and Ranging、又は、Laser Imaging Detection and Ranging(LIDER)、及び超音波センサのうち少なくとも1つを含んでよい。周辺監視センサ39で検出された対象物の検出データが自動運転制御装置30などへ出力される。前方監視カメラや後方監視カメラには、ステレオカメラや単眼カメラなどが採用され得る。レーダは、ミリ波等の電波を車両周囲に送信し、車両周囲に存在する対象物で反射された電波を受信することで対象物の位置、方向、距離などを検出する。ライダーは、レーザー光を車両周囲に送信し、車両周囲に存在する対象物で反射された光を受信することで対象物の位置、方向、距離などを検出する。
GPS受信機40は、図示しないアンテナを介して人工衛星からのGPS信号を受信し、受信したGPS信号に基づいて自車位置を割り出す処理(GPS航法)を行う装置である。GPS受信機40で、割り出された自車位置を示す位置情報が自動運転制御装置30とナビゲーション装置43の少なくとも一方へ出力される。なお、車両2の自車位置を検出する装置は、GPS受信機40に限定されるものではなく、例えば、GPSの他、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo),中国のコンパス(Compass)等の他の衛星測位システムに対応した装置であってもよい。
ジャイロセンサ41は、車両2の回転角速度(ヨーレート)を検出するセンサである。ジャイロセンサ41で検出された回転角速度信号が自動運転制御装置30とナビゲーション装置43の少なくとも一方へ出力される。
車速センサ42は、車両2の速度を検出するセンサであり、例えば、車輪やドライブシャフトなどに設けて車輪の回転速度を検出する車輪速センサなどで構成されている。車速センサ42で検出された速度を示す車速情報、例えば、車速を割り出すためのパルス信号が自動運転制御装置30とナビゲーション装置43の少なくとも一方などへ出力される。
ナビゲーション装置43は、GPS受信機40などで計測された車両2の位置情報と地図データベース(図示せず)の地図情報とに基づいて、車両2が走行する道路や車線を割り出し、車両2の現在位置から目的地までの経路などを演算し、該経路を表示部(図示せず)へ表示し、音声出力部(図示せず)から経路案内などの音声出力を行う。ナビゲーション装置43で求められた、車両2の位置情報、走行道路の情報、及び走行予定経路の情報などが自動運転制御装置30へ出力されてもよい。走行予定経路の情報には、自動運転区間の開始地点や終了地点、自動運転の開始予告地点や終了予告地点などの自動運転の切り替え制御に関連する情報も含まれてもよい。ナビゲーション装置43は、図示しない制御部、表示部、音声出力部、操作部、地図データ記憶部などを含んで構成されている。
通信装置44は、無線通信網、例えば、携帯電話網、VICS(Vehicle Information and Communication System)(登録商標)、DSRC(Dedicated Short Range Communications)(登録商標)などの通信網を介して各種の情報を取得する装置である。通信装置44は、車々間通信機能や路車間通信機能を備えてもよい。例えば、道路脇に設けられた路側送受信機、例えば光ビーコン、ITS(Intelligent Transport Systems)スポット(登録商標)などとの路車間通信により、車両2の進路上の道路環境情報(車線規制情報など)を取得してもよい。また、車々間通信により、他車両に関する情報(位置情報、走行制御に関する情報など)や他車両により検出された道路環境情報などを取得してもよい。
図3は、実施の形態(1)に係る情報処理装置10のハードウェア構成の一例を示すブロック図である。
情報処理装置10は、入出力インターフェース(I/F)11、制御ユニット12、及び記憶ユニット13を含んで構成されている。
入出力I/F11は、カメラ20、自動運転制御装置30、報知装置37などに接続され、これら外部機器との間で信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
制御ユニット12は、画像取得部12a、検出部12b、及び基準決定部12cを含んで構成され、さらに、算出部12d、処理部12eを含んで構成してもよい。制御ユニット12は、Central Processing Unit(CPU)、Graphics processing unit(GPU)などの1つ以上のハードウェアプロセッサを含んで構成されている。
記憶ユニット13は、画像記憶部13a、蓄積部13b、基準記憶部13c、及びプログラム記憶部13dを含んで構成されている。記憶ユニット13は、Random Access Memory(RAM)、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、その他の不揮発性メモリや揮発性メモリなど、半導体素子によってデータを記憶可能な1つ以上の記憶装置で構成されている。なお、RAM及びROMを制御ユニット12に含んで構成してもよい。
画像記憶部13aには、画像取得部12aによりカメラ20から取得された運転者の画像が記憶される。
蓄積部13bには、検出部12bで検出された各画像の運転者の視線方向に関する情報が、画像記憶部13aに記憶される各画像と対応付けて記憶される。
基準記憶部13cには、基準決定部12cで決定された、運転者の視線方向の基準に関する情報、例えば、前記基準を示す値(基準値)などが記憶される。
プログラム記憶部13dには、制御ユニット12の各部で実行される情報処理プログラムや該プログラムの実行に必要なデータなどが記憶されている。
制御ユニット12は、記憶ユニット13に各種データを記憶する処理を行う。また、制御ユニット12は、記憶ユニット13に記憶された各種データや各種プログラムを読み出し、これらプログラムを実行する。制御ユニット12が記憶ユニット13と協働して、画像取得部12a、検出部12b、及び基準決定部12cの動作、さらには、算出部12d、及び処理部12eの動作が実現される。
画像取得部12aは、所定のフレームレートで撮像された運転者の画像をカメラ20から取得する処理を行い、カメラ20から取得した画像を画像記憶部13aに記憶する処理などを行う。
検出部12bは、画像記憶部13aに記憶された画像を毎フレーム、又は所定間隔のフレーム毎に読み出し、該画像から運転者の視線方向を検出する処理を行い、検出した運転者の視線方向に関する情報を、当該画像と対応付けて蓄積部13bに記憶する処理を行う。
運転者の視線方向に関する情報には、画像処理により検出された運転者の視線方向を示す3次元座標上でのベクトル情報や角度情報を含んでもよい。また、運転者の視線方向に関する情報には、顔の向きと、目頭、眼尻、瞳孔などの目領域の位置に関する情報、例えば、目領域の代表的又は特徴的な位置を示す特徴点に関する情報を含んでもよい。
基準決定部12cは、蓄積部13bに蓄積された、視線方向の検出結果を用いて、運転者にとっての視線方向の基準を決定し、決定した視線方向の基準に関する情報を基準記憶部13cに記憶する処理を行う。
具体的には、蓄積部13bに、所定フレーム数の画像の視線方向の検出結果が蓄積されたか否かを判断し、蓄積されたと判定すれば、次に、これら画像の視線方向の検出結果に基づいて、視線方向の基準を決定する。視線方向の基準の決定方法は、統計処理などを用い、検出頻度が最も高い視線方向を基準値として決定する方法でもよい。なお、この場合において、正面方向を示す所定の範囲から外れている検出結果は除外して基準値を決定してもよい。基準値は、3次元座標上におけるベクトルや角度で示してよい。
上記した検出部12b、基準決定部12c、及び蓄積部13bが協働して、運転者にとっての視線方向の基準を決定する処理を実行する。
また、算出部12d、処理部12e、及び基準記憶部13cが協働して、運転者の状態を把握(モニタリング)する処理を実行する。
算出部12dは、基準決定部12cで決定された視線方向の基準を基準記憶部13cから読み出し、読み出した視線方向の基準を用い、画像取得部12aで取得した画像から、視線方向の基準に対する運転者の視線方向(例えば、基準値からのずれ量)を算出する処理を行い、算出結果を処理部12eに出力する。前記基準値からのずれ量は、例えば、3次元座標上におけるベクトルや角度の変化量として示すことができる。
処理部12eは、算出部12dで算出された、視線方向の基準に対する運転者の視線方向(例えば、基準値からのずれ量)に基づいて、所定の処理を行う。
所定の処理は、例えば、脇見状態にあるか否かの判定処理を行い、脇見状態にある場合(例えば、左右方向の視線が基準値から所定値以上ずれている場合)、報知装置37に報知を指示する処理でもよいし、報知処理を行うことなく、脇見状態にある視線方向の情報を、記憶ユニット13に記憶する処理、又は自動運転制御装置30に出力する処理でもよい。
また、処理部12eは、集中度や疲労度(眠気などを含む)の判定処理を行い、集中度が低下し、又は疲労度が高い場合(例えば、下方向の視線が基準値から所定値以上ずれている場合)、報知装置37に報知を指示する処理を行ってもよい。また、処理部12eは、報知処理に代えて、又は報知処理とともに、集中度が低下し、又は疲労度が高い状態になっている視線方向の情報を記憶ユニット13に記憶する処理を行ってもよい。また、処理部12eは、脇見状態の判定などは行わずに、算出部12dで算出された視線方向の情報を記憶ユニット13に記憶する処理を行ってもよい。
また、所定の処理は、自動運転モードから手動運転モードへの切り替え時において、運転者が手動運転への引き継ぎが可能な状態にあるか否かの判定処理を行い、引き継ぎが可能な状態にあると判定した場合(例えば、基準値からの視線方向のずれが、手動運転に適切な所定範囲内である場合)、自動運転制御装置30に、手動運転への切り替えを許可する信号を出力する処理でもよい。
[動作例1]
図4は、実施の形態(1)に係る情報処理装置10の制御ユニット12が行う基準決定処理動作の一例を示すフローチャートである。本処理動作は、例えば、車両2の始動スイッチ38がONされた後、一定期間のみ実行されてもよいし、カメラ20が起動されている間、常時実行されてもよい。
まずステップS1では、制御ユニット12、運転者の視線方向を検出する処理を行う。カメラ20では、毎秒所定フレーム数の画像が撮像される。制御ユニット12は、これら撮像された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行してもよい。
図5は、制御ユニット12が実行する、ステップS1の運転者の視線方向の検出処理動作の一例を示したフローチャートである。まず、ステップS11において、制御ユニット12が、カメラ20で撮像された画像を取得し、次のステップS12では、制御ユニット12が、取得された画像から運転者の顔(例えば、顔の領域)を検出する処理を行い、その後ステップS13に進む。
制御ユニット12が実行する、画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。例えば、顔の局所的な領域の明暗差(輝度差)やエッジ強度、これら局所的領域間の関連性(共起性)を特徴量とし、顔をおおまかにとらえるような識別器を階層構造の最初の方に配置し、顔の細部をとらえるような識別器を階層構造の深い位置に配置した階層的な検出器を用いることで、画像から顔の領域を探索する処理を高速に実行することが可能となる。
ステップS13では、制御ユニット12が、ステップS12で検出された顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。3次元の顔形状モデルは、顔の各器官の特徴点に対応するノードによって構成される。この手法によれば、カメラ20の設置位置や画像中の顔の向きに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
制御ユニット12が、3次元顔形状モデルを画像中の運転者の顔にフィッティングさせる処理の一例を説明する。3次元顔形状モデルは、顔を正面から見たときの左右水平方向の軸をX軸、上下垂直方向の軸をY軸、奥行き(前後)方向の軸をZ軸とした場合の、X軸回りの回転(ピッチ)、Y軸回りの回転(ヨー)、Z軸回りの回転(ロール)、拡大縮小などの複数のパラメータを有しており、これらパラメータを用いることで、3次元顔形状モデルの形状を変形させることが可能となっている。
また、予め行われた誤差相関学習によって、誤差推定行列(変換行列)が取得されている。前記誤差推定行列は、3次元顔形状モデルの各器官の特徴点が誤った位置(検出すべき各器官の特徴点と異なる位置)に配置されたときにどの方向に修正すべきかの相関関係についての学習結果であり、多変量回帰を用いて、特徴点での特徴量から上記パラメータの変化分へ変換するための行列である。
まず、制御ユニット12は、顔の検出結果から、その顔の位置、向き、大きさに対して適切な位置に3次元顔形状モデルを初期配置する。次に、初期位置における各特徴点の位置を求め、各特徴点での特徴量を計算する。次に、各特徴点での特徴量を、誤差推定行列に入力し、正解位置近傍への形状変化パラメータの変化分(誤差推定量)を求める。そして、現在位置での3次元顔形状モデルの形状変化パラメータに、上記誤差推定量を加算し、正解モデルパラメータの推定値を取得する。次に、取得した正解モデルパラメータが正常範囲内であり、処理が収束したか否かを判断する。処理が収束していないと判断すれば、取得した正解モデルパラメータに基づいて作成した新たな3次元顔形状モデルの各特徴点の特徴量を取得して処理を繰り返す。一方、処理が収束したと判断すれば、正解位置近傍への3次元顔形状モデルの配置を完了する。制御ユニット12が行うこれら処理により3次元顔形状モデルが画像上の正解位置近傍へ高速にフィッティングされ、正解位置にフィッティングされた3次元顔形状モデルから顔の各器官の位置や形状を算出する。
次のステップS14では、制御ユニット12が、ステップS13で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する。例えば、上記正解位置近傍に配置された3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角のうちの少なくとも1つを運転者の顔の向きに関する情報として検出してもよい。
ステップS15では、制御ユニット12が、ステップS14で求めた運転者の顔の向き、及びステップS13で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔)の位置や形状に基づいて、視線方向を検出し、その後ステップS16に進む。
視線方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は白目部分と黒目部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで視線方向を検出してもよい。または、3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔(黒目)の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
ステップS16では、制御ユニット12が、ステップS15で検出した運転者の視線方向に関する情報を当該画像と対応付けて蓄積部13bに記憶する処理を行い、ステップS17に進む。ステップS17では、制御ユニット12が、視線方向が検出された画像をカウントするカウンタKに1を加算し、その後処理を終え、次の画像に対する視線方向の検出処理を繰り返す。
ステップS1における運転者の視線方向の検出処理が行われた後、図4に示すステップS2に進む。ステップS2では、制御ユニット12が、カウンタKが所定値Nになったか否か、すなわち所定フレーム数の画像の視線方向の検出結果が蓄積されたか否かを判断し、カウンタKが所定値N未満である(蓄積されていない)と判定すれば、その後処理を終える一方、カウンタKが所定値N以上なった(蓄積された)と判断すればステップS3に進む。
ステップS3では、制御ユニット12が、運転者の視線方向の基準を決定する処理を行い、その後ステップS4に進む。具体的には、蓄積部13bから所定フレーム数の画像の視線方向の検出結果を読み出し、前記各画像の運転者の視線方向に関する情報を用いて、視線方向の基準を決定する。所定フレーム数の画像の視線方向のうち、最も検出頻度が高かった視線方向、すなわち、視線方向の最頻値を基準値としてよい。視線方向の基準は、3次元座標上のベクトルで示してもよいし、角度で示してもよい。また、顔の向きと目(目頭、眼尻、瞳孔などの特徴点)の位置に関する情報を含んでもよい。
ステップS4では、制御ユニット12は、ステップS3で決定した視線方向の基準に関する情報を基準記憶部13cに記憶する処理を行い、その後処理を終える。基準記憶部13cには、視線方向の基準(基準値)とともに、日時データ、運転環境データ(例えば、車外照度データ)などの付加情報も併せて記憶してもよい。
また、別の実施の形態では、制御ユニット12に、運転者を識別する識別部(図示せず)を設け、該識別部で識別された運転者毎に、視線方向の基準を決定してもよい。前記識別部は、画像を用いた顔認証処理により運転者を識別するものでもよいし、スイッチなどの操作部を介して、運転者を設定又は選択するものでもよい。
例えば、上記ステップS1の視線方向の検出処理において、制御ユニット12が、画像から運転者の顔を検出した後(ステップS12)、運転者の顔認証処理を行い、新規の運転者であるか、登録済みの運転者であるかを判断する。顔認証処理の手法は特に限定されない。公知の顔認証アルゴリズムを用いることができる。顔認証処理の結果、新規の運転者であると判断した場合は、その後ステップS2、S3の処理を行い、ステップS4において、運転者の顔認証の情報(顔の特徴量など)とともに、視線方向の基準に関する情報を基準記憶部13cに記憶する処理を行う。一方、登録済みの運転者である場合は、基準記憶部13cに、当該運転者に対応付けられた視線方向の基準が記憶されているので、その後処理を終えるようにしてもよい。
次に情報処理装置10の制御ユニット12が行う運転者状態の把握(モニタリング)処理について説明する。
図6は、実施の形態(1)に係る情報処理装置10の制御ユニット12が行う運転者のモニタリング処理動作の一例を示すフローチャートである。カメラ20では、毎秒所定フレーム数の画像が撮像されるようになっており、制御ユニット12は、これら撮像された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行してもよい。
まずステップS21では、制御ユニット12が、運転者の視線方向を検出する処理を行う。当該運転者の視線方向の検出処理は、図5で示したステップS11〜S16と同様の処理を行ってもよく、ここではその説明を省略する。
ステップS21で運転者の視線方向の検出処理を行った後、ステップS22に進む。ステップS22では、制御ユニット12が、基準記憶部13cから視線方向の基準を読み出し、ステップS21で検出した運転者の視線方向と前記視線方向の基準とのずれ(例えば、基準値からのずれ)を算出する処理を行い、ステップS23に進む。
視線方向の基準には、例えば、3次元座標上における視線方向の基準ベクトルや基準角度を示す情報が基準値として含まれている。これら基準値と、ステップS21で検出した運転者の視線方向との角度差を演算し、該演算した角度差を前記基準値からのずれとしてもよい。
ステップS23では、制御ユニット12が、ステップS22で算出した、基準値からのずれ(例えば、上下方向、左右方向のうち少なくとも1つの角度差)が、第1の範囲(例えば、所定の角度差)を超えている状態か否かを判定する。
前記第1の範囲は、モニタリングの目的に応じて様々な範囲に設定することが可能である。例えば、脇見状態にあるか否かの判定を行う場合は、第1の範囲(脇見判定角度)として、左右方向を少なくとも含む所定の角度範囲を設定してもよい。
運転の集中度や疲労度(眠気などを含む)を判定する場合は、第1の範囲(集中・疲労度判定角度)として、上下方向を少なくとも含む所定の角度範囲を設定してもよい。
また、自動運転モードから手動運転モードへの切り替え可能な運転姿勢であるか否かの判定を行う場合は、第1の範囲(引継判定角度)として、左右方向と上下方向とを少なくとも含む所定の角度範囲を設定してもよい。
ステップS23において、前記基準値からのずれが、第1の範囲を超えていない、すなわち、運転者の視線方向が適切な範囲内にあると判断すれば、その後処理を終える。一方、第1の範囲を超えている、すなわち、運転者の視線方向が適切な範囲外にあると判断すればステップS24に進む。ステップS24では、制御ユニット12が、第1の範囲を超えている状態が、所定期間継続しているか否かを判定する。所定期間には、モニタリングの目的に応じて適切な期間(時間をカウントしてもよいし、画像のフレーム数をカウントしてもよい)を設定すればよい。
ステップS24において、第1の範囲を超えている状態が所定期間継続していないと判断すれば、その後処理を終える一方、所定時間継続していると判断すればステップS25に進む。
ステップS25では、制御ユニット12が、報知装置37に報知信号を出力し、その後処理を終える。報知信号は、モニタリングの目的に応じた報知処理を報知装置37で実行させるための信号である。
報知装置37では、情報処理装置10からの報知信号に基づいて、所定の報知処理を行う。報知処理は、音や音声による報知でもよいし、光による報知でもよいし、表示による報知でもよいし、ハンドル52や座席の振動による報知でもよく、さまざまな報知形態を適用可能である。
モニタリングの目的が脇見状態の判定である場合は、例えば、運転者に脇見状態にあることを知らせる、又は脇見をやめて正面を向くように促すための報知を行ってもよい。また、モニタリングの目的が運転の集中度や疲労度の判定である場合は、例えば、運転者に集中度が低下していることや疲労度が高い状態にあることを報知してもよい。また、モニタリングの目的が自動運転モードから手動運転モードへの切替を許可する判定である場合は、例えば、適切な運転姿勢をとることを促すための報知を行ってもよい。
なお、ステップS23、S24、S25の処理は必須ではなく、ステップS22で算出された、基準値からのずれに関する情報を記憶ユニット13に記憶する処理に置き換えてもよい。
また、ステップS25の処理の代わりに、S23、24での判定情報(ずれが第1の範囲外であり、かつ所定期間継続していることを示す情報やその時の視線方向に関する情報)を記憶ユニット13に記憶する処理を行ってもよい。または、ステップS25の処理の代わりに、自動運転制御装置30に、ステップS23、S24での判定情報を出力する処理を行ってもよい。
[作用・効果]
上記実施の形態(1)に係る情報処理装置10によれば、検出部12bにより、画像取得部12aで取得した画像から運転者の視線方向が検出され、該検出結果が蓄積部13bに蓄積され、基準決定部12cにより前記検出結果を用いて、当該運転者にとっての視線方向の基準が決定される。また、算出部12dにより、視線方向の基準を用い、運転者にとっての正面に対する視線方向が算出される。したがって、視線方向の基準を運転者の視線方向の個人差に対応させた形で決定することができ、視線方向の基準を用いることで、制御ユニット12に処理負荷をかけることなく、運転者にとっての視線方向の検出精度を向上させることができる。
また、基準記憶部13cから視線方向の基準を読み出して、運転者にとっての正面に対する視線方向を算出することができるので、基準決定部12cよる視線方向の基準を決定するための処理負担を軽減することができる。
また、処理部12eにより、算出部12dで算出された運転者の正面に対する視線方向に基づいて、運転者への報知処理など各種の処理を精度良く実行することが可能となり、車両走行時の安全性などを向上させることができる。
また、上記実施の形態(1)に係る運転者モニタリングシステム1によれば、情報処理装置10と、カメラ20とを備えているので、情報処理装置10の種々の効果を得ることができる運転者モニタリングシステムを安価に実現することができる。
[構成例2]
図7は、実施の形態(2)に係る情報処理装置10Aのハードウェア構成の一例を示すブロック図である。なお、図3に示した情報処理装置10と同一機能を有する構成部品には同一符号を付し、ここではその説明を省略する。
実施の形態(2)に係る情報処理装置10Aでは、制御ユニット12Aに、車両2の走行状態に関する情報を取得する情報取得部12fと、情報取得部12fで取得した前記情報に基づいて、車両2が特定の走行状態にあるか否かを判定する判定部12gとをさらに備え、検出部12bが、特定の走行状態にあるときの運転者の視線方向を検出するように構成されている。
また、実施の形態(2)に係る情報処理装置10Aでは、制御ユニット12Aに、基準決定部12cで決定された視線方向の基準を変更する基準変更部12hをさらに備えている。
記憶ユニット13Aは、画像記憶部13a、蓄積部13e、基準記憶部13c、及びプログラム記憶部13fを含んで構成されている。プログラム記憶部13fには、制御ユニット12Aの各部で実行される情報処理プログラムや該プログラムの実行に必要なその他のデータなどが記憶されている。
上記の構成が、実施の形態(1)に係る情報処理装置10と相違している主な点である。
また、情報処理装置10Aとカメラ20とを含んで運転者モニタリングシステム1Aが構成されている。
情報取得部12fは、自動運転制御装置30を介して車両2の走行状態に関する情報を取得する処理を行い、取得した前記情報を判定部12gに出力する。情報取得部12fの処理と、画像取得部12aの処理との先後は問わない、これら処理を並行して行ってもよい。なお、情報取得部12fは、自動運転制御装置30を介さずに、車載システム4の各部から前記情報を取得するようにしてもよい。
走行状態に関する情報には、少なくとも車両2の車速情報と、車両2の操舵情報とが含まれる。車速情報には、車速センサ42で検出された車速情報などが含まれる。操舵情報には、操舵センサ31で検出された操舵角や操舵トルク、又はジャイロセンサ41で検出された回転角速度などが含まれる。
また、情報取得部12fは、車両2の加減速情報や車両2の傾斜情報を取得してもよい。加減速情報には、例えば、アクセルペダルセンサ32やブレーキペダルセンサ33で検出されたペダルの踏込み量、動力源制御装置35から出力される駆動制御信号、又は制動制御装置36から出力される制動制御信号などの情報が含まれる。車両2の傾斜情報を示す情報には、車両2にも設けられた傾斜センサ(図示せず)で検出された傾斜情報、又はナビゲーション装置43で割り出された自車位置の道路の傾斜情報などが含まれる。
また、情報取得部12fは、車両2の位置情報と、車両2の周辺の地図情報とを取得してもよい。これら情報には、例えば、ナビゲーション装置43で割り出された自車位置と、該自車位置の周辺の地図情報などが含まれる。
さらに、情報取得部12fは、車両2の周辺、特に進行方向に存在する他車両や人などの監視対象物に関する情報を取得してもよい。これら情報には、例えば、周辺監視センサ39で検出された、対象物の種類や対象物までの距離に関する情報などが含まれる。
判定部12gは、情報取得部12fで取得した、走行状態に関する情報に基づいて、車両2が特定の走行状態にあるか否かを判定する処理を行い、判定結果を検出部12bに出力する。前記特定の走行状態には、運転者の顔の向きに変化が少ない、すなわち顔姿勢が安定していると推定される走行状態、例えば、車両2が直進している走行状態が含まれる。
より具体的には、車両2が特定の走行状態にある場合には、車両2の車速が所定の速度域にあり、かつ非操舵状態にある場合が含まれる。非操舵状態とは、ハンドル52の操舵が実質的になされていない状態である。例えば、操舵センサ31で検出された操舵角が0°に近い、狭い範囲内にある場合、又は操舵トルクが0N・mに近い、狭い範囲内にある場合などである。また、前記所定の速度域は、特に限定されないが、中速度(40km/h)以上であることが好ましい。低速度のときは、車間距離が狭い場合や道路が狭い場合など、運転者の顔姿勢が安定しない状況が想定されるためである。
また、判定部12gは、車両2の位置情報と、車両2の周辺の地図情報とから車両2が直線道路を移動している場合、車両2が特定の走行状態にあると判定してもよい。前記直線道路は、例えば、平坦な直線道路である。前記平坦か否かは、前記地図情報に含まれる道路の勾配情報に基づいて判定すればよい。
また、判定部12gは、車両2が所定の加速又は減速の状態にある場合、或いは車両2が所定の傾斜姿勢にある場合を、特定の走行状態から除外してもよい。。所定の加速又は減速の状態には、急加速や急減速の状態が含まれる。所定の傾斜姿勢には、所定勾配以上の坂道を走行しているときの傾斜姿勢が含まれる。これらの場合を特定の走行状態から除外する理由は、運転者の顔姿勢が安定せず、顔の向きの変化が生じやすい状況が想定されるためである。
また、判定部12gは、周辺監視センサ39で検出された、他車両との距離が、車間距離が狭くなっていることを示す所定値以下の場合、車両2が特定の走行状態ではないと判定してもよい。その理由は、車間距離が狭い状態においては、運転者の顔姿勢が安定しない状況が想定されるからである。
検出部12bは、判定部12gから特定の走行状態にある旨の判定結果を取得すると、特定の走行状態にあるときに取得した画像から運転者の視線方向を検出する処理を行う。そして、検出した運転者の視線方向に関する情報を、当該画像と対応付けて蓄積部13eに記憶する処理を行う。このときに特定の走行状態に関する情報も対応付けて記憶してもよい。
基準変更部12hは、基準決定部12cで決定された視線方向の基準、例えば、前記基準を示す基準値を変更する処理を行い、変更した基準値を基準記憶部13cに記憶する処理を行う。
例えば、特定の走行状態(例えば、直進している走行状態)であるときに、算出部12dで算出された運転者の視線方向と、視線方向の基準との差が所定範囲内である状態(例えば、基準値から一定の方向に視線方向がずれているが、脇見ほどずれていない状態)で一定期間又は断続的に継続している場合に、前記差が小さくなるように視線方向の基準を変更、例えば補正してもよい。また、基準変更部12hが行う処理には、運転者が変わった場合に、顔の向きの基準を変更する処理も含まれる。
上記した情報取得部12f、判定部12g、検出部12b、基準決定部12c、及び蓄積部13eが協働して、特定の走行状態にあるときの運転者にとっての視線方向の基準を決定する処理を実行する。
また、算出部12d、処理部12e、及び基準記憶部13cが協働して、運転者の状態を把握(モニタリング)する処理を実行し、算出部12d、基準変更部12h、及び基準記憶部13cが協働して、視線方向の基準を変更する処理を実行する。
[動作例2]
図8は、実施の形態(2)に係る情報処理装置10Aの制御ユニット12Aが行う基準決定処理動作の一例を示すフローチャートである。本処理動作は、例えば、車両2の始動スイッチ38がONされた後、一定期間のみ実行されてもよいし、カメラ20が起動されている間、常時実行されてもよい。
まずステップS31では、制御ユニット12Aが、車両2の走行状態に関する情報(以下、車両情報ともいう)を取得する処理を行う。なお、ステップS31の処理と並行して、カメラ20から画像を取得する処理を行ってもよい。
車両情報には、例えば、少なくとも車両2の車速情報と操舵情報とが含まれる。また、車両情報として、車両2の加減速情報や車両2の傾斜情報を取得してもよい。また、車両2の位置情報や車両2の周辺の地図情報を取得してもよい。さらに、車両2の周辺、特に進行方向に存在する他車両や人などの監視対象物に関する情報を取得してもよい。なお、車両情報は、自動運転制御装置30を介して取得してもよいし、車載システム4の各部から直接取得してもよい。
次のステップS32では、制御ユニット12Aが、ステップS31で取得した車両情報に基づいて、車両2が特定の走行状態にあるか否かを判定する処理を行う。特定の走行状態には、例えば、車両2が直進している走行状態が含まれる。
ステップS32において、制御ユニット12Aが、特定の走行状態にあると判定した場合、例えば、車両2の車速情報及び操舵情報に基づいて、車両2の車速が所定の速度域(例えば、中速度以上)であり、かつ非操舵状態(実質的に操舵されていない状態)であると判定した場合、または、車両2の位置情報と車両2の周辺の地図情報とに基づいて、車両2が平坦な直線道路を移動(直進)していると判定した場合、ステップS33に進む。
一方ステップS32において、制御ユニット12Aが、特定の走行状態ではないと判定した場合、例えば、車両2の車速が所定の速度域(例えば、低速度域にある)、又は操舵状態にあると判定した場合、急加速や急減速がなされた状態にあると判定した場合、所定勾配以上の坂道を走行している場合、或いは他車両との距離が所定値以下になって車間距離が狭くなった状態と判定した場合、その後処理を終える。
ステップS33では、制御ユニット12Aが、車両2が特定の走行状態にあるときの運転者の視線方向を検出する処理を行い、その後ステップS34に進む。当該運転者の視線方向の検出処理は、図5で示したステップS11〜S17と同様の処理を行ってもよく、ここではその説明を省略する。
ステップS34では、制御ユニット12Aが、カウンタKが所定値Nになったか否か、すなわち、特定の走行状態にあるときの所定フレーム数の画像の視線方向の検出結果が蓄積されたか否かを判断し、カウンタKが所定値N未満である(蓄積されていない)と判定すれば、その後処理を終える一方、カウンタKが所定値N以上なった(蓄積された)と判断すればステップS35に進む。
ステップS35では、制御ユニット12Aが、特定の走行状態における運転者の視線方向の基準を決定する処理を行い、その後ステップS36に進む。具体的には、蓄積部13bから、特定の走行状態における所定フレーム数の画像の視線方向の検出結果を読み出し、前記各画像の運転者の視線方向に関する情報を用いて、視線方向の基準、例えば、該基準を示す基準値を決定する。所定フレーム数の画像の視線方向のうち、最も検出頻度が高かった視線方向、すなわち、視線方向の最頻値を基準値としてよい。基準値は、3次元座標上のベクトルで示してもよいし、角度で示してもよい。
ステップS36では、ステップS35で決定した視線方向の基準(基準値)を基準記憶部13cに記憶する処理を行い、その後処理を終える。基準記憶部13cには、視線方向の基準(基準値)とともに、特定の走行状態に関する情報、日時データ、運転環境データ(例えば、車外照度データ)などの付加情報も併せて記憶してもよい。
なお、基準記憶部13cには、運転者一人につき、一つの視線方向の基準を記憶してもよいし、複数の視線方向の基準を記憶してもよい。例えば、車両2の走行速度域(中速度域、高速度域)に応じて、各速度域の視線方向の基準を決定して記憶してもよい。また、車両2のヘッドライトのオン/オフ(昼と夜)に応じて、それぞれの視線方向の基準を決定して記憶してもよい。このように、運転者が正面を向いているときの視線方向が微妙に変化することが推定される、車両2の走行状態に応じて、それぞれの視線方向の基準を決定して記憶してもよい。
次に情報処理装置10Aの制御ユニット12Aが行う運転者状態の把握(モニタリング)処理と基準値変更処理について説明する。
図9は、実施の形態(2)に係る情報処理装置10Aの制御ユニット12Aが行う運転者状態の把握(モニタリング)処理動作の一例を示すフローチャートである。カメラ20では、毎秒所定フレーム数の画像が撮像されるようになっており、制御ユニット12Aは、これら撮像された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行してもよい。
ステップS21からS25で行われる処理は、図6で説明したステップS21からS25の処理と同様であるため、ここではその説明を省略する。
なお、基準記憶部13cに、車両2の走行状態に応じた複数の視線方向の基準が記憶されている場合、ステップS21で視線方向検出処理を行った後、ステップS22において、次の処理を行ってもよい。すなわち、車両情報を取得し、車両2の走行状態を判定し、該判定した走行状態に対応した、視線方向の基準を基準記憶部13cから読み出し、前記視線方向の基準からのずれを算出する処理を行うようにしてもよい。
ステップS23において、制御ユニット12Aが、前記基準値からのずれが第1の範囲を超えていないと判断すればステップS26の基準値変更処理に進む。ステップS26の基準値変更処理については、図10に示すフローチャートを用いて説明する。
図10は、実施の形態(2)に係る情報処理装置10Aの制御ユニット12Aが行う基準値変更処理動作の一例を示すフローチャートである。
まずステップS41では、制御ユニット12Aが、ステップS22で算出した、視線方向の基準(基準値)からのずれが、該基準値の示す方向(正面)を見ているとみなす第2の範囲(視線の角度範囲)を超えているか否か(第2の範囲外か否か)を判断する。なお、第2の範囲は第1の範囲より狭い角度範囲であり、例えば、視線方向の基準から上下又は左右±5度程度の角度範囲に設定してもよい。
ステップS41において、視線方向の基準(基準値)からのずれが、第2の範囲を超えていない、換言すれば、運転者の顔が、前記基準値の示す方向(正面とみなす方向)を向いていると判断すれば、その後処理を終える。一方、ステップS41において、視線方向の基準(基準値)からのずれが第2の範囲を超えている(視線方向が正面とみなす方向から少しずれている状態)と判断すればステップS42に進む。
ステップS42では、制御ユニット12Aが、ステップS23で算出された基準値からのずれを示す情報(すなわち、第1の範囲内にあり、かつ第2の範囲を超えている状態のずれ情報)を、当該画像の視線方向の検出情報に紐付けて、蓄積部13eに記憶し、ステップS43に進む。なお、別の実施の形態では、ステップS42の前に、車両2が特定の走行状態にあるか否かを判断し(図8のステップS32と同様の処理を行い)、特定の走行状態にある場合、ステップS42の処理に進むようにしてもよい。係る構成により基準値を変更する場合の条件を一定にすることが可能となる。
ステップS43では、制御ユニット12Aが、蓄積部13eから、前記ずれ情報が紐付けされた画像の視線方向の検出情報を読み出し、基準値からのずれが一定の方向(略同じ方向)を示している画像が、所定の頻度(又は比率)で検出されたか否かを判断する。すなわち、運転者の視線方向が、基準値の示す正面から一定の方向に少しだけずれている状態(脇見状態というほどではない状態)が頻発しているか否かを判断する。
ステップS43において、基準値からのずれが一定の方向を示している画像が、所定の頻度で検出されていないと判断すれば、その後処理を終える一方、所定の頻度で検出されたと判断すれば、ステップS44に進む。
ステップS44では、制御ユニット12Aが、視線方向の基準を変更する処理を行う。例えば、前記一定の方向にずれている視線方向の状態が、運転者の視線方向の正面であると判断されやすくなるように、基準値を変更する処理を行い、その後ステップS45に進む。具体的には、基準値からの視線方向のずれが、例えば下向きに3°程度生じていた場合、基準値を下向きに3°下げる補正、又は3°に近づくように(ずれが小さくなるように)変更する。
ステップS45では、ステップS44で変更した基準値を、基準記憶部13cに記憶して、その後処理を終える。
このような、基準値の変更を行うことにより、例えば、長時間の運転や運転環境の変化(天候の変化や時間帯)などで姿勢が変化し、運転者の視線方向が無意識のうちに少しずつ変化していた場合であっても、その変化した状態における運転者にとっての正面を示す視線方向を、視線方向の基準に設定することができ、視線方向の検出精度を向上させることができる。
[作用・効果]
上記実施の形態(2)に係る情報処理装置10Aによれば、判定部12gにより車両2が特定の走行状態にあるか否かが判定され、検出部12bにより前記特定の走行状態にあるときの運転者の視線方向が検出され、該検出された運転者の視線方向の情報が蓄積部13eに蓄積される。そして、基準決定部12cにより、蓄積された前記特定の走行状態にあるときの運転者の視線方向に基づいて、運転者にとっての視線方向の基準が決定され、算出部12dにより、視線方向の基準を用い、運転者にとっての視線方向が算出される。
したがって、特定の走行状態、及び運転者の視線方向の個人差に対応した視線方向の基準を決定することができ、該視線方向の基準を用いることで、制御ユニット12に処理負荷をかけることなく、前記運転者にとっての視線方向の検出精度を向上させることができる。また、基準変更部12hにより基準決定部12cで決定された視線方向の基準を変更することが可能となるので、常に精度の高い視線方向の検出を行うことができる。
また、上記実施の形態に係る運転者モニタリングシステム1Aによれば、情報処理装置10Aと、カメラ20とを備えているので、情報処理装置10Aの種々の効果を得ることができる運転者モニタリングシステムを安価に実現することができる。
なお上記実施の形態では、運転者モニタリングシステム1、1Aを車両2に適用した場合について説明したが、車両以外の他の乗り物に適用してもよい。
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
例えば、上記実施の形態では、運転者の視線方向を検出するように構成されているが、情報処理装置が、運転者の視線方向に代えて、又は視線方向とともに、運転者の顔の向きを検出し、該顔の向きの基準を決定し、該基準を用いて、運転者の顔の向きを算出するように構成してもよい。
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)の運転者(D)の顔を含む画像(21)を取得する画像取得部(12a)と、
画像取得部(12a)により取得された画像(21)から運転者(D)の視線方向(V)を検出する検出部(12b)と、
検出部(12b)による検出結果を蓄積する蓄積部(13b)と、
蓄積部(13b)に蓄積された前記検出結果を用いることで、運転者(D)にとっての視線方向の基準を決定する基準決定部(12c)とを備えていることを特徴とする情報処理装置(10)。
(付記2)
情報処理装置(10)と、
画像取得部(12a)で取得される運転者(D)の顔を含む画像(21)を撮像する少なくとも1つのカメラ(20)とを備えていることを特徴とする運転者モニタリングシステム(1)。
(付記3)
車両(2)の運転者(D)の顔を含む画像(21)を取得する画像取得ステップ(S11)と、
画像取得ステップ(S11)により取得された画像(21)から運転者(D)の視線方向(V)を検出する検出ステップ(S15)と、
検出ステップ(S15)による検出結果を蓄積部(13b)に蓄積する蓄積ステップ(S16)と、
蓄積部(13b)に蓄積された前記検出結果を用いることで、運転者(D)にとっての視線方向の基準を決定する基準決定ステップ(S3)とを含むステップを実行させることを特徴とする情報処理方法。
(付記4)
少なくとも1つのコンピュータ(12)に、
車両(2)の運転者(D)の顔を含む画像(21)を取得する画像取得ステップ(S11)と、
画像取得ステップ(S11)により取得された画像(21)から運転者(D)の視線方向を検出する検出ステップ(S15)と、
検出ステップ(S15)による検出結果を蓄積部(13b)に蓄積する蓄積ステップ(S16)と、
蓄積部(13b)に蓄積された前記検出結果を用いることで、運転者(D)にとっての視線方向の基準を決定する基準決定ステップ(S3)とを実行させることを特徴とする情報処理プログラム。
1、1A 運転者モニタリングシステム
2 車両
3 車載機器
4 車載システム
10、10A 情報処理装置
11 入出力I/F
12、12A 制御ユニット
12a 画像取得部
12b 検出部
12c 基準決定部
12d 算出部
12e 処理部
12f 情報取得部
12g 判定部
12h 基準変更部
13、13A 記憶ユニット
13a 画像記憶部
13b、13e 蓄積部
13c 基準記憶部
13d、13f プログラム記憶部
20 カメラ
30 自動運転制御装置
31 操舵センサ
32 アクセルペダルセンサ
33 ブレーキペダルセンサ
34 操舵制御装置
35 動力源制御装置
36 制動制御装置
37 報知装置
38 始動スイッチ
39 周辺監視センサ
40 GPS受信機
41 ジャイロセンサ
42 車速センサ
43 ナビゲーション装置
44 通信装置
50 通信ライン
51 パワーユニット
52 ハンドル
53 操舵装置

Claims (17)

  1. 車両の運転者の顔を含む画像を取得する画像取得部と、
    該画像取得部により取得された前記画像から前記運転者の視線方向を検出する検出部と、
    該検出部による検出結果を蓄積する蓄積部と、
    該蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定部とを備えていることを特徴とする情報処理装置。
  2. 前記基準決定部が、前記蓄積部に蓄積された前記検出結果から求めた視線方向の最頻値を前記基準として決定することを特徴とする請求項1記載の情報処理装置。
  3. 前記基準決定部で決定された前記基準を用い、前記画像から前記基準に対する前記運転者の視線方向を算出する算出部を備えていることを特徴とする請求項1又は請求項2記載の情報処理装置。
  4. 前記算出部で算出された、前記基準に対する前記運転者の視線方向に基づいて、所定の処理を行う処理部を備えていることを特徴とする請求項3記載の情報処理装置。
  5. 前記処理部により処理された結果を前記運転者へ報知する報知部を備えていることを特徴とする請求項4記載の情報処理装置。
  6. 前記基準決定部で決定された前記基準を記憶する基準記憶部を備え、
    前記算出部が、前記基準記憶部から読み出した前記基準を用いることで、前記画像から前記基準に対する前記運転者の視線方向を算出することを特徴とする請求項3〜5のいずれかの項に記載の情報処理装置。
  7. 前記基準決定部で決定された前記基準を変更する基準変更部を備えていることを特徴とする請求項3〜6のいずれかの項に記載の情報処理装置。
  8. 前記基準変更部が、
    前記算出部で算出された、前記基準に対する前記運転者の視線方向と、前記基準との差が所定範囲内である状態で継続している場合に、前記差が小さくなるように前記基準を補正することを特徴とする請求項7記載の情報処理装置。
  9. 前記車両の走行状態に関する情報を取得する情報取得部と、
    該情報取得部により取得された前記情報に基づいて、前記車両が特定の走行状態にあるかを判定する判定部とを備え、
    前記基準決定部が、前記判定部により前記特定の走行状態にあると判定されているときの前記視線方向に基づいて前記基準を決定することを特徴とする請求項1〜8のいずれかの項に記載の情報処理装置。
  10. 前記特定の走行状態が、前記車両が直進している走行状態であることを特徴とする請求項9記載の情報処理装置。
  11. 前記情報取得部が、少なくとも前記車両の車速情報と、前記車両の操舵情報とを取得し、
    前記判定部が、前記車両の車速が所定の速度域にあり、かつ前記車両が所定の非操舵状態にある場合、前記車両が特定の走行状態にあると判定することを特徴とする請求項9記載の情報処理装置。
  12. 前記情報取得部が、少なくとも前記車両の加減速情報、及び前記車両の傾斜情報のうちのいずれかを取得し、
    前記判定部が、前記車両が所定の加速又は減速の状態にある場合、或いは前記車両が所定の傾斜姿勢にある場合を、前記車両が特定の走行状態から除外することを特徴とすることを特徴とする請求項9記載の情報処理装置。
  13. 前記情報取得部が、前記車両の位置情報と、前記車両の周辺の地図情報とを取得するものであり、
    前記判定部が、前記車両が直線道路を移動している場合、前記車両が特定の走行状態にあると判定することを特徴とする請求項9記載の情報処理装置。
  14. 前記運転者を識別する識別部を備え、
    前記基準決定部が、前記識別部で識別された運転者毎に、前記基準を決定することを特徴とする請求項1〜13のいずれかの項に記載の情報処理装置。
  15. 請求項1〜14のいずれかの項に記載の情報処理装置と、
    前記画像取得部で取得される前記運転者の顔を含む画像を撮像する少なくとも1つのカメラとを備えていることを特徴とする運転者モニタリングシステム。
  16. 車両の運転者の顔を含む画像を取得する画像取得ステップと、
    該画像取得ステップにより取得された前記画像から前記運転者の視線方向を検出する検出ステップと、
    該検出ステップによる検出結果を蓄積部に蓄積する蓄積ステップと、
    前記蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定ステップとを含むステップを実行させることを特徴とする情報処理方法。
  17. 少なくとも1つのコンピュータに、
    車両の運転者の顔を含む画像を取得する画像取得ステップと、
    該画像取得ステップにより取得された前記画像から前記運転者の視線方向を検出する検出ステップと、
    該検出ステップによる検出結果を蓄積部に蓄積する蓄積ステップと、
    前記蓄積部に蓄積された前記検出結果を用いることで、前記運転者にとっての視線方向の基準を決定する基準決定ステップとを実行させることを特徴とする情報処理プログラム。
JP2017219770A 2017-11-15 2017-11-15 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム Expired - Fee Related JP6693489B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017219770A JP6693489B2 (ja) 2017-11-15 2017-11-15 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
CN201811278699.2A CN109774722A (zh) 2017-11-15 2018-10-30 信息处理装置、方法和程序、驾驶员监控系统及保存媒体
US16/178,500 US20190147270A1 (en) 2017-11-15 2018-11-01 Information processing apparatus, driver monitoring system, information processing method and computer-readable storage medium
DE102018127605.2A DE102018127605A1 (de) 2017-11-15 2018-11-06 Informationsverarbeitungsvorrichtung, fahrerüberwachungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219770A JP6693489B2 (ja) 2017-11-15 2017-11-15 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2019091255A true JP2019091255A (ja) 2019-06-13
JP6693489B2 JP6693489B2 (ja) 2020-05-13

Family

ID=66335270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219770A Expired - Fee Related JP6693489B2 (ja) 2017-11-15 2017-11-15 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム

Country Status (4)

Country Link
US (1) US20190147270A1 (ja)
JP (1) JP6693489B2 (ja)
CN (1) CN109774722A (ja)
DE (1) DE102018127605A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020250962A1 (ja) * 2019-06-11 2021-12-02 日本電気株式会社 画像処理装置、画像処理方法、プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7206750B2 (ja) * 2018-09-26 2023-01-18 日本電気株式会社 運転支援装置
JP7173811B2 (ja) * 2018-09-27 2022-11-16 株式会社アイシン 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
JP7367637B2 (ja) * 2020-08-26 2023-10-24 トヨタ自動車株式会社 顔情報取得装置および顔情報取得方法
CN113239754A (zh) * 2021-04-23 2021-08-10 泰山学院 一种应用于车联网的危险驾驶行为检测定位方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2009157736A (ja) * 2007-12-27 2009-07-16 Omron Corp 脇見検出装置および方法、並びに、プログラム
JP2017004117A (ja) * 2015-06-05 2017-01-05 富士通テン株式会社 視線検出装置および視線検出方法
JP2017126151A (ja) * 2016-01-13 2017-07-20 アルプス電気株式会社 視線検出装置および視線検出方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4093273B2 (ja) 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP5974915B2 (ja) * 2013-01-29 2016-08-23 株式会社デンソー 覚醒度検出装置、および覚醒度検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2009157736A (ja) * 2007-12-27 2009-07-16 Omron Corp 脇見検出装置および方法、並びに、プログラム
JP2017004117A (ja) * 2015-06-05 2017-01-05 富士通テン株式会社 視線検出装置および視線検出方法
JP2017126151A (ja) * 2016-01-13 2017-07-20 アルプス電気株式会社 視線検出装置および視線検出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020250962A1 (ja) * 2019-06-11 2021-12-02 日本電気株式会社 画像処理装置、画像処理方法、プログラム
JP7259957B2 (ja) 2019-06-11 2023-04-18 日本電気株式会社 判定システム、処理方法、プログラム

Also Published As

Publication number Publication date
US20190147270A1 (en) 2019-05-16
CN109774722A (zh) 2019-05-21
JP6693489B2 (ja) 2020-05-13
DE102018127605A1 (de) 2019-05-16

Similar Documents

Publication Publication Date Title
CN107336710B (zh) 驾驶意识推定装置
JP6693489B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
US10915100B2 (en) Control system for vehicle
JP6683185B2 (ja) 情報処理装置、運転者モニタリングシステム、情報処理方法、及び情報処理プログラム
US9747800B2 (en) Vehicle recognition notification apparatus and vehicle recognition notification system
US10120378B2 (en) Vehicle automated driving system
US20170174129A1 (en) Vehicular visual information system and method
US9352689B2 (en) Driver assistance apparatus capable of diagnosing vehicle parts and vehicle including the same
KR101579100B1 (ko) 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
US10232772B2 (en) Driver assistance system
CN104680714A (zh) 用于向用户发送提醒的方法及系统
KR101698781B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
KR102077575B1 (ko) 차량 운전 보조 장치 및 차량
TW201927610A (zh) 安全確認評價裝置、車載裝置、具備這些裝置之安全確認評價系統、安全確認評價方法以及安全確認評價程式
JP2007008382A (ja) 視覚情報呈示装置及び視覚情報呈示方法
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
CN112585958A (zh) 用于产生车辆的以图像信息来纹理化的周围环境地图的方法和装置以及包括这种装置的车辆
JP2019064317A (ja) 車両用表示装置
WO2019155913A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
KR101872477B1 (ko) 차량
JP2018094294A (ja) 状態推定システム
CN114103797A (zh) 自动驾驶车用信息提示装置
JP2012103849A (ja) 情報提供装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190305

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees