JP2014218140A - 運転者状態監視装置、および運転者状態監視方法 - Google Patents
運転者状態監視装置、および運転者状態監視方法 Download PDFInfo
- Publication number
- JP2014218140A JP2014218140A JP2013098011A JP2013098011A JP2014218140A JP 2014218140 A JP2014218140 A JP 2014218140A JP 2013098011 A JP2013098011 A JP 2013098011A JP 2013098011 A JP2013098011 A JP 2013098011A JP 2014218140 A JP2014218140 A JP 2014218140A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- face
- vehicle interior
- head position
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000012544 monitoring process Methods 0.000 title claims description 16
- 238000012806 monitoring device Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims 1
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
【課題】車載システムや車載ディスプレイ等の車室内の領域のうち、運転者が目視している領域を高精度で特定する。
【解決手段】運転者の顔画像を撮像して、この顔画像に基づいて、運転者の頭部位置に加えて、運転者の顔の向きを検出する。そして、検出した頭部位置と顔の向きとの両方に基づいて、運転者が目視している車室内の領域である車室内領域を特定する。この結果、運転者が目視している車室内の領域を高精度で特定することが可能となる。
【選択図】図3
【解決手段】運転者の顔画像を撮像して、この顔画像に基づいて、運転者の頭部位置に加えて、運転者の顔の向きを検出する。そして、検出した頭部位置と顔の向きとの両方に基づいて、運転者が目視している車室内の領域である車室内領域を特定する。この結果、運転者が目視している車室内の領域を高精度で特定することが可能となる。
【選択図】図3
Description
本発明は、運転者の状態を監視する運転者状態監視装置に関し、詳しくは運転者の目視している領域を検出する技術に関する。
車両には運転に必要な様々な計器類が搭載されているが、近年では、これらの計器類に加えて、運転を快適にするための様々なシステム(空調システムや、ナビゲーションシステム、オーディオシステムなど)が搭載されるようになっている。このため近年の運転者は、車両の運転以外にも様々なシステムの操作を覚える必要に迫られる傾向がある。
そこで、運転者のこのような負担を軽減するために、次のような技術が提案されている。たとえば、車載カメラで撮影した運転者の画像から、運転者の動作や視線を検出することにより、運転者が操作しようとしている機器と、その機器に対する操作内容とを推定する。そして、推定した操作内容に関する情報を運転者に提示する技術が提案されている(特許文献1)。あるいは、運転者の視線が車載ディスプレイを向いていることを検出して、視線が車載ディスプレイを向いている場合には、運転者が運転に用いる補助情報を提示する技術も提案されている(特許文献2)。
しかし、上記の提案されている何れの技術においても、運転者に対して常に適切な情報が提示できるとは限らないという問題があった。すなわち、運転者が操作しようとしてある機器に視線を向けたときに別の機器についての情報が提示されたり、あるいは、運転者の視線が車載ディスプレイに向いているにも拘わらずディスプレイ上に補助情報が表示されなかったりする場合があった。そして、このような事態が生じるのは、運転者が視線を向けている機器を特定する精度が十分でないためであると考えられる。
この発明は、従来の技術が有する上述した課題に鑑みてなされたものであり、運転者が視線を向けている領域を精度良く特定することが可能な技術の提供を目的とする。
上述した課題を解決するために、本発明の運転者状態監視装置および運転者状態監視方法は、運転者の顔画像を撮像して、この顔画像に基づいて、運転者の顔の向きだけでなく、運転者の頭部位置も検出する。そして、検出した顔の向きと頭部位置との両方に基づいて、運転者が目視している車室内の領域である車室内領域を特定する。
運転者の視線の向きを検出するために従来から提案されている技術は、運転者が車室外の何れの領域を見ているかを検出する技術であった。たとえば、車両の走行中に運転者が進行方向を見ているのか、信号機を見ているのか、あるいは側道の歩行者を見ているのかといったことを判断するための技術であった。このような場合、運転者が見ている対象は10メートル程度、遠方にあるので、運転者が運転席に座る姿勢を変えて頭部位置を数十センチメートル程度移動させても、視線を向けている対象が変わる可能性は低い。従って、運転者の視線の向き(顔の向き)が分かれば(頭部位置は分からなくても)、運転者が車室外の何れの領域を目視しているかを精度良く検出することができる。
これに対して、運転者が視線を向けている車室内の機器(運転者が目視している車室内の領域)を特定する場合は、車室内の運転者から近い機器(車室内に設定された狭い領域)に視線を向けていることを特定する必要があるため、運転者の頭部位置が異なると、運転者が視線を向けている機器(領域)も異なる可能性が高い。従って、運転者の頭部位置は考慮せずに、運転者の視線の向き(顔の向き)から運転者が目視している車室内の領域を特定すると、この特定精度が低くなってしまう。この点、本発明の運転者状態監視装置および運転者状態監視方法は、運転者の顔の向きだけでなく運転者の頭部位置にも基づいて、運転者が目視している車室内の領域を特定するので、運転者が目視している車室内の領域を高精度で特定することが可能となる。
これに対して、運転者が視線を向けている車室内の機器(運転者が目視している車室内の領域)を特定する場合は、車室内の運転者から近い機器(車室内に設定された狭い領域)に視線を向けていることを特定する必要があるため、運転者の頭部位置が異なると、運転者が視線を向けている機器(領域)も異なる可能性が高い。従って、運転者の頭部位置は考慮せずに、運転者の視線の向き(顔の向き)から運転者が目視している車室内の領域を特定すると、この特定精度が低くなってしまう。この点、本発明の運転者状態監視装置および運転者状態監視方法は、運転者の顔の向きだけでなく運転者の頭部位置にも基づいて、運転者が目視している車室内の領域を特定するので、運転者が目視している車室内の領域を高精度で特定することが可能となる。
また、上述した本発明の運転者状態監視装置においては、車室内の頭部の位置が基準位置にあると仮定すれば、このときの顔の向き(基準顔向き)に対応する車室内領域を特定できるので、この基準顔向きと車室内領域との対応関係を予め記憶しておいてもよい。そして、運転者の顔の向きを運転者の頭部位置に基づいて基準顔向きに変換し、基準顔向きから対応関係を参照することによって車室内領域を特定する。
こうすれば、運転者の顔の向きを基準顔向きに変換することで、運転者の頭部位置にかかわらず共通の対応関係を参照することができるので、記憶容量を節約することができるとともに、車室内領域を特定する際の処理負担を軽減することが可能となる。
また、上述した本発明の運転状態監視装置においては、車室を構成する構成要素(例えば、ルームミラーやディスプレイ等)が仮想的に形成された3次元空間を予め記憶しておいてもよい。そして、この3次元空間内に、運転者の頭部位置と顔の向きとに基づいて運転者の仮想的な頭部を配置し、該仮想的な頭部から顔の向きに延びる直線が交差する車室の構成要素を車室内領域として特定することとしてもよい。
こうすれば、現実空間における運転者の頭部位置と車室の構成要素との位置関係や、運転者の顔の向きを、3次元空間内に再現した上で運転者が目視している車室内の領域(車室内領域)を特定するので、車室内領域を高精度で特定することが可能となる。
以下では、上述した本願発明の内容を明確にするために運転者状態監視装置の実施例について説明する。
A.装置構成 :
図1には、運転者状態監視装置10の大まかな構成が示されている。図示されるように、運転者状態監視装置10は車両100に設けられており、近赤外光を用いて撮像する近赤外光カメラ11で運転者の顔を定期的に(例えば1秒間に30回)撮像することにより、運転者の顔画像を取得している。
A.装置構成 :
図1には、運転者状態監視装置10の大まかな構成が示されている。図示されるように、運転者状態監視装置10は車両100に設けられており、近赤外光を用いて撮像する近赤外光カメラ11で運転者の顔を定期的に(例えば1秒間に30回)撮像することにより、運転者の顔画像を取得している。
図2には、運転者状態監視装置10の詳細な構成が示されている。図示されるように、運転者状態監視装置10は、CPU12を中心として、上述した近赤外光カメラ11、CPU12が実行するプログラム等が記憶されているROM13、CPU12の作業領域であるとともに近赤外光カメラ11によって撮像された運転者の顔画像が記憶されるRAM14、所定の情報が出力されるディプレイ等の出力装置15等が、バス16を介して接続されている。運転者状態監視装置10では、CPU12がROM13に記憶されているプログラムを実行することによって、運転者が目視している車室内の領域(ルームミラーが配置された領域や、ナビゲーションシステムのディスプレイが配置された領域等、以下「車室内領域」という)を特定する処理(車室内領域特定処理)が行われる。
B.車室内領域特定処理 :
図3には、運転者状態監視装置10のCPU12が実行する車室内領域特定処理のフローチャートが示されている。本実施例の車室内領域特定処理は所定の条件が成立している場合(たとえば運転者操作によって処理の起動が指示されている場合)に所定時間毎(たとえば0.5s毎)に起動される。CPU12は、車室内領域特定処理を開始すると、近赤外光カメラ11を利用して運転者の顔を撮像するとともに、撮像された顔画像をRAM14に記憶する(S100)。続いて、RAM14に記憶された顔画像を読み出して、読み出した顔画像に対してエッジ検出等の各種処理を施すことによって、運転者の顔画像中の顔が占める領域(以下「顔領域」という)を検出する(S102)。そして、検出した顔領域に基づいて、運転者の頭部位置を検出する(S104)。この処理では先ず、近赤外光カメラ11に対する頭部位置の角度を検出する。
図3には、運転者状態監視装置10のCPU12が実行する車室内領域特定処理のフローチャートが示されている。本実施例の車室内領域特定処理は所定の条件が成立している場合(たとえば運転者操作によって処理の起動が指示されている場合)に所定時間毎(たとえば0.5s毎)に起動される。CPU12は、車室内領域特定処理を開始すると、近赤外光カメラ11を利用して運転者の顔を撮像するとともに、撮像された顔画像をRAM14に記憶する(S100)。続いて、RAM14に記憶された顔画像を読み出して、読み出した顔画像に対してエッジ検出等の各種処理を施すことによって、運転者の顔画像中の顔が占める領域(以下「顔領域」という)を検出する(S102)。そして、検出した顔領域に基づいて、運転者の頭部位置を検出する(S104)。この処理では先ず、近赤外光カメラ11に対する頭部位置の角度を検出する。
図4には、近赤外光カメラ11に対する頭部位置の角度を検出する様子を示す説明図が示されている。図4に示すように、近赤外光カメラ11に対する頭部位置の角度は、顔画像中の顔領域の位置に対応している。たとえば、顔画像中の中心より上側に顔領域が存在する場合は、近赤外光カメラ11が撮像可能な範囲の中心より上側に運転者の頭部が存在し、顔画像中の中心より右側に顔領域が存在する場合は、近赤外光カメラ11が撮像可能な範囲の中心より右側に運転者の頭部が存在する。また、運転者の頭部(頭部の中心位置)は、近赤外光カメラ11から種々の角度で放射状に延びる仮想的な直線のうち、何れかの直線上に存在する。そこで、S104の処理では先ず、画像上の顔領域の位置(顔領域の中心位置)に基づき頭部位置(頭部の中心位置)が存在する直線の角度(頭部位置の近赤外光カメラ11に対する角度)を決定する。尚、こうして決定された「頭部位置が存在する直線」を以下では「頭部位置直線」という。
上述した処理では、頭部位置が頭部位置直線上に存在することは検出しているものの、頭部位置直線上の何れの位置に頭部位置が存在するか(頭部位置直線上の頭部位置)は未だ検出できていない。そこで、S104の処理では次に、決定した頭部位置直線上の頭部位置を検出する。頭部位置直線上の頭部位置は、近赤外光カメラ11から頭部位置までの距離、すなわち、顔画像中の顔領域の大きさに対応している。そこで、顔画像中の顔領域の大きさに基づいて、近赤外光カメラ11から頭部位置までの距離を検出する。たとえば、運転者の頭部位置が近赤外光カメラ11から所定の距離に存在する場合の顔領域の標準大きさを記憶しておき、この標準大きさと実際の顔領域の大きさとを比較することによって、近赤外光カメラ11から頭部位置までの距離を検出する。そして、この検出した距離だけ近赤外光カメラ11から離れた、頭部位置直線上の位置を頭部位置として検出する。
尚、運転者の頭部位置の検出には、種々の方法を採用することができ、上述した方法以外にも、測距センサを用いて頭部位置を検出する方法や、複数のカメラで顔画像を撮像することで得られる視差を利用して頭部位置を検出する方法等が例示できる。
こうして、運転者の頭部位置を検出したら(S104)、RAM14に記憶された顔画像を読み出して、読み出した顔画像に対してエッジ検出等の各種処理を施すことによって、特徴点を検出する(S106)。図5には、顔画像から特徴点が検出される様子が例示されている。図5に示すように、特徴点としては、顔画像上の顔の各部位(目頭、目尻、鼻、口、耳など)が検出される。
こうして、顔画像から特徴点を検出したら、この特徴点に基づいて運転者の顔の向きを検出する(S108)。運転者の顔の向きは、複数の特徴点の位置関係に基づいて検出する。たとえば、「2つの目頭の特徴点を結ぶ直線の中点を鼻の特徴点と口の特徴点とを通過する直線が通過し、口の特徴点と鼻の特徴点との距離が特定の距離である場合」を、顔の向きが正面であるとする。そして、「顔の向きが正面である場合の特徴点(あるいは複数の特徴点の位置関係)」に対する「実際に検出された特徴点(あるいは複数の特徴点の位置関係)」の変位量に基づいて、運転者の顔の向きを検出する。
尚、運転者の顔の向きの検出には、種々の方法を採用することができ、上述した方法以外にも、基準となる特徴点を予め記憶しておき、この基準となる特徴点と実際の特徴点とを比較することによって顔の向きを検出する方法等が例示できる。
尚、運転者の顔の向きの検出には、種々の方法を採用することができ、上述した方法以外にも、基準となる特徴点を予め記憶しておき、この基準となる特徴点と実際の特徴点とを比較することによって顔の向きを検出する方法等が例示できる。
こうして、運転者の頭部位置および顔の向きを検出したら(S104,S108)、この頭部位置と顔の向きとに基づいて、運転者の仮想的な頭部を3次元空間に配置する(S110)。
図6には、本実施例の3次元空間を概念的に示す説明図が示されている。本実施例のROM13には、車室を構成する構成要素(が配置された領域)がポリゴンによって仮想的に形成された3次元空間が記憶されている。たとえば、図示されているように、フロントガラスや、ルームミラー、ナビ画面等が仮想的に形成されている。もちろん、これらの車室の各構成要素は、現実の構成要素の位置関係と近似するように、3次元空間に配置されている。
図6には、本実施例の3次元空間を概念的に示す説明図が示されている。本実施例のROM13には、車室を構成する構成要素(が配置された領域)がポリゴンによって仮想的に形成された3次元空間が記憶されている。たとえば、図示されているように、フロントガラスや、ルームミラー、ナビ画面等が仮想的に形成されている。もちろん、これらの車室の各構成要素は、現実の構成要素の位置関係と近似するように、3次元空間に配置されている。
図6に示すように、3次元空間に運転者の仮想的な頭部を配置したら(S110)、該頭部の顔の向きに延びる直線が車室の構成要素を形成するポリゴンと交差するか否かを判断する(S112)。顔の向きに延びる直線は運転者の視線であることから、この判断処理では結局のところ、運転者が車室の何れかの構成要素を目視しているか否かが判断される。その結果、顔の向きに延びる直線が車室の構成要素を形成するポリゴンと交差する場合は(S112:yes)、このポリゴンによって形成される車室の構成要素(が配置された領域)を運転者が目視している車室内の領域(車室内領域)として特定する(S114)。
こうして、運転者が目視している車室内の領域(車室内領域)を特定したら、該車室内領域に対応する情報を出力装置15に表示する(S116)。たとえば、「ルームミラー」が配置された領域が車室内領域として特定された場合は、ルームミラーの角度を変更するための操作方法を出力装置15に出力する(画像出力や音声出力を行う)。
以上のように、本実施例の運転者状態監視装置10は、運転者の顔の向きに加えて、運転者の頭部位置にも基づいて、運転者が目視している車室内の領域を特定する。ここで、顔の向きと頭部位置のうち、顔の向きだけに基づいて運転者が目視している車室内の領域を判定する場合の問題点について説明する。
図7は、顔の向きだけに基づいて運転者が目視している車室の領域を判定する場合の問題点を説明するための説明図である。運転者の視線の向きを検出するために従来から提案されている技術は、運転者が車室外の何れの領域を見ているかを検出する技術であった。たとえば、車両の走行中に運転者が進行方向を見ているのか、信号機を見ているのか、あるいは側道の歩行者を見ているのかといったことを判断するための技術であった。このような場合は、図7(a)に示すように、運転者が見ている対象は10メートル程度、遠方にあるので、運転者が運転席に座る姿勢を変えて頭部位置を数十センチメートル程度移動させても、視線を向けている対象が変わる可能性は低い。従って、運転者の視線の向き(顔の向き)が分かれば(頭部位置は分からなくても)、運転者が車室外の何れの領域を目視しているかを精度良く検出することができる。
これに対して、運転者が視線を向けている車室内の機器(運転者が目視している車室内の領域)を特定する場合は、車室内の運転者から近い機器(車室内に設定された狭い領域)に視線を向けていることを特定する必要があるため、運転者の頭部位置が異なると、運転者が視線を向けている機器(領域)も異なる可能性が高い。すなわち、図7(b)に示すように、頭部位置が異なっていれば顔の向きが同じであっても運転者が目視している領域が異なるので、車室内領域を誤って判定する可能性が高くなる。この点、本発明の運転者状態監視装置10は、運転者の顔の向きだけでなく運転者の頭部位置にも基づいて、運転者が目視している車室内の領域を特定するので、運転者が目視している車室内の領域を高精度で特定することが可能となる。
図7は、顔の向きだけに基づいて運転者が目視している車室の領域を判定する場合の問題点を説明するための説明図である。運転者の視線の向きを検出するために従来から提案されている技術は、運転者が車室外の何れの領域を見ているかを検出する技術であった。たとえば、車両の走行中に運転者が進行方向を見ているのか、信号機を見ているのか、あるいは側道の歩行者を見ているのかといったことを判断するための技術であった。このような場合は、図7(a)に示すように、運転者が見ている対象は10メートル程度、遠方にあるので、運転者が運転席に座る姿勢を変えて頭部位置を数十センチメートル程度移動させても、視線を向けている対象が変わる可能性は低い。従って、運転者の視線の向き(顔の向き)が分かれば(頭部位置は分からなくても)、運転者が車室外の何れの領域を目視しているかを精度良く検出することができる。
これに対して、運転者が視線を向けている車室内の機器(運転者が目視している車室内の領域)を特定する場合は、車室内の運転者から近い機器(車室内に設定された狭い領域)に視線を向けていることを特定する必要があるため、運転者の頭部位置が異なると、運転者が視線を向けている機器(領域)も異なる可能性が高い。すなわち、図7(b)に示すように、頭部位置が異なっていれば顔の向きが同じであっても運転者が目視している領域が異なるので、車室内領域を誤って判定する可能性が高くなる。この点、本発明の運転者状態監視装置10は、運転者の顔の向きだけでなく運転者の頭部位置にも基づいて、運転者が目視している車室内の領域を特定するので、運転者が目視している車室内の領域を高精度で特定することが可能となる。
また、本実施例の運転者状態監視装置10は、仮想的な3次元空間に車室の各構成要素を形成して、この3次元空間に運転者の頭部位置および顔の向きに基づいて仮想的な頭部を配置する。そして、仮想的な頭部の顔の向きに延びる直線が交差した車室の構成要素を車室内領域として特定する。こうすれば、現実空間における運転者の頭部位置と車室の構成要素との位置関係や、運転者の顔の向きを、3次元空間内に再現した上で運転者が目視している車室内の領域(車室内領域)を特定するので、車室内領域を高精度で特定することが可能となる。
尚、近赤外光カメラ11は運転者の顔画像を撮像する。したがって、近赤外光カメラ11は本発明における「顔画像撮像手段」に対応している。また、CPU12は、顔画像に基づいて運転者の頭部位置を検出する。したがって、CPU12は本発明における「頭部位置検出手段」に対応している。また、CPU12は、顔画像に基づいて運転者の顔の向きを検出する。したがって、CPU12は本発明における「顔向き検出手段」に対応している。また、ROM13は、車室を形成する構成要素が仮想的に形成された3次元空間を記憶する。したがって、ROM13は本発明における「3次元空間記憶手段」に対応している。また、CPU12は、頭部位置と顔の向きとに基づいて運転者の仮想的な頭部を3次元空間に配置し、該3次元空間において、該仮想的な頭部の顔の向きに延びる直線が交差する車室の構成要素を車室内領域として特定する。したがって、CPU12は本発明における「特定手段」に対応している。
C.第1変形例 :
上述した実施例では、車室の構成要素が仮想的に形成された3次元空間に、運転者の仮想的な頭部を配置することによって車室内領域を特定する構成とした。第1変形例では、運転者の顔の向きを「基準位置」での顔の向きに変換することによって車室内領域を特定する。
上述した実施例では、車室の構成要素が仮想的に形成された3次元空間に、運転者の仮想的な頭部を配置することによって車室内領域を特定する構成とした。第1変形例では、運転者の顔の向きを「基準位置」での顔の向きに変換することによって車室内領域を特定する。
第1変形例でもCPU12は、図3に示すS100〜S106と同様に、運転者の頭部位置および顔の向きを検出する。そして、運転者の頭部位置および顔の向きを検出したら、この顔の向きを「基準位置」での顔の向き(以下「基準顔向き」という)に変換する。本変施例では、近赤外光カメラ11よって撮像可能な範囲中の所定の位置が「基準位置」として予め定められている。
図8には、運転者の顔の向きを基準顔向きに変換する様子を示す説明図が示されている。図8に示すように、本実施例では、ROM13に、近赤外光カメラ11の位置を原点X(0,0,0)として車両の進行方向をX軸、左右方向をY軸、高さ方向をZ軸とする仮想的な3次元空間が予め記憶されている。
図8に示す3次元空間において、F(Xf,Yf,Zf)は図3のS104と同様の処理で検出された頭部位置を示す座標であり、A(Xa,Ya,Za)は図3のS108と同様の処理で検出された顔の向きを示す単位ベクトルである。また、B(Xb,Yb,Zb)は基準位置を示す座標である。
図8には、運転者の顔の向きを基準顔向きに変換する様子を示す説明図が示されている。図8に示すように、本実施例では、ROM13に、近赤外光カメラ11の位置を原点X(0,0,0)として車両の進行方向をX軸、左右方向をY軸、高さ方向をZ軸とする仮想的な3次元空間が予め記憶されている。
図8に示す3次元空間において、F(Xf,Yf,Zf)は図3のS104と同様の処理で検出された頭部位置を示す座標であり、A(Xa,Ya,Za)は図3のS108と同様の処理で検出された顔の向きを示す単位ベクトルである。また、B(Xb,Yb,Zb)は基準位置を示す座標である。
また、この3次元空間には、中心が基準位置Bで半径がRの球(以下「判定球」という)が配置されている。この判定球の球面(判定球面)は、仮想的な車室の構成要素を配置するとしたら(図6参照)、該車室の構成要素が存在することとなる領域の近傍に形成されている。したがって、顔の向きA(Xa,Ya,Za)の延長線と判定球面との交点Pは、運転者が目視している車室の構成要素が存在する領域(車室内領域)に対応している。
図9には、基準顔向きを示す回転角度と車室内領域との対応関係が設定された車室内領域特定テーブルが概念的に示されている。この車室内領域特定テーブルは、実際に基準位置で車室の各構成要素を目視することで得られた「頭部の回転角度(基準顔向き)の範囲」と「車室内領域(車室の構成要素)」とを対応付けて設定されたデータテーブルであり、予めROM13の所定アドレスに記憶されている。このような車室内領域特定テーブルを記憶することにより、概念的には、各基準顔向きの範囲に対応する車室内領域が判定球面に貼り付けられている状態となる。
以上のように、半径Rの判定球、運転者の頭部位置F、運転者の顔の向きA(頭部位置での顔の向き)、基準位置Bが3次元空間に設定された状態で、基準顔向き(基準位置Bでの顔の向き)を示すベクトルVを算出する。まず、交点Pは顔の向きAの延長線上の点であるので、媒介変数tを用いて次のように表現できる。
また、交点Pは判定球面上に存在するため、基準位置Bと交点Pとの距離はRである。
そして、(1)、(2)式より、
この結果、tの値は、次のように導き出すことができる。
もっとも、後を振り返る場合は考慮する必要はないのでt>0となるtを選択する。
したがって、基準顔向きを示すベクトルVは、次のように表すことができる。
こうして、基準顔向きを示すベクトルVを検出したら、このベクトルVを3次元空間における水平(左右)方向および垂直(上下)方向の回転角度(すなわち、基準顔向きを示す回転角度)に変換する。以上のようにして、運転者の顔の向きを、基準位置での顔の向き(基準顔向き)に変換する。
続いて、基準顔向きを示す回転角度に基づいて、運転者が目視している車室の構成要素が存在する領域(車室内領域)を特定する。すなわち、図9を用いて前述した車室内領域特定テーブルを参照して、検出した基準顔向きに対応する車室内領域を特定する。例えば、図6に示すように、基準顔向きの水平方向の回転角度が−62°〜−44°の範囲であり、垂直方向の回転角度が−12°〜4°の範囲である場合は(図中Eの範囲)、車室内領域として「ルームミラー」が特定され、基準顔向きの水平方向の回転角度が−24°〜−8°の範囲であり、垂直方向の回転角度が−36°〜−28°の範囲である場合は、車室内領域として「ナビ画面」(ナビゲーションシステムのディスプレイ)が特定される。
こうして、運転者の車室内領域を判定したら、図3を用いて前述したS116の処理と同様に、当該車室内領域に対応する情報を出力装置15に表示する。当然ながら、基準顔向きに対応する構成要素が存在しない場合は、この表示処理は省略される。
以上のように、本変形例の運転者状態監視装置10は、運転者の顔の向きだけでなく運転者の頭部位置にも基づいて、運転者が目視している車室内の領域(車室内領域)を特定する。この結果、運転者が目視している車室内の領域を高精度で特定することが可能となる。
また、運転者の顔の向きを運転者の頭部位置に基づいて基準位置での顔の向き(基準顔向き)に変換する。そして、車室内領域特定テーブルを参照して基準顔向きに対応する車室内領域を特定する。したがって、運転者の顔の向きを基準顔向きに変換することで、運転者の頭部位置にかかわらず共通の対応関係(車室内領域特定テーブル)を参照することができるので、記憶容量を節約することができ、車室内領域を特定する際の処理負担を軽減することが可能となる。
D.第2変形例 :
上述した第1変形例では、3次元空間に判定球を配置して、判定球と顔の向きAの延長線との交点Pを車室内領域とした。これに限らず、図10に示すように、3次元空間に判定平面を配置して、判定平面と顔の向きAの延長線との交点Qを車室内領域としてもよい。もちろんこの場合は、図9を用いて前述した車室内領域特定テーブルを記憶することにより、概念的には、各基準顔向きの範囲に対応する車室内領域が判定平面に貼り付けられている状態となる。
上述した第1変形例では、3次元空間に判定球を配置して、判定球と顔の向きAの延長線との交点Pを車室内領域とした。これに限らず、図10に示すように、3次元空間に判定平面を配置して、判定平面と顔の向きAの延長線との交点Qを車室内領域としてもよい。もちろんこの場合は、図9を用いて前述した車室内領域特定テーブルを記憶することにより、概念的には、各基準顔向きの範囲に対応する車室内領域が判定平面に貼り付けられている状態となる。
尚、ROM13は、車室内の所定の基準位置に頭部がある場合の顔の向きである基準顔向きと車室内領域との対応関係を車室内領域特定テーブルとして記憶している。したがって、ROM13は本発明における「対応関係記憶手段」に対応している。また、CPU12は、運転者の顔の向きを頭部位置に基づいて基準顔向きに変換し、該基準顔向きから車室内領域特定テーブル(対応関係)を参照することによって車室内領域を特定する。したがって、CPU12は本発明における「特定手段」に対応している。
以上、本実施例および変形例の運転者状態監視装置10について説明したが、本発明は上記の実施例および変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
例えば、上述した実施例および変形例では、車室内領域を判定したら該車室内領域に対応する情報を出力することとした。これに限らず、車室内領域を判定したら、該車室内領域がルームミラーや、右ミラー、左ミラーであれば、これらの角度を自動的に調節することとしても良いし、該車室内領域がナビ画面であれば、ナビ画面の輝度を高くする(例えば節電モードからの復帰)こととしてもよい。
10…運転者状態監視装置、 11…近赤外光カメラ、 12…CPU、
13…ROM、 14…RAM、 15…出力装置、
16…バス、 100…車両
13…ROM、 14…RAM、 15…出力装置、
16…バス、 100…車両
Claims (4)
- 車室内に設けられて、
運転者の顔画像を撮像する顔画像撮像手段と、
前記顔画像に基づいて前記運転者の頭部位置を検出する頭部位置検出手段と、
前記顔画像に基づいて前記運転者の顔の向きを検出する顔向き検出手段と、
前記頭部位置と前記顔の向きとに基づいて、前記運転者が目視している前記車室内の領域である車室内領域を特定する特定手段と
を備える運転者状態監視装置。 - 請求項1に記載の運転状態監視装置であって、
前記車室内の所定の基準位置に頭部がある場合の顔の向きである基準顔向きと前記車室内領域との対応関係を記憶している対応関係記憶手段を備え、
前記特定手段は、前記顔の向きを前記頭部位置に基づいて前記基準顔向きに変換し、該基準顔向きから前記対応関係を参照することによって前記車室内領域を特定する手段である運転状態監視装置。 - 請求項1に記載の運転状態監視装置であって、
前記車室を構成する構成要素が仮想的に形成された3次元空間を記憶している3次元空間記憶手段を備え、
前記特定手段は、前記頭部位置と前記顔の向きとに基づいて前記運転者の仮想的な頭部を前記3次元空間に配置し、該3次元空間において、該仮想的な頭部の顔の向きに延びる直線が交差する前記構成要素を前記車室内領域として特定する手段である運転状態監視装置。 - 運転者の顔画像を撮像する工程と、
前記顔画像に基づいて前記運転者の頭部位置を検出する工程と、
前記顔画像に基づいて前記運転者の顔の向きを検出する工程と、
前記頭部位置と前記顔の向きとに基づいて、前記運転者が目視している車室内の領域である車室内領域を特定する工程と
を備える運転者状態監視方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013098011A JP2014218140A (ja) | 2013-05-07 | 2013-05-07 | 運転者状態監視装置、および運転者状態監視方法 |
PCT/JP2014/002249 WO2014181510A1 (ja) | 2013-05-07 | 2014-04-22 | 運転者状態監視装置、および運転者状態監視方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013098011A JP2014218140A (ja) | 2013-05-07 | 2013-05-07 | 運転者状態監視装置、および運転者状態監視方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014218140A true JP2014218140A (ja) | 2014-11-20 |
Family
ID=51867001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013098011A Pending JP2014218140A (ja) | 2013-05-07 | 2013-05-07 | 運転者状態監視装置、および運転者状態監視方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014218140A (ja) |
WO (1) | WO2014181510A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019156256A (ja) * | 2018-03-15 | 2019-09-19 | いすゞ自動車株式会社 | 検出装置および検出システム |
DE112017007243T5 (de) | 2017-03-14 | 2019-12-12 | Omron Corporation | Fahrerzustandsabschätzungsvorrichtung undfahrerzustandsabschätzungsverfahren |
DE112017007237T5 (de) | 2017-03-14 | 2019-12-12 | Omron Corporation | Fahrerzustandsabschätzungsvorrichtung und fahrerzustandsabschätzungsverfahren |
DE112017007011B4 (de) | 2017-03-10 | 2021-11-04 | Mitsubishi Electric Corporation | Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6737213B2 (ja) * | 2017-03-14 | 2020-08-05 | オムロン株式会社 | 運転者状態推定装置、及び運転者状態推定方法 |
CN114821546A (zh) * | 2019-10-22 | 2022-07-29 | 上海商汤智能科技有限公司 | 车舱内图像处理方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001175992A (ja) * | 1999-12-14 | 2001-06-29 | Mazda Motor Corp | 車両用表示装置 |
JP2005066023A (ja) * | 2003-08-25 | 2005-03-17 | Nissan Motor Co Ltd | 運転者状態検出装置 |
JP2007249352A (ja) * | 2006-03-14 | 2007-09-27 | Omron Corp | 情報処理装置および方法、記録媒体、並びに、プログラム |
EP2000889B1 (en) * | 2006-03-15 | 2018-06-27 | Omron Corporation | Monitor and monitoring method, controller and control method, and program |
-
2013
- 2013-05-07 JP JP2013098011A patent/JP2014218140A/ja active Pending
-
2014
- 2014-04-22 WO PCT/JP2014/002249 patent/WO2014181510A1/ja active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112017007011B4 (de) | 2017-03-10 | 2021-11-04 | Mitsubishi Electric Corporation | Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren |
US11216968B2 (en) | 2017-03-10 | 2022-01-04 | Mitsubishi Electric Corporation | Face direction estimation device and face direction estimation method |
DE112017007243T5 (de) | 2017-03-14 | 2019-12-12 | Omron Corporation | Fahrerzustandsabschätzungsvorrichtung undfahrerzustandsabschätzungsverfahren |
DE112017007237T5 (de) | 2017-03-14 | 2019-12-12 | Omron Corporation | Fahrerzustandsabschätzungsvorrichtung und fahrerzustandsabschätzungsverfahren |
JP2019156256A (ja) * | 2018-03-15 | 2019-09-19 | いすゞ自動車株式会社 | 検出装置および検出システム |
WO2019177073A1 (ja) * | 2018-03-15 | 2019-09-19 | いすゞ自動車株式会社 | 検出装置および検出システム |
JP7063024B2 (ja) | 2018-03-15 | 2022-05-09 | いすゞ自動車株式会社 | 検出装置および検出システム |
Also Published As
Publication number | Publication date |
---|---|
WO2014181510A1 (ja) | 2014-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10726576B2 (en) | System and method for identifying a camera pose of a forward facing camera in a vehicle | |
WO2014181510A1 (ja) | 運転者状態監視装置、および運転者状態監視方法 | |
US10183621B2 (en) | Vehicular image processing apparatus and vehicular image processing system | |
JP4899424B2 (ja) | 物体検出装置 | |
CN106537904B (zh) | 具有环境监测装置的车辆以及用于运行这种监测装置的方法 | |
JP5341789B2 (ja) | パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム | |
US10855934B2 (en) | Generating bird's-eye view images | |
JPWO2011043006A1 (ja) | 制御装置および車両周囲監視装置 | |
JP2013168063A (ja) | 画像処理装置、画像表示システム及び画像処理方法 | |
EP3633619B1 (en) | Position detection apparatus and position detection method | |
JPWO2015045568A1 (ja) | 予測進路提示装置及び予測進路提示方法 | |
US9162621B2 (en) | Parking support apparatus | |
JP2008141578A (ja) | 車両周辺視認装置 | |
JP4214841B2 (ja) | 周囲状況認識システム | |
KR20130015626A (ko) | Cctv 주차장 차량충돌 관리시스템 및 방법 | |
EP3082069A1 (en) | Stereoscopic object detection device and stereoscopic object detection method | |
US20170357271A1 (en) | Method and apparatus for visualization of an environment of a motor vehicle | |
WO2019049709A1 (ja) | 画像処理装置、画像処理方法、および画像表示システム | |
JP5539250B2 (ja) | 接近物体検知装置及び接近物体検知方法 | |
JP2009206702A (ja) | 画像処理装置、画像処理方法 | |
JP2015154125A (ja) | 車両周辺画像表示装置、車両周辺画像表示方法 | |
CN108422932A (zh) | 驾驶辅助系统、方法和车辆 | |
JP2012022646A (ja) | 視線方向検出装置、視線方向検出方法及び安全運転評価システム | |
US10933812B1 (en) | Outside-vehicle environment monitoring apparatus | |
JP4696825B2 (ja) | 車両用死角映像表示装置 |