JP2010129050A - 顔向き検出装置 - Google Patents
顔向き検出装置 Download PDFInfo
- Publication number
- JP2010129050A JP2010129050A JP2008306550A JP2008306550A JP2010129050A JP 2010129050 A JP2010129050 A JP 2010129050A JP 2008306550 A JP2008306550 A JP 2008306550A JP 2008306550 A JP2008306550 A JP 2008306550A JP 2010129050 A JP2010129050 A JP 2010129050A
- Authority
- JP
- Japan
- Prior art keywords
- slit light
- slit
- face
- light
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 1つの画像から各スリット光と照射角度とを特定できる顔向き検出装置を提供する。
【解決手段】 顔向き検出装置1は、運転者の顔位置に、隣接するスリット光に対する太さの比率を他のスリット光と異ならせた基準スリットを含む複数のスリット光を照射する複数スリット光源2と、運転者の顔位置を撮像するカメラ3と、撮像したスリット光画像から基準スリット光を抽出し、基準スリット光を基準として各スリット光が複数スリット光源2からどの角度で照射されたスリット光であるのかを特定し、光切断法により運転者の顔の向きを判定する制御部4と、を備えた。
【選択図】 図1
【解決手段】 顔向き検出装置1は、運転者の顔位置に、隣接するスリット光に対する太さの比率を他のスリット光と異ならせた基準スリットを含む複数のスリット光を照射する複数スリット光源2と、運転者の顔位置を撮像するカメラ3と、撮像したスリット光画像から基準スリット光を抽出し、基準スリット光を基準として各スリット光が複数スリット光源2からどの角度で照射されたスリット光であるのかを特定し、光切断法により運転者の顔の向きを判定する制御部4と、を備えた。
【選択図】 図1
Description
本発明は、格子パターン投影法を用いた顔向き検出装置の技術分野に属する。
従来の格子パターン投影法では、複数のスリット光を非計測物体に投影したときの非計測物体の画像と、スリット光のスリットパターンの一部の明暗を反転させて非計測物体に投影したときの非計測物体の画像とを比較することで、各スリット光と照射角度とを特定している。上記説明の技術に関する一例は、例えば、特許文献1に記載されている。
特開2004−325096号公報
しかしながら、上記従来技術にあっては、スリットパターンの一部の明暗を反転させた2つの画像を取得する必要がある。特に車両の警報用として運転者の顔向きを検出する場合、顔位置を早期に検出するためには、1つの画像から各スリット光と照射角度とを特定することが望まれる。
本発明の目的は、1つの画像から各スリット光と照射角度とを特定できる顔向き検出装置を提供することにある。
本発明では、画像に含まれる基準スリット光を基準として各スリット光が照射手段からどの角度で照射されたスリット光であるのかを特定し、光切断法により運転者の顔の向きを判定する。
よって、本発明にあっては、1つの画像から各スリット光と照射角度とを特定できる。
以下、本発明の顔向き検出装置を実施するための最良の形態を、図面に基づく実施例により説明する。
図1は、実施例1の顔向き検出装置1の概要を示す図であり、顔向き検出装置1は、複数スリット光源(照射手段)2と、カメラ(撮像手段)3と、制御部(顔向き判定手段)4と、状態判定ユニット5とを主要な構成とする。
複数スリット光源2は、光源2aと回折光学素子2bとを有し、光源2aの発した光を回折光学素子2bによって回折させ、運転者の顔6に上下方向で照射角度の異なる複数のスリット光7を投影する。
図1では、紙面の都合上スリット光7を実線で示しているが、実際はスリット光が照射される部分は明るく、他の部分は暗くなる。また、スリット光7は4本のみ図示しているが、運転者の個体差による顔の位置のずれを考慮し、例えば、上下方向に20本程度のスリット光を照射している。
複数スリット光源2は、車室内であって、運転者の顔6の全体にスリット光7を投影可能な位置に配置している。
なお、光源2aとしては、例えば、近赤外線波長のスリットレーザー等(近赤外線レーザダイオード)を用いることができる。
なお、光源2aとしては、例えば、近赤外線波長のスリットレーザー等(近赤外線レーザダイオード)を用いることができる。
カメラ3は、運転者の顔6に投影されたスリット光7の反射光を撮像するもので、顔6の全体を撮像可能、かつ、光軸が複数スリット光源2の光軸と異なる角度となる位置(例えば、ステアリングコラム上部やインストルメントパネル上部等)に配置している。
カメラ3としては、例えば、近赤外線カメラとバンドパスフィルタとの組み合わせが好ましい。外光の影響を受けにくいからである。
カメラ3としては、例えば、近赤外線カメラとバンドパスフィルタとの組み合わせが好ましい。外光の影響を受けにくいからである。
制御部4は、カメラ4の撮像した画像(以下、スリット光画像)から運転者の顔6の向き(上下左右)を判定する。制御部4の詳細については後述する。
状態判定ユニット5は、制御部4により判定した運転者の顔6の向きに応じて、運転者の状態を判定し、運転者の状態に応じた処理を行う。例えば、顔6が所定時間下を向いている場合には、運転者が居眠りをしていると判定し、警報を発する。また、顔6が所定時間横を向いている場合には、運転者がよそ見をしていると判定し、警報を発する。なお、警報を発した後も運転者の顔の向きが変わらない(運転者が前方を見ない)場合には、車両を減速させる制御を実施してもよい。
次に、制御部4の詳細について説明する。
図2は、実施例1の制御部4の詳細を示すブロック図であり、制御部4は、画像入力部4aと、タイミング制御部4bと、画像処理部4cと、対応付け処理部4dと、3次元データ/距離算出部4eと、顔形状/顔角度算定部4fと、顔角度出力部4gとを備える。
図2は、実施例1の制御部4の詳細を示すブロック図であり、制御部4は、画像入力部4aと、タイミング制御部4bと、画像処理部4cと、対応付け処理部4dと、3次元データ/距離算出部4eと、顔形状/顔角度算定部4fと、顔角度出力部4gとを備える。
画像入力部4aは、カメラ3により撮像したスリット光画像を取り込み、記憶する。
タイミング制御部4bは、光源2aの発光タイミングとカメラ3のシャッタータイミングとを同期させる。
タイミング制御部4bは、光源2aの発光タイミングとカメラ3のシャッタータイミングとを同期させる。
画像処理部4cは、画像入力部4aに取り込んだスリット光画像に対し、各スリット光(実際は各スリット光が顔6により反射した反射光)を検出し、各スリット光の中から基準スリット光を抽出する。
ここで、基準スリット光とは、他のスリット光と形状の異なるスリット光であり、複数のスリット光の略中央に配置している。実施例1では、基準スリット光の太さ(上下方向幅)を他のスリット光よりも太く設定している。画像処理部4cでは、基準スリット光からのスリット光の本数(ライン)をカウントすることで、各スリット光を特定する。
ここで、基準スリット光とは、他のスリット光と形状の異なるスリット光であり、複数のスリット光の略中央に配置している。実施例1では、基準スリット光の太さ(上下方向幅)を他のスリット光よりも太く設定している。画像処理部4cでは、基準スリット光からのスリット光の本数(ライン)をカウントすることで、各スリット光を特定する。
対応付け処理部4dは、画像処理部4cにより特定した各スリット光と照射角度との対応付けを行う。つまり、各スリット光が複数スリット光源2からどの角度で照射したスリット光であるのかを特定する。
3次元データ/距離算出部4eは、対応付け処理部4dにより対応付けした各スリット光と照射角度とに基づいて、カメラ3の光軸と複数スリット光源2の光軸の角度等から、周知の光切断法を用い、スリット光画像内の各スリット光の距離をドット(画素)毎に算出し、3次元データを作成する。
顔形状/顔角度算定部4fは、3次元データ/距離算出部4eにより作成した3次元データに基づいて、運転者の顔の形状(顔の幅、鼻の位置等)を算定すると共に、顔の形状(鼻の向き等)に基づいて顔の上下左右の角度(顔の向き)を算出する。
顔角度出力部4gは、顔形状/顔角度算定部4fにより算定した顔の角度を状態判定ユニット5へ出力する。
顔角度出力部4gは、顔形状/顔角度算定部4fにより算定した顔の角度を状態判定ユニット5へ出力する。
[顔向き算出処理]
図3は、実施例1の顔向き検出装置1による顔向き算出処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、この処理は、所定の演算周期で繰り返し実行される。
図3は、実施例1の顔向き検出装置1による顔向き算出処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、この処理は、所定の演算周期で繰り返し実行される。
ステップS1では、複数スリット光源3において、運転者の顔全体にスリット光を照射し、ステップS2へ移行する。
ステップS2では、タイミング制御部4bにおいて、複数スリット光源3の発光タイミングとカメラ3のシャッタータイミングとを同期させてカメラ3によりスリット光画像を撮像すると共に、画像入力部4aにおいて、スリット光画像を取り込み、ステップS3へ移行する。
ステップS3では、画像処理部4cにおいて、スリット光画像に対し、各ドットの輝度から各スリット光の位置および形状を検出するスリット光検出画像処理を行い、ステップS4へ移行する。
ステップS4では、画像処理部4cにおいて、検出した各スリット光のうち、他のスリット光よりも幅の太い基準スリット光を抽出し、ステップS5へ移行する。
ステップS5では、画像処理部4cにおいて、基準スリット光に基づいて各スリット光の特定を行い、ステップS6へ移行する。各スリット光の特定方法については後述する。
ステップS6では、対応付け処理部4dにおいて、各スリット光と照射角度との対応付けを実施し、ステップS7へ移行する。
ステップS7では、3次元データ/距離算出部4eにおいて、光切断法を用いてスリット光画像の3次元座標計算を行い、ステップS8へ移行する。
ステップS8では、顔形状/顔角度算定部4fにおいて、運転者の顔形状を算定し、ステップS9へ移行する。
ステップS9では、顔形状/顔角度算定部4fにおいて、顔形状から顔向きを算出し、本制御を終了する。
次に、作用を説明する。
実施例1の顔向き検出装置1では、他のスリット光と太さの異なる基準スリット光を設定している。基準スリット光と照射角度との関係は、あらかじめわかっているため、スリット光画像内で基準スリット光を抽出すれば、他のスリット光を特定でき、各スリット光と照射角度との関係も、基準スリット光と照射角度との関係から自ずと導き出すことができる。
実施例1の顔向き検出装置1では、他のスリット光と太さの異なる基準スリット光を設定している。基準スリット光と照射角度との関係は、あらかじめわかっているため、スリット光画像内で基準スリット光を抽出すれば、他のスリット光を特定でき、各スリット光と照射角度との関係も、基準スリット光と照射角度との関係から自ずと導き出すことができる。
例えば、スリット光画像において、段差(例えば、鼻の部分)や低反射部分(例えば、頭髪部分)では、図4に示すように、スリット光の縦方向の位置が変わったり、不連続となったりする。このため、同一のスリット光であっても、不連続部分が有る場合、どのスリット光がどの照射角度で照射されたスリット光であるのかを特定できず、光切断法を用いた顔形状の3次元データの生成が困難となる。
なお、図4に示した例では、スリット光画像内で最も上方に位置するスリット光から各スリット光の数をカウントすることで、各スリット光の特定は可能であるようにも見えるが、実際はスリット光画像内にスリット光が映っていない場合もある。つまり、スリット光画像内で最も上(または下)に位置するスリット光は、複数スリット光源2で最も照射角度の大きく(または小さく)したときのスリット光であるとは限らない。よって、場合によっては、顔形状の3次元データを生成できない。
ここで、上記特許文献1には、スリットパターンの一部の明暗を判定させた2つの画像を比較することで、不連続部分のある同一のスリット光を特定する技術が開示されている。ところが、この技術では、2つのスリット光画像を取得し、両画像の差分を比較する処理が必要となるため、画像の取得時間および処理時間が長くなる。このため、顔位置を検出するまでに時間が掛かり、車両の警報用としての実用性に劣る。
また、特許文献1に記載された技術では、スリットパターンの一部の明暗を反転させる機構が必要であるため、複数スリット光源の複雑化によるコストアップを伴う。
また、特許文献1に記載された技術では、スリットパターンの一部の明暗を反転させる機構が必要であるため、複数スリット光源の複雑化によるコストアップを伴う。
これに対し、実施例1の顔向き検出装置1では、他のスリット光よりも太い基準スリット光を設定し、この基準スリット光を基準として各スリット光を特定している。このため、図5に示すように、スリット光に不連続な部分が生じたとしても、基準スリット光からのスリット光の数をカウントするだけで、不連続部分のある同一のスリット光を含め、各スリット光を容易に特定できる。
つまり、実施例1の顔向き検出装置1では、1つのスリット光画像から各スリット光の特定が可能であるため、画像の取得時間を短くできる。また、スリット光画像内の基準スリット光からのライン(スリット光)の数をカウントすることで、各スリット光を特定できるため、画像の処理時間を短くできる。
よって、実施例1の顔向き検出装置1では、運転者の顔の向きを早期に検出できる。顔向きの検出が早いことは、運転者の顔向きから走行中の居眠りやよそ見を判定し、警報を発するシステムにとって有利である。走行中の車両において、運転者の居眠りやよそ見はできるだけ早期に発見するのが好ましいからである。
また、実施例1の顔向き検出装置1では、スリットパターンを変更する必要がないため、スリットパターンを変更する機構が不要である。このため、複数スリット光源を簡略化でき、コストを抑えることができる。
また、実施例1の顔向き検出装置1では、スリットパターンを変更する必要がないため、スリットパターンを変更する機構が不要である。このため、複数スリット光源を簡略化でき、コストを抑えることができる。
次に、効果を説明する。
実施例1の顔向き検出装置1では、以下の列挙する効果を奏する。
実施例1の顔向き検出装置1では、以下の列挙する効果を奏する。
(1) 顔向き検出装置1は、運転者の顔位置に、隣接するスリット光に対する太さの比率を他のスリット光と異ならせた基準スリットを含む複数のスリット光を照射する複数スリット光源2と、運転者の顔位置を撮像するカメラ3と、撮像したスリット光画像から基準スリット光を抽出し、基準スリット光を基準として各スリット光が複数スリット光源2からどの角度で照射されたスリット光であるのかを特定し、光切断法により運転者の顔の向きを判定する制御部4と、を備えた。これにより、1つのスリット光画像から各スリット光と照射角度とを特定できる。
(2) 複数スリット光源2は、基準スリット光の太さを他のスリット光よりも太くするため、基準スリット光を早期に抽出できる。
(3) 複数スリット光源2は、基準スリット光を複数のスリット光の略中央部分に配置するため、運転者の顔の高さにかかわらず、基準スリット光をカメラ3の撮像範囲内に収めることができる。つまり、基準スリット光が撮像範囲から外れて各スリット光の特定が不能となるのを防止できる。
実施例2では、上のスリット光の太さに対する下のスリット光の太さの比率を、全ての上下スリット光の組み合わせで異ならせた例である。なお、実施例1と同一の構成については、同一の符号を付して図示ならびに説明を省略する。
図6は、実施例2の各スリット光の形状の一例である。この例では、20本のスリット光を縦480ドットの画像で撮像した場合、1ラインの間隔を均等にし、最低ドットを3ドットに撮影しようとすると、スリット光の1ライン当たり、24ドットが使用可能であるため、各スリット光の太さを図6(a)のように変更することができる。
図6(a)のように上のスリット光に対する太さの比率を変えた場合、カメラ3により撮像したスリット光画像において、各スリット光の太さは、図6(b)のようなイメージとなる。すなわち、上端および下端に位置するスリット光が最も細く、上下方向中央に進むに従って徐々に太くなる。
[顔向き算出処理]
図7は、実施例2の顔向き検出装置1による顔向き算出処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、図3に示した実施例1の顔向き算出処理と同一処理を行うステップには、同一のステップ番号を付して説明を省略する。
図7は、実施例2の顔向き検出装置1による顔向き算出処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、図3に示した実施例1の顔向き算出処理と同一処理を行うステップには、同一のステップ番号を付して説明を省略する。
ステップS14では、画像処理部4cにおいて、検出した各スリット光の上のスリット光に対する太さの比率を算出し、ステップS15へ移行する。
ステップS15では、画像処理部4cにおいて、各スリット光の上のスリット光に対する太さの比率に基づいて、各スリット光の特定を行い、ステップS6へ移行する。
次に、作用を説明する。
実施例2の顔向き検出装置1では、上のスリット光の太さに対する下のスリット光の太さの比率を、全ての上下スリット光の組み合わせで異ならせている。ここで、上のスリット光の太さに対する下のスリット光の太さの比率は、全て固有値であるため、この比率を算出することで、スリット光のライン番号を特定できる。よって、スリット光画像に不連続部分が生じている場合であっても、照射角度との対応付けが特定できる。
実施例2の顔向き検出装置1では、上のスリット光の太さに対する下のスリット光の太さの比率を、全ての上下スリット光の組み合わせで異ならせている。ここで、上のスリット光の太さに対する下のスリット光の太さの比率は、全て固有値であるため、この比率を算出することで、スリット光のライン番号を特定できる。よって、スリット光画像に不連続部分が生じている場合であっても、照射角度との対応付けが特定できる。
また、実施例2では、全ての上下スリット光の組み合わせで比率を異ならせているため、一部のスリット光がスリット光画像に含まれない場合があっても、各スリット光と照射角度との対応付けを特定できる。つまり、任意のスリット光を基準スリット光として他のスリット光を特定できる。
次に、効果を説明する。
実施例2の顔向き検出装置1では、実施例1の効果(1)に加え、以下の効果を奏する。
実施例2の顔向き検出装置1では、実施例1の効果(1)に加え、以下の効果を奏する。
(4) 複数スリット光源2は、隣接するスリット光に対する太さの比率を全て異ならせた複数のスリット光を照射し、制御部4は、撮像したスリット光画像のスリット毎に隣接するスリット光に対する太さの比率を検出して各スリット光と照射角度とを特定する。これにより、全てのスリット光が基準スリット光となり得るため、対応付けの精度が向上する。
(他の実施例)
以上、本発明の顔向き検出装置を実施するための最良の形態を、実施例に基づいて説明したが、本発明の具体的な構成は実施例に示したものに限定されるものではない。
以上、本発明の顔向き検出装置を実施するための最良の形態を、実施例に基づいて説明したが、本発明の具体的な構成は実施例に示したものに限定されるものではない。
例えば、実施例2では、上のスリット光の太さに対する下のスリット光の太さの比率を図6(a)のように変える例を示したが、これに限らず、例えば、図8のようにしてもよい。
図8の左は、上のスリット光から順に太くしていく例である。図8の中央は、比率の小さくなる上下方向中央部に多くのドットを割り振るように太さを変更する例である。図8の右は、比率を大きく取るために、2ドットずつ割り付け、中央で折り返すように太さを変更する例である。
実施例1では、基準スリット光を1つとする例を示したが、複数の基準スリット光を設定してもよい。また、基準スリット光を他のスリット光よりも細くしてもよい。さらに、基準スリット光を破線としてもよい。
複数スリット光源とカメラの位置は、両光軸の角度が異なる位置であれば、任意の位置に配置できる。
複数スリット光源とカメラの位置は、両光軸の角度が異なる位置であれば、任意の位置に配置できる。
1 顔向き検出装置
2 複数スリット光源(照射手段)
3 カメラ(撮像手段)
4 制御部(顔向き判定手段)
2 複数スリット光源(照射手段)
3 カメラ(撮像手段)
4 制御部(顔向き判定手段)
Claims (4)
- 運転者の顔位置に、隣接するスリット光に対する太さの比率を他のスリット光と異ならせた基準スリットを含む複数のスリット光を照射する照射手段と、
運転者の顔位置を撮像する撮像手段と、
撮像した画像から前記基準スリット光を抽出し、基準スリット光を基準として各スリット光が前記照射手段からどの角度で照射されたスリット光であるのかを特定し、光切断法により運転者の顔の向きを判定する顔向き判定手段と、
を備えたことを特徴とする顔向き検出装置。 - 請求項1に記載の顔向き検出装置において、
前記照射手段は、前記基準スリット光の太さを他のスリット光と異ならせることを特徴とする顔向き検出装置。 - 請求項1または請求項2に記載の顔向き検出装置において、
前記照射手段は、前記基準スリット光を複数のスリット光の略中央部分に配置することを特徴とする顔向き検出装置。 - 請求項1に記載の顔向き検出装置において、
前記照射手段は、隣接するスリット光に対する太さの比率を全て異ならせた複数のスリット光を照射し、
前記顔向き判定手段は、撮像した画像のスリット毎に隣接するスリット光に対する太さの比率を検出して各スリット光と照射角度とを特定することを特徴とする顔向き検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008306550A JP2010129050A (ja) | 2008-12-01 | 2008-12-01 | 顔向き検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008306550A JP2010129050A (ja) | 2008-12-01 | 2008-12-01 | 顔向き検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010129050A true JP2010129050A (ja) | 2010-06-10 |
Family
ID=42329360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008306550A Pending JP2010129050A (ja) | 2008-12-01 | 2008-12-01 | 顔向き検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010129050A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016126719A (ja) * | 2015-01-08 | 2016-07-11 | 株式会社デンソー | 顔検出装置 |
JP2016137155A (ja) * | 2015-01-28 | 2016-08-04 | 京セラ株式会社 | 眼の開閉状態の判定方法、画像処理装置、および判定システム |
US9679209B2 (en) | 2012-07-25 | 2017-06-13 | Denso Corporation | State monitoring apparatus |
-
2008
- 2008-12-01 JP JP2008306550A patent/JP2010129050A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9679209B2 (en) | 2012-07-25 | 2017-06-13 | Denso Corporation | State monitoring apparatus |
JP2016126719A (ja) * | 2015-01-08 | 2016-07-11 | 株式会社デンソー | 顔検出装置 |
WO2016111327A1 (ja) * | 2015-01-08 | 2016-07-14 | 株式会社デンソー | 顔検出装置 |
JP2016137155A (ja) * | 2015-01-28 | 2016-08-04 | 京セラ株式会社 | 眼の開閉状態の判定方法、画像処理装置、および判定システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6484071B2 (ja) | 物体検出装置 | |
JP5092613B2 (ja) | 距離計測方法および装置、ならびに距離計測装置を備えた車両 | |
US9030529B2 (en) | Depth image acquiring device, system and method | |
EP3652703B1 (en) | Visual, depth and micro-vibration data extraction using a unified imaging device | |
JP5251419B2 (ja) | 距離計測装置および距離計測方法 | |
JP4485365B2 (ja) | 測距装置 | |
JP6484072B2 (ja) | 物体検出装置 | |
KR20200123483A (ko) | 3 차원 깊이 감지 및 2 차원 이미징을 위한 카메라 노출의 조정 | |
US20130258108A1 (en) | Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same | |
JP5753509B2 (ja) | 被測定物情報取得装置 | |
KR20120101520A (ko) | 범위 기초 감지 | |
CN107076553B (zh) | 使用结构光的增强对象检测 | |
KR20180016546A (ko) | 깊이 데이터 검출 장치 및 모니터링 장치 | |
EP2829951B1 (en) | Optical sensor | |
JP2014137762A (ja) | 物体検出装置 | |
JP2010129050A (ja) | 顔向き検出装置 | |
JP5266952B2 (ja) | 光学式計測装置および計測方法 | |
JP2010133722A (ja) | 顔向き検出装置 | |
JP2005262883A (ja) | 印刷技術機械での運転過程を制御する方法 | |
JP2009041928A (ja) | 距離計測方法および装置、ならびに距離計測装置を備えた車両 | |
JP2008051759A (ja) | 距離計測装置及び距離計測方法 | |
JP2007240387A (ja) | 画像認識装置および画像認識方法 | |
CN108688671B (zh) | 用于观测在车辆中的驾驶员以确定驾驶员在车辆中的至少一个位置的方法和驾驶员观测设备 | |
WO2013015146A1 (ja) | 物体検出装置および情報取得装置 | |
JP6436349B2 (ja) | 物体検出装置 |