JP4989762B2 - 運転者監視装置、運転者監視方法及び車両 - Google Patents

運転者監視装置、運転者監視方法及び車両 Download PDF

Info

Publication number
JP4989762B2
JP4989762B2 JP2010503757A JP2010503757A JP4989762B2 JP 4989762 B2 JP4989762 B2 JP 4989762B2 JP 2010503757 A JP2010503757 A JP 2010503757A JP 2010503757 A JP2010503757 A JP 2010503757A JP 4989762 B2 JP4989762 B2 JP 4989762B2
Authority
JP
Japan
Prior art keywords
face
driver
eye camera
image
compound eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010503757A
Other languages
English (en)
Other versions
JPWO2009116242A1 (ja
Inventor
悟史 玉木
友邦 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010503757A priority Critical patent/JP4989762B2/ja
Publication of JPWO2009116242A1 publication Critical patent/JPWO2009116242A1/ja
Application granted granted Critical
Publication of JP4989762B2 publication Critical patent/JP4989762B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/001Vehicle control means, e.g. steering-wheel or column
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)

Description

本発明は、車両に搭載され、運転者の顔画像をカメラにより取得し、運転者の状態を検出する運転者監視装置及び運転者監視方法に関する。
従来より、運転者の顔を撮影し、撮影により得られた画像を用いて画像処理を行うことで運転者の顔向きを検出し、検出結果を用いて運転者の脇見や居眠りを判定する装置が提案されている。
例えば、特許文献1に示す技術によれば、カメラを用いて、所定の時間間隔(サンプリング間隔)で順次運転者を撮影し、取得画像と1サンプリング前の取得画像との差分演算により時間差分値を演算する。この時間差分値より得られる画像はサンプリング間隔における運転者の動きであり、この動きから運転者の顔位置を検出し、顔向き等を演算により求めている。
また、特許文献2に示す技術では、異なる位置に配置された2つのカメラ(第1のカメラ及び第2のカメラ)を用いて運転者の顔画像を取得することで、顔向きを検出している。
第1のカメラは、ステアリングコラム等に配置され、運転者を撮影する。第2のカメラは、ルームミラー等に配置され、第1のカメラとは異なる方向から運転者を撮影する。第2のカメラの取得画像には、第1のカメラとの位置関係が既知である参照物体と運転者とが同時に撮影される。参照物体は、例えば、第1のカメラそのもの、又は、ステアリングコラムなどである。
次に、運転者の顔位置と参照物体の位置とを画像処理により求める。そして、参照物体と第1のカメラとの位置情報を用いて、第2のカメラの取得画像より、第1のカメラから運転者の顔までの距離を演算で求める。求めた距離に応じて第1のカメラのズーム比を、運転者の顔画像が適切になるように調整し、適切に撮影された顔画像をもとに顔向き等を検出するものである。
また、特許文献3に示す技術によれば、特許文献2に示す技術と同様に、異なる位置に配置された2つのカメラを用いて運転者の顔画像を取得することで、顔向きを検出している。
2つのカメラは、例えば、ダッシュボードの上(インストルメントパネルの両脇)などの左右の離れた位置に配置され、運転者を左右から撮影する。2つの撮影した画像から顔部品の特徴点の位置を推定し、推定した位置に基づいて顔向きを検出する。
特開平11−161798号公報 特開2006−213146号公報 特開2007−257333号公報
しかしながら、上記従来技術では、外乱などの影響を受けることなく、十分な精度で顔向きの検出を行うことができないという課題がある。
例えば、特許文献1に示す技術では、差分画像を基に運転者の顔位置を切り出すため、顔が動いていなくても太陽光等の外光によって、差分画像が変化し、運転者が動いたものと誤検出してしまう。
また、特許文献2に示す技術では、第2のカメラで撮影された画像の位置関係から、顔向き検出の第1のカメラに写る顔画像のサイズを適切にするために、顔を円筒形モデルと単純化している。このため、脇見やドアミラーの確認など大きく顔を振っている状態を検出するようなシーン等では正しく検出できない。さらに、カメラで撮影した運転者の顔の2次元情報を基にエッジ抽出等の画像処理で顔部品を検出し、その結果に基づいて顔向き等を検出しているため、太陽光等の外光によって、顔の明るさが場所によって異なる場合、目や口元、顔の輪郭のエッジ以外に、外光による明暗の境界にも不要なエッジが発生してしまい、正しく顔向きを検出することが困難となる。
また、特許文献3に示す技術では、運転者を左右の方向から撮影して得られた画像から、顔部品の特徴点を算出しているが、人間の顔部品は、一般的に横方向(左右方向)に特徴を有する部品が多く、正確な顔部品の特徴点の位置を推定することができない。また、精度を向上させるためには、2つのカメラの基線方向を長くしなければならないが、狭い車両内では必ずしも十分な基線長を確保することができるとはいえない。
そこで、本発明は、カメラの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出することができる運転者監視装置及び運転者監視方法を提供することを目的とする。
上記目的を達成するために、本発明の運転者監視装置は、運転者の顔向きを監視する運転者監視装置であって、前記運転者に対して近赤外光を照射する照明と、複数のレンズと当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有し、前記運転者の顔を撮影する複眼カメラと、前記複眼カメラで撮影することで得られる画像を処理し、前記運転者の顔の特徴点の3次元位置を検出することで、前記運転者の顔向きを推定する処理手段とを備え、前記複眼カメラは、前記複数のレンズの並ぶ方向である基線方向が鉛直方向に一致するように配置される。
これにより、複数のレンズの基線方向が、正常に車両を運転している時の運転者の顔の上下方向(鉛直方向)と一致するため、横方向(左右方向)に特徴のある顔部品の位置を精度良く推定することができる。また、専用の照明を備えることにより、太陽光などの外部からの照明環境の影響を受けずに顔向きを検出することができる。よって、レンズの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出することができる。また、レンズの基線長を長く設定することがないため、カメラなどを非常に小型化することができる。
また、前記処理手段は、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品の3次元位置を検出してもよい。
これにより、人間の顔の中でも特に横方向に特徴のある部品を利用することで、複眼カメラによって取得された画像から、容易に、かつ、精度良く顔部品を検出することができる。
例えば、前記処理手段は、前記左右方向に特徴を有する顔部品として、前記運転者の眉、目尻及び口元の少なくとも1つの3次元位置を検出してもよい。
また、前記処理手段は、前記複眼カメラで撮影することで得られる複数の第1画像の視差を用いて前記運転者の顔の特徴点の3次元位置を演算する顔モデル演算部と、前記顔モデル演算部で演算することで得られる顔モデルと、前記複眼カメラが所定の時間間隔で前記運転者の顔を順次撮影することで得られる複数の第2画像とを用いて、前記運転者の顔向きを推定する顔追跡演算部とを有してもよい。
これにより、複数の第1画像から1つを基準画像として他の画像との視差を算出することで、実際に顔部品までの距離を測定し、顔の3次元位置情報を演算するため、運転者が大きく顔を振った場合などでも正しく顔向きを検出することができる。
また、前記顔モデル演算部は、前記第1画像の視差として、前記複数の撮像領域の基線方向の視差を用いて前記3次元位置を演算してもよい。
これにより、複数のレンズの基線方向の視差を読み出すことで、横方向に特徴のある顔部品の位置を精度良く検出することができる。
また、前記処理手段は、さらに、前記第2画像を30フレーム/秒以上のフレームレートで前記顔追跡演算部に出力するように前記複眼カメラを制御する制御部を有してもよい。
これにより、顔向きを逐次的に検出することができる。
また、前記制御部は、さらに、前記第2画像の画素数が、前記第1画像の画素数より少なくなるように前記複眼カメラを制御してもよい。
これにより、顔向きを逐次的に推定する場合には、複眼カメラから出力される画素数を小さくすることで、30フレーム/秒以上のフレームレートを維持することができる。
また、本発明は、上記の運転者監視装置を備える車両として実現することもできる。また、本発明の車両は、前記複眼カメラと前記照明とを前記車両のステアリングコラムの上部に備えてもよい。
これにより、運転者の視界を妨げることなく、常に運転者の顔を撮影することができ、運転者の顔向きを常に監視することができる。
本発明によれば、カメラの基線長を長く設定することなく、かつ、外乱の影響に妨げられずに十分な精度で運転者の顔向きを検出することができる。
図1は、実施の形態1の運転者監視装置の構成を示すブロック図である。 図2は、実施の形態1の運転者監視装置の複眼カメラユニットが配置される位置の一例を示す外観図である。 図3は、実施の形態1の複眼カメラユニットの正面図である。 図4は、実施の形態1の複眼カメラの側面断面図である。 図5は、実施の形態1の運転者監視装置の動作を示すフローチャートである。 図6は、実施の形態1の複眼カメラによる取得画像の一例を示す模式図である。 図7Aは、基線方向に水平な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。 図7Bは、基線方向に垂直な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。 図8Aは、人間の顔の模式図である。 図8Bは、探索方向による精度の違いを示す図である。 図9は、実施の形態2の運転者監視装置の構成を示すブロック図である。
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。
(実施の形態1)
本実施の形態の運転者監視装置は、複数のレンズの基線方向が鉛直方向に一致するように配置された複眼カメラを用いて運転者を撮影する。そして、撮影により得られた画像を処理し、前記運転者の顔の特徴点の3次元位置を検出することで、運転者の顔向きを監視する。複数のレンズの基線方向を鉛直方向に一致させることで、正常な運転時の運転者の顔の上下方向と基線方向とを一致させることができる。
図1は、本実施の形態の運転者監視装置10の構成を示すブロック図である。同図に示すように、運転者監視装置10は、複眼カメラユニット20と、ECU(Electric Control Unit)30とを備える。
複眼カメラユニット20は、複眼カメラ21と補助照明22とを備える。図2は、運転者監視装置10の複眼カメラユニット20が配置される位置を示す外観図である。同図に示すように、複眼カメラユニット20は、例えば、車両40内部のステアリングコラム42の上に配置される。複眼カメラユニット20は、ステアリングホイール41を通して運転者50を正面から見上げるように撮影する。なお、複眼カメラユニット20を配置する位置は、運転者50の顔を撮影できる場所であれば、ステアリングコラム42の上には限られない。例えば、フロントガラスの上部若しくは上方、又はダッシュボードの上部などに配置してもよい。
複眼カメラ21は、ECU30から出力される、撮影を許可する信号が入力され、当該信号に基づいて運転者50を正面から25度程度見上げるように撮影する。なお、複眼カメラユニット20が配置される位置によっては、運転者50を正面から、又は見下げるように撮影することになるが、いずれの場合でもよい。
補助照明22は、上記の撮影を許可する信号に同期して、運転者50に対して近赤外光を照射する。ここで、運転者50を照射する光を近赤外光としているのは、例えば、可視光などを照射した場合は正常な運転を阻害する恐れがあるためである。
なお、複眼カメラユニット20、複眼カメラ21及び補助照明22の構造については、後述する。
ECU30は、複眼カメラ21で撮影された画像を処理し、運転者50の顔の特徴点の3次元位置を検出することで、運転者50の顔向きを検出する処理部である。ECU30は、全体制御部31と、照明発光制御部32と、顔モデル作成演算部33と、顔追跡演算部34と、顔向き判定部35と、顔向き出力部36とを備える。なお、ECU30は、例えば、車両40のダッシュボードの内部などに備えられる(図2には示していない)。
全体制御部31は、複眼カメラ21の撮影条件などの制御を含め、運転者監視装置10全体を制御する。例えば、複眼カメラ21に対して撮影を許可する信号を出力する。また、全体制御部31は、照明発光制御部32を制御することで、補助照明22の発光に同期させて複眼カメラ21が撮影を行うように複眼カメラ21を制御する。これは、補助照明22を常に発光させていると、発光強度が低下してしまい、画像を処理するのに十分な明るさを得ることができないためである。
照明発光制御部32は、補助照明22の発光を制御する。照明発光制御部32は、全体制御部31からの制御に基づいて、照明の発光のタイミングなどを制御する。
顔モデル作成演算部33は、複眼カメラ21で撮影された画像に基づいて、顔モデルを作成する。なお、顔モデルを作成するとは、複数の顔部品の特徴点の3次元位置を演算することである。すなわち、顔モデルとは、顔部品の特徴点の3次元位置(複眼カメラ21からの距離など)に関する情報である。顔モデル作成演算部33の詳細については後述する。
顔追跡演算部34は、運転者50の顔を順次撮影した画像から顔向きを逐次的に推定する。例えば、顔追跡演算部34は、パーティクルフィルタを用いて顔向きを逐次的に推定する。
具体的には、顔追跡演算部34は、1フレーム前の顔向きの確率密度及び運動履歴などに基づいて、1フレーム前の顔の位置からある方向に顔が動いたとして顔向きを予測する。そして、顔モデル作成演算部33によって取得された顔部品の3次元位置情報を基に、顔追跡演算部34は、予測した動きによる顔部品が移動した位置を推定し、その推定した位置での現在の取得画像と、顔モデル作成演算部33によって取得済みの顔部品の周辺の画像とをテンプレートマッチングにより相関をとる。さらに、顔追跡演算部34は、複数の顔向きを予測し、その予測した複数の顔向き毎に、上述と同様にテンプレートマッチングによる複数の相関値を得る。例えば、相関値は、ブロック内の画素の差分絶対値和などを算出することで得ることができる。
顔向き判定部35は、推定した顔向きと、その顔の向きでのパターンマッチングの相関値とから顔向きを判定することで、判定された顔向きを現在の運転者の顔向きとして検出する。例えば、顔向き判定部35は、一番高い相関値に対応する顔向きを検出する。
顔向き出力部36は、顔向き判定部35により検出された顔向きを基にして、車両情報及び車両の周辺情報などを基にして、必要に応じて外部に顔向きに関する情報を出力する。例えば、顔向き判定部35により検出された顔向きが脇見運転をしている場合の顔向きであった場合、顔向き出力部36は、運転者に対して注意を促すための警報を鳴らす、車内照明を点灯させる、又は、車両の速度を減少させるなどを行う。
続いて、本実施の形態の複眼カメラユニット20、複眼カメラ21及び補助照明22の詳細について説明する。図3は、本実施の形態の複眼カメラユニット20を運転者50から見た場合の正面図である。
複眼カメラユニット20は、ステアリングコラム42の上に配置されており、ステアリングホイール41の間を通して運転者50(図3には示されていない)を撮影する。上述したように、複眼カメラユニット20は、複眼カメラ21と補助照明22とを備えている。
複眼カメラ21は、一体で樹脂成型された2つのレンズ211a及び211bを有する。2つのレンズ211a及び211bは、上下方向(鉛直方向)に配置されている。なお、ここでいう上下方向とは、運転者50の顔の上下方向(額とあごとを結ぶライン)とほぼ同じ方向である。
補助照明22は、運転者50に対して近赤外光を照射するLED(Light Emitting Diode)などである。図3には一例として、複眼カメラ21の両側に2つずつのLEDを備える構成を示す。
次に、複眼カメラ21の構成について説明する。
図4は、複眼カメラ21の側面断面図である。図4の左側が図3の上側に対応し、図4の右側が図3の下側に対応する。図4に示すように、複眼カメラ21は、レンズアレイ211と、鏡筒212と、上鏡筒213と、撮像素子214と、遮光壁215と、光学絞り216a及び216bと、光学フィルタ217とを備える。
レンズアレイ211は、ガラス又はプラスチックなどの材料を用いて一体に形成される。レンズアレイ211は、2つのレンズ211a及び211bを有し、2つのレンズ間隔(基線長)は、D(mm)離れて配置されている。例えば、Dは2〜3の値である。
鏡筒212は、上鏡筒213とレンズアレイ211とを組み立てたものを保持及び固定する。
撮像素子214は、CCD(Charge Coupled Device)などの撮像センサであり、縦横方向に2次元配列された多数の画素を備えている。撮像素子214の有効撮像領域は、遮光壁215によって2つの撮像領域214a及び214bに分けられている。2つの撮像領域214a及び214bは、2つのレンズ211a及び211bの各光軸上にそれぞれ配置されている。
光学フィルタ217は、特定の波長のみを透過させるためのフィルタである。ここでは、補助照明22から照射される近赤外光の波長のみを透過させる。
運転者50から複眼カメラ21に入射した光は、上鏡筒213に設けた各光学絞り216a及び216b、並びに、レンズ211a及び211bをそれぞれ通過し、設計した波長のみを透過させるための光学フィルタ217を透過し、撮像領域214a及び214bに結像される。そして、撮像素子214は、運転者50からの光を光電変換し、光の強度に応じた電気信号(図示せず)をそれぞれ出力する。撮像素子214から出力された電気信号は、様々な信号処理及び画像処理を施すために、ECU30へ入力される。
次に、本実施の形態の運転者監視装置10の動作について具体的に説明する。
図5は、本実施の形態の運転者監視装置10の動作を示すフローチャートである。
まず、ECU30の全体制御部31から複眼カメラ21へ撮影を許可する信号が出力され、当該信号に基づいて複眼カメラ21は運転者50を撮影する(S101)。顔モデル作成演算部33は、撮影により得られた画像に基づいて顔モデルを作成する(S102)。具体的には、顔モデル作成演算部33は、取得した画像より眉、目じり、口元などの複数の顔部品の3次元位置を演算により求める。
次に、顔モデル作成演算部33は、作成した顔モデルをテンプレートとして登録し、顔追跡演算部34に出力する(S103)。
顔モデルのテンプレートが登録されると、複眼カメラ21は、予め定められたフレームレートで運転者50を撮影した画像を顔追跡演算部34に出力する(S104)。
顔追跡演算部34は、顔向きを逐次的に推定し、かつ、顔モデル作成演算部33で登録されたテンプレートを用いたテンプレートマッチングを実行することで、顔追跡を実行する(S105)。顔追跡演算部34は、入力される画像に対して、逐次的に、推定した顔向きと、テンプレートマッチングにより得られる相関値とを顔向き判定部35に出力する。
顔向き判定部35は、推定した顔向きと相関値とを用いて、顔向きを判定する(S106)。そして、必要に応じて、顔向き出力部36は、上述したように、判定された顔向きに基づいて外部に顔向きに関する情報を出力する。
なお、以上の処理は、例えば、運転者50が大きく顔を振った場合など、顔追跡演算部34で正しい相関値が得られない場合などが生じる。この場合に備えて、全体制御部31は、顔追跡が失敗したか否かを判断する(S107)。顔追跡が失敗していない場合(S107でNo)、所定のフレームレートでの運転者50の撮影(S104)から、顔向き判定(S106)を繰り返す。
顔追跡が失敗した場合は(S107でYes)、顔モデルの作成のための運転者50の撮影を行い(S101)、上述の処理を繰り返す。なお、顔追跡が失敗したか否かの判断は、画像の撮影間隔と同じ割合で行われる。なお、顔向き判定部35が、推定した顔向きと相関値とを基にして、顔追跡が失敗か否かの判断を実行してもよい。
本実施の形態の運転者監視装置10は、上述したような構成及び方法により、運転者の顔向きを精度良く検出することができる。
続いて、本実施の形態の運転者監視装置10が備える複眼カメラ21の基線方向を運転者の顔の上下方向に一致させるように複眼カメラ21を配置することで、精度良く運転者の顔向きを検出することができる理由について説明する。
まず、顔モデル作成演算部33が、複眼カメラ21で撮影して得られた2枚の画像を基にして、被写体(運転者)までの距離を測定し、顔部品の特徴点の3次元位置を算出する処理について説明する。
図6は、本実施の形態の複眼カメラ21による取得画像の一例を示す図である。2つのレンズ211a及び211bで運転者50を撮影するため、複眼カメラ21で取得した画像は、撮像素子214の2つの撮像領域214a及び214bで運転者50が撮影された、独立した2つの画像である。
ここで、撮像領域214aから得られる画像を基準画像、撮像領域214bから得られる画像を参照画像とする。基準画像に対し参照画像は、基線方向つまり上下方向に、視差の影響で、ある量だけずれて撮影される。そして、顔モデル作成演算部33は、基準画像内のある大きさのブロック内に写る顔部品、例えば左の目尻の一部を、参照画像内で基線方向に探索することで、基準画像のブロックと相関を有する領域を特定する。つまり、顔モデル作成演算部33は、いわゆるブロックマッチングと呼ばれる手法を用いて視差を算出する。そして、算出した視差を用いて顔部品の3次元位置情報を演算で求めることが可能となる。
例えば、顔モデル作成演算部33は、式1を用いて複眼カメラ21から顔部品までの距離L(mm)を算出する。
L=D×f/(z×p) ・・・(式1)
ここで、D(mm)は、レンズ211a及び211bのレンズの間隔である基線長である。f(mm)は、レンズ211a及び211bの焦点距離である。なお、レンズ211a及び211bは同一のレンズとする。z(画素)は、ブロックマッチングにより算出された画素ブロックの相対的なズレ量、すなわち、視差量である。p(mm/画素)は、撮像素子214の画素ピッチである。
なお、ブロックマッチングにより視差を算出する際、ステレオ視するレンズの基線方向と撮像素子の読み出し方向とを合わせているため、基線方向にブロックを1画素ずつずらして探索することで演算時間を短縮することができる。
以上のように、本実施の形態では、探索方向と基線方向とを合わせているため、探索ブロック内の画像は、基線方向に対して垂直方向の成分が多く含まれている場合に視差検出精度を向上させることができる。
図7A及び図7Bは、本実施の形態のブロックマッチングをより詳細に説明するための図である。図7Aは、基線方向(探索方向)に水平な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。図7Bは、基線方向(探索方向)に垂直な成分を有する被写体を撮影した場合の取得画像の一例を示す図である。
まず、図7Aを用いて、基線方向に水平な成分を有する被写体51の視差を探索する場合を説明する。顔モデル作成演算部33は、撮像領域214aで撮影された基準画像内のブロック60と同じ画像を撮像領域214bで撮影された参照画像内より探索する。参照画像内で基線方向に1画素ずつブロックをずらして探索する。図7Aには、あるずらし量でのブロック61と、さらにある量をずらしたときのブロック62とを示している。
このとき、被写体51は、基線方向と同じ方向の成分から構成されているため、各ブロック内の画像は全て同じに写り、正しく視差を検出することできない。例えば、基準画像のブロック60内の画像は、参照画像のブロック61内の画像とブロック62内の画像との双方と同じであると判断されてしまう。このため、顔モデル作成演算部33は、正しく視差を検出することができない。これにより、被写体51までの距離を正しく算出することができない。
次に、図7Bを用いて、基線方向に垂直な成分を有する被写体52の視差を探索する場合を説明する。顔モデル作成演算部33は、撮像領域214aで撮影された基準画像内のブロック60と同じ画像を撮像領域214bで撮影された参照画像内より探索する。図7Aの場合と同様に、顔モデル作成演算部33は、参照画像内で基線方向に1画素ずつブロックをずらして探索する。
このとき、被写体52は、基線方向に垂直な方向の成分から構成されているため、各ブロック内の画像は全て異なるため、正しく視差を検出することができる。例えば、ブロック60に写る画像は、ブロック61内の画像とブロック62内の画像と異なり、決まったずらし量のときに確実にブロック60内の画像と同じ画像を得ることができる。よって、顔モデル作成演算部33は、正しく視差を検出し、被写体52までの距離を正しく算出することができる。
以上のように、正しく被写体までの距離を算出するためには、複眼カメラ21の基線方向は、被写体が有する特徴的な部品の方向と垂直であることが望ましい。
ここで、人間の顔部品を観察すると、図6に示すように眉、目、口は水平方向のエッジ成分を多く有していることが分かる。したがって、複眼カメラ21を用いて運転者50の複数の顔部品の3次元位置をブロックマッチングの手法により精度よく得るためには、複眼カメラ21の基線方向を顔の上下方向と合致するように配置する必要がある。本実施の形態の運転者監視装置では、図3に示すように、複眼カメラ21のレンズ211a及び211bを上下に配置し、撮像素子の読み出し方向を基線方向とし、顔の上下方向と基線方向が一致するように配置させていることが分かる。
図8A及び図8Bは、本実施の形態の運転者監視装置について基線方向の差異による精度の違いを説明するための図である。図8Aは、被写体である人間の顔の模式図である。図8Bは、探索方向による精度の違いを示す図である。なお、図8Aに示す1〜6の破線の四角で囲まれた領域が、図8Bに示す横軸の測定箇所を示している。
図8Bに示すように、探索方向を顔の上下方向(垂直方向)に設定した場合は、真値からの誤差は約−2%〜+2%の範囲内である。これに対して、探索方向を顔の左右方向(水平方向)に設定した場合は、真値からの誤差は約−7%〜+3%の範囲内である。このことから、明らかに、探索方向を顔の上下方向に設定した場合の方が、左右方向に設定した場合に比べて誤差の値そのものが小さくなり、また、誤差の範囲のばらつきも抑えられている。
以上のことからも、ブロックマッチングの探索方向、すなわち、複眼カメラ21の基線方向を運転者50の顔の上下方向と一致させるように配置することで、非常に精度良く、運転者50までの距離を測定することができることが分かる。
以上のように、本実施の形態の運転者監視装置10によれば、レンズアレイ211を有する1つの複眼カメラ21を用いてステレオ視することで、運転者50の顔部品の3次元位置を正確に求めることができる。また、レンズアレイ211の基線方向を運転者50の顔の上下方向と一致するように配置することで、短い基線長であっても正確に顔部品の3次元位置情報を取得することが可能となる。
さらに、顔部品の3次元位置情報をもとに顔向き判定を行うため、顔モデルを単純化したシステムと比べ、太陽光などの影響により照明が大きく変動した場合や大きく顔を振った場合でも正しく顔向きを判定することができる。また、1つの複眼カメラを用いた場合でも十分な精度を得ることができるため、カメラそのものを小型化することができる。
(実施の形態2)
本実施の形態の運転者監視装置は、顔モデルを作成する場合に用いられる運転者を撮影した画像と、顔追跡演算を行う場合に用いられる運転者を撮影した画像とが、異なる画素数及び異なるフレームレートで入力されるように制御する装置である。
図9は、本実施の形態の運転者監視装置70の構成を示すブロック図である。同図の運転者監視装置70は、図1の運転者監視装置10と比較して、複眼カメラ21の代わりに複眼カメラ81を備え、さらに、全体制御部31の代わりに全体制御部91を備える点が異なっている。以下では、実施の形態1と同様の点は説明を省略し、異なる点を中心に説明する。
複眼カメラ81は、図4に示す複眼カメラ21と同じ構成である。複眼カメラ81は、複眼カメラ21の動作に加えて、さらに、全体制御部91からの制御により、撮像素子の読み出し画素数を変更することができる。具体的には、複眼カメラ81は、複眼カメラ81の撮像素子の全画素を読み出す全画素モードと、画素を間引いて読み出す画素間引きモードとを選択することができる。また、複眼カメラ81は、画像を撮影する間隔であるフレームレートを変更することもできる。なお、画素間引きモードは、例えば、4画素を混合することで画素を間引くモード(4画素混合モード)などである。
全体制御部91は、全体制御部31の動作に加えて、複眼カメラ81を制御することで、複眼カメラ81から顔モデル作成演算部33及び顔追跡演算部34に入力される画像を制御する。具体的には、顔モデル作成演算部33が複数の顔部品までの3次元位置を演算することで顔モデルを作成する場合は、全体制御部91は、複眼カメラ81の撮像素子の駆動モードを全画素モードに変更するように複眼カメラ81を制御する。また、顔追跡演算部34が顔モデルから顔追跡演算を行う場合は、全体制御部91は、複眼カメラ81の撮像素子の駆動モードを画素間引きモードに変更するように複眼カメラ81を制御する。
さらに、全体制御部91は、複眼カメラ81を制御することで、複眼カメラ81から顔モデル作成演算部33又は顔追跡演算部34に入力される画像のフレームレートを制御する。具体的には、複眼カメラ81から顔追跡演算部34に画像を入力する場合は、30フレーム/秒以上のフレームレートで画像を入力する必要がある。これは、正確に顔追跡を実行するためである。
以上のようにすることで、運転者の顔向きの検出の精度をさらに向上させることができる。この理由は次の通りである。
まず、顔追跡演算部34は、上述したように、パーティクルフィルタを用いて顔向きを逐次的に推定する。このため、画像が入力される間隔が短ければ短いほど動きを予測しやすい。通常、正確に顔追跡を実行するためには、30フレーム/秒以上のフレームレートで画像を取得し、顔追跡を行う必要がある。
一方、顔モデル作成演算部33は、複数の顔部品の3次元位置、すなわち、複眼カメラ81から複数の顔部品までの距離を正確に演算で求めなければいけない。顔部品までの距離Lは、上述の式1を用いて求めることができる。
式1から分かるように、複眼カメラ81の形状を変更せずに、距離の精度を上げるためには、撮像素子の画素ピッチpを小さくして、視差量zを大きくすることで精度向上できることがわかる。
しかしながら、複眼カメラ81の画角は変更しないため、撮像素子の画素ピッチpを小さくすると画像サイズが大きくなり30フレーム/秒のフレームレートで画像を出力することができず、顔追跡が不可能となる。
したがって、以上のように、顔モデルを作成する場合に用いられる画像と、顔追跡を行う場合に用いられる画像とでは、フレームレートを変更して出力しなければならない。そして、フレームレートを変更するためには、フレームレートに応じて画像サイズを変更する必要がある。以上のことから、顔モデル作成演算と顔追跡演算とでフレームレートを変更してそれぞれの処理部に画像を入力するように全体制御部91が制御することで、運転者の顔向きの検出の精度をさらに向上させることができる。
以上のように、全体制御部91は、顔部品の3次元位置を演算する際には、顔モデル作成演算部33に入力する画像を、撮像素子の駆動モードを全画素モードで撮像素子を駆動することで、3次元位置情報の演算精度を向上させることができる。さらに、3次元位置情報を取得した後、顔追跡を行う際には、撮像素子の駆動モードを画素間引きモードで駆動させ、30フレーム/秒以上のフレームレートで画像を顔追跡演算部34に画像を入力することで、顔向き判定精度を確保することができる。
以上のように、撮像素子の駆動モードを適宜に切り替えて制御することで、撮像素子の選択の自由度をあげることができ、不要に高コストな撮像素子を使用することなく、市場で流通している撮像素子も使用することができる。これにより、複眼カメラ81のコスト低減につなげることが可能となる。
以上、本発明の運転者監視装置及び運転者監視方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
例えば、本実施の形態では、顔向き判定の結果を脇見判定に使用する例を示したが、取得した画像から黒目の3次元位置を検出して、視線方向を検出することも可能である。これにより、運転者の視線方向を判定することができるため、様々な運転支援システムへ顔向き判定結果及び視線方向判定結果を利用することも可能である。
また、運転者50を照射する補助照明22を複眼カメラ21の近傍に配置して複眼カメラユニット20として配置しているが、補助照明22の配置位置はこの例に限らず、運転者50を照射できる位置であれば、配置位置は問わない。すなわち、補助照明22と複眼カメラ21とは、複眼カメラユニット20のように一体化して構成される必要はない。
また、顔モデル作成演算部33は、顔部品の特徴点として、眉、目尻、口元を検出したが、目元や鼻などの他の顔部品を特徴点として検出してもよい。なお、このとき、他の顔部品は、水平成分を有することが望ましい。
また、本発明では、小型の複眼カメラを用いているため、複数のレンズ間の距離である基線長が短い。通常、基線長が短くなると精度が悪くなるため、より精度を向上させるために、顔追跡演算部34は、サブピクセル単位で相関値の演算を行ってもよい。顔モデル作成演算部33についても同様である。例えば、ピクセル単位で得られる相関値のピクセル間を補間することで、サブピクセル単位で相関値を得ることができる。
なお、本発明は、上述した運転者監視方法をコンピュータに実行させるプログラムとして実現することもできる。また、当該プログラムを記録したコンピュータ読み取り可能なCD−ROM(Compact Disc−Read Only Memory)などの記録媒体として実現し、若しくは、当該プログラムを示す情報、データ又は信号として実現することもできる。そして、これらプログラム、情報、データ及び信号を、インターネットなどの通信ネットワークを介して配信してもよい。
本発明は、車両に搭載することで、運転者を監視する運転者監視装置として適用でき、例えば、運転者の脇見運転を防止する装置などに利用することができる。
10、70 運転者監視装置
20 複眼カメラユニット
21、81 複眼カメラ
22 補助照明
30 ECU
31、91 全体制御部
32 照明発光制御部
33 顔モデル作成演算部
34 顔追跡演算部
35 顔向き判定部
36 顔向き出力部
40 車両
41 ステアリングホイール
42 ステアリングコラム
50 運転者
51、52 被写体
60、61、62 ブロック
211 レンズアレイ
211a、211b レンズ
212 鏡筒
213 上鏡筒
214 撮像素子
214a、214b 撮像領域
215 遮光壁
216a、216b 光学絞り
217 光学フィルタ

Claims (12)

  1. 運転者の顔向きを監視する運転者監視装置であって、
    前記運転者に対して近赤外光を照射する照明と、
    光軸に略垂直な方向に配置された複数のレンズと、当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有し、前記運転者の顔を撮影する複眼カメラと、
    前記複眼カメラで撮影することで得られる画像の中から、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品3次元位置を検出することで、前記運転者の顔向きを推定する処理手段とを備え、
    前記複眼カメラでは、
    前記複数のレンズの並ぶ方向である基線方向が鉛直方向に配置され
    前記処理手段は、前記左右方向に特徴を有する顔部品として、前記運転者の眉、目尻及び口元の少なくとも1つの3次元位置を検出する
    運転者監視装置。
  2. 前記複数のレンズは、同一の鏡筒で保持されている
    請求項1記載の運転者監視装置。
  3. 前記複数のレンズは、レンズアレイとして一体に形成されている
    請求項1記載の運転者監視装置。
  4. 前記処理手段は、
    前記複眼カメラで撮影することで得られる複数の第1画像の視差を用いて前記運転者の顔の特徴点の3次元位置を演算する顔モデル演算部と、
    前記顔モデル演算部で演算することで得られる顔モデルと、前記複眼カメラが所定の時間間隔で前記運転者の顔を順次撮影することで得られる複数の第2画像とを用いて、前記運転者の顔向きを推定する顔追跡演算部とを有する
    請求項1記載の運転者監視装置。
  5. 前記顔モデル演算部は、前記第1画像の視差として、前記複数の撮像領域の基線方向の視差を用いて前記3次元位置を演算する
    請求項記載の運転者監視装置。
  6. 前記処理手段は、さらに、
    前記第2画像を30フレーム/秒以上のフレームレートで前記顔追跡演算部に出力するように前記複眼カメラを制御する制御部を有する
    請求項記載の運転者監視装置。
  7. 前記制御部は、さらに、前記第2画像の画素数が、前記第1画像の画素数より少なくなるように前記複眼カメラを制御する
    請求項記載の運転者監視装置。
  8. 請求項1記載の運転者監視装置を備える車両。
  9. 前記複眼カメラと前記照明とを前記車両のステアリングコラムの上部に備える
    請求項記載の車両。
  10. 運転者の顔向きを監視する運転者監視方法であって、
    前記運転者に対して近赤外光を照射する照射ステップと、
    光軸に略垂直な方向に配置された複数のレンズと、当該複数のレンズのそれぞれに対応する撮像領域を有する撮像素子とを有する複眼カメラにより、前記運転者の顔を撮影する撮影ステップと、
    前記複眼カメラで撮影することで得られる画像の中から、前記運転者の顔の特徴点として、左右方向に特徴を有する顔部品3次元位置を検出することで、前記運転者の顔向きを推定する処理ステップとを含み、
    前記複眼カメラでは、
    前記複数のレンズの並ぶ方向である基線方向が鉛直方向に配置され
    前記処理ステップでは、前記左右方向に特徴を有する顔部品として、前記運転者の眉、目尻及び口元の少なくとも1つの3次元位置を検出する
    運転者監視方法。
  11. 前記複数のレンズは、同一の鏡筒で保持されている
    請求項10記載の運転者監視方法。
  12. 前記複数のレンズは、レンズアレイとして一体に形成されている
    請求項10記載の運転者監視方法。
JP2010503757A 2008-03-18 2009-03-06 運転者監視装置、運転者監視方法及び車両 Active JP4989762B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010503757A JP4989762B2 (ja) 2008-03-18 2009-03-06 運転者監視装置、運転者監視方法及び車両

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008070077 2008-03-18
JP2008070077 2008-03-18
JP2010503757A JP4989762B2 (ja) 2008-03-18 2009-03-06 運転者監視装置、運転者監視方法及び車両
PCT/JP2009/001031 WO2009116242A1 (ja) 2008-03-18 2009-03-06 運転者監視装置、運転者監視方法及び車両

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011098164A Division JP2011154721A (ja) 2008-03-18 2011-04-26 運転者監視装置、運転者監視方法及び車両

Publications (2)

Publication Number Publication Date
JPWO2009116242A1 JPWO2009116242A1 (ja) 2011-07-21
JP4989762B2 true JP4989762B2 (ja) 2012-08-01

Family

ID=41090657

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010503757A Active JP4989762B2 (ja) 2008-03-18 2009-03-06 運転者監視装置、運転者監視方法及び車両
JP2011098164A Pending JP2011154721A (ja) 2008-03-18 2011-04-26 運転者監視装置、運転者監視方法及び車両

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011098164A Pending JP2011154721A (ja) 2008-03-18 2011-04-26 運転者監視装置、運転者監視方法及び車両

Country Status (3)

Country Link
US (1) US20110025836A1 (ja)
JP (2) JP4989762B2 (ja)
WO (1) WO2009116242A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190071280A (ko) * 2017-12-14 2019-06-24 현대자동차주식회사 차량의 사용자 영상 처리 장치 및 그 방법
US11270440B2 (en) 2018-01-10 2022-03-08 Denso Corporation Vehicular image synthesis apparatus

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100921092B1 (ko) * 2008-07-04 2009-10-08 현대자동차주식회사 스티어링 휠에 장착된 카메라를 이용하는 운전자 상태 감시시스템
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
JP5396311B2 (ja) * 2010-03-02 2014-01-22 日本電信電話株式会社 行動予測装置、方法およびプログラム
JP2013218469A (ja) * 2012-04-06 2013-10-24 Utechzone Co Ltd 照明光源を有する車両用眼部監視装置
JP6102213B2 (ja) * 2012-11-22 2017-03-29 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
FR3003227A3 (fr) * 2013-03-14 2014-09-19 Renault Sa Volant de direction d'un vehicule automobile equipe d'une camera video
US9595083B1 (en) * 2013-04-16 2017-03-14 Lockheed Martin Corporation Method and apparatus for image producing with predictions of future positions
US9672412B2 (en) * 2014-06-24 2017-06-06 The Chinese University Of Hong Kong Real-time head pose tracking with online face template reconstruction
JP6301759B2 (ja) * 2014-07-07 2018-03-28 東芝テック株式会社 顔識別装置及びプログラム
DE102014215856A1 (de) * 2014-08-11 2016-02-11 Robert Bosch Gmbh Fahrerbeobachtungssystem in einem Kraftfahrzeug
KR101704524B1 (ko) * 2015-09-02 2017-02-08 현대자동차주식회사 차량 및 그 제어방법
GB2558653A (en) * 2017-01-16 2018-07-18 Jaguar Land Rover Ltd Steering wheel assembly
JP6669182B2 (ja) * 2018-02-27 2020-03-18 オムロン株式会社 乗員監視装置
FR3087029B1 (fr) * 2018-10-08 2022-06-24 Aptiv Tech Ltd Systeme de detection faciale d’un conducteur et methode associee
JP7139908B2 (ja) 2018-11-19 2022-09-21 トヨタ自動車株式会社 運転者監視装置の取付構造
CN114559983A (zh) * 2020-11-27 2022-05-31 南京拓控信息科技股份有限公司 地铁车体全方位动态三维图像检测装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10960A (ja) * 1996-06-12 1998-01-06 Yazaki Corp 運転者監視装置
JP2001101429A (ja) * 1999-09-28 2001-04-13 Omron Corp 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体
JP2002331835A (ja) * 2001-05-09 2002-11-19 Honda Motor Co Ltd 直射光防眩装置
JP4554316B2 (ja) * 2004-09-24 2010-09-29 富士重工業株式会社 ステレオ画像処理装置
US7697749B2 (en) * 2004-08-09 2010-04-13 Fuji Jukogyo Kabushiki Kaisha Stereo image processing device
JP2006209342A (ja) * 2005-01-26 2006-08-10 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2007116208A (ja) * 2005-10-17 2007-05-10 Funai Electric Co Ltd 複眼撮像装置
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
JP4735361B2 (ja) * 2006-03-23 2011-07-27 日産自動車株式会社 車両乗員顔向き検出装置および車両乗員顔向き検出方法
JP4830585B2 (ja) * 2006-03-31 2011-12-07 トヨタ自動車株式会社 画像処理装置および画像処理方法
JP2007285877A (ja) * 2006-04-17 2007-11-01 Fuji Electric Device Technology Co Ltd 距離センサ、距離センサ内蔵装置および距離センサ臨み方向調整方法
JP2007316036A (ja) * 2006-05-29 2007-12-06 Honda Motor Co Ltd 車両の乗員検知装置
JP2007322128A (ja) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd カメラモジュール
CN101489467B (zh) * 2006-07-14 2011-05-04 松下电器产业株式会社 视线方向检测装置和视线方向检测方法
US8123974B2 (en) * 2006-09-15 2012-02-28 Shrieve Chemical Products, Inc. Synthetic refrigeration oil composition for HFC applications
JP4571617B2 (ja) * 2006-12-28 2010-10-27 三星デジタルイメージング株式会社 撮像装置及び撮像方法
JP4973393B2 (ja) * 2007-08-30 2012-07-11 セイコーエプソン株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
US7912252B2 (en) * 2009-02-06 2011-03-22 Robert Bosch Gmbh Time-of-flight sensor-assisted iris capture system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190071280A (ko) * 2017-12-14 2019-06-24 현대자동차주식회사 차량의 사용자 영상 처리 장치 및 그 방법
US11270440B2 (en) 2018-01-10 2022-03-08 Denso Corporation Vehicular image synthesis apparatus

Also Published As

Publication number Publication date
US20110025836A1 (en) 2011-02-03
JPWO2009116242A1 (ja) 2011-07-21
JP2011154721A (ja) 2011-08-11
WO2009116242A1 (ja) 2009-09-24

Similar Documents

Publication Publication Date Title
JP4989762B2 (ja) 運転者監視装置、運転者監視方法及び車両
CN113271400B (zh) 成像装置和电子设备
CN107079087B (zh) 摄像装置及对象物识别方法
KR20170139521A (ko) 화상 처리 장치 및 화상 처리 시스템
WO2010100842A1 (ja) 撮像装置、運転者監視装置、顔部測距方法およびプログラム
US20160379066A1 (en) Method and Camera System for Distance Determination of Objects from a Vehicle
JP2015194884A (ja) 運転者監視システム
US9253470B2 (en) 3D camera
WO2019036751A1 (en) ENHANCED VIDEO-BASED DRIVER MONITORING USING PHASE DETECTION SENSORS
EP2902743B1 (en) Device and method for measuring distances to two subjects
CN109835266B (zh) 摄像装置模块
JP2010002233A (ja) 複眼画像入力装置及びそれを用いた距離測定装置
US20110090313A1 (en) Multi-eye camera and method for distinguishing three-dimensional object
KR20180134854A (ko) 복안 카메라 모듈, 및 전자 기기
CN110194173B (zh) 乘员监视装置
WO2005112475A1 (ja) 画像処理装置
JP2010152026A (ja) 距離測定器及び物体移動速度測定器
JP2000152285A (ja) 立体画像表示装置
JP5605565B2 (ja) 対象識別装置及び対象識別方法
JP2020071273A (ja) 撮像装置
US8577080B2 (en) Object contour detection device and method
KR101599434B1 (ko) 자동 초점 조절을 이용한 영상촬상장치의 공간감지장치 및 공간감지방법
JP2013135448A (ja) 撮像装置
US11457201B2 (en) Imaging device and electronic apparatus
WO2011090053A1 (ja) 障害物検知警報装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120427

R150 Certificate of patent or registration of utility model

Ref document number: 4989762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3