JP5943084B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP5943084B2
JP5943084B2 JP2014532700A JP2014532700A JP5943084B2 JP 5943084 B2 JP5943084 B2 JP 5943084B2 JP 2014532700 A JP2014532700 A JP 2014532700A JP 2014532700 A JP2014532700 A JP 2014532700A JP 5943084 B2 JP5943084 B2 JP 5943084B2
Authority
JP
Japan
Prior art keywords
frame
unit
image
image processing
bonnet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014532700A
Other languages
English (en)
Other versions
JPWO2014033936A1 (ja
Inventor
幸三 馬場
幸三 馬場
国和 高橋
国和 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP5943084B2 publication Critical patent/JP5943084B2/ja
Publication of JPWO2014033936A1 publication Critical patent/JPWO2014033936A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置等に関する。
運転中に横断者に接触しそうになる等、ヒヤリハット、すなわち、運転者がヒヤリとしたりハッとしたりするような事象の発生しやすい位置の情報を運転者に知らせることが出来れば、事故の発生を防止することが出来る。ヒヤリハットの発生しやすい位置の情報を特定するためには、ドライブレコーダに記録されたデータを利用することができる。例えば、ドライブレコーダには、車両の位置、撮影日時、車両の加速度、車両の速度、車両前方の映像等が記録されている。
ここで、ドライブレコーダで記録された加速度などの数値データだけでヒヤリハットの検出を試みると、本当はヒヤリハットではなかった事象をヒヤリハットであると誤検出する場合がある。これは、車両走行中において、道路の起伏等により、ヒヤリハットとは関係がなくても、加速度が急激に変化する場合があるためである。
上記のようなヒヤリハットの誤検出を防止するためには、加速度と一緒に記録されている車両前方の映像からヒヤリハットであったか否かを解析することが求められる。
ヒヤリハットの発生原因として、自車線内に存在する前方車、横断者、自転車等の検出対象の存在が挙げられる。従って、ヒヤリハットの原因であるであろう前記検出対象が映像内に存在するか否かを判断するためには、映像から検出された物体が、自車線内に存在しているか否かの判定が行われることとなる。ここで、自車線を検出対象の監視対象領域とする従来技術として、自車両が走行しているレーンを監視対象領域とする従来技術、また、自車両の左右の白線位置と無限遠点とを結ぶ領域を監視対象領域とする技術が挙げられる。
特開2000−315255号公報 特開2004−280194号公報 特開2006−018751号公報
ここで、監視対象領域には、車両のボンネットが写っている領域が含まれる場合がある。ボンネットが写っている領域は、当然ながら検出対象が存在しえない領域であるため、監視対象領域から、ボンネットの領域を除外することが考えられる。このような場合に、例えば、ボンネットのテンプレート画像を用いて、ボンネットの領域を検出する方法が考えられる。
しかしながら、このような方法では、監視対象領域から除外される車両のボンネットの領域を正確に検出することが出来ないという問題があった。
例えば、上述したようなボンネットの領域の検出方法では、ボンネットにより光が反射され、ボンネットの領域とテンプレート画像との類似度が低くなるため、正確にボンネットの領域を検出することが難しい。なお、ドライブレコーダ用のカメラは、取付位置が車両毎にバラバラであるため、ボンネットの領域の画像上の位置を一意に決めることは出来ない。
1つの側面では、上記に鑑みてなされたものであって、監視対象領域から除外される車両のボンネットの領域を正確に検出することが出来る画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
第1の案では、画像処理装置は、作成部、算出部および特定部を有する。作成部は、1つの動画データ内において、隣接する2つのフレームの差分に基づいて、動画データにおける差分画像の平均画像を作成する。算出部は、平均画像の横方向の輝度値の合計を平均画像の縦方向の点ごとに算出する。特定部は、平均画像における消失点の位置から下方向の点のうち、輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した所定個数の点の中からボンネットと道路との境目の点を特定する。
本発明の1実施形態によれば、監視対象領域から除外される車両のボンネットの領域を正確に検出することが出来るという効果を奏する。
図1は、本実施例1に係る画像処理装置の構成を示す機能ブロック図である。 図2は、本実施例2に係る画像処理装置の構成を示す機能ブロック図である。 図3は、ドラレコ情報のデータ構造の一例を示す図である。 図4Aは、処理フレームの一例を示す図である。 図4Bは、処理フレームの一例を示す図である。 図4Cは、処理フレームの一例を示す図である。 図4Dは、処理フレームの一例を示す図である。 図5Aは、差分画像の一例を示す図である。 図5Bは、差分画像の一例を示す図である。 図5Cは、差分画像の一例を示す図である。 図6は、作成画像の一例を示す図である。 図7は、輝度値の合計を示すグラフを平均画像に重畳した場合の画面の一例を示す図である。 図8は、V(y)の算出方法の一例を示す図である。 図9は、V(y)の算出方法の一例を示す図である。 図10は、処理フレームにボンネットの領域が含まれない場合の輝度の合計値の一例を示す図である。 図11は、ボンネットと道路の境目の点のY座標の値y´における自車線の幅の両端の位置を特定する処理を説明するための図である。 図12は、監視対象領域の一例を示す図である。 図13は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。 図14は、画像処理プログラムを実行するコンピュータの一例を示す図である。
以下に、本発明に係る画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例1に係る画像処理装置の構成について説明する。図1は、本実施例1に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、この画像処理装置10は、作成部11、算出部12、特定部13を有する。
作成部11は、1つの動画データ内において、隣接する2つのフレームの差分に基づいて、動画データにおける差分画像の平均画像を作成する。
算出部12は、平均画像の横方向の輝度値の合計を平均画像の縦方向の点ごとに算出する。
特定部13は、平均画像における消失点の位置から下方向の点のうち、輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した所定個数の点の中からボンネットと道路との境目の点を特定する。
本実施例1に係る画像処理装置10の効果について説明する。画像処理装置10は、1つの動画データ内において、隣接する2つのフレームの差分に基づいて、動画データにおける差分画像の平均画像を作成し、作成した平均画像の横方向の輝度値の合計を平均画像の縦方向の点ごとに算出する。画像処理装置10は、平均画像における消失点の位置から下方向の点のうち、輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した所定個数の点の中からボンネットと道路との境目の点を特定する。例えば、ボンネットの先端部分では外光が反射される。このため、画像中のボンネットの先端部分の領域に対応する上述の輝度値の合計と先端部分に隣接する領域に対応する上述の輝度値の合計との差は、次のようなものとなる。すなわち、かかる差は、先端部分の領域以外の他の領域に対応する上述の輝度値の合計とかかる他の領域に隣接する領域に対応する上述の輝度値の合計との差よりも大きい場合が多い。このため、ボンネットの先端部分の領域に対応する輝度値の合計の二次微分値は、他の領域に対応する輝度値の合計の二次微分値よりも大きい場合が多い。また、光源の位置によっては、フレーム中に写っているボンネット上に光源が写りこんでいる場合がある。このような場合は、ボンネットの先端部分の領域に対応する輝度値の合計の二次微分値は、他の領域に対応する二次微分値よりも大凡大きいことに変わりはないが、もっと大きい二次微分値は、光源が写りこんでいる位置のY座標で算出されることがある。画像処理装置10によれば、輝度値の合計の二次微分値が高い方から所定個数の点を選択し、選択した所定個数の点の中からボンネットと道路との境目の点を特定するので、監視対象領域から除外される車両のボンネットの領域を正確に検出することが出来る。
本実施例2に係る画像処理装置の構成について説明する。図2は、本実施例2に係る画像処理装置の構成を示す機能ブロック図である。図2に示すように、画像処理装置100は、通信部110、入力部120、表示部130、記憶部140、制御部150を有する。
通信部110は、ネットワークを介して他の装置とデータ通信を実行する処理部である。例えば、通信部110は、通信装置等に対応する。
入力部120は、各種のデータを画像処理装置100に入力する入力装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。表示部130は、制御部150から出力されるデータを表示する表示装置である。例えば、表示部130は、液晶ディスプレイやタッチパネル等に対応する。
記憶部140は、ドラレコ情報141、カメラパラメータ142を記憶する記憶部である。記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。
ドラレコ情報141は、ドライブレコーダによって記録された各種のデータを含む。例えば、ドラレコ情報141は、加速度が所定値以上変化した時点の前後数秒の動画データデータである。図3は、ドラレコ情報のデータ構造の一例を示す図である。図3に示すように、このドラレコ情報141は、フレーム番号、日時、速度、加速度、位置座標、画像を対応付けて記憶する。フレーム番号は、フレームを一意に識別する番号である。日時は、該当するフレームが撮影された日時である。速度は、該当するフレームを撮影した時点における、ドライブレコーダを搭載した車両の速度である。また、加速度は、該当するフレームを撮影した時点における、ドライブレコーダを搭載した車両の加速度である。また、位置座標は、該当するフレームが撮影された時点の、ドライブレコーダを搭載した車両の位置座標である。また、画像は、該当するフレームの画像データである。
カメラパラメータ142は、ドライブレコーダが利用するカメラのパラメータを含む。カメラパラメータ142に関する具体的な説明は後述する。
制御部150は、フレーム特定部151、検出部152、作成部153、算出部154、特定部155、決定部156、距離算出部157、判定部158を有する。制御部150は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
フレーム特定部151は、ドラレコ情報141を参照し、ドライブレコーダおよびカメラを搭載した車両が直線走行をしている場合に撮影されたフレームを特定する処理部である。例えば、フレーム特定部151は、ドラレコ情報141の加速度を利用して、加速度がほぼ0である場合のフレームの画像データをドラレコ情報141から特定することで、車両が直線走行をしている場合に撮影されたフレームを特定することができる。なお、加速度がほぼ0である場合のフレームとは、例えば、加速度が(−α)以上(α)以下の範囲内であるフレームを指す。ここで、αは所定値である。以下の説明では、車両が直線走行をしている場合に撮影されたフレームを、処理フレームと表記する。このように処理フレームを特定することで、フレーム特定部151は、車両がカーブを走行している場合や、段差等がある道路を車両が走行している場合に撮影された上下左右にブレがあるフレームを後述の各種処理に用いるフレームから除外することができる。
フレーム特定部151によって特定される処理フレームの一例について説明する。図4A〜図4Dは、処理フレームの一例を示す図である。図4Aには、カメラにより所定のフレームレートで撮影された複数のフレームの中からフレーム特定部151により特定された処理フレーム20が示されている。また、図4Bには、複数のフレームの中からフレーム特定部151により特定された処理フレーム21が示されている。なお、処理フレーム21は、処理フレーム20の次にカメラによって撮影されたフレームであり、処理フレーム20と処理フレーム21とは隣接するフレームである。また、図4Cには、複数のフレームの中からフレーム特定部151により特定された処理フレーム22が示されている。なお、処理フレーム22は、処理フレーム21の次にカメラによって撮影されたフレームであり、処理フレーム21と処理フレーム22とは隣接するフレームである。また、図4Dには、複数のフレームの中からフレーム特定部151により特定された処理フレーム23が示されている。なお、処理フレーム23は、処理フレーム22の次にカメラによって撮影されたフレームであり、処理フレーム22と処理フレーム23とは隣接するフレームである。図4A〜図4Dに示すように、処理フレーム20〜23の画像は、車両の直線走行に伴って変化する。
また、フレーム特定部151は、ドラレコ情報141の速度を利用して、速度の変化がほぼ0である場合のフレームの画像データをドラレコ情報141から特定することで、処理フレームを特定することもできる。なお、速度の変化がほぼ0である場合のフレームとは、例えば、速度の変化が所定の範囲内であるフレームを指す。
さらに、フレーム特定部151は、各フレームの位置情報と地図情報とを比較し、地図情報が示す直線の道路上に位置する各フレームを処理フレームとして特定することもできる。
検出部152は、処理フレームにおける消失点を検出する処理部である。例えば、検出部152は、各処理フレームにおいて、後述する候補点を検出する。そして、検出部152は、各処理フレームの候補点の位置の平均位置を算出し、算出した平均位置を消失点とすることで、消失点を検出する。
ここで、検出部152による候補点の検出方法の一例について説明する。例えば、検出部152は、1つの処理フレームにおいて、処理フレームの画像データをハフ変換して複数の直線を検出する。そして、検出部152は、検出した直線のうち、処理フレームの左側の画面の領域の中で左下から右上に延びる直線のうち、画面の横方向に対する角度が所定の範囲、例えば、(45−β)°以上(45+β)°以下の範囲内である直線を抽出する。また、検出部152は、検出した直線のうち、処理フレームの右側の画面の領域の中で右下から左上に延びる直線のうち、画面の横方向に対する角度が所定の範囲、例えば、(135−β)°以上(135+β)°以下の範囲内である直線を抽出する。続いて、検出部152は、抽出した直線の交点を求める。そして、検出部152は、求めた交点の位置の平均位置を算出し、算出した交点の位置の平均位置を1つの処理フレームにおける候補点として検出する。そして、検出部152は、全ての処理フレームに対して同様に候補点を検出する処理を行う。
ここで、処理フレームは、車両が直線走行をしている場合に撮影されたフレームである。このため、処理フレームの画像データをハフ変換することにより検出される直線は、消失点に向かって伸びる直線である。一方、車両がカーブを走行している場合に撮影されたフレームの画像データをハフ変換することにより検出される直線は、消失点に向かって伸びる直線ではない場合が多い。そこで、検出部152は、複数のフレームのうち処理フレームのみハフ変換の対象とすることで、正確に消失点を検出することができる。
作成部153は、フレーム特定部151により特定された処理フレームから差分画像を作成する処理と、作成した差分画像から平均画像を作成する処理とを行う処理部である。
まず、作成部153による差分画像を作成する処理について説明する。例えば、作成部153は、処理フレームの中から、隣接する2つの処理フレームのペアを特定する。例えば、図4A〜図4Dの例に示す4つの処理フレーム20〜23がフレーム特定部151により特定された場合には、作成部153は、次のような処理を行う。すなわち、作成部153は、隣接する処理フレーム20と処理フレーム21とのペア、隣接する処理フレーム21と処理フレーム22とのペア、および、隣接する処理フレーム22と処理フレーム23とのペアの3つのペアを特定する。そして、作成部153は、特定したペアごとに、一方の処理フレームの各画素の画素値から、他方の処理フレームの各画素の画素値を減算することで、差分画像を作成する。図5A〜図5Cは、差分画像の一例を示す図である。例えば、作成部153は、処理フレーム21の各画素の画素値から、処理フレーム20の各画素の画素値を減算することで、図5Aに示すように、差分画像30を作成する。また、作成部153は、処理フレーム22の各画素の画素値から、処理フレーム21の各画素の画素値を減算することで、図5Bに示すように、差分画像31を作成する。また、作成部153は、処理フレーム23の各画素の画素値から、処理フレーム22の各画素の画素値を減算することで、図5Cに示すように、差分画像32を作成する。
次に、作成部153による平均画像を作成する処理について説明する。例えば、作成部153は、作成した各差分画像の各画素の画素値を画素毎に加算する。そして、作成部153は、加算した画素毎の画素値を差分画像の数で除算することで、平均画像を作成する。図6は、作成画像の一例を示す図である。例えば、作成部153は、差分画像30〜32の各画素の画素値を画素毎に加算し、加算した画素毎の画素値を差分画像30〜32の数「3」で除算することによって、図6に示すように、平均画像35を作成する。
なお、作成部153が差分画像を作成する処理および平均画像を作成する処理は、上記の処理に限られず、周知技術など他の方法を用いて、差分画像や平均画像を作成することができる。
算出部154は、作成部153により作成された平均画像の横方向の画素の輝度値の合計を、平均画像の縦方向の画素ごとに算出する処理部である。例えば、平均画像が、横方向(X方向)に640画素、縦方向(Y方向)に480画素の平均画像、すなわち、480行、640列の画素で構成された場合を例に挙げて説明する。この平均画像のN(0≦N≦479)行目の画素の輝度値の合計SUM(N)は、次の式(1)で表される。
SUM(N)=p(0,N)+p(1,N)+・・・+p(639,N)・・・(1)
ここで、p(x,y)は、平均画像における(x,y)の位置の画素の輝度値を示す。
算出部154は、式(1)のNの値に0から479までのそれぞれの整数を代入して、480行分の輝度値の合計を算出する。図7は、輝度値の合計を示すグラフを平均画像に重畳した場合の画面の一例を示す。図7には、平均画像35に輝度値の合計を示すグラフ50が重畳された場合の画面41が示されている。図7の例に示すグラフ50は、縦方向の画素毎の輝度値の合計を示す。図7のグラフ50は、画面の左端からの位置が大きくなるほど、対応するY座標に位置する画素の輝度の合計が大きくなることを示す。なお、グラフ50は、Y座標の値yの関数f(y)で表すことができる。
特定部155は、ボンネットの先端部を特定する処理部である。例えば、特定部155は、まず、算出部154により平均画像の全ての行について算出された画素の輝度値の合計SUM(0)〜SUM(479)の中から、最も値が大きい合計を特定し、特定した合計に対応するY座標を特定する。このようにして特定されたY座標は、消失点のY座標として考えることができる。この理由について説明する。例えば、フレーム中で、変化が大きい領域は、路側の景色に相当する領域である。消失点を境にして、消失点よりも上側は空の領域が多く、消失点よりも下側は、道路の領域が多い。しかしながら、消失点の横方向の領域では、空の領域および道路の領域がほとんどなく、輝度値が高い路側の景色の領域が最大となる。したがって、消失点のY座標またはY座標付近に対応する輝度値の合計は、算出された合計の中で最も値が大きい。そのため、最も値が大きい合計に対応するY座標は、消失点のY座標として考えることができる。
そして、特定部155は、特定したY座標よりも画面の下方向のY座標の値y、すなわち、特定したY座標よりも大きいY座標の値yを関数f(y)に代入した場合の2次微分値V(y)を算出する。例えば、2次微分値V(y)を算出する際の式としては、下記の式(2)を用いることができる。
V(y)=4*f(y)−f(y−5)−f(y−10)
+f(y+5)+f(y+10)・・・・・・・・・(2)
ここで、「*」は、乗算を示す記号である。
特定部155は、式(2)を用いて、特定したY座標よりも画面の下方向であって、かつ、整数である全ての値yについて、V(y)を算出する。図8および図9は、V(y)の算出方法の一例を示す。図8には、グラフ50が示されている。特定部155は、図8のグラフ50において、特定したY座標51よりも画面の下方向であって、かつ、整数である全ての値yについて、f(y)の二次微分値V(y)を算出する。図9には、このようにして算出された二次微分値V(y)のグラフ60の一例が示されている。図9のグラフ60において、Y軸を中心に、右側が正の値であり、左側が負の値を示す。
ここで、ボンネットの先端部分では外光が反射される。このため、画像中のボンネットの先端部分の領域のY座標に対応する輝度値の合計と先端部分に隣接する領域のY座標に対応する輝度値の合計との差は、次のようなものとなる。すなわち、かかる差は、先端部分の領域以外の他の領域のY座標に対応する輝度値の合計とかかる他の領域に隣接する領域のY座標に対応する輝度値の合計との差よりも大きい場合が多い。このため、ボンネットの先端部分の領域のY座標に対応する輝度値の合計の二次微分値は、他の領域のY座標に対応する輝度値の合計の二次微分値よりも大きい場合が多い。そこで、特定部155は、算出した二次微分値のうち、最も値が大きい二次微分値V(y´)に対応する点のY座標の値y´を、ボンネットの先端部のY座標の値、すなわち、ボンネットと道路との境目の点のY座標の値として特定する。このように、特定部155によれば、輝度値の合計の二次微分値が最も高い点のY座標の値y´をボンネットと道路との境目の点のY座標の値として特定するので、監視対象領域から除外される車両のボンネットの領域を正確に検出することが出来る。例えば、特定部155は、二次微分値V(y)のグラフ60を算出した場合には、グラフ60の点61のY座標の値y´を、ボンネットと道路との境目の点のY座標の値として特定する。
もしくは、特定部155は、算出した二次微分値のうち、値が高い方から所定個数を選択し、選択した所定個数の値にそれぞれ対応する点のY座標の値を求める。そしてその中で、フレーム中で最も上方向にあるY座標y´を、ボンネットの先端部のY座標の値、すなわち、ボンネットと道路との境目の点のY座標の値として特定しても良い。光源の位置によっては、フレーム中に写っているボンネット上に光源が写りこんでいる場合がある。このような場合は、ボンネットの先端部分の領域のY座標に対応する輝度値の合計の二次微分値は、他の領域のY座標に対応する輝度値の合計の二次微分値よりも大凡大きいことに変わりはないが、もっと大きい二次微分値は、光源が写りこんでいる位置のY座標で算出されることがある。
値が高い方から所定個数、例えば2個を選択すると、選択した値に対応する2つの点のY座標のうち、一つはボンネットの先端部のY座標、もう一つは、ボンネット上に写りこんだ光源のY座標である可能性が高い。フレームの中では、ボンネットの先端部のY座標は、ボンネット上に写りこんだ光源のY座標よりも、上方向に存在する。そこで、特定部155では、複数個選択したY座標のうち、フレーム中でより上方向にあるY座標y´を、ボンネットの先端部のY座標の値とする。なお、特定部155が値が高い方から選択する所定個数の数は、2に限る必要はない。これを1とすれば、先に説明したように、最も値が大きい二次微分値が選択されることになる。
なお、車両に取り付けられたカメラによって撮影される撮影領域にボンネットが含まれる場合には、先の図8に示すように、特定したY座標51よりも画面の下方向に再び輝度の合計値f(y)が大きくなる点52が存在する。一方、車両の形状や車両に取り付けられたカメラの視野角によっては、撮影領域にボンネットが含まれない場合がある。図10は、処理フレームにボンネットの領域が含まれない場合の輝度の合計値の一例を示す図である。図10の例には、処理フレームにボンネットの領域が含まれない場合の輝度の合計値f(y)のグラフ55が示されている。図10のグラフ55に示すように、撮影領域にボンネットが含まれない場合には、特定したY座標56よりも画面の下方向に再び輝度の合計値f(y)が大きくなる点が存在しない。そのため、このような場合には、特定部155によってボンネットと道路との境目の点のY座標の値が特定されない。
決定部156は、検出部152により検出された消失点と、特定部155により特定されたボンネットと道路の境目の点のY座標の値y´とに基づいて監視対象領域を決定する処理部である。例えば、決定部156は、ボンネットと道路の境目の点のY座標の値y´における自車線の幅の両端の位置を特定する。
図11は、ボンネットと道路の境目の点のY座標の値y´における自車線の幅の両端の位置を特定する処理を説明するための図である。まず、決定部156は、カメラパラメータ142を取得する。カメラパラメータ142は、カメラ40の水平画角CH[radian]、カメラ40の垂直画角CV[radian]、フレームの水平解像度SH[pixel]、フレームの垂直解像度SV[radian]、カメラ40の設置高さHGT[m]を含む。
図11において、40aは、カメラ視野を示し、40bは、消失点の位置を示す。また、41は、カメラ40との距離がd[m]である投影面SV上で、検出対象を検出した検出位置に対応する。また、図11のθ[radian]は、カメラ40および消失点40bを結ぶ直線と、カメラ40および検出位置41を結ぶ直線とのなす角である。また、cy[pixel]は、消失点40bと検出位置41との垂直方向の距離である。
ここで、式(3)が成立するため、θは、式(4)によって表される。また、θを用いることで、距離dは、式(5)によって表される。
cy/SV=θ/CV・・・(3)
θ=CV×cy/SV・・・(4)
d=HGT/tan(θ)・・・(5)
また、検出対象のY座標の値がy´´である場合における、カメラ40および消失点40bを結ぶ直線と、カメラ40および検出位置41を結ぶ直線とのなす角θ(y´´)[radian]は、式(6)によって表される。
θ(y´´)=CV×ABS(VanY−y´´)/SV・・・(6)
ここで、VanY[pixel]は、フレーム上の消失点のY座標の値を示す。また、ABS(X)は、Xの絶対値を示す関数である。
また、検出対象のY座標の値がy´´である場合における、カメラ40と投影面SVとの距離d(y´´)[m]は、式(7)によって表される。
d(y´´)=HGT/tan(θ(y´´))・・・(7)
ここで、画素のピクセルアスペクト比が1:1(縦:横)であれば、Y座標の値y´´でのX方向のSH[pixel]に相当する距離SHd(y´´)[m]は、式(8)によって表される。
SHd(y´´)=d(y´´)×tan(CH/2)×2・・・(8)
ここで、車線幅をWd[m]とすると、フレーム上の道路幅W(y´´)[pixel]は、式(9)によって表される。
W(y´´)=SH×Wd/SHd(y´´)・・・(9)
ここで、ボンネットと道路の境目の点のY座標の値y´とすると、式(10)によって、ボンネットと道路の境目の道路幅W(y´)が表される。
W(y´)=SH×Wd/SHd(y´)・・・(10)
そして、決定部156は、ボンネットと道路の境目の点のY座標の値y´における自車線の幅の両端の位置p1(VanX−(W(y´)/2),y´)、および、p2(VanX+(W(y´)/2),y´)を特定する。なお、VanX[pixel]は、フレーム上の消失点のX座標の値を示す。
自車線の幅の両端の位置p1およびp2を特定すると、決定部156は、消失点と、位置p1と、位置p2とを結ぶ領域を監視対象領域として決定する。図12は、監視対象領域の一例を示す図である。図12の例に示すように、決定部156は、フレーム60上において、消失点61と、自車線の幅の両端の位置p1およびp2とを結ぶ領域を監視対象領域63として決定する。
距離算出部157は、ドラレコ情報141に含まれる各フレームに、決定部156により決定された監視対象領域を設定し、監視対象領域中の検出対象の物体を検出し、検出した物体とカメラとの距離を算出する処理部である。
例えば、距離算出部157は、ドラレコ情報141およびカメラパラメータ142を取得し、ドラレコ情報141に含まれる各フレームに監視対象領域を設定する。そして、距離算出部157は、フレームごとに、監視対象領域中に存在する検出対象の物体の検出を試みる。なお、距離算出部157は、周知技術を用いて物体の検出を試みることができる。物体が検出できた場合には、距離算出部157は、次のパラメータを用いて、検出対象の物体のX座標の値がx´´であり、Y座標の値がy´´である場合における、カメラ40と物体との距離D(x´´,y´´)を式(11)によって算出する。すなわち、距離算出部157は、ボンネットと道路の境目の点のY座標の値y´、消失点の位置(VanX,VanY)、上述した水平画角CH、垂直画角CV、水平解像度SH、垂直解像度SV、設置高さHGTを用いて、距離D(x´´,y´´)を算出する。
D(x´´,y´´)=SHd(y´´)×(x´´−VanX)/SH・・・(11)
判定部158は、距離算出部157により算出された検出対象の物体とカメラとの距離、ドラレコ情報141などの加速度、速度などに基づいて、いわゆる「ヒヤリハット」が発生しているか否かを判定する処理部である。
例えば、判定部158は、距離算出部157により算出された検出対象の物体とカメラとの距離、ドラレコ情報141などの加速度、速度などに基づいて、フレームごとに、「ヒヤリハット」が発生しているか否かを判定する。なお、判定部158は、周知技術を用いて、「ヒヤリハット」が発生しているか否かを判定することができる。そして、判定部158は、フレームごとの判定結果を表示部130に出力して、表示部130に判定結果を表示させる。
次に、本実施例2に係る画像処理装置100の処理手順について説明する。図13は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。例えば、図13のフローチャートが示す処理は、処理実行命令を受け付けたことを契機にして実行される。画像処理装置100は、入力部120から処理実行命令を受け付けても良いし、通信部110を介して、他の装置から受け付けても良い。
図13に示すように、画像処理装置100は、ドラレコ情報141を参照し、ドライブレコーダおよびカメラを搭載した車両が直線走行をしている場合に撮影された処理フレームを特定する(ステップS101)。画像処理装置100は、各処理フレームにおいて、候補点を検出する(ステップS102)。画像処理装置100は、各処理フレームの候補点の位置の平均位置を算出し、算出した平均位置を消失点とすることで、消失点を検出する(ステップS103)。
画像処理装置100は、処理フレームから差分画像を作成する(ステップS104)。画像処理装置100は、作成した差分画像から平均画像を作成する(ステップS105)。画像処理装置100は、平均画像の横方向の画素の輝度値の合計を、平均画像の縦方向の画素ごとに算出する(ステップS106)。
画像処理装置100は、平均画像の全ての行について算出した画素の輝度値の合計の中から、最も値が大きい合計に対応するY座標を特定する(ステップS107)。画像処理装置100は、特定したY座標よりも画面の下方向であって、かつ、整数である全ての値yについて、f(y)の二次微分値V(y)を算出する(ステップS108)。画像処理装置100は、算出した二次微分値V(y)のうち、値が大きい方から所定個数の二次微分値に対応する点のY座標の値を算出し、次のような処理を行う。すなわち、画像処理装置100は、算出したY座標のうち、フレーム中で最も上方向にあるY座標の値y´を、ボンネットと道路との境目の点のY座標の値として特定する(ステップS109)。
画像処理装置100は、ボンネットと道路の境目の点のY座標の値y´における自車線の幅の両端の位置p1、p2を特定する(ステップS110)。画像処理装置100は、ドラレコ情報141に含まれるフレームのうち、未選択のフレームがあるか否かを判定する(ステップS111)。未選択のフレームがない場合(ステップS111,No)には、処理を終了する。
一方、未選択のフレームがある場合(ステップS111,Yes)には、画像処理装置100は、未選択のフレームを1つ選択する(ステップS112)。画像処理装置100は、選択したフレームに監視対象領域を設定する(ステップS113)。画像処理装置100は、設定した監視対象領域中に存在する検出対象の物体の検出を試みる(ステップS114)。
画像処理装置100は、物体が検出できたか否かを判定する(ステップS115)。物体が検出できた場合(ステップS115,Yes)には、画像処理装置100は、カメラ40と物体との距離を算出する(ステップS116)。画像処理装置100は、検出対象の物体とカメラとの距離、ドラレコ情報141などの加速度、速度などに基づいて、選択したフレームにおいて、「ヒヤリハット」が発生しているか否かを判定する(ステップS117)。画像処理装置100は、判定結果を表示部130に出力して、表示部130に判定結果を表示させ(ステップS118)、ステップS111に戻る。一方、物体が検出できなかった場合(ステップS115,No)にも、ステップS111に戻る。
次に、本実施例2に係る画像処理装置100の効果について説明する。画像処理装置100は、1つの動画データ内において、隣接する2つの処理フレームの差分に基づいて、動画データにおける差分画像の平均画像を作成し、作成した平均画像の横方向の画素の輝度値の合計を平均画像の縦方向の画素ごとに算出する。画像処理装置100は、平均画像における消失点の位置から下方向の点のうち、輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した所定個数の点の中からボンネットと道路との境目の点のY座標の値y´を特定する。例えば、ボンネットの先端部分では外光が反射される。このため、ボンネットの先端部分の領域のY座標に対応する輝度値の合計と先端部分に隣接する領域のY座標に対応する輝度値の合計との差は、次のようなものとなる。すなわち、かかる差は、先端部分の領域以外の他の領域のY座標に対応する輝度値の合計とかかる他の領域に隣接する領域のY座標に対応する輝度値の合計との差よりも大きい場合が多い。このため、ボンネットの先端部分の領域のY座標に対応する輝度値の合計の二次微分値は、他の領域のY座標に対応する輝度値の合計の二次微分値よりも大きい場合が多い。また、光源の位置によっては、フレーム中に写っているボンネット上に光源が写りこんでいる場合がある。このような場合は、ボンネットの先端部分の領域のY座標に対応する輝度値の合計の二次微分値は、他の領域のY座標に対応する二次微分値よりも大凡大きいことに変わりはないが、もっと大きい二次微分値は、光源が写りこんでいる位置のY座標で算出されることがある。画像処理装置100によれば、輝度値の合計の二次微分値が高い方から所定個数の点を選択し、選択した所定個数の点の中からボンネットと道路との境目の点を特定するので、監視対象領域から除外される車両のボンネットの領域を正確に検出することが出来る。
また、画像処理装置100は、車両などの移動体に搭載されたカメラ40により撮影された動画データの複数のフレームの中から、加速度や移動などの移動体の移動に関する情報に基づいて、移動体が直線走行している場合に撮影された処理フレームを特定する。画像書誌装置100は、特定した処理フレームごとに、画面左側の領域の中で左下から右上方向の直線と、画面右側の領域の中で右下から左上方向の直線とを抽出し、抽出した直線の交点に基づいて、消失点を検出する。画像処理装置100は、検出した消失点と、特定したボンネットと道路との境目の点とに基づいて、監視対象領域を決定する。ここで、処理フレームは、車両が直線走行をしている場合に撮影されたフレームである。このため、処理フレームから検出される直線は、消失点に向かって伸びる直線である。一方、車両がカーブを走行している場合に撮影されたフレームから検出される直線は、消失点に向かって伸びる直線ではない場合が多い。そこで、画像処理装置100は、複数のフレームのうち処理フレームから直線を検出して消失点を検出するので、正確に消失点を検出することができる。
また、画像処理装置100は、ボンネットと道路の境目の点のY座標の値y´、消失点の位置(VanX,VanY)、上述した水平画角CH、垂直画角CV、水平解像度SH、垂直解像度SV、設置高さHGTを用いて、カメラ40と物体との距離を算出する。したがって、画像処理装置100によれば、精度良く検出された消失点を用いてカメラ40と物体との距離を算出するので、精度良くカメラ40と物体との距離を算出することができる。
次に、上記の実施例に示した画像処理装置と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例を説明する。図14は、画像処理プログラムを実行するコンピュータの一例を示す図である。
図14に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、例えば、作成プログラム207a、算出プログラム207b、特定プログラム207cを有する。CPU201は、各プログラム207a〜207cを読み出してRAM206に展開する。
作成プログラム207aは、作成プロセス206aとして機能する。算出プログラム207bは、算出プロセス206bとして機能する。特定プログラム207cは、特定プロセス206cとして機能する。
例えば、作成プロセス206aは、作成部11、153等に対応する。算出プロセス206bは、算出部12、154等に対応する。特定プロセス206cは、特定部13、155等に対応する。
なお、各プログラム207a〜207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラム207a〜207cを読み出して実行するようにしてもよい。
また、ハードディスク装置207に、さらに、フレーム特定プログラム、検出プログラム、決定プログラム、距離算出プログラム、判定プログラムを記憶させてもよい。この場合、CPU201は、各プログラム207a〜207cに加えて、これらの各プログラムを読み出してRAM206に展開する。フレーム特定プログラムは、フレーム特定プロセスとして機能する。検出プログラムは、検出プロセスとして機能する。決定プログラムは、決定プロセスとして機能する。距離算出プログラムは、距離算出プロセスとして機能する。判定プログラムは、判定プロセスとして機能する。例えば、フレーム特定プロセスは、フレーム特定部151等に対応する。検出プロセスは、検出部152等に対応する。決定プロセスは、決定部156等に対応する。距離算出プロセスは、距離算出部157等に対応する。判定プロセスは、判定部158等に対応する。
10 画像処理装置
11 作成部
12 算出部
13 特定部

Claims (5)

  1. 1つの動画データ内において、隣接する2つのフレームの差分に基づいて、該動画データにおける差分画像の平均画像を作成する作成部と、
    前記平均画像の横方向の輝度値の合計を前記平均画像の縦方向の点ごとに算出する算出部と、
    前記平均画像における消失点の位置から下方向の点のうち、前記輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した該所定個数の点の中からボンネットと道路との境目の点を特定する特定部と
    を有することを特徴とする画像処理装置。
  2. 移動体に搭載されたカメラにより撮影された動画データの複数のフレームの中から、前記移動体の移動に関する情報に基づいて、前記移動体が直線走行している場合に撮影されたフレームを特定するフレーム特定部と、
    前記フレーム特定部により特定されたフレームごとに、画面左側の領域の中で左下から右上方向の直線と、画面右側の領域の中で右下から左上方向の直線とを抽出し、抽出した直線の交点に基づいて、消失点を検出する検出部と、
    前記検出部により検出された消失点と、前記特定部により特定されたボンネットと道路との境目の点とに基づいて、監視対象領域を決定する決定部と
    をさらに有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記特定部により特定されたボンネットと道路との境目の点、前記検出部により検出された消失点、前記カメラの水平方向及び垂直方向の画角、前記カメラの設置高、並びに、前記カメラの解像度情報に基づいて、前記監視対象領域中の物体までの距離を算出する距離算出部をさらに有することを特徴とする請求項2に記載の画像処理装置。
  4. コンピュータが実行する画像処理方法であって、
    1つの動画データ内において、隣接する2つのフレームの差分に基づいて、該動画データにおける差分画像の平均画像を作成し、
    前記平均画像の横方向の輝度値の合計を前記平均画像の縦方向の点ごとに算出し、
    前記平均画像における消失点の位置から下方向の点のうち、前記輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した該所定個数の点の中からボンネットと道路との境目の点を特定する
    各処理を実行する画像処理方法。
  5. コンピュータに、
    1つの動画データ内において、隣接する2つのフレームの差分に基づいて、該動画データにおける差分画像の平均画像を作成し、
    前記平均画像の横方向の輝度値の合計を前記平均画像の縦方向の点ごとに算出し、
    前記平均画像における消失点の位置から下方向の点のうち、前記輝度値の合計の二次微分値の値が高い方から所定個数の点を選択し、選択した該所定個数の点の中からボンネットと道路との境目の点を特定する
    各処理を実行させることを特徴とする画像処理プログラム。
JP2014532700A 2012-08-31 2012-08-31 画像処理装置、画像処理方法および画像処理プログラム Active JP5943084B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/072268 WO2014033936A1 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP5943084B2 true JP5943084B2 (ja) 2016-06-29
JPWO2014033936A1 JPWO2014033936A1 (ja) 2016-08-08

Family

ID=50182782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014532700A Active JP5943084B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法および画像処理プログラム

Country Status (4)

Country Link
US (1) US9454704B2 (ja)
JP (1) JP5943084B2 (ja)
CN (1) CN104584076B (ja)
WO (1) WO2014033936A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6191160B2 (ja) * 2012-07-12 2017-09-06 ノーリツプレシジョン株式会社 画像処理プログラムおよび画像処理装置
WO2014061123A1 (ja) * 2012-10-17 2014-04-24 富士通株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP6299373B2 (ja) 2014-04-18 2018-03-28 富士通株式会社 撮像方向の正常性の判定方法、撮像方向の正常性の判定プログラムおよび撮像方向の正常性の判定装置
JP6299371B2 (ja) 2014-04-18 2018-03-28 富士通株式会社 撮像方向の傾き検出方法、撮像方向の傾き検出プログラムおよび撮像方向の傾き検出装置
JP6264173B2 (ja) 2014-04-18 2018-01-24 富士通株式会社 撮像方向の正常性判定方法、撮像装置取り付け状態評価プログラムおよび撮像装置取り付け状態評価装置
JPWO2015162910A1 (ja) * 2014-04-24 2017-04-13 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
US11505292B2 (en) * 2014-12-31 2022-11-22 FLIR Belgium BVBA Perimeter ranging sensor systems and methods
JP6726052B2 (ja) * 2015-11-20 2020-07-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理方法およびプログラム
JP6735659B2 (ja) * 2016-12-09 2020-08-05 株式会社日立製作所 運転支援情報収集装置
JP6694902B2 (ja) * 2018-02-28 2020-05-20 株式会社日立国際電気 映像符号化装置及び映像符号化方法
JP6694905B2 (ja) * 2018-03-13 2020-05-20 株式会社日立国際電気 映像符号化装置及び映像符号化方法
US11132562B2 (en) * 2019-06-19 2021-09-28 Toyota Motor Engineering & Manufacturing North America, Inc. Camera system to detect unusual circumstances and activities while driving
CN112819783B (zh) * 2021-01-30 2022-05-17 同济大学 基于图像背景差分的发动机缸内积碳识别方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030626A (ja) * 2001-07-18 2003-01-31 Toshiba Corp 画像処理装置及びその方法
JP2005201741A (ja) * 2004-01-14 2005-07-28 Denso Corp 路面反射検出装置
WO2007139035A1 (ja) * 2006-05-26 2007-12-06 Fujitsu Limited 車両種別判定装置、プログラム、方法
JP2009023560A (ja) * 2007-07-20 2009-02-05 Toyota Motor Corp 運転支援装置
JP2011080859A (ja) * 2009-10-07 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> 水面境界線検知装置、水面境界線検知方法及び水面境界線検知プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4079519A (en) * 1976-08-12 1978-03-21 Carmouche William J Road delineators
JP2570315B2 (ja) * 1987-09-01 1997-01-08 アイシン精機株式会社 車上距離検出装置
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
US8255144B2 (en) * 1997-10-22 2012-08-28 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
DE60009976T2 (de) * 1999-03-01 2004-09-02 Yazaki Corp. Rück- und Seitenblickmonitor mit Kamera für Fahrzeug
JP2000315255A (ja) 1999-03-01 2000-11-14 Yazaki Corp 車両用後側方監視装置及び車両用後側方監視警報装置
JP3823760B2 (ja) * 2001-05-28 2006-09-20 日本電気株式会社 ロボット装置
TWI246665B (en) * 2001-07-12 2006-01-01 Ding-Jang Tzeng Method for aiding the driving safety of road vehicle by monocular computer vision
JP3868915B2 (ja) 2003-03-12 2007-01-17 株式会社東芝 前方監視装置及びその方法
JP3931891B2 (ja) 2004-07-05 2007-06-20 日産自動車株式会社 車載用画像処理装置
JP2006264416A (ja) * 2005-03-22 2006-10-05 Takata Corp 対象物検知システム、保護システム、車両
JP4551313B2 (ja) * 2005-11-07 2010-09-29 本田技研工業株式会社 自動車
US7693629B2 (en) * 2006-11-14 2010-04-06 Denso Corporation Onboard fog determining apparatus
EP2168079B1 (en) * 2007-01-23 2015-01-14 Valeo Schalter und Sensoren GmbH Method and system for universal lane boundary detection
JP2008257378A (ja) 2007-04-03 2008-10-23 Honda Motor Co Ltd 物体検出装置
CN101608924B (zh) * 2009-05-20 2011-09-14 电子科技大学 一种基于灰度估计和级联霍夫变换的车道线检测方法
CN101876535B (zh) * 2009-12-02 2015-11-25 北京中星微电子有限公司 一种高度测量方法、装置及监控系统
JP5761451B2 (ja) * 2012-03-29 2015-08-12 トヨタ自動車株式会社 路面状態推定装置
US20150168174A1 (en) * 2012-06-21 2015-06-18 Cellepathy Ltd. Navigation instructions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030626A (ja) * 2001-07-18 2003-01-31 Toshiba Corp 画像処理装置及びその方法
JP2005201741A (ja) * 2004-01-14 2005-07-28 Denso Corp 路面反射検出装置
WO2007139035A1 (ja) * 2006-05-26 2007-12-06 Fujitsu Limited 車両種別判定装置、プログラム、方法
JP2009023560A (ja) * 2007-07-20 2009-02-05 Toyota Motor Corp 運転支援装置
JP2011080859A (ja) * 2009-10-07 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> 水面境界線検知装置、水面境界線検知方法及び水面境界線検知プログラム

Also Published As

Publication number Publication date
WO2014033936A1 (ja) 2014-03-06
JPWO2014033936A1 (ja) 2016-08-08
US20150154460A1 (en) 2015-06-04
CN104584076A (zh) 2015-04-29
CN104584076B (zh) 2017-05-10
US9454704B2 (en) 2016-09-27

Similar Documents

Publication Publication Date Title
JP5943084B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US8902053B2 (en) Method and system for lane departure warning
US8184859B2 (en) Road marking recognition apparatus and method
JP7003628B2 (ja) 物体追跡プログラム、物体追跡装置、及び物体追跡方法
JP5787024B2 (ja) 立体物検出装置
JP6707022B2 (ja) ステレオカメラ
JP2006268097A (ja) 車載物体検出装置、および物体検出方法
JP2013065304A (ja) 高速障害物検出
JP6239186B2 (ja) 表示制御装置及び表示制御方法及び表示制御プログラム
JP2012212282A (ja) 路面状態検出装置、路面状態検出方法、及び路面状態検出プログラム
JP6844235B2 (ja) 距離測定装置および距離測定方法
JP2009053818A (ja) 画像処理装置及びその方法
JP6515704B2 (ja) 車線検出装置及び車線検出方法
JP2010102427A (ja) 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム
JP2008262333A (ja) 路面判別装置および路面判別方法
KR20140056790A (ko) 영상 인식 장치 및 그 방법
US20140119655A1 (en) Device and method for estimating head pose
JPWO2014017521A1 (ja) 立体物検出装置
JP2004145501A (ja) 道路白線認識装置
JP2018092354A (ja) 物体検出装置および物体検出方法
JP2012150595A (ja) 一時停止線検出装置及びプログラム
JP5983749B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2016162130A (ja) 横断歩道検出装置、横断歩道検出方法及び横断歩道検出用コンピュータプログラム
JP7258632B2 (ja) 物体検出装置
JP6431299B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent or registration of utility model

Ref document number: 5943084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150