JP2009176090A - 環境認識装置 - Google Patents

環境認識装置 Download PDF

Info

Publication number
JP2009176090A
JP2009176090A JP2008014584A JP2008014584A JP2009176090A JP 2009176090 A JP2009176090 A JP 2009176090A JP 2008014584 A JP2008014584 A JP 2008014584A JP 2008014584 A JP2008014584 A JP 2008014584A JP 2009176090 A JP2009176090 A JP 2009176090A
Authority
JP
Japan
Prior art keywords
image
parallax
representative
images
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008014584A
Other languages
English (en)
Other versions
JP4876080B2 (ja
Inventor
Toru Saito
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2008014584A priority Critical patent/JP4876080B2/ja
Priority to US12/320,353 priority patent/US8437536B2/en
Priority to DE102009005860.5A priority patent/DE102009005860B4/de
Publication of JP2009176090A publication Critical patent/JP2009176090A/ja
Application granted granted Critical
Publication of JP4876080B2 publication Critical patent/JP4876080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】対象物を有効に検出して周囲の環境を認識することが可能な環境認識装置を提供する。
【解決手段】環境認識装置1は、一対のカメラ2a、2bで周囲の環境中の対象Vahを撮像して2枚一組の画像TO、TCを出力する撮像手段2と、異なる撮像方法で撮像され、または撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組に対してステレオマッチング処理を行って各組ごとに距離画像TZ1、TZ2を形成するステレオマッチング手段7a、7bと、各距離画像TZ1、TZ2をそれぞれ複数の区分Dnに分割して各区分Dnごとに代表視差dpn1、dpn2を算出し、対応する区分Dnの各代表視差dpn1、dpn2のうちいずれかの代表視差を選択して当該区分Dnの代表視差dpnとする選択手段11と、各区分Dnの代表視差dpnに基づいて画像TO中に撮像された対象を検出する検出手段12と、を備える。
【選択図】図1

Description

本発明は、環境認識装置に係り、特に、撮像画像中に撮像された対象を検出して周囲の環境を認識する環境認識装置に関する。
ステレオカメラを用いて周囲の環境内に存在する対象物までの距離を測定する手法としては、左右同じ高さに取り付けられた一対のカメラで撮像された一対の撮像画像を用いて、一対の撮像画像のうち、基準となる一方の撮像画像(以下、基準画像TOという。)と他方の撮像画像(以下、比較画像TCという。)とを比較して、同じ対象物が撮像されている各画像中の各位置の差、すなわち視差を算出し、その視差に基づいて対象物までの距離を算出する手法が一般的である。そして、基準画像と比較画像で同じ対象物が撮像されている位置を特定する手法としては、通常、ステレオマッチング処理が行われる(例えば特許文献1、2等参照)。
ステレオマッチング処理では、図17に示すように、基準画像TOを例えば3×3画素や4×4画素等の所定の画素数の小領域(以下、画素ブロックPBOという。)に分割し、各画素ブロックPBOごとに、比較画像TC中で当該画素ブロックPBOに対応する上下方向の位置にエピポーララインEPLを設定し、画素ブロックPBOの輝度パターンと、当該エピポーララインEPL上に存在する画素ブロックPBOと同形の画素ブロックPBCの輝度パターンとを比較する。
その際、例えば、基準画像TOの画素ブロックPBO中の各画素の輝度値をp1stとし、比較画像TCの画素ブロックPBC中の各画素の輝度値をp2stとした場合、輝度パターンの差異として下記(1)式のSAD(Sum of Absolute Difference)値を算出し、予め設定された閾値以下の値となるSAD値のうち、最小のSAD値を与える比較画像TCの画素ブロックPBCが、基準画像TOの画素ブロックPBOに撮像されている対象物と同じ対象物が撮像されている比較画像上の画素ブロックとして特定される。
そして、比較画像TC上に特定された画素ブロックPBCと元の基準画像TOの画素ブロックPBOとの視差dpが算出され、その視差dpに基づいて三角測量の原理によりその画素ブロックPBOに撮像されている対象物までの距離Zが算出される。そして、算出された距離Zに基づいて周囲の環境中から対象物が検出される。
このような基準画像TOと比較画像TCに対するステレオマッチング処理により視差dpを算出して対象物までの距離Zを算出する対象物の検出手法は、前記特許文献1、2等に記載されているように、通常の撮像環境中では支障なく機能し、周囲の環境中から対象物を有効に検出することができることが確認されている。
しかし、例えばステレオカメラが逆光の環境内に置かれた場合、図18(A)に例示する基準画像TOでは逆光が入射されて画像が全体的に明るく撮像されているのに対し、同じシーンで撮像された図18(B)に示す比較画像TCでは逆光がビル等に遮られてさほど強くは入射されずに画像が全体的に基準画像TOよりも暗めに撮像される場合がある。
このように一対のカメラの明るさのバランスが崩れると、上記(1)式中の基準画像TOの画素ブロックPBOの各画素の輝度値p1stと比較画像TCの画素ブロックPBCの各画素の輝度値p2stとの差が全体的に大きくなる。そのため、算出されるSAD値が大きな値になって前述した閾値を越えてしまい、有効に視差dpが算出されずに棄却される画素ブロックPBOが増大する。
そのため、基準画像TOの各画素ブロックPBOに算出された視差dpを割り当てて形成されるデータ画像(以下、距離画像TZという。)は、図19に示すように、有効な視差dpのデータがさほど多く割り当てられていない距離画像TZが得られ、対象物の検出が困難になったり、対象物の検出結果の信頼性が低下する場合がある。最悪の場合には、ほとんど有効な視差dpのデータがない距離画像TZしか得られず、対象物をまったく検出できなくなる場合も生じる。
このような場合、例えば図18(A)に示した基準画像TOに属する各画素についてその左隣または右隣の画素との間で輝度値p1ijの差分を算出して図20(A)のような基準エッジ画像TEOを形成し、また、図18(B)に示した比較画像TCについても同様にして図20(B)のような比較エッジ画像TECを形成し、それらのエッジ画像TEO、TECに対してステレオマッチング処理を行うように構成することが可能である。
このようにして形成された基準エッジ画像TEOと比較エッジ画像TECに対してステレオマッチング処理を行うことで、図21に示すように、有効な視差dpのデータが比較的多く割り当てられた距離画像(以下、エッジ画像に基づく距離画像をエッジ距離画像という。)TEZが得られ、上記のように元の基準画像TOと比較画像TCに対する直接ステレオマッチング処理では対象物を有効に検出し難い場合でも、有効に対象物を検出することが可能となる場合がある。なお、図20(A)、(B)および図21では、基準エッジ画像TEOや比較エッジ画像TEC、エッジ距離画像TEZの一部が示されている。
特開平10−283461号公報 特開平10−283477号公報
しかしながら、エッジ処理は、隣接する画素の輝度値の差分をとる際に多くの情報が失われてしまうという問題がある。すなわち、256の輝度階調において輝度値の差分として30という値が得られた場合、それが輝度値50と80との差なのか、200と230との差なのかは分からない。また、それにより、基準画像TOや比較画像TCのノイズ成分が増幅されてしまうという問題もある。
また、1画素幅或いは数画素幅の輝度値の差しか見ていないため、基準画像TOや比較画像TCの周波数成分のうちの低周波数側の成分の情報も失われてしまう。そのため、ミスマッチングを生じ易くなるという問題もある。さらには、エッジ処理では、構造や模様等に乏しい壁やアスファルトの道路面等に対して有効な情報が得られ難いという問題もある。
このように、上記のような例でエッジ処理が有効であるからといって、常時、基準画像TOや比較画像TCにエッジ処理を施して基準エッジ画像TEOと比較エッジ画像TECを形成し、それらに対してステレオマッチング処理を行って得られたエッジ距離画像TEZのみに基づいて対象物の検出を行うように構成することは避けられるべきである。
しかし、基準画像TOや比較画像TCから得られた距離画像TZのみに基づいて対象物検出を行うように構成すると、前述したように、通常の撮像環境中では周囲の環境中から対象物を有効に精度良く検出することができるが、上記のような特殊な環境下において対象物の検出が困難になることも否定できない。
本発明は、このような事情に鑑みてなされたものであり、対象物を有効に検出して周囲の環境を認識することが可能な環境認識装置を提供することを目的とする。
前記の問題を解決するために、第1の発明は、環境認識装置において、
一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
異なる撮像方法で撮像された2枚一組の画像の複数の組または撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組に対して、各組の2枚の画像ごとにステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差をそれぞれ割り当てて各組ごとに1枚ずつ距離画像を形成するステレオマッチング手段と、
前記各組ごとに1枚ずつ形成された前記各距離画像をそれぞれ縦方向に延びる短冊状の複数の区分に分割して各区分ごとにそれぞれ代表視差を算出し、前記各組の各距離画像の互いに対応する区分の前記各代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
を備えることを特徴とする。
第2の発明は、第1の発明の環境認識装置において、前記異なる撮像方法で撮像された2枚一組の画像の複数の組とは、前記撮像手段の撮像条件を変えて撮像された2枚一組の画像の複数の組であることを特徴とする。
第3の発明は、第1または第2の発明の環境認識装置において、前記撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組は、前記撮像手段により撮像された2枚の画像の組、前記2枚一組の画像に対してそれぞれエッジ処理が施されて形成された2枚の画像の組、前記2枚一組の画像の解像度をそれぞれ変えて形成された2枚の画像の組、または画像の明るさをそれぞれ変えて形成された2枚の画像の組のいずれかであることを特徴とする。
第4の発明は、第1から第3のいずれかの発明の環境認識装置において、前記選択手段は、前記距離画像からノイズを除去する際の閾値を変更して前記2枚の画像の組を形成することを特徴とする。
第5の発明は、第1から第4のいずれかの発明の環境認識装置において、前記選択手段は、前記撮像された2枚一組の画像から形成された前記距離画像を分割する前記区分の画素幅を変更して形成した前記各区分ごとにそれぞれ代表視差を算出し、互いに対応する前記区分の前記各代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択することを特徴とする。
第6の発明は、第1から第5のいずれかの発明の環境認識装置において、前記選択手段は、前記各組ごとに形成された前記各距離画像の前記複数の区分について各区分ごとにそれぞれヒストグラムを作成し、当該ヒストグラムにおける前記視差の度数に基づいてその最頻値を前記代表視差として算出することを特徴とする。
第7の発明は、第6の発明の環境認識装置において、前記選択手段は、前記各組ごとに形成された各距離画像の対応する区分の前記各代表視差のうち、度数が最大の代表視差、分散が最小となるヒストグラムに基づく代表視差、前記最頻値が最も大きい代表視差、または前回のサンプリング周期で検出された前記対象の位置から推定される今回のサンプリング周期における当該対象までの距離に最も近い距離を与える代表視差のいずれかの代表視差を選択して当該区分の代表視差とすることを特徴とする。
第8の発明は、第6または第7の発明の環境認識装置において、前記選択手段は、前記撮像された2枚一組の画像から形成された前記距離画像の前記複数の区分について各区分ごとにそれぞれ作成する前記ヒストグラムの最大値、最小値または階級幅の少なくとも1つを変更した複数種類のヒストグラムを作成し、当該複数種類のヒストグラムについてそれぞれ前記代表視差を算出することを特徴とする。
第9の発明は、環境認識装置において、
一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
前記2枚一組の画像に対してステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差を割り当てた距離画像を形成するステレオマッチング手段と、
前記距離画像を縦方向に延びる短冊状の複数の区分に分割して各区分ごとに複数種類の代表視差を算出し、対応する区分の前記複数種類の代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
を備え、
前記複数種類の代表視差は、前記距離画像からノイズを除去する際の閾値が異なる値に設定されて形成された複数種類の前記距離画像に基づいて算出されることを特徴とする。
第10の発明は、環境認識装置において、
一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
前記2枚一組の画像に対してステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差を割り当てた距離画像を形成するステレオマッチング手段と、
前記距離画像を縦方向に延びる短冊状の複数の区分に分割して各区分ごとに複数種類の代表視差を算出し、対応する区分の前記複数種類の代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
を備え、
前記複数種類の代表視差は、前記距離画像を分割する前記区分の画素幅が異なる画素幅に設定されることで算出される複数種類の代表視差であることを特徴とする。
第11の発明は、環境認識装置において、
一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
前記2枚一組の画像に対してステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差を割り当てた距離画像を形成するステレオマッチング手段と、
前記距離画像を縦方向に延びる短冊状の複数の区分に分割して各区分ごとに複数種類の代表視差を算出し、対応する区分の前記複数種類の代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
を備え、
前記選択手段は、前記各区分ごとにそれぞれヒストグラムを作成し、当該ヒストグラムにおける前記視差の最頻値を前記代表視差として算出し、前記各区分のヒストグラムとして、前記ヒストグラムの最大値、最小値または階級幅の少なくとも1つが変更された複数種類のヒストグラムを用いることで前記複数種類の代表視差を算出することを特徴とする。
第12の発明は、第1から第11のいずれかの発明の環境認識装置において、前記選択手段は、所定の重み付けがなされた前記代表視差のいずれかを選択することを特徴とする。
第13の発明は、第1から第12のいずれかの発明の環境認識装置において、前記2枚一組の画像を得るための前記撮像方法、前記2枚一組の画像に対する前記画像処理方法、または前記距離画像に対する処理のしかたを切り替えることが可能とされていることを特徴とする。
第14の発明は、第13の発明の環境認識装置において、前記撮像方法、前記画像処理方法、または前記距離画像に対する処理のしかたの切り替えは、周囲の環境に応じて行われることを特徴とする。
第15の発明は、第1から第14のいずれかの発明の環境認識装置において、前記対象は、基準面より高い位置に存在する立体物であることを特徴とする。
第16の発明は、第1から第15のいずれかの発明の環境認識装置において、前記視差および前記代表視差に代えて、三角測量の原理に基づいて前記視差および前記代表視差にそれぞれ一意に対応付けられる距離および代表距離を用いて前記ステレオマッチング手段における処理および前記選択手段における処理が構成されていることを特徴とする。
第1の発明によれば、撮像された2枚一組に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組に対してそれぞれステレオマッチング処理を行い、複数種類の距離画像を得る。そして、複数種類の距離画像をそれぞれ複数の区分に分割し、各区分についてより条件に適合する代表視差を選択してその区分の代表視差とする。そのため、各区分について、それぞれ複数種類の距離画像に基づく代表視差の中からより優秀な代表視差を各区分の代表視差として抽出することが可能となり、例えば一方の画像の組だけでは距離画像のある区分で代表視差を抽出することが困難な状況であっても、他方の画像の組の当該区分のデータでそれを補うことが可能となる。
このように、第1の発明によれば、区分ごとのいわば「良いとこ取り」により区分の代表視差を的確に抽出することが可能となり、抽出されたデータに基づいて先行車両等の対象物を有効に検出して、周囲の環境を的確に認識することが可能となる。
第2の発明によれば、撮像手段の撮像条件を変えて2枚一組の画像を撮像することで、撮像条件が異なる2枚一組の画像の複数の組を得ることが可能となる。そして、このようにして得られた複数の画像の組に基づいて算出された代表視差の中から優秀な代表視差を選択することが可能となり、前記発明の効果が的確に発揮される。
第3の発明によれば、撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組を、撮像手段により撮像された2枚の画像の組、2枚一組の画像に対してそれぞれエッジ処理が施されて形成された2枚の画像の組、2枚一組の画像の解像度をそれぞれ変えて形成された2枚の画像の組、距離画像の形成の際のノイズ除去の閾値が変更されて形成された2枚の画像の組、または画像の明るさをそれぞれ変えて形成された2枚の画像の組のいずれかとすることで、画像処理方法が異なる2枚一組の画像の複数の組を得ることが可能となる。そして、このようにして得られた複数の画像の組に基づいて算出された代表視差の中から優秀な代表視差を選択することが可能となり、前記各発明の効果が的確に発揮される。
第4および第9の発明によれば、距離画像からノイズを除去する際の閾値を変更して2枚の画像の組を形成することで、ノイズ除去の閾値が異なる2枚一組の画像の複数の組を得ることが可能となる。そして、このようにして得られた複数の画像の組に基づいて算出された代表視差の中から優秀な代表視差を選択することが可能となり、前記各発明の効果が的確に発揮される。
第5および第10の発明によれば、撮像された2枚一組の画像から形成された距離画像を分割する区分の画素幅を変更することで、距離画像を異なる画素幅の区分で分割した複数種類の代表視差を得ることが可能となる。そして、このようにして得られた複数種類の代表視差の中から優秀な代表視差を選択することが可能となり、前記各発明の効果が的確に発揮される。
第6の発明によれば、各区分ごとにそれぞれヒストグラムを作成してその度数の最頻値を代表視差として算出することで、容易かつ的確に代表視差を算出することが可能となり、前記各発明の効果が的確に発揮される。
第7の発明によれば、度数が最大の代表視差を選択して区分の代表視差とすれば的確な区分の代表視差を即座に選択することが可能となり、分散が最小となるヒストグラムに基づく代表視差を選択して区分の代表視差とすればノイズ等の影響が少ない代表視差を選択することが可能となり、最頻値が最も大きい代表視差を選択して区分の代表視差とすれば撮像手段に最も近い位置の代表視差を選択することが可能となり、前回のサンプリング周期で検出された対象の位置から推定される今回のサンプリング周期における当該対象までの距離に最も近い距離を与える代表視差を選択して区分の代表視差とすれば対象を安定して検出することが可能となる。
このように、対象を検出する際に求められる条件に応じて区分の代表視差の選択手法を決めることで、その条件に適した区分の代表視差を選択することが可能となり、前記各発明の効果が的確に発揮される。
第8および第11の発明によれば、撮像された2枚一組の画像から形成された距離画像の複数の区分について各区分ごとにそれぞれ作成するヒストグラムの最大値、最小値または階級幅の少なくとも1つを変更することで、距離画像の同じ区分に対して複数種類の代表視差を得ることが可能となる。そして、このようにして得られた複数種類の代表視差の中から優秀な代表視差を選択することが可能となり、前記各発明の効果が的確に発揮される。
第12の発明によれば、代表視差に所定の重み付けをして選択することで、算出のもととなるデータ数が異なる代表視差同士を平等に選択することが可能となり、或いは優先したい方の代表視差の重みを大きくしてその代表視差が選択され易くすることが可能となり、対象を検出する際に求められる条件に応じて重みを決定することで、その条件に適した区分の代表視差を選択することが可能となり、前記各発明の効果が的確に発揮される。
第13および第14の発明によれば、撮像方法や画像処理方法、または距離画像に対する処理のしかたを切り替え可能とし、特に周囲の環境に応じて切り替えることで、対象を検出する際に求められる条件に適した撮像方法等に切り替えて代表視差を算出することが可能となり、特に、例えば日中から夜間に変化するように周囲の環境が変化する際に、特定の環境(例えば日中)に適した撮像方法等から他の特定の環境(例えば夜間)に適した撮像方法等に切り替えて代表視差を算出することが可能となる。そのため、周囲の環境等に応じて撮像方法等を切り替えることで、周囲の環境中から対象物を的確に検出して環境を認識することが可能となり、前記各発明の効果が的確に発揮される。
第15の発明によれば、対象として先行車両等の基準面(道路面)より高い位置に存在する立体物を検出する場合にも、前記各発明を適用することが可能であり、前記各発明の効果が的確に発揮される。
第16の発明によれば、視差や代表視差は、三角測量の原理に基づいて距離や代表距離と一意に対応づけることができる。そのため、視差や代表視差に代えて距離や代表距離を用いて処理を組み立てることが可能であり、そのような場合にも前記各発明の効果が的確に発揮される。
以下、本発明に係る環境認識装置の実施の形態について、図面を参照して説明する。
なお、以下では、環境認識装置を車両に搭載して先行車両を検出する場合について説明するが、対象物は先行車両には限定されず、他の車両や歩行者、障害物等、或いはそれらすべてを認識対象とするように構成することも可能である。また、環境認識装置は、車両に搭載して用いられる形態に限定されず、例えば自走式ロボット等の他の移動体に搭載したり、或いは据え置き型の監視装置等としても用いる形態とすることも可能である。
本実施形態に係る環境認識装置1は、図1に示すように、撮像手段2、変換手段3、および選択手段11や検出手段12を備える認識手段10等で構成されている。また、環境認識装置1は、2系統の画像処理手段6a、6bを備えている。
なお、撮像手段2や変換手段3、画像補正部4、画像データメモリ5、第1、第2ステレオマッチング手段7a、7bと第1、第2距離データメモリ8a、8bを備える第1、第2画像処理手段6a、6bの構成は本願出願人により先に提出された前記特許文献1、2のほか、特開平5−114099号公報や特開平5−265547号公報、特開平6−266828号公報、特開2006−72495号公報等に詳述されている。以下、簡単に説明する。
撮像手段2は、本実施形態では、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵され例えばフロントガラスの車内側に車幅方向すなわち左右方向に所定の間隔をあけて取り付けられた一対のメインカメラ2aおよびサブカメラ2bからなるステレオカメラが用いられている。
メインカメラ2aおよびサブカメラ2bは、道路面から同じ高さに取り付けられており、所定のサンプリング周期で同時に自車両の周囲の環境を撮像して撮像画像の情報を出力するように構成されている。そして、運転者に近い側に配置されたメインカメラ2aは図2に例示される基準画像TOの画像データを出力し、運転者から遠い側に配置されたサブカメラ2bは図示を省略する比較画像TCの画像データを出力するようになっている。本実施形態では、基準画像TOおよび比較画像TCが2枚一組の画像となる。
メインカメラ2aとサブカメラ2bから出力された画像データは、変換手段3であるA/Dコンバータ3a、3bでアナログ画像からそれぞれ画素ごとに例えば256階調のグレースケール等の所定の輝度階調の輝度を有するデジタル画像にそれぞれ変換され、画像補正部4で、ずれやノイズの除去等の画像補正が行われるようになっている。そして、画像補正等が行われた各画像データは、画像データメモリ5に送信されて格納されるとともに、第1画像処理手段6aおよび第2画像処理手段6bに送信されるようになっている。
画像処理手段6aは、イメージプロセッサ等からなる第1ステレオマッチング手段7aと第1距離データメモリ8aとを備えている。
なお、本実施形態では、第1画像処理手段6aでは、基準画像TOや比較画像TCに前処理を施さず、基準画像TOや比較画像TCに対して直接ステレオマッチング処理を行う場合について説明するが、後述する第2画像処理手段6bの場合と同様に、第1画像処理手段6aにおいても基準画像TOや比較画像TCに対して前処理が施されて形成された2枚一組の画像に対してステレオマッチング処理を行うように構成することも可能である。その場合、第1画像処理手段6aと第2画像処理手段6bには互いに異なる前処理の手法で前処理された2枚一組の画像がそれぞれ入力される。
第1ステレオマッチング手段7aでは、図17に示した手法でステレオマッチング処理が行われるようになっている。すなわち、第1ステレオマッチング手段7aは、基準画像TO上に例えば3×3画素や4×4画素等の所定の画素数の画素ブロックPBOを設定し、画素ブロックPBOに対応する比較画像TCの上下方向の位置にエピポーララインEPLを設定し、エピポーララインEPL上を例えば左から右に向かって1画素分ずつシフトさせながら比較画像TCの各画素ブロックPBCを探索し、上記(1)式に従ってSAD値を算出して、SAD値が閾値以下で、かつ最小の画素ブロックPBCを特定するようになっている。
本実施形態では、このようにSAD値を用いるように構成されているが、この他にも、例えば画素ブロックPBO中の各画素の輝度値p1stと画素ブロックPBC中の各画素の輝度値p2stとの差の二乗和に基づいてステレオマッチング処理を行うように構成することも可能である。また、画素ブロックPBOと画素ブロックPBCとの輝度パターンの差異を適切に算出できるものであれば他の計算式に従って算出される差異に基づいてステレオマッチング処理を行うように構成することも可能である。
第1ステレオマッチング手段7aは、さらに、ステレオマッチング処理により特定した画素ブロックPBCの比較画像TC上の位置と元の基準画像TO上の画素ブロックPBOの位置から第1視差dp1を算出する。そして、以上の処理を基準画像TO上の全画素ブロックPBOについて行って、画素ブロックPBOごとに第1視差dp1を算出するようになっている。
基準画像TOの各画素ブロックPBOに、算出された有効な第1視差dp1を割り当てると、例えば図3に例示するように、各画素ブロックPBOに第1視差dp1が割り当てられた第1距離画像TZ1が形成される。第1ステレオマッチング手段7aは、このようにして、ステレオマッチング処理により第1視差dp1を算出し、第1距離画像TZ1を形成するようになっている。
なお、一対のメインカメラ2aとサブカメラ2bの中央真下の道路面上の点を原点とし、自車両の車幅方向(左右方向)をX軸方向、車高方向(高さ方向)をY軸方向、車長方向(前後方向)をZ軸方向とした場合の実空間上の点(X,Y,Z)と、上記の第1視差dp1、第1距離画像TZ1上の点(i,j)とは、三角測量の原理に基づき下記(2)〜(4)式で表される座標変換により一意に対応づけられる。
=CD/2+Z×PW×(i−IV) …(2)
=CH+Z×PW×(j−JV) …(3)
=CD/(PW×(dp1−DP)) …(4)
上記各式において、CDは一対のカメラの間隔、PWは1画素当たりの視野角、CHは一対のカメラの取り付け高さ、IVおよびJVは自車両正面の無限遠点の第1距離画像TZ1上のi座標およびj座標、DPは消失点視差を表す。
このように、第1視差dp1と第1距離Zとは一意に対応づけられるものであるため、第1ステレオマッチング手段7aにおいて、算出した第1視差dp1を上記(4)式に従って第1距離Zに変換し、基準画像TOの各画素ブロックPBOに、変換した第1距離Zを割り当てて第1距離画像TZ1を形成するように構成することも可能である。
第1ステレオマッチング手段7aは、上記のようにして形成した第1距離画像TZ1の情報を第1距離データメモリ8aに送信して格納させるようになっている。
なお、この第1ステレオマッチング手段7aでは、メインカメラ2aとサブカメラ2bで前述した図18(A)、(B)に示したような基準画像TOと比較画像TCが撮像されるシーンでは、図19に示したような第1距離画像TZ1が形成される。
一方、第2画像処理手段6bには、前処理手段9(図1参照)で基準画像TOと比較画像TCに対してそれぞれ所定の前処理が施されて形成された2枚一組の画像が入力されるようになっている。
本実施形態では、前処理手段9では、所定の前処理として基準画像TOと比較画像TCに対して前述したエッジ処理を行って基準エッジ画像TEOと比較エッジ画像TECを形成するようになっている。すなわち、基準画像TOに属する各画素について本実施形態では当該画素の輝度値とその左隣の画素の輝度値との差分を算出して基準エッジ画像TEOを形成し、また、比較画像TCについても同様にして比較エッジ画像TECを形成するようになっている。
例えば、図18(A)、(B)に示したような基準画像TOや比較画像TCに対してエッジ処理を行うと、図20(A)、(B)に示したように、前記輝度値の差分値を各画素の輝度値とする基準エッジ画像TEOや比較エッジ画像TECが形成される。前処理手段9は、このようにして基準エッジ画像TEOと比較エッジ画像TECとをそれぞれ形成して、第2画像処理手段6bに送信するようになっている。
第2画像処理手段6bは、上記の第1画像処理手段6aと同様に構成されており、第2画像処理手段6bの第2ステレオマッチング手段7bにおいても、図17に示した手法でステレオマッチング処理が行われるようになっている。ただし、ステレオマッチング処理の対象は基準エッジ画像TEOと比較エッジ画像TECである。
そして、第2ステレオマッチング手段7bは、第1ステレオマッチング手段7aと同様にして基準エッジ画像TEO上の画素ブロックごとに第2視差dp2を算出し、基準エッジ画像TEOの各画素ブロックに、算出した第2視差dp2を割り当てて第2距離画像TZ2(すなわちエッジ距離画像TEz)を形成するようになっている。図20(A)、(B)に示した基準エッジ画像TEOと比較エッジ画像TECから図21に示したような第2距離画像TZ2が得られる。
なお、基準エッジ画像TEOの各画素ブロックは、第1ステレオマッチング手段7aにおける基準画像TO上の各画素ブロックPBOと同じ画素位置に設定されるため、第2距離画像TZ2は、基準画像TOの各画素ブロックPBOに算出した各第2視差dp2を割り当てて形成されると表現することも可能である。
また、上記と同様に原点やX軸方向、Y軸方向、Z軸方向を設定し、第2視差dp2から算出される実空間上の点の座標を(X,Y,Z)とした場合、それと第2視差dp2、第2距離画像TZ2上の点(i,j)とは、三角測量の原理に基づき下記(5)〜(7)式で表される座標変換により一意に対応づけられる。なお、式中のCD等は上記と同様である。
=CD/2+Z×PW×(i−IV) …(5)
=CH+Z×PW×(j−JV) …(6)
=CD/(PW×(dp2−DP)) …(7)
また、第2視差dp2と第2距離Zとが一意に対応づけられるものであるため、第2ステレオマッチング手段7bにおいて、算出した第2視差dp2を上記(7)式に従って第2距離Zに変換し、基準エッジ画像TEO(基準画像TO)の各画素ブロックPBOに、変換した第2距離Zを割り当てて第2距離画像TZ2を形成するように構成することも可能である。
第2ステレオマッチング手段7bは、上記のようにして形成した第2距離画像TZ2の情報を第2距離データメモリ8bに送信して格納させるようになっている。
このように、本実施形態では、撮像された基準画像TOと比較画像TCに対してデジタル化やノイズの除去等の画像補正等の画像処理が行われた、いわば生の基準画像TOと比較画像TCが第1ステレオマッチング手段7aに入力され、また、撮像された基準画像TOと比較画像TCに対してデジタル化や画像補正等のほか、前処理(エッジ処理)等の画像処理が行われて形成された基準エッジ画像TEOと比較エッジ画像TECが第2ステレオマッチング手段7bに入力されるように構成されており、撮像された2枚一組の画像(基準画像TOと比較画像TC)に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組に対して各組の2枚の画像ごとにステレオマッチング処理が行われるようになっている。
なお、前述したように、基準画像TOや比較画像TCに対して第2ステレオマッチング手段7bに入力される2枚一組の画像とは異なる前処理が施されて形成された2枚一組の画像を第1ステレオマッチング手段7aに入力するように構成することも可能であるが、その場合も、撮像された2枚一組の画像(基準画像TOと比較画像TC)に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組に対して各組の2枚の画像ごとにステレオマッチング処理が行われることになる。
認識手段10(図1参照)は、図示しないCPUやROM、RAM、入出力インターフェース等がバスに接続されたコンピュータより構成されている。また、認識手段10には、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qが接続されている。なお、ヨーレートセンサの代わりに自車両の車速等からヨーレートを推定する装置等を用いることも可能である。
認識手段10は、選択手段11と、検出手段12とを備えており、さらに図示しないメモリを備えている。
選択手段11は、第1距離画像TZ1を第1距離データメモリ8aから読み出して、図4に示すように第1距離画像TZ1を所定の画素幅で縦方向に延在する短冊状の区分Dnに分割する。そして、各区分Dnごとに図5に示すような第1ヒストグラムHn1をそれぞれ作成し、各区分Dnに属する各第1視差dp1を当該第1視差dp1が属する区分Dnの第1ヒストグラムHn1に投票する。そして、度数Fnが最大の階級の階級値すなわち最頻値をその区分Dnにおける第1代表視差dpn1とするようになっている。
なお、本実施形態では、第1視差dp1の第1ヒストグラムHn1への投票の際、第1視差dp1の値および当該第1視差dpn1が割り当てられた画素ブロックPBOの第1距離画像TZ1上の位置(i,j)から前記(3)式に従って算出される当該第1視差dpn1に対応する高さYが道路面の高さ以下の高さである場合には、当該第1視差dpn1は投票の対象から除外されるようになっている。下記の第2視差dp2の第2ヒストグラムHn2への投票においても同様である。
また、選択手段11は、第2距離画像TZ2を第2距離データメモリ8bから読み出して、図4に示した手法と同様に第2距離画像TZ2を縦方向に延在する短冊状の区分Dnに分割する。この場合、第2距離画像TZ2の各区分Dnは、第1距離画像TZ1と同じ画素位置に同じ画素幅で形成される。そして、各区分Dnごとに図5に示したものと同様の第2ヒストグラムHn2をそれぞれ作成し、各区分Dnに属する各第2視差dp2を当該第2視差dp2が属する区分Dnの第2ヒストグラムHn2に投票する。そして、第2ヒストグラムHn2の最頻値をその区分Dnにおける第2代表視差dpn2とするようになっている。
選択手段11は、続いて、第1距離画像TZ1と第2距離画像TZ2の対応する区分Dnすなわち番号nが同じ区分Dnの第1ヒストグラムHn1と第2ヒストグラムHn2の各度数分布を比較する。第1、第2距離画像TZ1、TZ2の対応する区分Dnの第1、第2ヒストグラムHn1、Hn2の各度数分布を1つのヒストグラムにあわせて表示すると、例えば図6のヒストグラムのように表される。
そして、本実施形態では、選択手段11は、当該区分Dnの第1代表視差dpn1の度数Fnと第2代表視差dpn2の度数Fnとを比較して大きい方を、当該区分Dnの代表視差dpnとして選択するようになっている。例えば図6の例では、第1代表視差dpn1より第2代表視差dpn2の方が度数Fnが大きいので第2代表視差dpn2が当該区分Dnの代表視差dpnとして選択される。
選択手段11は、上記のような区分Dnの代表視差dpnの選択を各区分Dnごとに行うようになっている。従って、ある区分Dnでは上記のように第2代表視差dpn2がその区分Dnの代表視差dpnとして選択されたが、他の区分Dnでは第1代表視差dpn1がその区分Dnの代表視差dpnとして選択されることが頻繁に生じ得る。
本実施形態では、選択手段11は、区分Dnの代表視差dpnとして第1代表視差dpn1を選択した場合にはその区分DnにフラグFとして0を設定し、区分Dnの代表視差dpnとして第2代表視差dpn2を選択した場合にはその区分DnにフラグFとして1を設定するようになっている。
選択手段11は、このように設定した各区分DnごとのフラグFのほか、各区分Dnの各第1、第2ヒストグラムHn1、Hn2の投票結果や各第1、第2代表視差dpn1、dpn2、各区分Dnの代表視差dpn、区分Dnの画素幅等をメモリに保存するようになっている。
なお、本実施形態では、上記のように、第1距離画像TZ1と第2距離画像TZ2の対応する区分Dnの第1ヒストグラムHn1と第2ヒストグラムHn2の各度数分布を比較して、第1代表視差dpn1と第2代表視差dpn2の各度数Fnの大きい方を、当該区分Dnの代表視差dpnとして選択する場合について説明した。この基準によれば、第1ヒストグラムHn1や第2ヒストグラムHn2に第1距離画像TZ1の第1視差dp1や第2距離画像TZ2の第2視差dp2を投票した時点で即座に当該区分Dnの代表視差dpnを第1代表視差dpn1と第2代表視差dpn2のいずれにするかを選択することが可能となるため、選択処理の迅速化が図れるとともに、制御構成が簡単で明確になるという利点がある。
しかし、これ以外の基準に基づいて当該区分Dnの代表視差dpnを選択するように構成することも可能である。
例えば、対応する区分Dnの第1、第2ヒストグラムHn1、Hn2の各度数分布を比較して、第1代表視差dpn1と第2代表視差dpn2のうち、分散σが最小となるヒストグラムの代表視差を、当該区分Dnの代表視差dpnとして選択するように構成することが可能である。この基準によれば、度数分布の分散σが小さくばらつきが少ない方の度数分布に基づく代表視差が選択されるため、よりノイズが少ない方の距離画像TZが選ばれるようになり、ノイズによる誤検出の発生が低下され、より精度が高い検出を実現することが可能となる。
また、第1代表視差dpn1と第2代表視差dpn2のうち、それらの値自体が最も大きい代表視差を、当該区分Dnの代表視差dpnとして選択するように構成することが可能である。第1代表視差dpn1や第2代表視差dpn2を上記(4)式や(7)式に代入すると自車両から対象物(先行車両)までの距離である前記第1距離Zや第2距離Zが算出され、第1代表視差dpn1や第2代表視差dpn2の値が大きいほど第1距離Zや第2距離Zの値は小さくなる。そして、仮に実際の自車両から対象物までの距離より大きな距離が算出され、それに基づいて自動制御が行われると、自車両が対象物(先行車両)と接触したり衝突したりする危険性が高くなる。
そのため、この基準によれば、第1代表視差dpn1と第2代表視差dpn2のうち値が大きい方の代表視差を当該区分Dnの代表視差dpnとして選択することで、それらから算出される第1距離Zや第2距離Zのうち小さい方の値が選択されることになり、選択された方の値に基づいて自動制御が行われても自車両が対象物(先行車両)と接触、衝突する危険性が低くなり、より安全性を重視した検出を行うことが可能となる。
さらに、後述する検出手段12では先行車両が実空間上に検出されるが、図7に示すように、その先行車両の背面の前回のサンプリング周期で検出された実空間上の中心位置(Xold,Yold,Zold)と、先行車両と自車両との相対変位ΔP、および自車両のヨー角運動による変位Δθから、今回のサンプリング周期における先行車両までの距離Zestを推定することができる。
そこで、第1代表視差dpn1と第2代表視差dpn2のうち、それらから算出される第1距離Zや第2距離Zが、この今回のサンプリング周期における先行車両の推定距離Zestに最も近い距離となる方を、当該区分Dnの代表視差dpnとして選択するように構成することが可能である。この基準によれば、対象物(この場合は先行車両)を安定して検出することが可能となる。
なお、上記の各基準を独立に適用することも可能であるが、それらを総合して適用するように構成することも可能である。また、例えば、特に夜間には基準エッジ画像TEOと比較エッジ画像TECから算出される第2距離画像TZ2上にはノイズ成分に基づく第2視差dp2のデータが多数算出されるようになるため、例えば日中の検出時には本実施形態のように第1代表視差dpn1と第2代表視差dpn2のうち度数Fnの大きい方を当該区分Dnの代表視差dpnとして選択し、夜間、自車両のヘッドライトが点灯されたような場合には、度数分布の分散σが小さい方を選択するように、基準を切り替えるように構成することも可能である。
検出手段12(図1参照)は、選択手段11により各区分Dnごとに選択された区分Dnの代表視差dpnに基づいて、基準画像TO中に撮像された対象物を検出し、さらにその中から先行車両を検出するようになっている。
具体的には、検出手段12は、各区分Dnごとに選択手段11により設定されたフラグFの値を確認しながら第1代表視差dpn1と第2代表視差dpn2のうちのフラグFの値に対応する方の値を区分Dnの代表視差dpnとして各区分Dnごとにメモリから読み出し、区分Dnの視差dpnを上記(4)式または(7)式のdp1またはdp2に代入して第1距離Zまたは第2距離Zを算出し、各区分Dnごとに区分Dnの代表距離Znとして、図8に示すように実空間上にプロットする。
そして、検出手段12は、図9に示すように、プロットされた各区分Dnの代表距離Znを表す点同士の距離や方向性に基づいて、互いに隣接する各点をそれぞれグループG1、G2、G3、…にまとめてグループ化するようになっている。
上記のように、本実施形態では、第1視差dp1や第2視差dp2の第1ヒストグラムHn1や第2ヒストグラムHn2への投票の際に、道路面以下の高さの第1視差dp1や第2視差dpは投票の対象から除外されるため、上記のようにして検出された対象物は基準面である道路面より高い位置に存在する立体物である。
そのため、本実施形態では、検出手段12は、図10に示すように各グループに属する各点をそれぞれ直線近似し、それぞれのグループ内の各点が自車両Aの車幅方向すなわちX軸方向に略平行に並ぶグループには“物体”Oとラベルし、各点が自車両Aの車長方向すなわちZ軸方向に略平行に並ぶグループには“側壁”Sとラベルして分類して、対象物である立体物を検出するようになっている。なお、同一の対象物(立体物)の“物体”のグループと“側壁”のグループの交点とみなすことができる箇所にコーナー点としてCをラベルするようになっている。
このようにして、検出手段12は、図10の例では、[側壁S1]、[物体O1]、[側壁S2]、[物体O2とコーナー点Cと側壁S3]、[側壁S4]、[物体O3]、[物体O4]、[側壁S5とコーナー点Cと物体O5]、[物体O6]、[側壁S6]をそれぞれ1つの立体物として検出して、各対象物を検出するようになっている。
また、検出手段12は、このようにして検出した各対象物を図11に示すように基準画像TO上で矩形状の枠線で包囲するようにして検出するようになっている。検出手段12は、このようにして基準画像TO中に撮像された各対象物を検出して、自車両Aの周囲の環境を認識するようになっている。
本実施形態では、検出手段12は、さらに、検出した対象物の中から先行車両を検出するようになっている。
具体的には、検出手段12は、まず、図12に示すように自車両Aの挙動に基づいて自車両Aが今後進行するであろう軌跡を走行軌跡Lestとして推定し、その走行軌跡Lestを中心とする自車両Aの車幅分の領域を自車両Aの進行路Restとして算出するようになっている。
自車両Aの走行軌跡Lestは、センサ類Qから送信されてくる自車両Aの車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて下記(8)式または下記(9)、(10)式に従って算出される自車両Aの旋回曲率Cuaに基づいて算出することができる。なお、下記の各式におけるReは旋回半径、Asfは車両のスタビリティファクタ、Lwbはホイールベースである。
Cua=γ/V …(8)
Re=(1+Asf・V)・(Lwb/δ) …(9)
Cua=1/Re …(10)
そして、検出手段12は、自車両Aの進行路Rest上に存在する対象物の中で自車両Aに最も近接する対象物を自車両Aの前方を走行する先行車両Vahとして検出するようになっている。例えば図11に示したシーンでは、図13に示すように、車両O3が先行車両Vahとして検出される。
なお、本実施形態では、検出手段12は、前回のサンプリング周期で検出した先行車両と今回のサンプリング周期で先行車両として検出した対象物(立体物)とが同一の立体物である確率を算出するなどして、整合性を保ちながら先行車両を追跡するようになっている。また、検出手段12は、検出した先行車両が自車両の前方から離脱してさらにその前方の車両が新たに先行車両となったり、自車両と先行車両との間に他の車両が割り込んできて当該他の車両が新たな先行車両となることによる先行車両の交替を検出できるようになっている。
検出手段12は、このようにして検出した各対象物および先行車両Vahの情報をメモリに保存するとともに、必要に応じてそれらの情報を、選択手段11がメモリに保存した設定した各区分DnごとのフラグFの情報等とともに環境認識装置1の外部に出力するようになっている。
次に、本実施形態に係る環境認識装置1の作用について説明する。
認識手段10の選択手段11では、上記のようにして形成された第1距離画像TZ1と第2距離画像TZ2が所定の同じ画素幅の短冊状の区分Dnに分割され、各区分Dnごとに第1距離画像TZ1について第1ヒストグラムHn1が、第2距離画像TZ2について第2ヒストグラムHn2がそれぞれ作成され、各区分Dnに属する各第1、第2視差dp1、dp2が第1、第2ヒストグラムHn1、Hn2にそれぞれ投票される。
そして、当該区分Dnについて投票が終了すると即座に第1、第2ヒストグラムHn1、Hn2の最頻値を判別されて第1代表視差dpn1と第2代表視差dpn2が算出され、その度数Fnの大小が比較されて、大きい方が当該区分Dnの代表視差dpnとして選択される。そして、この処理が全区分Dnに対してそれぞれ行われて、各区分Dnについて代表視差dpnが算出される。
このように、選択手段11では、各区分Dnについて、上記のような設定された種々の基準を満たし、より条件に適合する方の第1代表視差dpn1または第2代表視差dpn2が各区分Dnごとに選択されるようになっている。そのため、区分Dnの代表視差dpnは、各区分Dnごとの代表視差dpn1、dpn2の中から最も優秀な代表視差のみが抽出されたものとなる。
そして、本実施形態では、基準画像TOと比較画像TCとから形成された第1距離画像TZ1と、基準エッジ画像TEOと比較エッジ画像TECとから形成される第2距離画像TZ2とを比較して、各区分Dnごとに優秀な方の代表視差が区分Dnの代表視差dpnとされる。そのため、例えば図18(A)、(B)に示したメインカメラ2aとサブカメラ2bの明るさのバランスが崩れるような場合に得られる第1距離画像TZ1において有効な第1視差dp1のデータ数が少ない区分Dnが生じても、第2距離画像TZ2の当該区分Dnの第2代表視差dpn2の度数Fnが大きければそちらが選択されて、検出手段12で有効に精度良く対象物を検出することが可能となる。
また、基準エッジ画像TEOと比較エッジ画像TECとから形成される第2距離画像TZ2のある区分Dnで例えばノイズが多く、第2視差dp2の値がばらついて第2ヒストグラムHn2上で明確なピークが得られないような場合でも、基準画像TOと比較画像TCとから形成された第1距離画像TZ1で第1視差dp1の値が第1ヒストグラムHn1上の同一の階級に集中して検出され、第2代表視差dpn2よりも第1代表視差dpn1の方が度数Fnが大きくなれば、当該区分Dnでは代表視差dpnとして第1代表視差dpn1が選択される。そのため、このような状況においても、検出手段12は、選択された優秀な代表視差に基づいて有効に精度良く対象物を検出することが可能となる。
以上のように、本実施形態に係る環境認識装置1によれば、撮像された基準画像TOと比較画像TCに対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組、すなわち例えば生データの基準画像TOと比較画像TCの組とエッジ処理された基準エッジ画像TEOと比較エッジ画像TECの組に対して、それぞれステレオマッチング処理を行い、第1距離画像TZ1と第2距離画像TZ2を得る。そして、第1距離画像TZ1と第2距離画像TZ2をそれぞれ複数の区分Dnに分割し、各区分Dnについてより条件に適合する代表視差dpn1、dpn2を選択してその区分Dnの代表視差dpnとする。
そのため、各区分Dnについて、それぞれ第1距離画像TZ1と第2距離画像TZ2に基づく代表視差の中からより優秀な代表視差を各区分Dnの代表視差dpnとして抽出することが可能となり、例えば一方の画像の組だけでは距離画像TZのある区分Dnで代表視差dpnを抽出することが困難な状況であっても、他方の画像の組の当該区分Dnのデータでそれを補うことが可能となる。
このように、本実施形態に係る環境認識装置1では、区分Dnごとのいわば「良いとこ取り」により区分Dnの代表視差dpnを的確に抽出することが可能となり、抽出されたデータに基づいて対象物や先行車両Vahを有効に検出して、周囲の環境を認識することが可能となる。
[変形例1]
なお、本実施形態では、画像処理手段として画像処理手段6a、6bの2系統を設け、撮像された2枚一組の画像(基準画像TOと比較画像TC)に対して異なる画像処理方法を施して2枚一組の画像を2組(基準画像TOと比較画像TCの生データの組と基準エッジ画像TEOと比較エッジ画像TECの組)を形成する場合について説明した。しかし、異なる画像処理方法を施して形成する2枚一組の画像の組を3組以上形成するように構成することも可能である。
このように構成すれば、区分Dnの代表視差dpnを選択する際の選択肢がさらに多くなるため、より条件に適合する代表視差を抽出することが可能となり、上記の効果がより効果的に発揮される。
[変形例2]
また、本実施形態では、基準画像TOと比較画像TCに対する画像処理方法が異なる2枚一組の画像の組として、基準画像TOと比較画像TCに対してノイズの除去等の画像補正等の画像処理のみが行われた、いわば生の基準画像TOと比較画像TCの組と、エッジ処理を施した基準エッジ画像TEOと比較エッジ画像TECの組とを用いる場合について説明した。
しかし、一方の2枚一組の画像の組から形成される距離画像と、他方の2枚一組の画像の組から形成される距離画像との対応する区分Dnについて、いずれかの優秀な代表視差を選択するという本発明の本質から考えると、撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組は、上記のような2種類の組の他にも、種々の組であることが可能である。
例えば、図14に示すように、メインカメラ2aにより撮像された基準画像TOの各画素の輝度値p1ijを例えば2×2画素分ずつ平均をとるなどしてそれを1画素分の輝度値として元の基準画像TOから解像度を変えた画像TO を形成して車両の自動制御等に用いる場合がある。このように、基準画像TOと比較画像TCの解像度をそれぞれ変えて形成された2枚の画像の組を用いることが可能である。
[変形例3]
また、本願出願人により先に提出された特開平10−285582号公報等に記載されているように、距離画像に含まれるノイズを効率的に除去するために、距離画像中で隣接する視差dpの情報の差が例えば±1[ピクセル]であればグループ化する等の方法で視差dpの情報同士を図15に示すようにグループg1〜g3のようにグループ化して、同じグループgに属する視差dpの情報の数が予め設定された閾値以上であるグループg1、g3は有効なデータとして採用し、閾値未満であるグループg2はノイズとして棄却するという処理が行われる場合がある。本実施形態でもこの方法が採用されている。
そこで、上記の撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組として、距離画像の形成の際のノイズ除去の上記閾値を変えた2組を用いるように構成することが可能である。
[変形例4]
また、上記の撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組として、メインカメラ2aやサブカメラ2bにより撮像された基準画像TOと比較画像TCの組の明るさを変えない元の基準画像TOと比較画像TCの組と、基準画像TOと比較画像TCの組に対して画像補正部4や前処理手段9で画像の明るさを変えて形成した2枚の画像の組の計2組を用いるように構成することが可能である。
さらに、メインカメラ2aやサブカメラ2bにより撮像された基準画像TOと比較画像TCの組に対して、それぞれ異なる画像の明るさとなるように形成した2枚一組の画像の2組を用いるように構成することも可能である。このようにして形成された2枚一組の画像の2組に基づいて算出された代表視差の中から優秀な代表視差を選択することで、上記と同様の効果を得ることができる。
[変形例5]
また、同じ2枚一組の画像から形成された距離画像に対して、それを分割する図4に示したような縦方向に延在する区分の画素幅を変え、例えば所定の画素幅の区分Dkに分割した距離画像と、その2倍の画素幅を有する区分Dmに分割した距離画像とを形成し、各距離画像の各区分Dk、Dmごとに代表視差を算出し、互いに対応する区分Dk、Dmの各代表視差のうちいずれかを選択するように構成することも可能である。
この場合、区分Dmには他方の距離画像の2つの区分Dkが対応するが、各区分Dk、Dmに属し得る視差dpの情報の数が異なる。そのため、選択手段11は、各区分Dk、Dmについて算出した代表視差に所定の重み付けをしたうえで選択するように構成されることが好ましい。この重み付けをしたうえでの選択は、他の変形例においても適宜行われる。
[変形例6]
また、同じ2枚一組の画像から形成された距離画像を同じ画素幅の複数の区分Dnに分割するが、選択手段11で各区分Dnについてそれぞれヒストグラムを作成する際、1つの区分Dnについてヒストグラムの最大値、最小値または階級幅の少なくとも1つを変更した複数種類のヒストグラムを作成し、当該複数種類のヒストグラムについてそれぞれ代表視差を算出してそのいずれかを選択するように構成することも可能である。
なお、上記の変形例3から変形例6までは、基準画像TOと比較画像TCから形成された距離画像TZに対する処理のしかたが異なるだけであるから、距離画像TZを形成するまでのハード構成は、図1に示したような2系統の画像処理手段6a、6bを備える構成である必要はなく、図16に示すようにイメージプロセッサ等からなるステレオマッチング手段7と距離データメモリ8とを備える1系統の画像処理手段6で足りる。
逆の言い方をすれば、ステレオマッチング手段7と距離データメモリ8とを備える1系統の画像処理手段6を備えるハード構成の環境認識装置1においても、距離画像TZに対する処理のしかたを変えることで複数種類の代表視差dpnの中から優秀な代表視差dpnを選択し、それに基づいて周囲の環境中から対象物(立体物)を検出して環境を認識することが可能となる。
[変形例7]
上記の変形例2から変形例6までは、メインカメラ2aおよびサブカメラ2bで撮像された基準画像TOと比較画像TCに対する画像処理方法が異なり、或いはそれらから形成された距離画像に対する処理の方法が異なる2枚一組の画像の組として、本発明を適用する場合について述べた。しかし、メインカメラ2aおよびサブカメラ2bで撮像された第1基準画像TO1および第1比較画像TC1と、同じメインカメラ2a等で撮像方法を変更し、撮像条件を変えて撮像された第2基準画像TO2および第2比較画像TC2とに対して処理を構成することも可能である。
この場合、撮像条件が異なる2種類の画像を同時に撮像することはできないが、撮像手段2の撮像条件を変えて非常に近接したタイミングで2種類の画像を撮像し、上記と同様にしてそれぞれ第1距離画像TZ1および第2距離画像TZ2を得ることで、算出された第1代表視差dpn1と第2代表視差dpn2は、十分に区分Dnの代表視差dpnを選択するための材料となり得る。なお、この場合、撮像条件の変更には、撮像手段2の露光量やシャッタスピード等の変更や、アンプゲインの切り替えや、撮像手段2から出力される画素の輝度値を決めるLUT(Look Up Table)の選択の変更等が含まれる。
[本実施形態や変形例の組み合わせ]
なお、上記の本実施形態および変形例1〜7をそれぞれ組み合わせて行うことが可能である。そして、2枚一組の画像を得るための異なる撮像方法、2枚一組の画像に対する異なる画像処理方法、或いは距離画像に対する異なる処理のしかたにより得られた複数種類の代表視差dpnの中から優秀な代表視差dpnを選択し、それに基づいて周囲の環境中から対象物(立体物)を検出して環境を認識することが可能となる。
[撮像方法や画像処理方法等の切り替え]
また、上記の2枚一組の画像を得るための撮像方法(撮像条件)や、2枚一組の画像に対する画像処理方法や、距離画像TZに対する処理のしかたを所定の条件に下で切り替えるように構成することも可能である。
前述したように、例えば逆光の環境中では、基準画像TOと比較画像TCから形成した距離画像TZと、基準エッジ画像TEOと比較エッジ画像TECから形成したエッジ距離画像TEZとを用いて、各区分Dnで優秀な方の代表視差を用いるように構成すると良好に対象物を検出できるが、夜間は、基準エッジ画像TEOと比較エッジ画像TECから算出されるエッジ距離画像TEZ上にはノイズ成分が多数現れるようになる。一方で、変形例7に述べたように撮像方法(撮像条件)を変えると撮像される画像の輝度値のダイナミックレンジを広げることができる。
そこで、例えば、日中には基準画像TO等から形成した距離画像TZと基準エッジ画像TEO等から形成したエッジ距離画像TEZとを用い、夜間には、基準画像TO等から形成した距離画像TZと比較する対象を、基準エッジ画像TEO等から形成したエッジ距離画像TEZから、基準画像TOと比較画像TCを撮像する撮像方法(撮像条件)を変えて撮像された2枚一組の画像から形成した距離画像に切り替えるように構成することが可能である。
このように、周囲の環境に応じて撮像方法や画像処理方法、または距離画像に対する処理のしかたを切り替えることで、例えば上記の例では日中は逆光に有効に対処することが可能となり、夜間には撮像される画像の輝度値のダイナミックレンジを広げることが可能となるため、周囲の環境中から対象物(立体物)を的確に検出して環境を認識することが可能となる。
本実施形態に係る環境認識装置の構成を示すブロック図である。 基準画像の一例を示す図である。 図2の基準画像等に基づいて形成された第1距離画像を示す図である。 第1距離画像を分割する短冊状の区分を説明する図である。 図4の各区分ごとに作成される第1ヒストグラムを説明する図である。 第1距離画像と第2距離画像の各度数分布を示すヒストグラムの図である。 前回のサンプリング周期で検出された先行車両の背面の中心位置等から推定される今回のサンプリング周期における先行車両までの距離を説明する図である。 区分ごとの距離を実空間上にプロットした各点を表す図である。 図8の各点がグループ化されて形成される各グループを表す図である。 図9の各グループの各点を直線近似して検出された物体の例を表す図である。 基準画像上に枠線で包囲されて検出された各物体を表す図である。 実空間上の自車両の走行軌跡、進行路および先行車両を示す図である。 基準画像上の自車両の走行軌跡および先行車両を示す図である。 基準画像から解像度を変えた画像を形成する手法を説明する図である。 距離画像中でグループ化された視差の情報を表す図である。 1系統の画像処理手段を備える環境認識装置の構成を示すブロック図である。 ステレオマッチング処理の手法を説明する図である。 (A)基準画像の一例を示す写真であり、(B)(A)の基準画像より全体的に暗く撮像された比較画像を示す写真である。 図18(A)、(B)の基準画像と比較画像にステレオマッチング処理を行って得られる距離画像を示す写真である。 (A)図18(A)の基準画像にエッジ処理を施して得られる基準エッジ画像を示す写真であり、(B)図18(B)の比較画像にエッジ処理を施して得られる比較エッジ画像を示す写真である。 図20(A)、(B)の基準エッジ画像と比較エッジ画像にステレオマッチング処理を行って得られるエッジ距離画像を示す写真である。
符号の説明
1 環境認識装置
2 撮像手段
2a、2b 一対のカメラ(メインカメラ、サブカメラ)
7、7a、7b ステレオマッチング手段
11 選択手段
12 検出手段
Dn 区分
dp 視差
dpn 区分の代表視差
dpn1、dpn2 代表視差
Fn 度数
Hn1、Hn2 ヒストグラム
O、S 立体物
PBO 画素ブロック
TEO、TEC エッジ処理が施された2枚の画像(基準エッジ画像、比較エッジ画像)
O、TC 2枚一組の画像(基準画像、比較画像)
O 解像度を変えて形成された画像
Z、TZ1、TZ2 距離画像
Vah 対象(先行車両)
(Xold,Yold,Zold) 前回のサンプリング周期で検出された対象の位置
Z 距離
Zest 今回のサンプリング周期における対象までの距離
Zn 代表距離
σ 分散

Claims (16)

  1. 一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
    異なる撮像方法で撮像された2枚一組の画像の複数の組または撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組に対して、各組の2枚の画像ごとにステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差をそれぞれ割り当てて各組ごとに1枚ずつ距離画像を形成するステレオマッチング手段と、
    前記各組ごとに1枚ずつ形成された前記各距離画像をそれぞれ縦方向に延びる短冊状の複数の区分に分割して各区分ごとにそれぞれ代表視差を算出し、前記各組の各距離画像の互いに対応する区分の前記各代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
    前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
    を備えることを特徴とする環境認識装置。
  2. 前記異なる撮像方法で撮像された2枚一組の画像の複数の組とは、前記撮像手段の撮像条件を変えて撮像された2枚一組の画像の複数の組であることを特徴とする請求項1に記載の環境認識装置。
  3. 前記撮像された2枚一組の画像に対して異なる画像処理方法を施して形成される2枚一組の画像の複数の組は、前記撮像手段により撮像された2枚の画像の組、前記2枚一組の画像に対してそれぞれエッジ処理が施されて形成された2枚の画像の組、前記2枚一組の画像の解像度をそれぞれ変えて形成された2枚の画像の組、または画像の明るさをそれぞれ変えて形成された2枚の画像の組のいずれかであることを特徴とする請求項1または請求項2に記載の環境認識装置。
  4. 前記選択手段は、前記距離画像からノイズを除去する際の閾値を変更して前記2枚の画像の組を形成することを特徴とする請求項1から請求項3のいずれか一項に記載の環境認識装置。
  5. 前記選択手段は、前記撮像された2枚一組の画像から形成された前記距離画像を分割する前記区分の画素幅を変更して形成した前記各区分ごとにそれぞれ代表視差を算出し、互いに対応する前記区分の前記各代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択することを特徴とする請求項1から請求項4のいずれか一項に記載の環境認識装置。
  6. 前記選択手段は、前記各組ごとに形成された前記各距離画像の前記複数の区分について各区分ごとにそれぞれヒストグラムを作成し、当該ヒストグラムにおける前記視差の度数に基づいてその最頻値を前記代表視差として算出することを特徴とする請求項1から請求項5のいずれか一項に記載の環境認識装置。
  7. 前記選択手段は、前記各組ごとに形成された各距離画像の対応する区分の前記各代表視差のうち、度数が最大の代表視差、分散が最小となるヒストグラムに基づく代表視差、前記最頻値が最も大きい代表視差、または前回のサンプリング周期で検出された前記対象の位置から推定される今回のサンプリング周期における当該対象までの距離に最も近い距離を与える代表視差のいずれかの代表視差を選択して当該区分の代表視差とすることを特徴とする請求項6に記載の環境認識装置。
  8. 前記選択手段は、前記撮像された2枚一組の画像から形成された前記距離画像の前記複数の区分について各区分ごとにそれぞれ作成する前記ヒストグラムの最大値、最小値または階級幅の少なくとも1つを変更した複数種類のヒストグラムを作成し、当該複数種類のヒストグラムについてそれぞれ前記代表視差を算出することを特徴とする請求項6または請求項7に記載の環境認識装置。
  9. 一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
    前記2枚一組の画像に対してステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差を割り当てた距離画像を形成するステレオマッチング手段と、
    前記距離画像を縦方向に延びる短冊状の複数の区分に分割して各区分ごとに複数種類の代表視差を算出し、対応する区分の前記複数種類の代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
    前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
    を備え、
    前記複数種類の代表視差は、前記距離画像からノイズを除去する際の閾値が異なる値に設定されて形成された複数種類の前記距離画像に基づいて算出されることを特徴とする環境認識装置。
  10. 一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
    前記2枚一組の画像に対してステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差を割り当てた距離画像を形成するステレオマッチング手段と、
    前記距離画像を縦方向に延びる短冊状の複数の区分に分割して各区分ごとに複数種類の代表視差を算出し、対応する区分の前記複数種類の代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
    前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
    を備え、
    前記複数種類の代表視差は、前記距離画像を分割する前記区分の画素幅が異なる画素幅に設定されることで算出される複数種類の代表視差であることを特徴とする環境認識装置。
  11. 一対のカメラで周囲の環境中の同じ対象を撮像して2枚一組の画像を出力する撮像手段と、
    前記2枚一組の画像に対してステレオマッチング処理を行い、当該画像の各画素ブロックに算出した各視差を割り当てた距離画像を形成するステレオマッチング手段と、
    前記距離画像を縦方向に延びる短冊状の複数の区分に分割して各区分ごとに複数種類の代表視差を算出し、対応する区分の前記複数種類の代表視差のうちいずれかの代表視差を選択して当該区分の代表視差とし、前記区分の代表視差を前記区分ごとに選択する選択手段と、
    前記各区分の代表視差に基づいて前記画像中に撮像された前記対象を検出する検出手段と、
    を備え、
    前記選択手段は、前記各区分ごとにそれぞれヒストグラムを作成し、当該ヒストグラムにおける前記視差の最頻値を前記代表視差として算出し、前記各区分のヒストグラムとして、前記ヒストグラムの最大値、最小値または階級幅の少なくとも1つが変更された複数種類のヒストグラムを用いることで前記複数種類の代表視差を算出することを特徴とする環境認識装置。
  12. 前記選択手段は、所定の重み付けがなされた前記代表視差のいずれかを選択することを特徴とする請求項1から請求項11のいずれか一項に記載の環境認識装置。
  13. 前記2枚一組の画像を得るための前記撮像方法、前記2枚一組の画像に対する前記画像処理方法、または前記距離画像に対する処理のしかたを切り替えることが可能とされていることを特徴とする請求項1から請求項12のいずれか一項に記載の環境認識装置。
  14. 前記撮像方法、前記画像処理方法、または前記距離画像に対する処理のしかたの切り替えは、周囲の環境に応じて行われることを特徴とする請求項13に記載の環境認識装置。
  15. 前記対象は、基準面より高い位置に存在する立体物であることを特徴とする請求項1から請求項14のいずれか一項に記載の環境認識装置。
  16. 前記視差および前記代表視差に代えて、三角測量の原理に基づいて前記視差および前記代表視差にそれぞれ一意に対応付けられる距離および代表距離を用いて前記ステレオマッチング手段における処理および前記選択手段における処理が構成されていることを特徴とする請求項1から請求項15のいずれか一項に記載の環境認識装置。
JP2008014584A 2008-01-25 2008-01-25 環境認識装置 Active JP4876080B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008014584A JP4876080B2 (ja) 2008-01-25 2008-01-25 環境認識装置
US12/320,353 US8437536B2 (en) 2008-01-25 2009-01-23 Environment recognition system
DE102009005860.5A DE102009005860B4 (de) 2008-01-25 2009-01-23 Umgebungs-Erkennungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008014584A JP4876080B2 (ja) 2008-01-25 2008-01-25 環境認識装置

Publications (2)

Publication Number Publication Date
JP2009176090A true JP2009176090A (ja) 2009-08-06
JP4876080B2 JP4876080B2 (ja) 2012-02-15

Family

ID=40899295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008014584A Active JP4876080B2 (ja) 2008-01-25 2008-01-25 環境認識装置

Country Status (3)

Country Link
US (1) US8437536B2 (ja)
JP (1) JP4876080B2 (ja)
DE (1) DE102009005860B4 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9170103B2 (en) 2010-09-14 2015-10-27 Ricoh Company, Ltd. Stereo camera device, correction method, and program
JP2016206776A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 路面検出装置
WO2018180501A1 (ja) * 2017-03-30 2018-10-04 株式会社エクォス・リサーチ 対象物判定装置および対象物判定プログラム
JP2019012413A (ja) * 2017-06-30 2019-01-24 日立オートモティブシステムズ株式会社 画像処理装置
JP2020057258A (ja) * 2018-10-03 2020-04-09 株式会社豊田自動織機 物体検出装置及び物体検出方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4356733B2 (ja) * 2006-11-09 2009-11-04 アイシン精機株式会社 車載用画像処理装置とその制御方法
JP4876080B2 (ja) 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
KR101581197B1 (ko) * 2009-01-06 2015-12-30 삼성전자주식회사 로봇 및 그 제어방법
JP2011082918A (ja) * 2009-10-09 2011-04-21 Sony Corp 画像処理装置および方法、並びにプログラム
US8396293B1 (en) * 2009-12-22 2013-03-12 Hrl Laboratories, Llc Recognizing geometrically salient objects from segmented point clouds using strip grid histograms
US8620089B1 (en) 2009-12-22 2013-12-31 Hrl Laboratories, Llc Strip histogram grid for efficient segmentation of 3D point clouds from urban environments
CN103109313B (zh) * 2010-09-08 2016-06-01 丰田自动车株式会社 危险度计算装置
DE102011101246A1 (de) * 2011-05-11 2012-11-15 Conti Temic Microelectronic Gmbh Redudante objektdetektion für fahrerassistenzsysteme
KR101716725B1 (ko) * 2012-10-22 2017-03-15 야마하하쓰도키 가부시키가이샤 거리 측정 장치 및 그것을 사용한 차량
JP6376429B2 (ja) * 2012-11-13 2018-08-22 株式会社リコー 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6344638B2 (ja) * 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
DE102013104335A1 (de) 2013-03-26 2014-10-16 Continental Automotive Gmbh Verfahren zur Auslösung einer Fahrerassistenzfunktion bei einer Detektion eines Bremslichtes mittels einer Kamera
CN104284172A (zh) * 2013-07-04 2015-01-14 联咏科技股份有限公司 影像匹配方法及立体匹配系统
DE102014222900A1 (de) 2014-11-10 2016-05-12 Bombardier Transportation Gmbh Betrieb eines Schienenfahrzeugs mit einem Bilderzeugungssystem
JP2016148880A (ja) * 2015-02-10 2016-08-18 国立大学法人金沢大学 移動物体認識方法、移動物体認識装置、および物体認識装置
JP6511283B2 (ja) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 物体検知装置
JP6358160B2 (ja) * 2015-04-17 2018-07-18 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
JP6233345B2 (ja) * 2015-04-17 2017-11-22 トヨタ自動車株式会社 路面勾配検出装置
CN104794451B (zh) * 2015-04-28 2018-01-02 上海交通大学 基于分块匹配结构的行人比对方法
WO2016199244A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム
JP2017199178A (ja) * 2016-04-27 2017-11-02 Kyb株式会社 路面状態検出装置
CN106448164A (zh) * 2016-11-01 2017-02-22 河池学院 一种路况检测机器人
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
US11522412B2 (en) 2018-05-24 2022-12-06 Hamilton Sundstrand Corporation Mounting arrangements for gas turbine engine accessories

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04331311A (ja) * 1991-01-24 1992-11-19 Mitsubishi Electric Corp 車間距離検出装置
JP3167752B2 (ja) 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
JPH05265547A (ja) 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP3569926B2 (ja) * 1993-03-03 2004-09-29 株式会社デンソー 車両走行制御装置
JP3324821B2 (ja) 1993-03-12 2002-09-17 富士重工業株式会社 車輌用車外監視装置
US5519618A (en) * 1993-08-02 1996-05-21 Massachusetts Institute Of Technology Airport surface safety logic
JPH0887324A (ja) * 1994-09-16 1996-04-02 Nikko Denki Kogyo Kk 自動誘導・追尾装置
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
JP3315054B2 (ja) 1997-04-04 2002-08-19 富士重工業株式会社 車外監視装置
JP3349060B2 (ja) 1997-04-04 2002-11-20 富士重工業株式会社 車外監視装置
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6487304B1 (en) * 1999-06-16 2002-11-26 Microsoft Corporation Multi-view approach to motion and stereo
JP3272696B2 (ja) 1999-07-30 2002-04-08 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
JP4573977B2 (ja) 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
JP2003512112A (ja) * 1999-10-21 2003-04-02 アーチ・デベロップメント・コーポレーション 弾性的照合を用いる対側性および時間的な減法画像のコンピュータ化処理のための方法、システムおよびコンピュータ可読媒体
US6714672B1 (en) * 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
US20010031068A1 (en) * 2000-04-14 2001-10-18 Akihiro Ohta Target detection system using radar and image processing
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
AU2002312182A1 (en) * 2001-05-30 2002-12-09 Nptest, Inc. Sub-resolution alignment of images
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
US7573939B2 (en) * 2002-01-11 2009-08-11 Sony Corporation Memory cell circuit, memory device, motion vector detection device, and motion compensation prediction coding device
JP4019736B2 (ja) * 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
JP4346275B2 (ja) 2002-02-28 2009-10-21 株式会社東芝 映像診断装置および車載型映像監視装置
JP3797949B2 (ja) * 2002-03-28 2006-07-19 株式会社東芝 画像処理装置及びその方法
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
US7251346B2 (en) * 2002-11-19 2007-07-31 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program
JP2004226197A (ja) 2003-01-22 2004-08-12 Seiko Epson Corp 物体識別方法および物体識別装置、並びに物体識別プログラム
JP2004234069A (ja) * 2003-01-28 2004-08-19 Konica Minolta Holdings Inc 画像処理方法、画像処理装置、及びプログラム
US6690451B1 (en) * 2003-02-06 2004-02-10 Gerald S. Schubert Locating object using stereo vision
IL155034A0 (en) * 2003-03-23 2004-06-20 M A M D Digital Data Proc Syst Automatic aerial digital photography and digital data processing systems
US7454040B2 (en) * 2003-08-29 2008-11-18 Hewlett-Packard Development Company, L.P. Systems and methods of detecting and correcting redeye in an image suitable for embedded applications
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
JP4377665B2 (ja) * 2003-12-01 2009-12-02 本田技研工業株式会社 位置検出用マーク、並びに、マーク検出装置、その方法及びそのプログラム
JP4510554B2 (ja) 2004-08-31 2010-07-28 富士重工業株式会社 立体物監視装置
US7966327B2 (en) * 2004-11-08 2011-06-21 The Trustees Of Princeton University Similarity search system with compact data structures
US8045782B2 (en) * 2004-12-07 2011-10-25 Ge Healthcare Niagara, Inc. Method of, and apparatus and computer software for, implementing image analysis protocols
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
US7389041B2 (en) * 2005-02-01 2008-06-17 Eastman Kodak Company Determining scene distance in digital camera images
JP2006260527A (ja) * 2005-02-16 2006-09-28 Toshiba Corp 画像マッチング方法およびこれを用いた画像補間方法
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
US7602944B2 (en) * 2005-04-06 2009-10-13 March Networks Corporation Method and system for counting moving objects in a digital video stream
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
US8147503B2 (en) * 2007-09-30 2012-04-03 Intuitive Surgical Operations Inc. Methods of locating and tracking robotic instruments in robotic surgical systems
EP1932117A2 (en) * 2005-09-29 2008-06-18 Koninklijke Philips Electronics N.V. Method and apparatus for determining automatically the shot type of an image (close-up shot versus long shot)
US7684647B2 (en) * 2005-11-16 2010-03-23 Accuray Incorporated Rigid body tracking for radiosurgery
EP2078286A1 (en) * 2006-10-30 2009-07-15 Tele Atlas B.V. Method and apparatus for detecting objects from terrestrial based mobile mapping data
JP4839183B2 (ja) * 2006-11-07 2011-12-21 オリンパス株式会社 画像処理装置
JP2008128673A (ja) * 2006-11-16 2008-06-05 Omron Corp 測定システムおよび方法、測定装置および方法、並びに、情報処理装置および方法
US7924316B2 (en) * 2007-03-14 2011-04-12 Aptina Imaging Corporation Image feature identification and motion compensation apparatus, systems, and methods
JP4937844B2 (ja) 2007-06-12 2012-05-23 富士重工業株式会社 歩行者検出装置
US20090060256A1 (en) * 2007-08-29 2009-03-05 White Timothy J Method of advertisement space management for digital cinema system
KR100918480B1 (ko) * 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
JP2009133753A (ja) * 2007-11-30 2009-06-18 Toshiba Corp 画像処理装置及びその方法
JP4876080B2 (ja) 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP5073548B2 (ja) * 2008-03-27 2012-11-14 富士重工業株式会社 車両用環境認識装置および先行車追従制御システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9170103B2 (en) 2010-09-14 2015-10-27 Ricoh Company, Ltd. Stereo camera device, correction method, and program
JP2016206776A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 路面検出装置
WO2018180501A1 (ja) * 2017-03-30 2018-10-04 株式会社エクォス・リサーチ 対象物判定装置および対象物判定プログラム
JP2018169811A (ja) * 2017-03-30 2018-11-01 株式会社エクォス・リサーチ 対象物判定装置および対象物判定プログラム
JP2019012413A (ja) * 2017-06-30 2019-01-24 日立オートモティブシステムズ株式会社 画像処理装置
JP2020057258A (ja) * 2018-10-03 2020-04-09 株式会社豊田自動織機 物体検出装置及び物体検出方法
JP7014122B2 (ja) 2018-10-03 2022-02-01 株式会社豊田自動織機 物体検出装置及び物体検出方法

Also Published As

Publication number Publication date
US20090190827A1 (en) 2009-07-30
JP4876080B2 (ja) 2012-02-15
DE102009005860B4 (de) 2023-04-20
US8437536B2 (en) 2013-05-07
DE102009005860A1 (de) 2009-10-08

Similar Documents

Publication Publication Date Title
JP4876080B2 (ja) 環境認識装置
JP4956452B2 (ja) 車両用環境認識装置
JP5188430B2 (ja) 画像処理装置
JP5693994B2 (ja) 車両検出装置
JP5371725B2 (ja) 物体検出装置
JP4341564B2 (ja) 対象物判定装置
US10041791B2 (en) Object detection apparatus method
CN105069804B (zh) 基于智能手机的三维模型扫描重建方法
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP5180126B2 (ja) 道路認識装置
CN105335955A (zh) 对象检测方法和对象检测装置
US20160301912A1 (en) Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
US8160300B2 (en) Pedestrian detecting apparatus
JP5027710B2 (ja) 車両用環境認識装置および先行車追従制御システム
JP5073700B2 (ja) 物体検出装置
JP5172422B2 (ja) 運転支援システム
JP4956099B2 (ja) 壁検出装置
JP5411671B2 (ja) 物体検出装置および運転支援システム
JP4696925B2 (ja) 画像処理装置
JP2018088217A (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
JP5727639B2 (ja) 車両検出装置
JP5666726B2 (ja) 車両検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4876080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250