JP2014197378A - 物体検出装置、移動体機器制御システム及び物体検出用プログラム - Google Patents

物体検出装置、移動体機器制御システム及び物体検出用プログラム Download PDF

Info

Publication number
JP2014197378A
JP2014197378A JP2013245723A JP2013245723A JP2014197378A JP 2014197378 A JP2014197378 A JP 2014197378A JP 2013245723 A JP2013245723 A JP 2013245723A JP 2013245723 A JP2013245723 A JP 2013245723A JP 2014197378 A JP2014197378 A JP 2014197378A
Authority
JP
Japan
Prior art keywords
parallax
image
imaging
object detection
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013245723A
Other languages
English (en)
Other versions
JP2014197378A5 (ja
JP6344638B2 (ja
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013245723A priority Critical patent/JP6344638B2/ja
Priority to EP14156896.4A priority patent/EP2775423A3/en
Priority to US14/193,249 priority patent/US9230165B2/en
Publication of JP2014197378A publication Critical patent/JP2014197378A/ja
Publication of JP2014197378A5 publication Critical patent/JP2014197378A5/ja
Application granted granted Critical
Publication of JP6344638B2 publication Critical patent/JP6344638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】個々の物体を高精度で区別して検出する物体検出処理を短い処理時間で実行可能とする物体検出装置を提供する。
【解決手段】2つの撮像部により撮像して得られる基準画像と比較画像に基づいて視差画像データを生成し、その視差画像データに基づいて撮像領域内に存在する他車両等の物体を検出する物体検出装置200において、視差画像データに基づいて、撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示すUマップ情報(縦方向視差ヒストグラム情報)を生成するUマップ生成部204と、このUマップ情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内である一群の画素を、1つの物体を映し出す物体候補領域として抽出する物体候補領域検出部205とを有する。
【選択図】図3

Description

本発明は、複数の撮像画像に基づいて視差情報を生成し、該視差情報に基づいて撮像領域内に存在する物体を検出する物体検出装置、移動体機器制御システム及び物体検出用プログラムに関するものである。
従来、車両や鉄道、船舶、航空機などの移動体の前方を撮像手段により撮像した撮像画像に基づいて、障害物等の識別対象物を検出するための物体検出装置が知られている。このような物体検出装置は、例えば、車両の運転者(ドライバー)の運転負荷を軽減させるための、ACC(Adaptive Cruise Control)等の運転者支援システムなどに利用されている。運転者支援システムは、障害物等に衝突することを回避したり衝突時の衝撃を軽減したりするための自動ブレーキ機能や警報機能、先行車両との車間距離を維持するための自車速度調整機能、自車が走行している車線からの逸脱防止を支援する機能などの様々な機能を実現する。これらの機能を適切に実現するためには、自車両前方の撮像画像から、自車両周囲に存在する種々の識別対象物(例えば、他車両、歩行者、車線境界線やマンホール蓋などの路面構成物、電柱、ガードレール、縁石、中央分離帯などの路側構造物など)を映し出す画像部分を精度よく認識し、自車両の走行可能領域を把握したり、衝突を回避すべき物体を精度よく検出したりすることが重要である。
特許文献1には、検出領域(撮像領域)内に存在する対象物(物体)の輝度と高さ位置からその対象物の種類を識別する環境認識装置が開示されている。この環境認識装置では、まず、予め決められた特定物ごとの輝度範囲に含まれる輝度をもった対象部位に、その特定物ごとの識別番号を付与して、特定物マップを作成する。その後、識別番号が付与された各対象部位について、当該対象部位の道路表面からの高さ位置を取得する。各対象部位の高さ位置は、2つの撮像装置それぞれから得られる2つの画像データに基づいて導出される視差情報から算出する。そして、その高さ位置が特定物テーブルにおいて識別番号により特定される特定物の高さ位置範囲内に含まれていれば、その対象部位が当該特定物であると仮決定する。
この仮決定後、任意の対象部位を基点として、その対象部位と水平距離の差分が所定範囲内にあり、かつ、その対象部位と相対距離(自車両と対象部位との距離)の差分が所定範囲内にある、同一の特定物に対応すると仮決定された(同一の識別番号が付された)対象部位をグループ化し、それを対象物とする。そして、このようにして決定された対象物の幅を算出し、この幅が特定物テーブルにおいて当該特定物の幅範囲内に含まれていれば、その対象物が当該特定物であると決定する。
撮像領域内に存在する物体の高さ、幅(水平方向長さ)、撮像手段からの距離という3つの情報は、撮像領域内に存在する個々の物体を、高い精度で、互いに区別して検出する際に、特に重要な要素となる。なぜなら、撮像手段からの距離が同程度でかつ一定の高さと一定の幅を持った面というのは、1つの物体上の面であると考えることができ、そのような面を特定するには、上述した3つの情報が必要となるからである。上記特許文献1に開示の環境認識装置でも、ある高さ位置範囲に存在する同程度の輝度をもった対象部位群を、1つの対象物として仮決定した上で、各対象部位間の水平距離が所定範囲内にあり、かつ、各対象部位の相対距離(その物体までの距離)が所定範囲内にある対象部位群を更にグループ分けしている。したがって、上記特許文献1に開示の環境認識装置でも、物体の高さ、幅、距離という3つの情報を用いて、個々の対象物を区別して検出しているものと考えられる。
しかしながら、上記特許文献1に開示の環境認識装置では、物体の高さ、幅、距離という3つの情報を得るための処理を、それぞれ個別に、かつ、順番に行う必要がある。具体的には、まず、ある高さ位置範囲に存在する同程度の輝度をもった対象部位群を1つの対象物として仮決定する処理により、対象物(物体)の高さ情報を取得する。また、その後に行う、各対象部位間の水平距離が所定範囲内にある対象部位を特定する処理において、対象物(物体)の幅情報を取得する。また、これに前後して、各対象部位の相対距離が所定範囲内にある対象部位を特定する処理において、対象物(物体)の距離情報を取得する。このように、物体の高さ、幅、距離という3つの情報を得るための処理を、それぞれ個別に、かつ、順番に行って、個々の物体を区別して検出する物体検出処理では、その処理に時間がかかるという問題が発生する。
本発明は、上記問題に鑑みなされたものであり、その目的とするところは、個々の物体を高精度で区別して検出する物体検出処理を短い処理時間で実行可能な物体検出装置、移動体機器制御システム及び物体検出用プログラムを提供することである。
上記目的を達成するために、本発明は、複数の撮像手段により撮像して得られる複数の撮像画像に基づいて視差情報を生成し、該視差情報に基づいて撮像領域内に存在する物体を検出する物体検出装置において、上記視差情報に基づいて、上記撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報を生成する縦方向視差ヒストグラム情報生成手段と、上記縦方向視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内である一群の画素を、1つの物体を映し出す物体画像領域として抽出する物体画像領域抽出手段とを有することを特徴とする。
本発明においては、撮像画像を左右方向に複数分割して得られる各縦列領域内で所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内であるという条件を満たす一群の画素を抽出する。所定の頻度閾値を超える頻度をもった視差値に対応する画素とは、その縦列領域内で同じ視差値に対応している画素数が比較的多い画素を指す。また、所定の視差値近接範囲内の視差値に対応している画素の集まりは、それらの画素に映し出されている各箇所が、その視差値近接範囲に対応した距離(撮像手段からの距離)の範囲内で互いに近接している箇所であるが画素の集まり、言い換えると撮像手段からの距離が同程度である箇所を映し出している画素の集まりである。したがって、各縦列領域内で所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応している画素の集まりとは、撮像手段からの距離が同程度で、かつ、一定の高さを持った箇所を映し出している画素の集まりであると言うことができる。そして、更に、画像左右方向の間隔が所定範囲内であるという条件が加わると、そのような画素の集まりは、撮像手段からの距離が同程度でかつ一定の高さと一定の幅を持った面を映し出している画素の集まり(一群の画素)であると言うことができる。このような面は、1つの物体上の面であると考えることができるので、上記のような一群の画素を抽出することで、撮像領域内に存在する個々の物体を高い精度で区別して検出することができる。
上記のような一群の画素を、本発明では、縦方向視差ヒストグラム情報に基づいて抽出する。この縦方向視差ヒストグラム情報は、撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示すものである。したがって、この縦方向視差ヒストグラム情報には、少なくとも、撮像画像上の各画素に対応して、画像左右方向位置、視差値、当該画像左右方向位置に対応する縦列領域内での当該視差値の頻度という3つの情報が含まれる。例えば、縦軸に視差値をとり、横軸に画像左右方向位置をとった二次元座標上で、所定の頻度閾値を超える頻度をもった視差値に対応するマーク(指標)を分布させることができる。このような二次元座標上の分布において、上記のような一群の画素は、横線状の分布を示すという特徴がある。この特徴を用い、縦方向視差ヒストグラム情報に基づいて、上記一群の画素を抽出することができる。そして、視差情報から縦方向視差ヒストグラム情報を生成する処理は、高速な処理が可能であることから、縦方向視差ヒストグラム情報に基づいて、上記のような一群の画素、すなわち、撮像手段からの距離が同程度でかつ一定の高さと一定の幅を持った面を映し出している一群の画素(1つの物体を映し出している画素群)を短い処理時間で抽出することが可能である。
以上より、本発明によれば、個々の物体を高精度で区別して検出する物体検出処理を短い処理時間で実行可能となるという優れた効果が得られる。
実施形態における車載機器制御システムの概略構成を示す模式図である。 同車載機器制御システムを構成する撮像ユニット及び画像解析ユニットの概略構成を示す模式図である。 実施形態の物体認識処理に関わる機能ブロック図である。 左右のカメラで撮影したときの視差を説明する図である。 視差画像の視差値分布の一例を示す説明図である。 図5に示す視差画像の縦列領域ごとの視差値頻度分布を示す縦方向視差ヒストグラム(Uマップ)を示す説明図である。 同物体認識処理の流れを示すフローチャートである。 基準画像(輝度画像)の一例を示す画像例である。 図8に示した輝度画像に対応する視差画像の画像例である。 図9に示した視差画像に対応するUマップ画像の画像例である。 物体候補領域の計算処理の流れを示すフローチャートである。 図10に示したUマップ画像上において横線状に分布する特徴を示した説明図である。 図10に示したUマップ画像について平滑化処理及び閾値処理を行った後のUマップ画像を示す説明図である。 視差画像上における物体候補領域を示す説明図である。 図14中の白線枠で囲まれた物体候補領域を拡大した画像例である。 識別対象物の実サイズ範囲の各閾値の例を示した表である。 図8に示した輝度画像上に物体候補領域を示した説明図である。 輝度画像上の物体候補領域の特定方法を説明するための説明図である。 4種類の特徴パターン例を示す説明図である。 識別対象物の認識処理で用いる識別器の構成を示す説明図である。
以下、本発明に係る物体検出装置を、車両システムとしての車載機器制御システムに用いる一実施形態について説明する。なお、本発明に係る物体検出装置は、車載機器制御システムに限らず、物体検出装置を利用するその他のシステムにも適用できる。
図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本実施形態の車載機器制御システムは、移動体としての自車両100の進行方向前方領域を撮像領域として撮像する撮像手段としての撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー(図示せず)付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像処理手段としての画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、例えば、自車両100の前方に存在する他車両の位置、方角、距離を算出する。他車両の検出では、視差情報に基づいて路面上の識別対象物を車両として検出する。
また、画像解析ユニット102の算出結果は、車両走行制御ユニット106にも送られる。車両走行制御ユニット106は、例えば、先行車両の検出結果に基づいて、その先行車両との車間距離が狭くなった場合や広くなった場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。また、例えば、対向車両の検出結果に基づいて、ベッドランプ104のビーム方向をハイビーム又はロービームに切り替えるなどの制御も行う。
図2は、撮像ユニット101及び画像解析ユニット102の概略構成を示す模式図である。
撮像ユニット101は、2つの撮像部110A,110Bを備えたステレオカメラであり、2つの撮像部110A,110Bの構成は同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ111A,111Bと、撮像素子が2次元配置された画像センサ113A,113Bを含んだセンサ基板114A,114Bと、センサ基板114A,114Bから出力されるアナログ電気信号(画像センサ113A,113B上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部115A,115Bとから構成されている。本実施形態の撮像ユニット101からは、輝度画像データ、視差画像データが出力される。
また、撮像ユニット101は、FPGA(Field-Programmable Gate Array)等からなる処理ハードウェア部120を備えている。この処理ハードウェア部120は、各撮像部110A,110Bから出力される輝度画像データから視差画像を得るために、各撮像部110A,110Bでそれぞれ撮像した撮像画像間の対応画像部分の視差値を演算する視差演算部121を備えている。ここでいう視差値とは、各撮像部110A,110Bでそれぞれ撮像した撮像画像の一方を基準画像、他方を比較画像とし、撮像領域内の同一地点に対応した基準画像上の画像部分に対する比較画像上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一地点までの距離を算出することができる。
一方、画像解析ユニット102は、撮像ユニット101から出力される輝度画像データ及び視差画像データを記憶するメモリ130と、識別対象物の認識処理や視差計算制御などを行うソフトウェアを内蔵したMPU(Micro Processing Unit)140とを備えている。MPU140は、メモリ130に格納された輝度画像データ及び視差画像データを用いて各種の認識処理を実行する。
画像センサ113A,113Bは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その撮像素子(受光素子)にはフォトダイオードを用いている。フォトダイオードは、撮像画素ごとに2次元的にアレイ配置されており、フォトダイオードの集光効率を上げるために、各フォトダイオードの入射側にはマイクロレンズが設けられている。この画像センサ113A,113Bがワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板114A,114Bが形成されている。
次に、本発明の特徴部分である、物体認識処理について説明する。
図3は、本実施形態の物体認識処理に関わる機能ブロック図である。
同図において、本実施形態の物体検出装置200は、ステレオ画像入力部201、輝度画像入力部202、視差画像演算部203、Uマップ生成部204、物体候補領域検出部205、識別対象物認識部206、認識結果出力部208を含んで構成されている。これらは、図2に示した画像解析ユニット102や処理ハードウェア部120によって実現される。
ステレオ画像入力部201は、撮像ユニット101の各撮像部110A,110Bから出力される2つの輝度画像データ(ステレオ画像)の入力を受け付けるものである。輝度画像入力部202は、ステレオ画像のうちの基準画像(輝度画像)の入力を受け付けるものである。入力されたステレオ画像及び輝度画像はメモリに保存される。
視差画像演算部203は、視差情報生成手段として機能し、ステレオ画像入力部201に入力されたステレオ画像を用いて基準画像上の各画素についての視差値を演算して、その視差値を画素値としてもつ視差画像を生成可能な視差画像データ(視差情報)を生成する。したがって、この視差画像データは、視差画像上の左右方向位置(基準画像上の左右方向位置と同じ)xと、視差画像上の上下方向位置(基準画像上の上下方向位置と同じ)yと、視差値dとを有する三次元座標情報(x,y,d)を含むものである。図4を参照して説明すれば、被写体301上にあるO点に対する左右画像での結像位置は、結像中心からの距離がそれぞれΔ1とΔ2となる。このときの視差値dは、Δ=Δ1+Δ2と規定することができる。
Uマップ生成部204は、縦方向視差ヒストグラム情報生成手段として機能し、視差画像(撮像画像)を左右方向に複数分割して得られる各縦列領域内における視差値dの頻度分布を示す縦方向視差ヒストグラム情報であるUマップ情報を生成する。本実施形態において、各縦列領域の幅は1画素分である。このUマップ情報は、視差画像データに含まれる各画素に対応した三次元座標(x,y,d)を、X軸に視差画像上の左右方向位置xと、Y軸に視差値dと、Z軸に当該画像左右方向位置xに対応する縦列領域内での当該視差値dの頻度fとを有する三次元座標情報(x,d,f)に変換したものである。具体例を挙げて説明すると、図5に示すような視差値分布をもった視差画像データが入力されたとき、Uマップ生成部204は、図6に示すような縦列領域ごとの視差値頻度分布を計算して出力する。このようなUマップ情報を用いることで、縦軸に視差値dをとり、横軸に画像左右方向位置xをとった二次元座標系に、所定の頻度閾値を超える頻度fをもった視差値に対応する画素を分布させた縦方向視差ヒストグラム画像(Uマップ)を作成することができる。
物体候補領域検出部205は、物体画像領域抽出手段として機能し、Uマップ情報に基づいて、所定の頻度閾値を超える頻度fをもった視差値dのうち所定の視差値近接範囲内の視差値dに対応していて、かつ、画像左右方向の間隔Δlが所定範囲内である一群の画素を、1つの物体を映し出す物体画像領域の候補領域(物体候補領域)として抽出する処理を行う。本実施形態では、輝度画像入力部に入力された輝度画像(基準画像)の情報も利用して、物体候補領域を抽出する処理を行う。識別対象物認識部206は、識別対象物判断手段として機能し、物体候補領域検出部205が検出した物体候補領域に対して識別対象物の認識処理を行う。この認識結果は、認識結果出力部208から出力される。
次に、本実施形態における物体認識処理の流れについて説明する。
図7は、本実施形態における物体認識処理の流れを示すフローチャートである。
まず、ステレオ画像入力部201が、撮像ユニット101の各撮像部110A,110Bからそれぞれ輝度画像データ(ステレオ画像)の入力を受け付ける(S1)。また、輝度画像入力部202は、そのステレオ画像のうちの基準画像(輝度画像)の入力を受け付ける(S2)。図8は、基準画像(輝度画像)の一例を示す画像例である。
ステレオ画像入力部201が入力を受け付けたステレオ画像データは、視差画像演算部203へ送られる。視差画像演算部203では、まず、入力されたステレオ画像を用いて、基準画像上の各画素についての視差値を演算して、その視差値を画素値としてもつ視差画像を生成可能な視差画像データを計算する(S3)。図8に示した画像例に対応する視差画像の画像例を図9に示す。なお、図9に示す画像例は、各画素の画素値が、視差値が大きいほど(距離が近いほど)、大きな値(高い画像輝度)をもつように表現したものである。
視差画像データの生成処理としては、例えば、次のような処理を採用することができる。まず、基準画像データのある行について、一の注目画素を中心とした複数画素(例えば5画素×5画素)からなるブロックを定義する。一方、比較画像データにおける当該注目画素と同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(画像左右方向)へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。
マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。
このようにして生成された視差画像データは、Uマップ生成部204に送られ、Uマップ生成部204では、この視差画像データ(x,y,d)をUマップ情報(x,d,f)に変換してUマップ情報を計算する処理を行う(S4)。図10に、図9に示した視差画像の画像例において、縦軸に視差値dをとり、横軸に画像左右方向位置xをとった二次元座標系に、所定の頻度閾値を超える頻度fをもった視差値に対応する画素を分布させた縦方向視差ヒストグラム画像(Uマップ)を示す。なお、図10に示すUマップの画像例は、各画素の画素値が、頻度が大きいほど大きな値(高い画像輝度)をもつように表現したものである。
図6に示したUマップの説明図を用いて説明すると、例えば、図5に示した視差画像データ上で視差値d=4をもつ画素の群は、自車両100から同じ距離の地点に存在する物体を映し出している画素である。これらの画素(同じ視差値をもつ画素)は、図6に示したUマップ上では同じ上下方向位置に並べられるので、これらの画素のうち一定の幅をもった1つの物体を映し出している画素については、Uマップ上で横線状に分布するという特徴を示す。また、これらの画素のうち、一定の高さをもった1つの物体を映し出している画素については、Uマップ上で一定以上の頻度を示すものとなる。したがって、一定以上の頻度をもち、かつ、Uマップ上で横線状に分布するような一群の画素は、一定の幅と高さをもった1つの物体を映し出ている画素であると言うことができる。本実施形態では、この特徴を利用して、物体候補領域検出部205において、撮像領域(実空間)内における個々の物体をそれぞれ映し出している物体画像領域の候補領域(物体候補領域)を個別に検出する物体候補領域の計算を行う(S20)。
図11は、物体候補領域検出部205が実行する物体候補領域の計算処理の流れを示すフローチャートである。
以下の説明では、図8に示した画像例に映し出されている他車両を検出する場合を例に挙げて説明する。通常、他車両における背面上の各地点は、自車両100からの距離が同じ距離であるので、この他車両背面上の各地点をそれぞれ映し出す画素に対応した視差値は同じ値となる。そのため、これらの画素は、Uマップ上において、図12に示すように、横線状に分布する特徴を示すものとなる。したがって、このような特徴を示す領域(図12中の白線枠で囲った領域)を抽出し、この領域内に対応する一群の画素を物体候補領域として抽出することで、他車両を映し出している画像領域を特定することができる。なお、物体が他車両である場合に限らず、一般に、画像上に映し出される物体の面は、自車両100からの距離がほぼ同じ距離に存在するので、他の物体を映し出している画像領域についても、同様に特定することができる。
本実施形態の物体候補領域の計算処理では、まず、Uマップ情報の平滑化処理を実行する(S21)。この平滑化処理は、所定範囲内(所定の画素数以内)に存在するUマップ上の画素(一定以上の頻度をもった画素)間を埋めて、不連続な部分をつなげる処理である。次に、平滑化したUマップ情報について、例えば2値化処理等の閾値処理を行う(S22)。具体的には、Uマップ上において、所定の閾値以下の画素値(頻度f)については0にし、所定の閾値を超える画素値(頻度f)については1にする。この2値化のための閾値については、事前に実験によって好適な値を求めておくのが好ましい。あるいは、画像から推定して、閾値を設定しても良い。例えば、Uマップ上の画素値(頻度f)の平均値hを計算し、これに所定の係数Kを掛け合わせた値(K×h)を閾値として使用する。このときのKは、事前に実験によって好適な値を求めておくのが好ましい。閾値処理後のUマップの画像例を図13に示す。
次に、この閾値処理したUマップ情報について、Uマップの横軸方向に延びる横直線を抽出するためのハフ変換(Hough変換)を行う(S23)。図13には、このハフ変換によって抽出された2本の横直線L1,L2が示されている。そして、このようにして抽出された横直線L1,L2に沿って、上述した横線状の特徴を示す孤立領域を探索し、孤立領域を抽出する(S24)。
孤立領域の抽出は、例えば、抽出された横直線L1,L2上に沿って値が0でない画素を探索し、ある対象画素から所定範囲内(所定の画素数n以内)に別の画素(値が0でない画素)が存在する場合には、その対象画素と当該別の画素とを同じグループに属するようにグループ化する。このような探索は、同じグループに属するいずれの画素についても、所定範囲内(所定の画素数n以内)に当該グループに属していない別の画素(値が0でない画素)が存在しなくなるまで行われ、これを横直線L1,L2上の画像左右方向一端側から他端側まで行う。そして、得られた各グループの画素数を集計し、その画素数が予め設定された閾値M以上であれば、これを1つの孤立領域として検出する。一例として、所定の画素数n=8、閾値M=20と設定することができる。このような処理により、横直線L1上に沿って検出された孤立領域(図13中の白線枠で囲った領域)は、横線上の特徴を示す一群の画素を含むものである。
次に、このようにして、孤立領域が検出された場合(S25のYes)、Uマップ上での画像左右方向長さによって示される孤立領域の画像幅Δxと、Uマップ上での画像上下方向長さによって示される孤立領域の視差範囲Δdとを計算する(S26)。なお、孤立領域が検出されなかった場合には(S25のNo)、孤立領域が無い旨の結果を識別対象物認識部206へ出力する(S27)。
孤立領域の画像幅Δxと視差範囲Δdとが計算されたら、次に、この画像幅Δxと視差範囲Δdを用いて、図14中の白線枠に囲まれているような視差画像上における物体候補領域を抽出する。具体的には、まず、視差画像上における画像幅Δxの範囲内に存在する視差範囲Δd内の視差値をもった画素を視差画像データから抽出する(S28)。その後、抽出した画素から、例えば上述したグループ化処理と同様の処理を行って、互いに近接する画素の集合を抽出する(S29)。その後、抽出した画素の集合の外形を抽出し(S30)、抽出した外形に囲まれる領域を物体候補領域として出力する(S31)。
本実施形態では、抽出した画素の集合の外形として、抽出した画素の集合に外接する矩形を抽出することとしている。これにより得られる物体候補領域は、図14中の白線枠で囲った領域となる。図15は、図14中の白線枠で囲まれた物体候補領域を拡大した画像例である。
以上のようにして、物体候補領域検出部205により物体候補領域が検出されたら、次に、図7に示すように、検出された物体候補領域内における視差画像上の画素値の平均値(視差平均値)を計算する(S5)。視差平均値は、検出された物体候補領域内に存在する画素に対応した視差値を合計し、これを当該物体候補領域内に存在する画素の数で割り算したものである。なお、この視差平均値に代えて、例えば、物体候補領域内に存在する画素に対応した視差値の中央値(メディアン)を公知のフィルタを使って求めたものを用いてもよい。または、例えば、物体候補領域内に存在する画素に対応した視差値のうち頻度が最も高い視差値(最頻値)を用いてもよい。
次に、物体候補領域に映し出されている物体の幅(横サイズ)と高さ(縦サイズ)を計算する(S6)。この処理では、まず、物体候補領域の視差平均値から、当該物体候補領域に映し出されている物体と自車両100との距離を算出する。そして、算出した距離を用いて、物体候補領域の画像左右方向長さΔxを物体の横サイズに換算し、また、物体候補領域の画像上下方向長さΔyを物体の縦サイズに換算する。
詳しくは、図4に示した説明図を用いて説明すると、物体候補領域の視差平均値をdaveとしたとき、被写体301からステレオメラまでの距離Zと視差平均値daveとの関係は、ステレオカメラの焦点距離をFとし、左右カメラレンズ間の距離をDとすると、下記の式(1)によって表すことができる。また、この式(1)を距離Zについて解くと、下記式(2)が得られる。この式(2)より、物体候補領域に映し出されている物体までの距離Zを計算することができる。
dave : F = D : Z ・・・(1)
Z = D × F / dave ・・・(2)
物体候補領域のサイズsとこれに対応する物体の実サイズSとの関係は、下記の式(3)に示すとおりである。この式(3)を実サイズSについて解くと、下記の式(4)が得られる。この式(4)より、物体の実サイズSを計算することができる。
S : Z = s : F ・・・(3)
S = s × Z / F ・・・(4)
このようにして計算される物体の幅(横サイズ)と高さ(縦サイズ)のいずれかが、識別対象物の実サイズに対応した閾値範囲Wmin,Wmax,Hmin,Hmaxから外れるものであった場合には(S7のNo)、誤認識であると判断として、当該物体候補領域を削除する(S8)。このとき、物体の幅(横サイズ)と高さ(縦サイズ)の両方が識別対象物の閾値範囲Wmin,Wmax,Hmin,Hmaxから外れる場合に、誤認識であると判断してもよい。実験等によって認識精度の良いほうを選択するとよい。なお、各識別対象物の閾値範囲Wmin,Wmax,Hmin,Hmaxは、それぞれの識別対象物について実際に採集した実験データ等によって決めるのが好ましい。
図16は、事前学習で求めた識別対象物の実サイズ範囲の各閾値Wmin,Wmax,Hmin,Hmaxの例を示した表である。なお、Wminは横サイズの最小値であり、Wmaxは横サイズの最大値であり、Hminは縦サイズの最小値であり、Hmaxは縦サイズの最大値である。このような表のデータは、予めメモリに保持されており、識別対象物認識部206は、物体候補領域に映し出されている物体の幅(横サイズ)と高さ(縦サイズ)から、この表データを参照して、その物体がいずれの識別対象物であるかを分類分する(S9)。その後、必要に応じて、輝度情報等の他の識別処理の結果と総合して、その物体がいずれの識別対象物であるかを認識し(S10)、その認識結果を出力する(S11)。以上のようにして出力された認識結果に基づいて、輝度画像上に物体候補領域を示した画像例を図17に示す。
本実施形態の識別対象物認識部206は、識別対象物の実サイズだけでなく、輝度画像データも利用して認識処理を行う。この認識処理では、機械学習方法により、事前に物体認識した画像サンプル学習データを用いて、認識用辞書を作成する。このとき、識別対象物によって別々に認識辞書を作成する必要である。ここでは、識別対象物が車両の分類に属するものとなるので、事前学習した車両を認識する辞書と車両用の認識プログラムを用いて、識別対象物の認識処理を行う。以下、輝度画像データを利用した認識処理について詳しく説明する。
はじめに、識別対象物認識部206は、輝度画像入力部202から入力される輝度画像(基準画像)から、図18に示すように、上述したように物体候補領域の検出結果に対応する輝度画像上の物体候補領域を設定する。この物体候補領域の左上の座標(Xs,Ys)と右下の座標(Xe,Ye)とによって、当該物体候補領域の輝度画像上での位置及び大きさが定まる。次に、識別対象物認識部206は、輝度画像上に設定した物体候補領域について、図19に示すような4種類の白黒ブロック内にある白領域及び黒領域の特徴量を計算する。具体的には、図19に示すような各白黒ブロックA〜Dの白領域に対応する物体候補領域内の箇所についての画素値の合計と、黒領域に対応する物体候補領域内の箇所についての画素値の合計とを算出する。そして、白領域内の画素値合計から黒領域内の画素値合計を差し引いた値を、当該物体候補領域についてのその種類の白黒ブロックに関する特徴量h(x)とする。
このようにして算出される特徴量h(x)から、下記の数1に示す評価関数を用いて、1つの評価値f(x)が計算される。この評価値f(x)は、各白黒ブロック(t=1〜T(図19に例示した4種類の白黒ブロックを用いる場合には、T=4))について、それぞれ特徴量h(x)を計算し、その計算結果に白黒ブロック毎に付された重み係数αを乗算して得られる各白黒ブロックの重み付け特徴量α×h(x)を合算することにより、算出することができる。ここで、特徴量h(x)と重み係数αは、識別対象物の輝度画像についての学習データを集め、その学習データによって学習させて求めることができる。
このような識別対象物の認識処理で用いる識別器は、図20に示すように、複数の階層1〜n(nは正の整数)を含んで構成されている。各階層1〜nは、それぞれ、特定の識別対象物であることを特徴づける互いに異なる特徴セット(特徴量h(x)及び重み係数α)を用いた個別の評価関数を有している。そして、上記物体候補領域について、まず、階層(識別器)1の評価関数を用いて評価値f(x)を算出し、その値が階層1について予め設定された閾値よりも小さい場合には、当該物体候補領域には識別対象物が映し出されていないものと判断する。このような判断を各階層2〜nについて順次行い、最後の階層600nまで評価値f(x)が閾値以上であると判断されれば、当該物体候補領域には、識別対象物が映し出されているものと判断する。
例えば、階層1では大まかに車らしい特徴があるか否かを判断するために、図19に示した4種類の白黒ブロックを用いて評価値f1(x)を計算し、この評価値f1(x)とその閾値とを比較する。図17の画像例に示される物体候補領域を例に挙げると、階層1において図19に示す白黒ブロックAを用いた評価を行う場合、当該物体候補領域に対する特徴量H(x)はほぼゼロになる。ただし、図19に示す白黒ブロックBを用いた評価を行うと、当該物体候補領域に対する特徴量H(x)は十分に大きな値をとる。その結果、これらの特徴量から算出される階層1の評価値f(x)(=H(x)+H(x)+H(x)+H(x))は、階層1の閾値以上の値を示す結果となり、次の階層2における評価へ移行する。階層2では、図19に示した4種類の白黒ブロックよりも更に細かな白黒パターンをもったブロックが用意されており、そのブロックの個数が階層1よりも多くなるようにする。そして、階層2においても、この階層2に対応する各白黒ブロックについての特徴量H(x)を求めて評価値f(x)を算出し、この評価値f(x)が階層2の閾値以上であれば、次の階層3における評価へ移行する。このような処理を繰り返し、最後の階層nの評価値f(x)も閾値以上であれば、当該物体候補領域が車両が映し出されている車両の候補領域であると判断する。
なお、特徴量h(x)、重み係数α、図19に示した4種類の白黒ブロックの二辺が交差する四隅の交点のうちの左上隅の交点の座標値、その白黒ブロックの横幅と縦幅(ブロックサイズ)、白領域(又は黒領域)の二辺が交差する四隅の交点のうちの左上隅の交点の座標値、その白領域と黒領域のサイズ、各階層1〜nにおける評価値の閾値等は、図示しない認識辞書等のデータに記憶されている。
本実施形態では、輝度画像についてもこのような識別器を用いて物体候補領域に識別対象物が映し出されているかどうかを判断し、この判断の結果、識別対象物が映し出されているとされたら、物体候補領域には識別対象物(ここでは車両)が映し出されるという認識結果を出力する(S11)。
以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
2つの撮像部110A,110B等の複数の撮像手段により撮像して得られる複数の撮像画像(基準画像と比較画像)に基づいて視差情報を生成し、該視差情報に基づいて撮像領域内に存在する他車両等の物体を検出する物体検出装置200において、上記視差情報に基づいて、上記撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示すUマップ情報等の縦方向視差ヒストグラム情報を生成するUマップ生成部204等の縦方向視差ヒストグラム情報生成手段と、上記縦方向視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度fをもった視差値dのうち所定の視差値近接範囲内の視差値dに対応していて、かつ、画像左右方向の間隔Δlが所定範囲内である一群の画素を、1つの物体を映し出す物体候補領域等の物体画像領域として抽出する物体候補領域検出部205等の物体画像領域抽出手段とを有することを特徴とする。
これによれば、個々の物体を高精度で区別して検出する物体検出処理を短い処理時間で実行可能となる。
(態様B)
上記態様Aにおいて、上記物体画像領域抽出手段は、上記縦方向視差ヒストグラム情報から作成される視差値dと画像左右方向位置xとで定義される二次元座標系上で、上記所定の頻度閾値を超える頻度fをもった視差値dをもった画素に対してハフ変換を行って画像左右方向に延びる横直線L1等の直線を抽出し、抽出された直線を基準にして、上記所定の視差値近接範囲内の視差値dに対応し、かつ、画像左右方向の間隔Δlが所定範囲内である上記一群の画素を抽出することを特徴とする。
これによれば、より短時間で、個々の物体を高精度で区別して検出する物体検出処理を実行することができる。
(態様C)
上記態様A又はBにおいて、上記物体画像領域抽出処理手段は、上記一群の画素を、上記視差情報に基づいて作成される視差画像上で、1つの物体を映し出す物体画像領域として抽出することを特徴とする。
これによれば、物体画像領域に映し出されている物体の高さを容易に把握することが可能となる。
(態様D)
上記態様A〜Cのいずれかの態様において、上記物体画像領域抽出処理手段により抽出された物体画像領域に対応する物体が識別対象物であるか否かを判断する識別対象物認識部206等の識別対象物判断手段を有することを特徴とする。
これによれば、物体画像領域に映し出されている物体が識別対象物であるかどうかの判断結果を得ることができる。
(態様E)
上記態様Dにおいて、上記物体画像領域抽出処理手段により抽出された物体画像領域の画像幅Δx等の画像左右方向長さと該物体画像領域の視差平均値dave等の視差値とから、該物体画像領域に対応する物体の幅(横サイズ)を特定する識別対象物認識部206等の物体幅特定手段を有し、上記識別対象物判断手段は、上記物体画像領域抽出処理手段により抽出された物体画像領域に対応する物体について、上記物体幅特定手段が特定した該物体の幅に基づいて識別対象物であるか否かを判断することを特徴とする。
これによれば、より精度の高い物体識別が可能となる。
(態様F)
上記態様D又はEにおいて、上記識別対象物判断手段は、上記物体画像領域抽出処理手段により抽出された物体画像領域に対応する物体について、該物体画像領域の輝度情報に基づいて識別対象物であるか否かを判断することを特徴とする。
これによれば、より精度の高い物体識別が可能となる。
(態様G)
自車両100等の移動体の周囲を撮像領域として撮像する2つの撮像部110A,110B等の複数の撮像手段と、上記複数の撮像手段により得られた複数の撮像画像から、撮像領域内に存在する物体を検出する物体検出手段と、上記物体検出手段の検出結果に基づいて、上記移動体に搭載された所定の機器を制御するヘッドランプ制御ユニット103や車両走行制御ユニット106等の移動体機器制御手段とを備えた移動体機器制御システムにおいて、上記物体検出手段として、上記態様A〜Fのいずれかの態様に係る物体検出装置を用いたことを特徴とする。
これによれば、短い処理時間で個々の物体を高精度で区別して検出することができ、より適切かつ迅速に制御対象機器を制御することが可能となる。
(態様H)
複数の撮像手段により撮像して得られる複数の撮像画像に基づいて視差情報を生成し、該視差情報に基づいて撮像領域内に存在する物体を検出する物体検出装置のコンピュータに実行させるための物体検出用プログラムであって、上記複数の撮像画像に基づいて視差情報を生成する視差情報生成工程と、上記視差情報に基づいて、上記撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報を生成する縦方向視差ヒストグラム情報生成工程と、上記縦方向視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内である一群の画素を、1つの物体を映し出す物体画像領域として抽出する物体画像領域抽出工程とを、上記コンピュータに実行させることを特徴とする。
これによれば、個々の物体を高精度で区別して検出する物体検出処理を短い処理時間で実行可能となる。
なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
100 自車両
101 撮像ユニット
102 画像解析ユニット
110A,110B 撮像部
120 処理ハードウェア部
121 視差演算部
130 メモリ
200 物体検出装置
201 ステレオ画像入力部
202 輝度画像入力部
203 視差画像演算部
204 Uマップ生成部
205 物体候補領域検出部
206 識別対象物認識部
208 認識結果出力部
特開2012−226689号公報

Claims (8)

  1. 複数の撮像手段により撮像して得られる複数の撮像画像に基づいて視差情報を生成し、該視差情報に基づいて撮像領域内に存在する物体を検出する物体検出装置において、
    上記視差情報に基づいて、上記撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報を生成する縦方向視差ヒストグラム情報生成手段と、
    上記縦方向視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内である一群の画素を、1つの物体を映し出す物体画像領域として抽出する物体画像領域抽出手段とを有することを特徴とする物体検出装置。
  2. 請求項1の物体検出装置において、
    上記物体画像領域抽出手段は、上記縦方向視差ヒストグラム情報から作成される視差値と画像左右方向位置とで定義される二次元座標系上で、上記所定の頻度閾値を超える頻度をもった視差値をもった画素に対してハフ変換を行って画像左右方向に延びる直線を抽出し、抽出された直線を基準にして、上記所定の視差値近接範囲内の視差値に対応し、かつ、画像左右方向の間隔が所定範囲内である上記一群の画素を抽出することを特徴とする物体検出装置。
  3. 請求項1又は2の物体検出装置において、
    上記物体画像領域抽出処理手段は、上記一群の画素を、上記視差情報に基づいて作成される視差画像上で、1つの物体を映し出す物体画像領域として抽出することを特徴とする物体検出装置。
  4. 請求項1乃至3のいずれか1項に記載の物体検出装置において、
    上記物体画像領域抽出処理手段により抽出された物体画像領域に対応する物体が識別対象物であるか否かを判断する識別対象物判断手段を有することを特徴とする物体検出装置。
  5. 請求項4の物体検出装置において、
    上記物体画像領域抽出処理手段により抽出された物体画像領域の画像左右方向長さと該物体画像領域の視差値とから、該物体画像領域に対応する物体の幅を特定する物体幅特定手段を有し、
    上記識別対象物判断手段は、上記物体画像領域抽出処理手段により抽出された物体画像領域に対応する物体について、上記物体幅特定手段が特定した該物体の幅に基づいて識別対象物であるか否かを判断することを特徴とする物体検出装置。
  6. 請求項4又は5の物体検出装置において、
    上記識別対象物判断手段は、上記物体画像領域抽出処理手段により抽出された物体画像領域に対応する物体について、該物体画像領域の輝度情報に基づいて識別対象物であるか否かを判断することを特徴とする物体検出装置。
  7. 移動体周囲を撮像領域として撮像する複数の撮像手段と、
    上記複数の撮像手段により得られた複数の撮像画像から、撮像領域内に存在する物体を検出する物体検出手段と、
    上記物体検出手段の検出結果に基づいて、上記移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、
    上記物体検出手段として、請求項1乃至6のいずれか1項に記載の物体検出装置を用いたことを特徴とする移動体機器制御システム。
  8. 複数の撮像手段により撮像して得られる複数の撮像画像に基づいて視差情報を生成し、該視差情報に基づいて撮像領域内に存在する物体を検出する物体検出装置のコンピュータに実行させるための物体検出用プログラムであって、
    上記複数の撮像画像に基づいて視差情報を生成する視差情報生成工程と、
    上記視差情報に基づいて、上記撮像画像を左右方向に複数分割して得られる各縦列領域内における視差値の頻度分布を示す縦方向視差ヒストグラム情報を生成する縦方向視差ヒストグラム情報生成工程と、
    上記縦方向視差ヒストグラム情報に基づき、所定の頻度閾値を超える頻度をもった視差値のうち所定の視差値近接範囲内の視差値に対応していて、かつ、画像左右方向の間隔が所定範囲内である一群の画素を、1つの物体を映し出す物体画像領域として抽出する物体画像領域抽出工程とを、上記コンピュータに実行させることを特徴とする物体検出用プログラム。
JP2013245723A 2013-03-06 2013-11-28 物体検出装置、移動体機器制御システム及び物体検出用プログラム Active JP6344638B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013245723A JP6344638B2 (ja) 2013-03-06 2013-11-28 物体検出装置、移動体機器制御システム及び物体検出用プログラム
EP14156896.4A EP2775423A3 (en) 2013-03-06 2014-02-27 Object detection apparatus, vehicle-mounted device control system and carrier medium of program of object detection
US14/193,249 US9230165B2 (en) 2013-03-06 2014-02-28 Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013044434 2013-03-06
JP2013044434 2013-03-06
JP2013245723A JP6344638B2 (ja) 2013-03-06 2013-11-28 物体検出装置、移動体機器制御システム及び物体検出用プログラム

Publications (3)

Publication Number Publication Date
JP2014197378A true JP2014197378A (ja) 2014-10-16
JP2014197378A5 JP2014197378A5 (ja) 2017-01-12
JP6344638B2 JP6344638B2 (ja) 2018-06-20

Family

ID=50159144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013245723A Active JP6344638B2 (ja) 2013-03-06 2013-11-28 物体検出装置、移動体機器制御システム及び物体検出用プログラム

Country Status (3)

Country Link
US (1) US9230165B2 (ja)
EP (1) EP2775423A3 (ja)
JP (1) JP6344638B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160054925A (ko) * 2014-11-07 2016-05-17 현대모비스 주식회사 특정물체 감지 장치 및 특정물체 감지 방법
JP2017027302A (ja) * 2015-07-21 2017-02-02 Kyb株式会社 物体認識装置及び物体認識方法
JP2017142695A (ja) * 2016-02-11 2017-08-17 株式会社デンソー 物体検知装置
JP2017157938A (ja) * 2016-02-29 2017-09-07 セコム株式会社 空間認識装置
US9994074B2 (en) 2014-11-28 2018-06-12 Ricoh Company, Ltd. Detection device, detection system, and detection method
JP2018092601A (ja) * 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP2019504382A (ja) * 2015-11-24 2019-02-14 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH アダプティブな周辺画像データ処理を有するドライバー・アシスタント・システム
US10546383B2 (en) 2015-12-10 2020-01-28 Ricoh Company, Ltd. Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
US10748026B2 (en) 2015-10-09 2020-08-18 Ihi Corporation Line segment detection method

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395125B2 (en) 2016-10-06 2019-08-27 Smr Patents S.A.R.L. Object detection and classification with fourier fans
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
JP2016140030A (ja) 2015-01-29 2016-08-04 株式会社リコー 画像処理装置、撮像装置、及び画像処理プログラム
JP6358160B2 (ja) * 2015-04-17 2018-07-18 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
JP6657789B2 (ja) * 2015-10-29 2020-03-04 株式会社リコー 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム
JP6728634B2 (ja) 2015-11-04 2020-07-22 株式会社リコー 検知装置、検知方法及びプログラム
US20170154246A1 (en) * 2015-11-30 2017-06-01 Seematics Systems Ltd Apparatus and method for inferring information using a computer network
JP2017199178A (ja) * 2016-04-27 2017-11-02 Kyb株式会社 路面状態検出装置
US20180047218A1 (en) * 2016-08-12 2018-02-15 GM Global Technology Operations LLC Method of attaining subjective vehicle dynamics
US11400860B2 (en) 2016-10-06 2022-08-02 SMR Patents S.à.r.l. CMS systems and processing methods for vehicles
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
US11443619B2 (en) * 2018-05-15 2022-09-13 Kabushiki Kaisha Toshiba Vehicle recognition apparatus and vehicle recognition method
JP6786635B2 (ja) * 2018-05-15 2020-11-18 株式会社東芝 車両認識装置および車両認識方法
CN109241832B (zh) * 2018-07-26 2021-03-30 维沃移动通信有限公司 一种人脸活体检测的方法及终端设备
JP7152506B2 (ja) * 2018-11-06 2022-10-12 日立Astemo株式会社 撮像装置
CN111415520A (zh) * 2018-12-18 2020-07-14 北京航迹科技有限公司 处理交通目标的系统和方法
JP7258632B2 (ja) * 2019-04-10 2023-04-17 日立Astemo株式会社 物体検出装置
CN112767723B (zh) * 2019-11-05 2022-04-22 深圳市大富科技股份有限公司 路况检测方法、计算机存储设备、车载终端和车辆
CN112884961B (zh) * 2021-01-21 2022-11-29 吉林省吉科软信息技术有限公司 一种用于疫情防控的人脸识别闸机系统
US20220239836A1 (en) * 2021-01-25 2022-07-28 Canon Kabushiki Kaisha Image processing device, control method thereof, imaging apparatus, and program storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP2006038578A (ja) * 2004-07-26 2006-02-09 Toyota Motor Corp 物体検出装置
JP2008064628A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法
JP2010079582A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 物体を検出する装置、方法及びプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US6104840A (en) 1996-11-08 2000-08-15 Ricoh Company, Ltd. Method and system for generating a composite image from partially overlapping adjacent images taken along a plurality of axes
JP3806211B2 (ja) 1997-01-08 2006-08-09 株式会社リコー 撮像信号処理方法及び撮像信号処理装置
US6466701B1 (en) 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US7271803B2 (en) 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
JP4141235B2 (ja) 2002-02-08 2008-08-27 株式会社リコー 画像補正装置及びプログラム
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP2007037099A (ja) 2005-06-22 2007-02-08 Ricoh Co Ltd 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP4792248B2 (ja) * 2005-06-30 2011-10-12 日立オートモティブシステムズ株式会社 走行制御装置,走行制御システム及びその走行制御に用いる情報を格納したナビゲーション用情報記録媒体
JP2007147458A (ja) * 2005-11-28 2007-06-14 Fujitsu Ltd 位置検出装置、位置検出方法、位置検出プログラムおよび記録媒体
JP5009004B2 (ja) 2006-07-31 2012-08-22 株式会社リコー 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP4670805B2 (ja) 2006-12-13 2011-04-13 株式会社豊田中央研究所 運転支援装置、及びプログラム
EP1973329B1 (en) 2007-03-19 2017-02-15 Ricoh Company, Ltd. Image processing apparatus and image processing method
US8363909B2 (en) 2007-03-20 2013-01-29 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
CN101271514B (zh) 2007-03-21 2012-10-10 株式会社理光 一种快速目标检测和目标输出的图像检测方法及装置
CN101271515B (zh) 2007-03-21 2014-03-19 株式会社理光 能识别多角度目标的图像检测装置
JP4987573B2 (ja) * 2007-06-01 2012-07-25 富士重工業株式会社 車外監視装置
JP2009110137A (ja) 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
WO2011014482A1 (en) * 2009-07-27 2011-02-03 Magna Electronics Inc. Parking assist system
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
JP5740844B2 (ja) 2009-11-24 2015-07-01 株式会社リコー 撮像装置、画像処理方法、及び、コンピュータプログラム
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
JP5693994B2 (ja) * 2011-02-16 2015-04-01 富士重工業株式会社 車両検出装置
JP2012226689A (ja) 2011-04-22 2012-11-15 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP5386539B2 (ja) * 2011-05-12 2014-01-15 富士重工業株式会社 環境認識装置
JP2012243049A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2012257022A (ja) * 2011-06-08 2012-12-27 Sony Corp 画像処理装置および方法、並びにプログラム
JP5352869B2 (ja) * 2011-09-07 2013-11-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
JP5895448B2 (ja) 2011-10-27 2016-03-30 株式会社リコー 車両認識装置、車両認識方法、プログラム
EP2669845A3 (en) 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP2006038578A (ja) * 2004-07-26 2006-02-09 Toyota Motor Corp 物体検出装置
JP2008064628A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法
JP2010079582A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 物体を検出する装置、方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHENCHENG HU,外2名: "A Complete U-V-Disparity Study for Stereovision Based 3D Driving Environment Analysis", IN PROCEEDINGS OF THE FIFTH INTERNATIONAL CONFERENCE ON 3-D DIGITAL IMAGING AND MODELING(3DIM05), JPN6017040005, 2005, ISSN: 0003664766 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102310286B1 (ko) * 2014-11-07 2021-10-07 현대모비스 주식회사 특정물체 감지 장치 및 특정물체 감지 방법
KR20160054925A (ko) * 2014-11-07 2016-05-17 현대모비스 주식회사 특정물체 감지 장치 및 특정물체 감지 방법
US9994074B2 (en) 2014-11-28 2018-06-12 Ricoh Company, Ltd. Detection device, detection system, and detection method
JP2017027302A (ja) * 2015-07-21 2017-02-02 Kyb株式会社 物体認識装置及び物体認識方法
US10748026B2 (en) 2015-10-09 2020-08-18 Ihi Corporation Line segment detection method
JP2019504382A (ja) * 2015-11-24 2019-02-14 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH アダプティブな周辺画像データ処理を有するドライバー・アシスタント・システム
US10546383B2 (en) 2015-12-10 2020-01-28 Ricoh Company, Ltd. Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
WO2017138331A1 (ja) * 2016-02-11 2017-08-17 株式会社デンソー 物体検知装置
US10803327B2 (en) 2016-02-11 2020-10-13 Denso Corporation Object detection apparatus
JP2017142695A (ja) * 2016-02-11 2017-08-17 株式会社デンソー 物体検知装置
JP2017157938A (ja) * 2016-02-29 2017-09-07 セコム株式会社 空間認識装置
JP2018092601A (ja) * 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP7047291B2 (ja) 2016-11-30 2022-04-05 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム

Also Published As

Publication number Publication date
EP2775423A3 (en) 2017-04-26
US20140254872A1 (en) 2014-09-11
EP2775423A2 (en) 2014-09-10
US9230165B2 (en) 2016-01-05
JP6344638B2 (ja) 2018-06-20

Similar Documents

Publication Publication Date Title
JP6344638B2 (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP4650079B2 (ja) 物体検出装置、および方法
JP6376429B2 (ja) 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6705496B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム
KR101650266B1 (ko) 노면 경사 인식 장치, 노면 경사 인식 방법, 및 컴퓨터가 노면 경사 인식을 실행하기 위한 컴퓨터 프로그램
JP6198113B2 (ja) 対象物認識装置、機器制御システム、車両、対象物認識方法及び対象物認識用プログラム
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
JP2014006885A (ja) 段差認識装置、段差認識方法及び段差認識用プログラム
JP6705497B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体
JP2006268097A (ja) 車載物体検出装置、および物体検出方法
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP2013250907A (ja) 視差算出装置、視差算出方法及び視差算出用プログラム
JP2008158640A (ja) 移動物体検出装置
JP2007280132A (ja) 走行誘導障害物検出装置および車両用制御装置
JP2015133078A (ja) 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム
JP2016206801A (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP2015148887A (ja) 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP2017207874A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2014016981A (ja) 移動面認識装置、移動面認識方法及び移動面認識用プログラム
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180510

R151 Written notification of patent or utility model registration

Ref document number: 6344638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151