JP2016029557A - 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム - Google Patents
立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム Download PDFInfo
- Publication number
- JP2016029557A JP2016029557A JP2015084691A JP2015084691A JP2016029557A JP 2016029557 A JP2016029557 A JP 2016029557A JP 2015084691 A JP2015084691 A JP 2015084691A JP 2015084691 A JP2015084691 A JP 2015084691A JP 2016029557 A JP2016029557 A JP 2016029557A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- parallax
- road surface
- image
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
Abstract
Description
図1は、本発明の実施形態に係る移動体機器制御システムとしての車載機器制御システムの概略構成を示す模式図である。
この車載機器制御システムは、移動体である自動車などの自車両100に搭載されており、撮像ユニット101、画像解析ユニット102、表示モニタ103、及び車両走行制御ユニット104からなる。そして、撮像ユニット101で撮像した自車両の進行方向(移動方向)の前方領域(撮像領域)の撮像画像データから、自車両前方の路面(移動面)の相対的な高さ情報(相対的な傾斜状況を示す情報)を検知し、その検知結果から、自車両前方の走行路面の3次元形状を検出し、その検出結果を利用して各種車載機器の制御を行う。
図2は、図1における撮像ユニット101及び画像解析ユニット102の概略構成を示す模式図である。
図4は、図2における処理ハードウェア部120及び画像解析ユニット102で実現される物体検出処理について説明するための機能ブロックの第1の例を示す図である。以下、本実施形態における物体検出処理について説明する。
Y=0.3R+0.59G+0.11B …式〔1〕
輝度画像データに対して、まず、平行化画像生成部131で平行化画像生成処理が実行される。この平行化画像生成処理は、撮像部110a,110bにおける光学系の歪みや左右の撮像部110a,110bの相対的な位置関係から、各撮像部110a,110bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。これは、各画素での歪み量を、Δx=f(x,y)、Δy=g(x,y)という多項式を用いて計算し、その計算結果を用いて、各撮像部110a,110bから出力される輝度画像データ(基準画像と比較画像)の各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する5次多項式に基づく。
このようにして平行化画像処理を行った後、次に、視差演算部121(図2)によって構成される視差画像生成部132において、視差画像データ(視差画像情報)を生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110a,110bのうちの一方の撮像部110aの輝度画像データを基準画像データとし、他方の撮像部110bの輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
d Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of
Absolute Difference)などの方法を用いることができる。なお、マッチング処理では画素単位での視差値しか算出できないので、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するので、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。
立体物追跡手段16に対応するオブジェクトトラッキング部145について説明する。
視差画像生成処理を行ったら、次に画像解析ユニット102によって構成されるオブジェクトトラッキング部145において、オブジェクトトラッキング処理、即ち立体物追跡工程(ステップS05)に対応する処理を行う。図7は、オブジェクトトラッキング部145の概要について説明するための図である。オブジェクトトラッキング処理は、下記の表1に示すオブジェクトデータリスト147を用いて行われる。
度、視差情報)である。「オブジェクト予測データ」は、次のフレームで本オブジェクト
がどの位置にいるかを推測した情報である。「オブジェクト特徴量」は、オブジェクトトラッキング処理や後述するオブジェクトマッチング処理で利用する情報である。「検出/未検出フレーム数」は、本オブジェクトがどれだけのフレーム数検出できたかあるいは連続して検出できなかったかを表す情報である。「確度」は、本オブジェクトが本当に追跡すべきものかどうかを示す確度(安定フラグ)である。オブジェクトトラッキング部145は、S=1、つまり確度の高いオブジェクトの予測データだけを用いてオブジェクトトラッキング処理を行う。
に応じてオブジェクトのデータを更新する。以下、詳しく説明する。オブジェクトデータ更新部145cは、マッチング結果が“Tracked”になった場合は、オブジェクトデータのうち、総検出フレーム数Tに1を加算し、連続未検出フレーム数Fを0にする。
オブジェクトトラッキングを行ったら、次に画像解析ユニット102によって構成される視差補間部133において、視差画像補間処理を行い、補間視差画像を生成する。図10は、視差画像補間処理の概要について説明するための図である。ここで、図10Aは撮像画像、図10Bは視差画像である。また、図10C〜Eは、視差画像補間処理を実行する条件を説明するための図である。
視差値D1に対応する距離をZ1、画素P1、P2間の画像上の距離をPXとすると、2点間の近似的な実距離RZは、ステレオカメラの焦点距離をfとすると、「RZ=Z1/f*PX」で算出することができる。RZが所定の値(乗用車1台に相当する幅:1900mm)以内であれば、この条件は満たされる。
即ち、図10Cにおける画素P1と画像P2を結ぶライン321上の画素に視差値が存在しない。
即ち、図10Dに示すように、例えば2点から1.5m以内の高さの領域322に水平エッジが所定数以上存在するか否かを判定する。高さ1.5mに相当する画素数PZは、画素P1の視差値D1から算出される距離Z1とステレオカメラの焦点距離fから、「PZ=1.5m*f/Z1」の式により算出することができる。
想定するシーンは車両の屋根323である。水平エッジが連続している場合、画素P1、P2の視差値D1、D2の差が所定値以下であれば補間する。
遠方の視差情報とは、視差値D1、D2から得られる距離Z1、Z2の大きい方の値の20%以上遠方の距離に対応する視差値である。
第5判定条件が偽となる場合とは、補間しようとするラインの近傍に遠方視差が存在する場合、即ち、遠方の物体が見えている場合である。その場合は、視差補間をしないことになる。
次に視差補間処理について詳細に説明する。
図11は、視差画像補間処理の全体の流れを示すフローチャートである。
まず、第4判定条件用ラインバッファ(エッジ位置カウント)、及び第5判定条件用ラインバッファ(上側視差位置カウント、下側視差位置ビットフラグ)を初期化する(ステップS1)。
図10Bにおける2点(画素P1、P2)の視差値を補間しようとすると、下記(イ)〜(ニ)の4つの判断ステップが必要となる。
(イ)2点間の視差値の差と距離が所定値より小さく、かつ2点間に他の視差値が存在しないか否か(第1〜3判定条件を満たすか否か)を判断する。
(ロ)2点の上側1.5m以内に水平エッジがあるか否か(第4判定条件を満たすか否か)を判断する。
(ハ)水平エッジの下側に遠方視差値があるか否か(第5判定条件の一部を満たすか否か)を判断する。
(ニ)2点の下側に遠方視差値があるか否か(第5判定条件の残りの部分を満たすか否か)を判断する。
このようにして視差画像補間処理を行ったら、次にVマップ生成部134において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各視差画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示される。これを、X軸にd、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(d,y,f)を、視差ヒストグラム情報として生成する。本実施形態の視差ヒストグラム情報は、三次元座標情報(d,y,f)からなり、この三次元ヒストグラム情報をX−Yの2次元座標系に分布させたものを、Vマップ(視差ヒストグラムマップ)と呼ぶ。
本実施形態における抽出条件は、自車両の前方路面が自車両の真下の路面部分510と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に対応する視差値dと画像上下方向位置yとの関係を基準として定まる所定の抽出範囲2δn内に属するという条件である。この基準路面に対応する視差値dと画像上下方向位置yとの関係は、図16に示すように、Vマップ上において直線(以下「基準直線」という。)511で示される。本実施形態では、この基準直線511を中心に画像上下方向へ±δの範囲を、抽出範囲512として規定している。この抽出範囲512は、状況に応じて刻々と変化する実際の路面のVマップ要素(d,y,f)の変動範囲を含むように設定される。
図19は、図4におけるVマップ生成部の内部構成の一例を示す処理ブロック図である。このVマップ生成部134−1は、車両動作情報入力部134a、視差画像路面領域設定部134b、処理範囲抽出部134c、及びVマップ情報生成部134dからなる。
〔第1の処理例〕
図21は、本実施形態におけるVマップ情報生成処理の第1の処理例の流れを示すフローチャートである。また、図22は、視差画像に設定される路面画像候補領域について説明するための図である。
図23は、本実施形態におけるVマップ情報生成処理の第2の処理例の流れを示すフローチャートである。
次に、移動面検出手段11及び移動面補正手段12に対応する路面形状検出部135で行う処理、即ち移動面検出工程(ステップS01)及び移動面補正工程(ステップS06)に対応する処理ついて説明する。
本実施形態の路面形状検出部135は、Vマップ生成部134から出力されるVマップ情報(Vマップ情報)を受け取ると、まず、路面候補点検出部135aにおいて、路面に対応するVマップ要素が示す特徴、即ち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を、路面候補点として検出する。
図15Aに示したように、自車両の前方を撮像した撮像画像で、近距離の路面部分についてはその路面画像領域の占有面積が大きく、路面に対応する画素数が多いので、Vマップ上の頻度が大きい。これに対し、遠距離の路面部分については、その路面画像領域の撮像画像内における占有面積が小さく、路面に対応する画素数が少ないので、Vマップ上の頻度が小さい。すなわち、Vマップにおいて、路面に対応する点の頻度値は、遠距離では小さく、近距離では大きい。そのため、例えば同じ頻度閾値を用いるなど、両領域について同じ基準で路面候補点を検出しようとすると、近距離領域については路面候補点を適切に検出できるが、遠距離領域については路面候補点が適切に検出できないおそれがあり、遠距離領域の路面検出精度が劣化する。逆に、遠距離領域の路面候補点を十分に検出できるような基準で近距離領域の検出を行うと、近距離領域のノイズ成分が多く検出され、近距離領域の路面検出精度が劣化する。そこで、本実施形態では、Vマップを近距離領域と遠距離領域とに区分し、各領域についてそれぞれ適した基準や検出方法を用いて路面候補点を検出することにより、両領域の路面検出精度を高く維持している。
第1路面候補点検出処理では、各視差値dについて、所定の検索範囲内でy方向位置を変えながら、Vマップ情報に含まれる各Vマップ要素(d,y,f)の頻度値fが第1頻度閾値よりも大きく、かつ、最も頻度値fが大きいVマップ要素を探索し、そのVマップ要素を当該視差値dについての路面候補点として決定する。このときの第1頻度閾値は、低めに設定し、路面に対応するVマップ要素が抜け落ちないようにするのが好ましい。本実施形態においては、上述したとおり、Vマップ生成部134において路面に対応するVマップ要素を抽出していることから、第1頻度閾値を低めに設定しても、路面分に対応しないVマップ要素が路面候補点として決定される事態は軽減されるからである。
入力されるVマップの情報について、例えば視差値dの大きい順に路面候補点の検出を行い、各視差値dについての路面候補点(y,d)を検出する。視差値dが所定の基準距離に対応する基準視差値よりも大きい場合(ステップS81:YES)、上述した第1路面候補点検出処理を行う。すなわち、当該視差値dに応じたyの探索範囲(「yp−δn」〜「yp+δn」)を設定し(ステップS82)、この探索範囲内における頻度値fが第1頻度閾値よりも大きいVマップ要素(d,y,f)を抽出する(ステップS83)。そして、抽出したVマップ要素のうち、最大の頻度値fを持つVマップ要素(d,y,f)を、当該視差値dの路面候補点として検出する(ステップS84)。
本実施形態においては、Vマップ情報を視差値に応じて3つの視差値区画に区分けする。具体的には、視差値が大きい順に、第1区間、第2区間、第3区間に区分けする。このとき、距離を基準にして区間を等しく区分けする場合、Vマップ上では遠距離の区間ほど区間(視差値範囲)が狭くなり、直線近似の精度が悪化する。また、視差値を基準にして区間を等しく区分けする場合、今度は、Vマップ上において近距離の区間の幅が狭くなる。この場合、第1区間が非常に狭いものとなって、その第1区間はほとんど意味を成さなくなる。
yc=(yLo+h) …式〔3〕
dc=Bf/z+offset …式〔4〕
以上のようにして、路面形状検出部135においてVマップ上の近似直線の情報が得られたら、次に、路面高さテーブル算出部136において、路面高さ(自車両の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部135により生成されたVマップ上の近似直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車両の真下に位置する路面部分をその面に平行となるように自車両進行方向前方へ延長した仮想平面の自車両進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部135から出力される近似直線を基準直線と比較することで、自車両前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部135から出力される近似直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車両前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部136では、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。
H=z×(y’−y0)/f …式〔5〕
次に、Uマップ生成部137について説明する。
Uマップ生成部137では、Uマップを生成するUマップ生成処理として、頻度Uマップ生成処理及び高さUマップ生成処理を実行する。
以上のようにUマップを生成したら、次にリアルUマップ生成部138がリアルUマップを生成する。リアルUマップは、Uマップにおける横軸を画像の画素単位から実際の距離に変換し、縦軸の視差値を距離に応じた間引き率を有する間引き視差に変換したものである。
カメラから見て左右10mずつ、即ち20mの幅をオブジェクト検出範囲として設定する。リアルUマップの横方向1画素の幅を10cmとすると、リアルUマップの横方向サイズは200画素となる。
も同様の手順で作成することができる。
次に、孤立領域検出部139について説明する。
図47は、孤立領域検出部139で行う孤立領域検出処理の流れを示すフローチャートである。
孤立領域検出部139では、まずリアルUマップ生成部138で生成された頻度リアルUマップの情報の平滑化を行う(ステップS111)。
即ち、視差値には計算誤差等もあって分散があり、かつ、視差値がすべての画素について計算されているわけではないので、リアルUマップは図45に示した模式図とは異なり、ノイズを含んでいる。そこで、ノイズを除去するためと、検出したいオブジェクトを分割しやすくするため、リアルUマップを平滑化する。これは画像の平滑化と同様に、平滑化フィルタ(例えば3×3画素の単純平均)をリアルUマップの頻度値(頻度リアルUマップ)に対して適用することで、ノイズと考えられるような頻度は減少し、オブジェクトの部分では頻度が周囲より高い、まとまったグループとなり,後段の孤立領域検出処理を容易にする効果がある。
《周辺領域除去》
図49は、周辺領域除去について説明するためのリアルUマップであり、図50は、周辺領域除去処理の流れを示すフローチャートである。ここで、図49Aは、平滑化後のリアル頻度Uマップであり、図49Bは、リアル高さUマップであり、図49Cは、周辺領域が除去されたリアル高さUマップである。これらのマップは実データを模式的に示したものである(後記の図51、図54も同様)。また、このリアル頻度Uマップは、図45における車両(先行車両や対向車両)に対応する点の分布の付近を取り出したものである。また、リアル高さUマップは、不図示のリアル高さUマップにおける車両に対応する点の分布の付近を取り出したものである。
(i)ライン内に高さを持つ点が所定の点数(たとえば5)以下で閾値以上の高さを持つ点がない。
(ii)ライン内に閾値以上の高さを持つ点数が閾値未満の高さを持つ点数より少なく、閾値以上の高さを持つ点数が2未満である。
(iii)閾値以上の高さを持つ点数がライン全体の高さを持つ点数の10%未満である。
(v)列内に閾値以上の高さを持つ点数が閾値未満の高さを持つ点数より少なく,閾値以上の高さを持つ点数が2未満である。
(vi)閾値以上の高さを持つ点数が列全体の高さを持つ点数の10%未満である。
図51は、横方向分割について説明するための図であり、図52は、横方向分割処理の流れを示すフローチャートである。ここで、図51Aは、平滑化後のリアル頻度Uマップを示し、図51Bは、リアル高さUマップを示す。また、図51Cは、分割境界の検出方法を示す。
(vii)連結している部分の頻度値は、オブジェクトの頻度値よりも比較的小さくなる。
(viii)高さUマップで連結している部分は、オブジェクトの部分とは高さが異なったり、高さを持つデータが少なかったりする。
(ix)視差補間の影響で連結している部分は、高さUマップにおける視差の分散が小さい。
図53は、縦方向分割が有効な場合について説明するための図であり、図54は、縦方向分割について説明するための図である。また、図55は、縦方向分割処理の流れを示すフローチャートであり、図56は、縦方向分割における分割境界について説明するための図である。
(x)W>1500mmかつZmin>100mのとき、Zmax−Zmin>50m
(xi)W>1500mmかつ100m≧Zmin>20mのとき、Zmax−Zmin>40m
(xii1)50m≦Zmin<100mならば、Zr=25m
(xiv)100m≦Zminならば、Zr=30m
カメラの原点(レンズの中心)をO、カメラの向いている方向をカメラ中心軸(リアルUマップの中心の縦軸)の方向とする。また、実幅領域の分割境界の位置が、距離Z0,横位置X0とする。このとき距離Zにおける分割境界の位置をXとすると下記の式〔6〕が成り立つ。
X=X0*(Z/Z0) …式〔6〕
X=X0*(d0−offset)/(d−offset) …式〔7〕
次に、視差画像の対応領域検出部140及びオブジェクト領域抽出部141について説明する。図57は、孤立領域検出部139で検出された孤立領域が内接する矩形領域を設定したリアル頻度Uマップを示す図であり、図58は、図57における矩形領域に対応する走査範囲を設定した視差画像を示す図であり、図59は、図58における走査範囲を探索してオブジェクト領域を設定した視差画像を示す図である。
まずリアルUマップにおける島の位置、幅と最小視差から、視差画像に対するx軸方向の探索範囲を設定する(ステップS161)。
次に、オブジェクトタイプ分類部142について説明する。
前記オブジェクト領域抽出部141で抽出されるオブジェクト領域の高さ(yomax−yomin)から、下記の式〔8〕より、そのオブジェクト領域に対応する画像領域に映し出されている識別対象物(オブジェクト)の実際の高さHoを計算できる。ただし、「zo」は、当該オブジェクト領域内の最小視差値dから計算される当該オブジェクト領域に対応するオブジェクトと自車両との距離であり、「f」はカメラの焦点距離を(yomax−yomin)の単位と同じ単位に変換した値である。
Ho=zo×(yomax−yomin)/f …式〔8〕
Wo=zo×(xomax−xomin)/f …式〔9〕
Do=BF×{(1/(dmin−offset)−1/(dmax−offset)} …式〔10〕
次に、立体物検出手段13に対応する3次元位置決定部143、及びその処理である立体物検出工程(ステップS02)について説明する。
検出されたオブジェクト領域に対応するオブジェクトまでの距離や、視差画像の画像中心と視差画像上のオブジェクト領域の中心との画像上の距離も把握されることから、オブジェクトの3次元位置を決定することができる。
Xo=Z×(region_centerX−image_centerX)/f …式〔11〕
Yo=Z×(region_centerY−image_centerY)/f …式〔12〕
次にガードレール検出部144について説明する。
図62は、ガードレール検出部144で行われるガードレール検出処理の流れを示すフローチャートであり、図63は、ガードレール検出処理の対象範囲について直線近似処理して得られた近似直線を表したUマップを示す図である。また、図64は、直線近似処理して得られた直線からガードレール候補座標を検出するための処理について説明するための図である。
視差画像上でのガードレール領域471は、(xgmin,yg1_30)、(xgmin、yg1_10
0)、(xgmax、yg2_100)、(xgmax_yg2_30)の4点で囲まれる領域(図中に網掛けした領域)となる。なお、ここでは左側のガードレールについて説明したが、右側のガードレールについても同様に検出できる。
次に、Vマップ生成部134における処理に用いる消失点情報について説明する。
消失点情報は、路面の消失点に対応する視差画像上の位置座標を示す情報である。この消失点情報は、撮像画像上に映し出される路面上の白線や車両動作情報などから特定することができる。
Δx=f×tanθ/pixelsize …式〔13〕
Vx=xsize/2+Δx …式〔14〕
Δx=±(1−cosθ)×f×r/L/pixelsize …式〔15〕
“Matched”の場合
・Tに1を加算し、F=0とする。
・オブジェクトデータ、オブジェクト予測データ、オブジェクト特徴量を更新する。
・もしT≧thT(thT:所定の閾値) ならばS=1に更新する。
・検出オブジェクトをオブジェクトデータリスト147に追加する。
・T=1、F=0、S=0とする。
・オブジェクトデータ、オブジェクト特徴量を設定する。
・オブジェクト予測データについては、その相対速度が検出されないのでオブジェクトの現在位置を設定する。
・もしT≧thT ならばS=1に更新する。
・Fに1を加算する。
・オブジェクト予測データを更新する。
・もしF≧thF(thF:所定の閾値)ならば、オブジェクトデータリスト147から削除する。
図72は、図2における処理ハードウェア部及び画像解析ユニットで実現される物体検出処理について説明するための機能ブロックの第2の例を示す図である。この図において、図4(第1の例)と同じ部分には図と同じ参照符号が付されている。
(b)S=1だけでなく、対象となるオブジェクトの位置の範囲を設定して選択する。
(c)さらに車両情報に応じて選択するオブジェクトの位置の範囲を変更する。
〈aについて〉
最も単純なケースで、存在確度が高いオブジェクトを選択して出力する選択基準である。
検出したオブジェクトが自車両から横方向に大きく離れている(正面付近にいない)場合、それが存在したとしても追跡する必要性は低い。そこで、通常は自車両の横方向±5m以内に存在するオブジェクトのみをオブジェクトトラッキングの対象として判定する。この判定で選択されなかったオブジェクトはS=0に更新され、オブジェクトマッチングの対象となる。
通常は横方向±5m以内に存在するオブジェクトのみをオブジェクトトラッキングの対象としていたが、高速道路や郊外の道路などで速度が比較的大きくてカーブが存在するとき、追跡したいオブジェクトは横方向±5mを超える範囲に存在することもよくある。この場合、車両情報の車速とヨーレートで自車両の進行方向を予測して追跡するオブジェクトの対象範囲を広げることもできる。
(1)路面を複数の直線で近似し、存在確度が高い立体物の下端に基づいて、近似直線の一部(セグメント)を変更(補正)することにより、近似直線の一部を補正することで、容易な方法で路面の形状を補正することができる。
(2)路面を複数の直線で近似し、存在確度が高い立体物の下端が路面の位置になるように、近似直線の一部を変更することにより、近似直線の一部を補正することで、容易な方法で路面の形状を補正することができる。
(3)路面を複数の直線で近似し、存在確度が高い立体物の下端が路面の位置になるように、近似直線を複数の連続直線に変更することにより、近似直線の一部を補正することで、容易な方法で路面の形状を補正することができる。
(4)存在確度が高い立体物の下端を路面(近似直線)の補正に用いるのではなく、路面の検出に用いることにより、検出負荷を軽減することができる。
(5)存在確度が高い立体物の下端の位置を近似直線の境界として路面を直線近似することにより、検出した路面を直線の端点として固定点として扱うことで、処理の負荷を軽減することができる。
(6)存在確度が高い立体物の下端の位置を固定点として路面情報を直線近似することにより、補正点が必ず路面になるように処理することができる。
(7)存在確度が高く、かつ自車両の運動予測方向に存在する立体物を選択し、選択した立体物に基づいて近似直線を補正することにより、追跡する必要性の低いオブジェクトの追跡による無駄な処理を防止することができる。
(8)存在確度が高く、かつ自車両の前方所定の範囲内に存在する立体物を選択し、選択した立体物に基づいて近似直線を補正することにより、運動予測方向を行う場合と比べて、簡便に構成することができる。
次に、前記実施形態についての第1の変形例(以下、変形例1)について説明する。
前記実施形態においては、自車両進行方向における路面の高さ変化(自車両進行方向における路面の起伏)を把握することはできるが、路面幅方向における路面高さの違い(路面幅方向における路面の傾斜)を把握することはできない。本変形例1では、路面幅方向における路面の傾斜を把握することができる例について説明する。
次に、前記実施形態についての第2の変形例(以下、変形例2)について説明する。
実際の路面の中には、路面の排水を良くするために路面の幅方向中央部分が高くなっているかまぼこ型の形状を示す路面がある。このような路面については、前記変形例1の場合には、路面幅方向における路面傾斜を適切に検出することができない。本変形例2においては、前記変形例1よりもより高精度に路面幅方向における路面傾斜を把握することができるものである。
(付記1)
移動体に搭載された複数の撮像手段により前記移動体の移動方向の前方を撮像して得た複数の撮像画像及びその撮像画像から生成した視差画像に基づいて、前記移動体の移動面上に存在する立体物を検出する立体物検出装置であって、
前記視差画像に基づいて、前記移動方向に対する横方向の距離と前記移動方向の距離とを関連付けた視差値の頻度分布を表すマップを生成するマップ生成手段と、
前記頻度分布に基づいて孤立領域を検出する孤立領域検出手段と、
前記孤立領域内の前記頻度分布に基づいて、前記孤立領域を分割する孤立領域分割手段と、
前記分割された孤立領域に基づいて立体物を検出する立体物検出手段と、
を有し、
前記マップ生成手段は、前記移動方向の距離に応じて、前記移動方向の視差値の間引き量を変化させる、立体物検出装置。
(付記2)
付記1に記載された立体物検出装置において、
前記マップ生成手段は、前記移動方向の距離が遠い程、前記間引き量を少なくする、立体物検出装置。
(付記3)
複数の撮像手段により前方を撮像した複数の撮像画像から生成された視差画像の同一ライン上で離れた2点の視差値を補間して補間視差画像を生成する視差画像補間手段を有する画像処理装置であって、
前記2点間の視差値の差と距離が所定値より小さく、かつ2点間に他の視差値が存在しないかを判断する判断手段と、
前記ラインより上方における水平エッジを検出する上方エッジ検出手段と、
前記ラインの上下の所定の範囲内において前記2点の視差値より小さい視差値である遠方視差値を検出する遠方視差検出手段と、を有し、
前記視差画像補間手段は、前記上方エッジ検出手段で水平エッジが検出され、前記遠方視差検出手段で遠方視差値が検出されなかったとき、前記2点間を補間し、
前記上方エッジ検出手段、前記遠方視差検出手段は、前記判断手段が判断するのと同期して各ラインを走査して水平エッジの有無、遠方視差の有無を検出する、画像処理装置。
Claims (10)
- 移動体に搭載された複数の撮像手段により前記移動体の移動方向の前方を撮像して得た複数の時系列画像から生成した視差画像に基づいて、前記移動体の移動面上の立体物を検出する立体物検出装置であって、
前記視差画像から移動面を検出する移動面検出手段と、
前記移動面検出手段により検出された移動面に基づき、前記移動面上の立体物を検出する立体物検出手段と、
前記立体物検出手段により検出された立体物に基づいて、前記視差画像内の当該立体物を時系列的に追跡する立体物追跡手段と、
前記立体物追跡手段により追跡された立体物に基づいて、前記移動面検出手段により検出された移動面を補正する移動面補正手段と、
を有する、立体物検出装置。 - 移動体に搭載された複数の撮像手段により前記移動体の移動方向の前方を撮像して得た複数の時系列画像から生成した視差画像に基づいて、前記移動体の移動面上の立体物を検出する立体物検出装置であって、
前記視差画像から移動面を検出する移動面検出手段と、
前記移動面検出手段により検出された移動面に基づき、前記移動面上の立体物を検出する立体物検出手段と、
前記立体物検出手段により検出された立体物に基づいて、前記視差画像内の当該立体物を時系列的に追跡する立体物追跡手段と、
を有し、
前記移動面検出手段は、前記立体物追跡手段により追跡された立体物を用いて前記移動面を検出する機能を有する、立体物検出装置。 - 請求項1又は2に記載された立体物検出装置において、
前記立体物検出手段により検出された立体物の移動範囲を予測する予測手段と、
前記予測手段により予測された移動範囲に前記立体物追跡手段の追跡範囲を設定する追跡範囲設定手段と、
を有する、立体物検出装置。 - 請求項1に記載された立体物検出装置において、
前記移動面補正手段は、前記立体物追跡手段により追跡された立体物の下端に基づいて補正を行う、立体物検出装置。 - 請求項2に記載された立体物検出装置において、
前記移動面検出手段は、前記移動面を検出するとき、前記立体物追跡手段により追跡された立体物の下端を用いる、立体物検出装置。 - 請求項1に記載された立体物検出装置において、
前記移動面検出手段は、移動面を複数の近似直線で表し、
前記移動面補正手段は、前記立体物追跡手段により追跡された立体物の下端を前記近似直線の境界に設定する、立体物検出装置。 - 請求項1に記載された立体物検出装置において、
前記移動面検出手段は、移動面を複数の近似直線で表し、
前記移動面補正手段は、前記立体物追跡手段により追跡された立体物の下端を固定点として前記近似直線を補正する、立体物検出装置。 - 移動体に搭載された複数の撮像手段により前記移動体の移動方向の前方を撮像して得た複数の時系列画像から生成した視差画像に基づいて、前記移動体の移動面上の立体物を検出する立体物検出装置により実行される立体物検出方法であって、
前記視差画像から移動面を検出する移動面検出工程と、
前記移動面検出工程で検出された移動面に基づき、前記移動面上の立体物を検出する立体物検出工程と、
前記立体物検出工程で検出された立体物に基づいて、前記視差画像内の当該立体物を時系列的に追跡する立体物追跡工程と、
前記立体物追跡工程で追跡された立体物に基づいて、前記移動面検出工程で検出された移動面を補正する移動面補正工程と、
を有する、立体物検出方法。 - コンピュータを請求項1乃至7のいずれかに記載された立体物検出装置の各手段として機能させるためのプログラム。
- 移動体に搭載された複数の撮像手段により前記移動体の移動方向の前方を撮像して得た複数の時系列画像から生成した視差画像に基づいて、前記移動体の移動面上の立体物を検出する立体物検出手段と、
前記立体物検出手段の検出結果に基づいて、前記移動体に搭載された所定の機器を制御する移動体機器制御手段と、を有する移動体機器制御システムであって、
前記立体物検出手段として、請求項1乃至7のいずれかに記載された立体物検出装置を用いる、移動体機器制御システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015084691A JP6550881B2 (ja) | 2014-07-14 | 2015-04-17 | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
US14/796,608 US20160014406A1 (en) | 2014-07-14 | 2015-07-10 | Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014144459 | 2014-07-14 | ||
JP2014144459 | 2014-07-14 | ||
JP2015084691A JP6550881B2 (ja) | 2014-07-14 | 2015-04-17 | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016029557A true JP2016029557A (ja) | 2016-03-03 |
JP6550881B2 JP6550881B2 (ja) | 2019-07-31 |
Family
ID=55068538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015084691A Active JP6550881B2 (ja) | 2014-07-14 | 2015-04-17 | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160014406A1 (ja) |
JP (1) | JP6550881B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017158964A1 (ja) * | 2016-03-18 | 2017-09-21 | 株式会社リコー | 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法 |
WO2017159082A1 (ja) * | 2016-03-14 | 2017-09-21 | 株式会社リコー | 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム |
JP2017207881A (ja) * | 2016-05-18 | 2017-11-24 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
JP2018045328A (ja) * | 2016-09-12 | 2018-03-22 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
JP2018092596A (ja) * | 2016-11-30 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム |
JP2018092605A (ja) * | 2016-11-25 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
JP2018092603A (ja) * | 2016-11-30 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム |
KR20180109341A (ko) * | 2017-03-27 | 2018-10-08 | 삼성전자주식회사 | 이미지 내의 오브젝트를 트래킹하기 위한 방법 및 그 전자 장치 |
WO2021205722A1 (ja) * | 2020-04-10 | 2021-10-14 | 日立Astemo株式会社 | 演算装置、演算方法 |
EP4033471A4 (en) * | 2019-09-19 | 2023-10-18 | Kyocera Corporation | OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOVABLE BODY AND METHOD FOR OBJECT DETECTION |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6398347B2 (ja) * | 2013-08-15 | 2018-10-03 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
JP6313063B2 (ja) * | 2014-02-17 | 2018-04-18 | 日立オートモティブシステムズ株式会社 | 車載用認識装置 |
WO2016063545A1 (ja) * | 2014-10-24 | 2016-04-28 | 京セラ株式会社 | ステレオカメラ装置及びステレオカメラ装置を備える車両 |
KR101676656B1 (ko) * | 2014-12-22 | 2016-11-16 | 현대모비스 주식회사 | 장애물 검출 장치 및 장애물 검출 방법 |
US9619803B2 (en) | 2015-04-30 | 2017-04-11 | Google Inc. | Identifying consumers in a transaction via facial recognition |
US10733587B2 (en) | 2015-04-30 | 2020-08-04 | Google Llc | Identifying consumers via facial recognition to provide services |
US10397220B2 (en) | 2015-04-30 | 2019-08-27 | Google Llc | Facial profile password to modify user account data for hands-free transactions |
JP6805534B2 (ja) | 2015-07-02 | 2020-12-23 | 株式会社リコー | 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム |
EP3136291A1 (de) * | 2015-08-31 | 2017-03-01 | Continental Automotive GmbH | Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung |
JP6444835B2 (ja) * | 2015-09-07 | 2018-12-26 | 株式会社東芝 | 画像処理装置、画像処理プログラムおよび画像処理システム |
EP3352134B1 (en) | 2015-09-15 | 2023-10-11 | Ricoh Company, Ltd. | Image processing device, object recognition device, device control system, image processing method, and program |
JP6662388B2 (ja) | 2015-11-27 | 2020-03-11 | 株式会社リコー | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム |
JP6597792B2 (ja) | 2015-11-30 | 2019-10-30 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
EP3389009A4 (en) | 2015-12-10 | 2018-12-19 | Ricoh Company, Ltd. | Image processing device, object recognition device, apparatus control system, image processing method and program |
EP3392830B1 (en) | 2015-12-14 | 2023-09-06 | Ricoh Company, Ltd. | Image processing device, object recognition device, apparatus control system, image processing method and program |
EP3399499A4 (en) | 2015-12-28 | 2019-01-09 | Ricoh Company, Ltd. | Image Processing Device, Object Recognition Device, Machine Control System, Image Processing Method, and Image Processing Program |
EP3410416B1 (en) * | 2016-01-28 | 2021-08-04 | Ricoh Company, Ltd. | Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program |
WO2017130639A1 (ja) * | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
JP6687039B2 (ja) | 2016-02-05 | 2020-04-22 | 株式会社リコー | 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム |
JP6614247B2 (ja) | 2016-02-08 | 2019-12-04 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
DE102016202594A1 (de) * | 2016-02-19 | 2017-08-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug |
EP3422285A4 (en) | 2016-02-22 | 2019-03-06 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, IMAGE CAPTURE DEVICE, MOBILE BODY APPARATUS CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
JP6733225B2 (ja) | 2016-03-08 | 2020-07-29 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
EP3428902A4 (en) | 2016-03-10 | 2019-08-14 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE DEVICE CONTROL SYSTEM, PICTURE PROCESSING PROCESS AND PROGRAM |
EP3428876A4 (en) | 2016-03-10 | 2019-01-23 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGING DEVICE AND PROGRAM |
WO2017158958A1 (ja) * | 2016-03-15 | 2017-09-21 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
EP3432264A4 (en) | 2016-03-17 | 2019-07-10 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, IMAGE RECORDING, MOBILE BODY DEVICE CONTROL SYSTEM, PICTURE PROCESSING METHOD AND PROGRAM |
WO2017158982A1 (ja) | 2016-03-18 | 2017-09-21 | 株式会社リコー | 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム |
JP6707378B2 (ja) * | 2016-03-25 | 2020-06-10 | 本田技研工業株式会社 | 自己位置推定装置および自己位置推定方法 |
JP2017181291A (ja) * | 2016-03-30 | 2017-10-05 | 富士通株式会社 | 距離測定装置、距離測定方法及びプログラム |
JP6547785B2 (ja) * | 2016-07-29 | 2019-07-24 | 株式会社デンソー | 物標検出装置 |
JP6812701B2 (ja) * | 2016-08-22 | 2021-01-13 | 株式会社リコー | 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム |
KR102543523B1 (ko) * | 2016-09-09 | 2023-06-15 | 현대모비스 주식회사 | 카메라의 오차 보정 시스템 및 방법 |
JP2018045482A (ja) * | 2016-09-15 | 2018-03-22 | ソニー株式会社 | 撮像装置、信号処理装置、及び、車両制御システム |
US10893208B2 (en) * | 2016-09-28 | 2021-01-12 | Kyocera Corporation | Camera module, selector, controller, camera monitoring system, and moveable body |
US11062304B2 (en) | 2016-10-20 | 2021-07-13 | Google Llc | Offline user identification |
KR102507383B1 (ko) * | 2016-11-08 | 2023-03-08 | 한국전자통신연구원 | 직사각형 윈도우를 이용한 스테레오 정합 방법 및 스테레오 정합 시스템 |
WO2018097269A1 (en) * | 2016-11-25 | 2018-05-31 | Ricoh Company, Ltd. | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium |
EP3336754A3 (en) * | 2016-11-25 | 2018-09-05 | Ricoh Company Ltd. | Information processing apparatus, photographing apparatus, moving object control system, moving object, information processing method, and program |
JP6950170B2 (ja) * | 2016-11-30 | 2021-10-13 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム |
JP6794243B2 (ja) * | 2016-12-19 | 2020-12-02 | 日立オートモティブシステムズ株式会社 | 物体検出装置 |
WO2018222232A1 (en) * | 2017-05-31 | 2018-12-06 | Google Llc | Providing hands-free data for interactions |
CN107766792B (zh) * | 2017-06-23 | 2021-02-26 | 北京理工大学 | 一种遥感图像舰船目标识别方法 |
JP6958147B2 (ja) * | 2017-09-07 | 2021-11-02 | トヨタ自動車株式会社 | 画像表示装置 |
CN107909012B (zh) * | 2017-10-30 | 2022-03-18 | 北京中科慧眼科技有限公司 | 一种基于视差图的实时车辆跟踪检测方法与装置 |
FR3076045A1 (fr) * | 2017-12-22 | 2019-06-28 | Orange | Procede de surveillance d'un environnement d'un premier element positionne au niveau d'une voie de circulation, et systeme associe |
JP7104916B2 (ja) * | 2018-08-24 | 2022-07-22 | 国立大学法人岩手大学 | 移動物体検出装置および移動物体検出方法 |
KR20200030305A (ko) * | 2018-09-12 | 2020-03-20 | 삼성전자주식회사 | 영상 처리를 위한 학습 데이터 생성 방법, 영상 처리 방법, 및 그 장치들 |
KR20200042549A (ko) * | 2018-10-15 | 2020-04-24 | 현대자동차주식회사 | 차량 및 그 제어방법 |
US11222218B2 (en) * | 2019-03-11 | 2022-01-11 | Subaru Corporation | Vehicle exterior environment detection apparatus |
JP7323356B2 (ja) * | 2019-06-28 | 2023-08-08 | フォルシアクラリオン・エレクトロニクス株式会社 | 駐車支援装置及び駐車支援方法 |
DE102019209849B4 (de) * | 2019-07-04 | 2021-08-05 | Robert Bosch Gmbh | Verfahren und Steuergerät zur abstandsmessenden Bildverarbeitung für eine Stereokameraeinrichtung für ein Fahrzeug und Stereokamerasystem mit einer Stereokameraeinrichtung und einem Steuergerät |
JP7293100B2 (ja) * | 2019-12-17 | 2023-06-19 | 日立Astemo株式会社 | カメラシステム |
US11250240B1 (en) | 2020-07-27 | 2022-02-15 | Pony Ai Inc. | Instance segmentation using sensor data having different dimensionalities |
US11686650B2 (en) * | 2020-12-31 | 2023-06-27 | Robert Bosch Gmbh | Dynamic spatiotemporal beamforming |
US11430459B2 (en) | 2020-12-31 | 2022-08-30 | Robert Bosch Gmbh | Self-calibration dynamic spatiotemporal beamforming system |
CN113298869B (zh) * | 2021-04-23 | 2023-08-04 | 南方电网数字电网科技(广东)有限公司 | 距离测定方法、装置、计算机设备和存储介质 |
US20230100507A1 (en) * | 2021-09-29 | 2023-03-30 | Canoo Technologies Inc. | Vanishing point determination, symmetry-based boundary refinement, and component detection for vehicle object detection or other applications |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348180A (ja) * | 1999-06-01 | 2000-12-15 | Fujitsu Ltd | 移動領域追跡方法及び装置及び記録媒体 |
JP2010072973A (ja) * | 2008-09-19 | 2010-04-02 | Hitachi Automotive Systems Ltd | 走行環境認識装置 |
JP2010271964A (ja) * | 2009-05-22 | 2010-12-02 | Fuji Heavy Ind Ltd | 道路形状認識装置 |
JP2011128756A (ja) * | 2009-12-16 | 2011-06-30 | Fuji Heavy Ind Ltd | 物体検出装置 |
WO2012017650A1 (ja) * | 2010-08-03 | 2012-02-09 | パナソニック株式会社 | 物体検出装置、物体検出方法及びプログラム |
JP2013109760A (ja) * | 2011-11-18 | 2013-06-06 | Ricoh Co Ltd | 対象検知方法及び対象検知システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0812072B2 (ja) * | 1990-06-13 | 1996-02-07 | 三菱電機株式会社 | 距離測定装置 |
JP4557041B2 (ja) * | 2008-04-18 | 2010-10-06 | 株式会社デンソー | 車両用画像処理装置 |
US9280711B2 (en) * | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
JP5588812B2 (ja) * | 2010-09-30 | 2014-09-10 | 日立オートモティブシステムズ株式会社 | 画像処理装置及びそれを用いた撮像装置 |
US8489287B2 (en) * | 2010-12-31 | 2013-07-16 | Automotive Research & Test Center | Vehicle roll over prevention safety driving system and method |
US10081308B2 (en) * | 2011-07-08 | 2018-09-25 | Bendix Commercial Vehicle Systems Llc | Image-based vehicle detection and distance measuring method and apparatus |
EP2759999B1 (en) * | 2011-09-21 | 2016-07-27 | Honda Motor Co., Ltd. | Apparatus for monitoring surroundings of vehicle |
-
2015
- 2015-04-17 JP JP2015084691A patent/JP6550881B2/ja active Active
- 2015-07-10 US US14/796,608 patent/US20160014406A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348180A (ja) * | 1999-06-01 | 2000-12-15 | Fujitsu Ltd | 移動領域追跡方法及び装置及び記録媒体 |
JP2010072973A (ja) * | 2008-09-19 | 2010-04-02 | Hitachi Automotive Systems Ltd | 走行環境認識装置 |
JP2010271964A (ja) * | 2009-05-22 | 2010-12-02 | Fuji Heavy Ind Ltd | 道路形状認識装置 |
JP2011128756A (ja) * | 2009-12-16 | 2011-06-30 | Fuji Heavy Ind Ltd | 物体検出装置 |
WO2012017650A1 (ja) * | 2010-08-03 | 2012-02-09 | パナソニック株式会社 | 物体検出装置、物体検出方法及びプログラム |
JP2013109760A (ja) * | 2011-11-18 | 2013-06-06 | Ricoh Co Ltd | 対象検知方法及び対象検知システム |
Non-Patent Citations (2)
Title |
---|
PAOLO LOMBARDI, 外2名: ""Unified stereovision for ground, road, and obstacle detection"", IEEE PROCEEDINGS. INTELLIGENT VEHICLES SYMPOSIUM, 2005, JPN6019010623, 8 June 2005 (2005-06-08), pages 783 - 788, XP010833892, ISSN: 0004003927, DOI: 10.1109/IVS.2005.1505200 * |
木村好克, 外4名: ""4.安全のための画像センサ技術"", 映像情報メディア学会誌, vol. 第61巻, 第12号, JPN6019010621, 1 December 2007 (2007-12-01), JP, pages 17 - 20, ISSN: 0004003926 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679388B2 (en) | 2016-03-14 | 2020-06-09 | Ricoh Company, Ltd. | Image processing apparatus, device control system, imaging apparatus, and recording medium |
WO2017159082A1 (ja) * | 2016-03-14 | 2017-09-21 | 株式会社リコー | 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム |
JPWO2017159082A1 (ja) * | 2016-03-14 | 2019-01-31 | 株式会社リコー | 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム |
WO2017158964A1 (ja) * | 2016-03-18 | 2017-09-21 | 株式会社リコー | 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法 |
JPWO2017158964A1 (ja) * | 2016-03-18 | 2018-09-13 | 株式会社リコー | 画像処理装置、移動体機器制御システム、画像処理用プログラム及び画像処理方法 |
US10810749B2 (en) | 2016-03-18 | 2020-10-20 | Ricoh Company, Ltd. | Image processing apparatus, moving body device control system, computer-readable medium, and image processing method |
JP2017207881A (ja) * | 2016-05-18 | 2017-11-24 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
JP2018045328A (ja) * | 2016-09-12 | 2018-03-22 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
JP6992356B2 (ja) | 2016-11-25 | 2022-01-13 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
JP2018092605A (ja) * | 2016-11-25 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
US11030761B2 (en) | 2016-11-30 | 2021-06-08 | Ricoh Company, Ltd. | Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product |
JP2018092603A (ja) * | 2016-11-30 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム |
JP2018092596A (ja) * | 2016-11-30 | 2018-06-14 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム |
JP7052265B2 (ja) | 2016-11-30 | 2022-04-12 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム |
KR20180109341A (ko) * | 2017-03-27 | 2018-10-08 | 삼성전자주식회사 | 이미지 내의 오브젝트를 트래킹하기 위한 방법 및 그 전자 장치 |
KR102391490B1 (ko) | 2017-03-27 | 2022-04-28 | 삼성전자주식회사 | 이미지 내의 오브젝트를 트래킹하기 위한 방법 및 그 전자 장치 |
EP4033471A4 (en) * | 2019-09-19 | 2023-10-18 | Kyocera Corporation | OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOVABLE BODY AND METHOD FOR OBJECT DETECTION |
WO2021205722A1 (ja) * | 2020-04-10 | 2021-10-14 | 日立Astemo株式会社 | 演算装置、演算方法 |
JP2021168029A (ja) * | 2020-04-10 | 2021-10-21 | 日立Astemo株式会社 | 演算装置、演算方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160014406A1 (en) | 2016-01-14 |
JP6550881B2 (ja) | 2019-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6550881B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6519262B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
US10984509B2 (en) | Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product | |
JP6340850B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6662388B2 (ja) | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム | |
JP6657789B2 (ja) | 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム | |
JP6274557B2 (ja) | 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム | |
JP6702340B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6705496B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム | |
JP6150164B2 (ja) | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム | |
JP6583527B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6705497B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体 | |
US10628960B2 (en) | Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium | |
JP2008304344A (ja) | 物標検出装置 | |
JP6972797B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム | |
JP6340849B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム | |
JP6753134B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190617 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6550881 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |