JP6587000B2 - 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム - Google Patents
画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP6587000B2 JP6587000B2 JP2017563752A JP2017563752A JP6587000B2 JP 6587000 B2 JP6587000 B2 JP 6587000B2 JP 2017563752 A JP2017563752 A JP 2017563752A JP 2017563752 A JP2017563752 A JP 2017563752A JP 6587000 B2 JP6587000 B2 JP 6587000B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- unit
- tracking
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 88
- 238000003384 imaging method Methods 0.000 title claims description 60
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000001514 detection method Methods 0.000 claims description 74
- 238000009826 distribution Methods 0.000 claims description 45
- 230000010354 integration Effects 0.000 claims description 41
- 238000000034 method Methods 0.000 description 117
- 230000008569 process Effects 0.000 description 101
- 230000000875 corresponding effect Effects 0.000 description 81
- 238000010586 diagram Methods 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 21
- 238000000605 extraction Methods 0.000 description 17
- 238000010191 image analysis Methods 0.000 description 17
- 238000000926 separation method Methods 0.000 description 9
- 238000002372 labelling Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000009499 grossing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/107—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Description
〈車載機器制御システムの構成〉
図1は、本発明の実施形態に係る移動体機器制御システムとしての車載機器制御システムの構成を示す図である。
図2は、撮像ユニット101及び画像解析ユニット102の構成を示す図である。
図4は、図2における処理ハードウェア部120及び画像解析ユニット102で実現される物体検出処理を行う機能ブロック図である。以下、本実施形態における物体検出処理について説明する。
《平行化画像生成処理》
輝度画像データに対して、まず、平行化画像生成部131で平行化画像生成処理が実行される。この平行化画像生成処理は、撮像部110a,110bにおける光学系の歪みや左右の撮像部110a,110bの相対的な位置関係から、各撮像部110a,110bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。これは、各画素での歪み量を、Δx=f(x,y)、Δy=g(x,y)という多項式を用いて計算し、その計算結果を用いて、各撮像部110a,110bから出力される輝度画像データ(基準画像と比較画像)の各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する4次多項式を用いる構成としてもよい。また、多項式を用いて各画素での歪み量を計算する代わりに、各画素での歪み量が予め設定されたテーブルを用いて決定する構成としてもよい。
このようにして平行化画像処理を行った後、次に、視差演算部121によって構成される視差画像生成部132において、視差画像データ(視差画像情報)を生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110a,110bのうちの一方の撮像部110aの輝度画像データを基準画像データとし、他方の撮像部110bの輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
視差画像生成処理を行ったら、次に画像解析ユニット102によって構成される視差補間部133において、視差画像補間処理を行う。
視差画像補間処理を行ったら、次に、Vマップ生成部134において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各視差画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示される。これを、X軸にd、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(d,y,f)を、視差ヒストグラム情報として生成する。本実施形態の視差ヒストグラム情報は、三次元座標情報(d,y,f)からなり、この三次元ヒストグラム情報をX−Yの2次元座標系に分布させたものを、Vマップ(視差ヒストグラムマップ、V-disparity map)と呼ぶ。
次に、本実施形態では、Vマップ生成部134が生成したVマップの情報(視差ヒストグラム情報)から、路面形状検出部135において、自車両100の前方路面の3次元形状を検出する路面形状検出処理が実行される。
次に、路面高さテーブル算出部136において、路面高さ(自車の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部135により生成されたVマップ上の近似直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車の真下に位置する路面部分をその面に平行となるように自車進行方向前方へ延長した仮想平面の自車進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部135から出力される近似直線を基準直線と比較することで、自車前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部135から出力される近似直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部136では、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。
《Uマップ生成処理》
次に、Uマップ生成部137は、Uマップ(U-disparity map)を生成するUマップ生成処理として、頻度Uマップ生成処理及び高さUマップ生成処理を実行する。
次に、リアルUマップ生成部138について説明する。リアルUマップ生成部138では、リアルUマップ(Real U-disparity map)(「分布データ」の一例)を生成するUマップ生成処理として、リアル頻度Uマップ生成処理及びリアル高さUマップ生成処理を実行する。
そのため、ラベリングによるオブジェクト検出を高速に行うことができる。
次に、孤立領域検出部139について説明する。図11は、孤立領域検出部139で行う孤立領域検出処理の流れを示すフローチャートである。孤立領域検出部139では、まずリアルUマップ生成部138で生成されたリアル頻度Uマップの情報の平滑化を行う(ステップS111)。
次に、視差画像の対応領域検出部140及びオブジェクト領域抽出部141について説明する。図12は、孤立領域検出部で検出された孤立領域が内接する矩形領域を設定したリアル頻度Uマップを示す図であり、図13は、図12における矩形領域に対応する走査範囲を設定した視差画像を示す図であり、図14は、図13における走査範囲を探索してオブジェクト領域を設定した視差画像を示す図である。
次に、オブジェクトタイプ分類部142について説明する。
同様に、オブジェクト領域抽出部141で抽出されるオブジェクト領域の幅(xomax−xomin)から、下記の式〔6〕より、そのオブジェクト領域に対応する画像領域に映し出されている識別対象物(オブジェクト)の実際の幅Woを計算できる。
また、当該オブジェクト領域に対応する画像領域に映し出されている識別対象物(オブジェクト)の奥行きDoは、当該オブジェクト領域に対応した孤立領域内の最大視差dmaxと最小視差dminから、下記の式〔7〕より計算することができる。
オブジェクトタイプ分類部142は、このようにして計算できるオブジェクト領域に対応するオブジェクトの高さ、幅、奥行きの情報から、そのオブジェクトタイプの分類を行う。図16に示す表は、オブジェクトタイプの分類を行うためのテーブルデータの一例を示すものである。これによれば、自車両前方に存在する識別対象物(オブジェクト)が、歩行者なのか、自転車なのか、小型車なのか、トラックなどか等を区別して認識することが可能となる。
次に、3次元位置決定部143について説明する。検出されたオブジェクト領域に対応するオブジェクトまでの距離や、視差画像の画像中心と視差画像上のオブジェクト領域の中心との画像上の距離も把握されることから、オブジェクトの3次元位置を決定することができる。
Yo=Z×(region_centerY−image_centerY)/f …式〔9〕
《オブジェクトデータリスト》
次に、オブジェクトトラッキング部144等が使用する、オブジェクトデータリスト146について説明する。オブジェクトデータリスト146は、例えば、オブジェクトデータリスト146により、一のフレームから検出された各オブジェクトを、それ以降の複数のフレームに渡って追跡するために使用される。
次に、オブジェクトトラッキング部144について説明する。オブジェクトトラッキング部144は、オブジェクトデータリスト146を用いて、以前(過去)の視差画像のフレームから検出されたオブジェクト(物体)をトラッキング(追跡)する処理を実行する。
追跡部1442は、オブジェクトデータリスト146の当該オブジェクトが、「Candidate」から「トラッキング」に移行するための所定の条件を満たすか判断する(ステップS1206)。
次に、図21を参照し、図19のステップS1106の、「トラッキング」状態のオブジェクトをトラッキングする処理について説明する。図21は、第1の実施形態に係るトラッキング処理の一例を示すフローチャートである。
上述の図21のステップS1305の統合条件の(2)では、今回のフレームにおける当該オブジェクトの予測位置に対応する領域内に、オブジェクト領域抽出部141により検出された複数のオブジェクトの領域が含まれていること。かつ、今回のフレームにおける当該オブジェクトの予測位置と、オブジェクト領域抽出部141により検出された複数のオブジェクトのリアルUマップ上の各実位置との間の実距離が、それぞれ所定の範囲(例えば1m)以内であること。
第1の実施形態では、図21のトラッキング処理において、ステップS1305で統合条件を満たす場合、複数のオブジェクトを統合してトラッキングする例について説明した。
次に、図27を参照し、図19のステップS1106の、「トラッキング」状態のオブジェクトをトラッキングする処理の一例について説明する。図27は、第2の実施形態に係るトラッキング処理の一例を示すフローチャートである。
次に、図29を参照し、ステップS2006における背景視差が存在するか否かを判定する処理について説明する。図29は、背景視差が存在するか否かを判定する処理の一例を示すフローチャートである。
第1の実施形態では、図21のトラッキング処理において、複数のオブジェクトを統合してトラッキングする例について説明した。
次に、図32を参照し、図19のステップS1106の、「トラッキング」状態のオブジェクトをトラッキングする処理の一例について説明する。図32は、第3の実施形態に係るトラッキング処理の一例を示すフローチャートである。
<変形例>
ステップS3006において、当該複数のオブジェクトのうち、自車両の進行方向の領域において比較的大きな重み付けした視差頻度が最も高い物体までの距離を、自車両から当該複数のオブジェクトの領域を包含する領域までの距離としてもよい。自車両の進行方向に存在しない電柱等の側物は、自車両の進行に影響を与えないためである。
第1の実施形態では、図21のトラッキング処理において、複数のオブジェクトを統合した後、ステップS1306で、当該統合した複数のオブジェクトを包含する領域についてのデータを記憶しておき、トラッキングする例について説明した。
次に、図34を参照し、図19のステップS1106の、「トラッキング」状態のオブジェクトをトラッキングする処理の一例について説明する。図34は、第4の実施形態に係るトラッキング処理の一例を示すフローチャートである。
距離は、実空間における2つのオブジェクト間の距離である。複数のオブジェクトを統合したオブジェクトについては、当該複数のオブジェクトについての距離の平均値を用いてもよい。領域の重なり率及び距離の両方を用いて重なり度合いを算出する場合、領域の重なり率及び距離のそれぞれに、所定の重み付けをし(所定の重み係数を乗算し)、合計してもよい。
第1の実施形態では、図21のトラッキング処理において、ステップS1305で、所定の統合条件を満たす場合に、複数のオブジェクトを統合してトラッキングする例について説明した。
次に、図35を参照し、図19のステップS1106の、「トラッキング」状態のオブジェクトをトラッキングする処理の一例について説明する。図35は、第5の実施形態に係るトラッキング処理の一例を示すフローチャートである。
従来、自車両の前方の物体をトラッキングしている際、例えば、トラッキングしている物体が、背面が白や銀色で、扉等により縦方向に黒い模様が複数入っているトラックの場合、黒い模様に沿って分割された、複数の物体として誤検出される場合がある。また、トラッキングしている物体が、例えば暗いトンネルに入って左右からの照明光を受け、左右の側面だけが明るい場合や、トラッキングしている物体が、夜間にヘッドライトを点灯させた際などにも、左右に分割された、複数の物体として誤検出される場合がある。
100 自車両
101 撮像ユニット
102 画像解析ユニット(「画像処理装置」の一例)
103 表示モニタ
104 車両走行制御ユニット(「制御部」の一例)
110a,110b 撮像部
120 処理ハードウェア部
131 平行化画像生成部
132 視差画像生成部
134 Vマップ生成部
135 路面形状検出部
136 路面高さテーブル算出部
137 Uマップ生成部
138 リアルUマップ生成部(「生成部」の一例)
139 孤立領域検出部(「検出部」の一例)
140 対応領域検出部
141 オブジェクト領域抽出部
144 オブジェクトトラッキング部
1441 位置予測部
1442 追跡部
146 オブジェクトデータリスト
2 撮像装置
Claims (16)
- 複数の撮影画像における物体の距離に応じた画素値を有する距離画像に基づいて、前記距離画像の水平方向の距離値の頻度分布を示す分布データを生成する生成部と、
距離画像に対する前記分布データに基づいて、物体を検出する検出部と、
以前の複数のフレームの距離画像に対する前記分布データに基づいて、今回のフレームにおける前記物体の予測位置を予測する位置予測部と、
前記予測位置に基づいて、前記検出部にて検出された複数の物体を統合し、当該統合した物体を、以降のフレームで追跡する追跡部と、
を備える画像処理装置。 - 前記位置予測部は、前記統合された物体の位置に基づいて、次回フレームにおける前記統合された物体の予測位置を予測する、
請求項1記載の画像処理装置。 - 前記追跡部は、前記複数の物体の間の距離、及び、前記複数の物体の自移動体に対する相対速度に基づいて、前記複数の物体を統合するか否かを判断する、
請求項1または2記載の画像処理装置。 - 前記追跡部は、前記予測位置における前記物体の領域に、前記複数の物体の領域がそれぞれ含まれるか否か、及び、前記予測位置と、前記複数の物体との前記分布データにおけるそれぞれの距離に基づいて、前記複数の物体を統合するか否かを判断する、
請求項1乃至3のいずれか一項に記載の画像処理装置。 - 前記追跡部は、前記予測位置と、今回のフレームにおける前記物体の位置との距離、または、前記予測位置に対する今回のフレームにおける領域と、今回のフレームにおける前記物体の領域とが重複する割合に基づいて、前記統合した物体を追跡する、
請求項1乃至4のいずれか一項に記載の画像処理装置。 - 前記位置予測部は、前回の距離画像に対する前記分布データにおける前記物体の位置と、前記物体の自移動体に対する相対速度に基づいて、複数の予測位置を予測し、
前記追跡部は、前記複数の予測位置に基づいて、前記検出部に検出された複数の物体を統合し、当該統合した物体を、以降のフレームで追跡する、
請求項1乃至5のいずれか一項に記載の画像処理装置。 - 前記追跡部は、前記複数の物体を統合した領域内に、前記複数の物体より所定距離以上遠方である背景の領域が存在する場合には、前記複数の物体の各々を、以降のフレームで追跡する
請求項1乃至6のいずれか一項に記載の画像処理装置。 - 前記追跡部は、前記複数の物体を統合した物体を追跡する場合、前記複数の物体のうち距離情報の数が最も多い物体までの距離を、前記統合した物体の距離とする
請求項1乃至7のいずれか一項に記載の画像処理装置。 - 前記追跡部は、今回のフレームにおいて検出された複数の物体の領域について、以前のフレームにおける前記統合した物体の領域との重なり度合いよりも、前記以前のフレームにおける前記複数の物体の各々の領域との重なり度合いの方が高い場合、前記複数の物体の各々を、以降のフレームで追跡する
請求項1乃至8のいずれか一項に記載の画像処理装置。 - 前記重なり度合いは、複数の領域の重なり率、及び複数の領域間の距離の少なくとも一方に基づく、
請求項9に記載の画像処理装置。 - 前記追跡部は、自移動体が第1の閾値以上の速度で動いておりかつ前記物体が第2の閾値以上の速度で動いているという速度の条件に合致しない場合は、第1の統合条件に従って前記複数の物体の統合を行い、前記速度の条件に合致する場合は、前記第1の統合条件よりも統合され易い第2の統合条件に従って前記複数の物体の統合を行う、
請求項1乃至10のいずれか一項に記載の画像処理装置。 - 複数の撮像部と、
前記複数の撮像部により得られた複数の撮影画像から、前記複数の撮影画像における物体の距離に応じた画素値を有する距離画像を生成する距離画像生成部と、
複数の撮影画像における物体の距離に応じた画素値を有する距離画像に基づいて、前記距離画像の水平方向の距離値の頻度分布を示す分布データを生成する生成部と、
距離画像に対する前記分布データに基づいて、物体を検出する検出部と、
以前の複数のフレームの距離画像に対する前記分布データに基づいて、今回のフレームの距離画像に対する前記分布データにおける前記物体の予測位置を予測する位置予測部と、
前記予測位置に基づいて、前記検出部にて検出された複数の物体を統合し、当該統合した物体を、以降のフレームの距離画像で追跡する追跡部と、
を備える撮像装置。 - 移動体に搭載され、前記移動体の前方を撮像する複数の撮像部と、
前記複数の撮像部により得られた複数の撮影画像から、前記複数の撮影画像における物体の距離に応じた画素値を有する距離画像を生成する距離画像生成部と、
複数の撮影画像における物体の距離に応じた画素値を有する距離画像に基づいて、前記距離画像の水平方向の距離値の頻度分布を示す分布データを生成する生成部と、
距離画像に対する前記分布データに基づいて、物体を検出する検出部と、
以前の複数のフレームの距離画像に対する前記分布データに基づいて、今回のフレームの距離画像に対する前記分布データにおける前記物体の予測位置を予測する位置予測部と、
前記予測位置に基づいて、前記検出部にて検出された複数の物体を統合し、当該統合した物体を、以降のフレームの距離画像で追跡する追跡部と、
前記追跡部による追跡結果に基づいて、前記移動体の制御を行う制御部と、
を備える移動体機器制御システム。 - 前記複数の撮像部が搭載され、
請求項13に記載の移動体機器制御システムが有する前記制御部により制御される移動体。 - 画像処理装置が、
複数の撮影画像における物体の距離に応じた画素値を有する距離画像に基づいて、前記距離画像の水平方向の距離値の頻度分布を示す分布データを生成するステップと、
距離画像に対する前記分布データに基づいて、物体を検出するステップと、
以前の複数のフレームの距離画像に対する前記分布データに基づいて、今回のフレームの距離画像に対する前記分布データにおける前記物体の予測位置を予測するステップと、
前記予測位置に基づいて、前記検出するステップにて検出された複数の物体を統合し、当該統合した物体を、以降のフレームの距離画像で追跡するステップと、
を実行する、画像処理方法。 - 画像処理装置に、
複数の撮影画像における物体の距離に応じた画素値を有する距離画像に基づいて、前記距離画像の水平方向の距離値の頻度分布を示す分布データを生成するステップと、
距離画像に対する前記分布データに基づいて、物体を検出するステップと、
以前の複数のフレームの距離画像に対する前記分布データに基づいて、今回のフレームの距離画像に対する前記分布データにおける前記物体の予測位置を予測するステップと、
前記予測位置に基づいて、前記検出するステップにて検出された複数の物体を統合し、当該統合した物体を、以降のフレームの距離画像で追跡するステップと、
を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016014595 | 2016-01-28 | ||
JP2016014595 | 2016-01-28 | ||
PCT/JP2017/000039 WO2017130639A1 (ja) | 2016-01-28 | 2017-01-04 | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017130639A1 JPWO2017130639A1 (ja) | 2018-11-08 |
JP6587000B2 true JP6587000B2 (ja) | 2019-10-09 |
Family
ID=59397952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017563752A Active JP6587000B2 (ja) | 2016-01-28 | 2017-01-04 | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10984509B2 (ja) |
EP (1) | EP3410415B1 (ja) |
JP (1) | JP6587000B2 (ja) |
WO (1) | WO2017130639A1 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6660751B2 (ja) * | 2016-02-04 | 2020-03-11 | 日立オートモティブシステムズ株式会社 | 撮像装置 |
WO2017221644A1 (ja) * | 2016-06-22 | 2017-12-28 | ソニー株式会社 | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム |
JP6589926B2 (ja) * | 2017-04-07 | 2019-10-16 | トヨタ自動車株式会社 | 物体検出装置 |
WO2019147569A1 (en) * | 2018-01-23 | 2019-08-01 | Board Of Trustees Of Michigan State University | Visual sensor fusion and data sharing across connected vehicles for active safety |
CN111656396B (zh) * | 2018-02-02 | 2024-01-09 | 三菱电机株式会社 | 落下物检测装置、车载系统、车辆及计算机可读取的记录介质 |
JP7106332B2 (ja) * | 2018-04-17 | 2022-07-26 | 日立Astemo株式会社 | 外界認識装置 |
FR3080701B1 (fr) * | 2018-04-26 | 2020-05-15 | Transdev Group | Systeme de surveillance de la circulation routiere avec affichage d'une image virtuelle d'objets mobiles evoluant dans une portion d'infrastructure routiere |
JP7199545B2 (ja) | 2018-07-20 | 2023-01-05 | メイ モビリティー,インコーポレイテッド | 自律エージェントによる行動方針選択のための多視点システムおよび方法 |
CN109143242B (zh) * | 2018-09-07 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 障碍物绝对速度估计方法、系统、计算机设备和存储介质 |
JP7064144B2 (ja) * | 2018-09-28 | 2022-05-10 | 日本電信電話株式会社 | 情報統合方法、情報統合装置、及び情報統合プログラム |
US10957023B2 (en) * | 2018-10-05 | 2021-03-23 | Magna Electronics Inc. | Vehicular vision system with reduced windshield blackout opening |
JP7353752B2 (ja) * | 2018-12-06 | 2023-10-02 | キヤノン株式会社 | 光電変換装置及び撮像システム |
CN111489375B (zh) * | 2019-01-28 | 2023-09-01 | 杭州海康威视系统技术有限公司 | 一种信息检测方法、装置及设备 |
JP7028814B2 (ja) * | 2019-02-07 | 2022-03-02 | ファナック株式会社 | 外形認識装置、外形認識システム及び外形認識方法 |
US10969470B2 (en) | 2019-02-15 | 2021-04-06 | May Mobility, Inc. | Systems and methods for intelligently calibrating infrastructure devices using onboard sensors of an autonomous agent |
CN111368611B (zh) * | 2019-02-28 | 2024-04-05 | 杭州海康威视系统技术有限公司 | 车辆跟踪方法、装置、系统及服务器 |
US11222218B2 (en) * | 2019-03-11 | 2022-01-11 | Subaru Corporation | Vehicle exterior environment detection apparatus |
JP2020190438A (ja) | 2019-05-20 | 2020-11-26 | 株式会社リコー | 計測装置および計測システム |
CN112312108B (zh) | 2019-08-02 | 2022-09-13 | 浙江宇视科技有限公司 | 一种白平衡的异常确定方法、装置、存储介质及电子设备 |
JP7239511B2 (ja) * | 2020-02-26 | 2023-03-14 | 株式会社日立製作所 | 画像予測システム |
JP7514139B2 (ja) | 2020-03-06 | 2024-07-10 | 株式会社Subaru | 車外環境認識装置 |
US11842552B2 (en) * | 2020-03-06 | 2023-12-12 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
JP7359735B2 (ja) * | 2020-04-06 | 2023-10-11 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
WO2022006418A1 (en) | 2020-07-01 | 2022-01-06 | May Mobility, Inc. | Method and system for dynamically curating autonomous vehicle policies |
EP4260009A1 (en) | 2020-12-14 | 2023-10-18 | May Mobility, Inc. | Autonomous vehicle safety platform system and method |
EP4264181A1 (en) * | 2020-12-17 | 2023-10-25 | May Mobility, Inc. | Method and system for dynamically updating an environmental representation of an autonomous agent |
CN113030107B (zh) * | 2021-03-08 | 2024-09-10 | 深圳中科飞测科技股份有限公司 | 检测方法、检测系统及非易失性计算机可读存储介质 |
KR102264152B1 (ko) * | 2021-03-10 | 2021-06-14 | (주)넥스트박스 | 첨단 센서 데이터와 카메라 영상을 gtl 하는 방법 및 시스템 |
CN112950726B (zh) * | 2021-03-25 | 2022-11-11 | 深圳市商汤科技有限公司 | 摄像头朝向标定方法及相关产品 |
US11472436B1 (en) | 2021-04-02 | 2022-10-18 | May Mobility, Inc | Method and system for operating an autonomous agent with incomplete environmental information |
WO2022256249A1 (en) | 2021-06-02 | 2022-12-08 | May Mobility, Inc. | Method and system for remote assistance of an autonomous agent |
CN113706866B (zh) * | 2021-08-27 | 2023-08-08 | 中国电信股份有限公司 | 道路堵塞监测方法及装置、电子设备、存储介质 |
US12012123B2 (en) | 2021-12-01 | 2024-06-18 | May Mobility, Inc. | Method and system for impact-based operation of an autonomous agent |
WO2023154568A1 (en) | 2022-02-14 | 2023-08-17 | May Mobility, Inc. | Method and system for conditional operation of an autonomous agent |
US12027053B1 (en) | 2022-12-13 | 2024-07-02 | May Mobility, Inc. | Method and system for assessing and mitigating risks encounterable by an autonomous vehicle |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764803A (en) * | 1996-04-03 | 1998-06-09 | Lucent Technologies Inc. | Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences |
GB2377333A (en) * | 2001-07-07 | 2003-01-08 | Sharp Kk | Segmenting a pixellated image into foreground and background regions |
US7657059B2 (en) * | 2003-08-08 | 2010-02-02 | Lockheed Martin Corporation | Method and apparatus for tracking an object |
US7171024B2 (en) * | 2003-12-01 | 2007-01-30 | Brickstream Corporation | Systems and methods for determining if objects are in a queue |
WO2006013689A1 (ja) * | 2004-08-06 | 2006-02-09 | Murata Manufacturing Co., Ltd. | レーダ |
KR100750749B1 (ko) * | 2005-11-29 | 2007-08-30 | 대한민국 | Gis를 이용한 식물자원 수량화 방법 |
JP5164351B2 (ja) * | 2006-09-07 | 2013-03-21 | 富士重工業株式会社 | 物体検出装置および物体検出方法 |
US8588464B2 (en) * | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
JP4856612B2 (ja) | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
GB2458927B (en) * | 2008-04-02 | 2012-11-14 | Eykona Technologies Ltd | 3D Imaging system |
JP5374078B2 (ja) * | 2008-06-16 | 2013-12-25 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8267781B2 (en) * | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
JP5316805B2 (ja) | 2009-03-16 | 2013-10-16 | 株式会社リコー | 車載カメラ装置の画像調整装置及び車載カメラ装置 |
JP5376313B2 (ja) | 2009-09-03 | 2013-12-25 | 株式会社リコー | 画像処理装置及び画像撮像装置 |
JP5411671B2 (ja) * | 2009-11-27 | 2014-02-12 | 富士重工業株式会社 | 物体検出装置および運転支援システム |
JP5664152B2 (ja) | 2009-12-25 | 2015-02-04 | 株式会社リコー | 撮像装置、車載用撮像システム及び物体識別装置 |
JP2011175477A (ja) * | 2010-02-24 | 2011-09-08 | Canon Inc | 3次元計測装置、処理方法及びプログラム |
US8472669B2 (en) * | 2010-03-10 | 2013-06-25 | Texas Instruments Incorporated | Object localization using tracked object trajectories |
US8532336B2 (en) * | 2010-08-17 | 2013-09-10 | International Business Machines Corporation | Multi-mode video event indexing |
JP2012058780A (ja) * | 2010-09-03 | 2012-03-22 | Toyota Motor Corp | 環境マップ作成装置及び方法、行動予測装置及び方法 |
US8494301B2 (en) * | 2010-09-16 | 2013-07-23 | Eastman Kodak Company | Refocusing images using scene captured images |
JP5316572B2 (ja) * | 2011-03-28 | 2013-10-16 | トヨタ自動車株式会社 | 物体認識装置 |
US9329269B2 (en) * | 2012-03-15 | 2016-05-03 | GM Global Technology Operations LLC | Method for registration of range images from multiple LiDARS |
US8824733B2 (en) * | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
US8781721B2 (en) * | 2012-06-06 | 2014-07-15 | Google Inc. | Obstacle evaluation technique |
US9465997B2 (en) * | 2012-09-26 | 2016-10-11 | General Electric Company | System and method for detection and tracking of moving objects |
US9097800B1 (en) * | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
JP2014115978A (ja) | 2012-11-19 | 2014-06-26 | Ricoh Co Ltd | 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体 |
TWI503618B (zh) * | 2012-12-27 | 2015-10-11 | Ind Tech Res Inst | 深度影像擷取裝置、其校正方法與量測方法 |
US9165373B2 (en) * | 2013-03-11 | 2015-10-20 | Adobe Systems Incorporated | Statistics of nearest neighbor fields |
JP6398347B2 (ja) | 2013-08-15 | 2018-10-03 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
EP3047641A4 (en) * | 2013-09-16 | 2017-03-08 | Intel Corporation | Camera and light source synchronization for object tracking |
JP6417886B2 (ja) | 2013-12-12 | 2018-11-07 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
JP6459659B2 (ja) | 2014-03-18 | 2019-01-30 | 株式会社リコー | 画像処理装置、画像処理方法、運転支援システム、プログラム |
US9792491B1 (en) * | 2014-03-19 | 2017-10-17 | Amazon Technologies, Inc. | Approaches for object tracking |
JP6519262B2 (ja) * | 2014-04-10 | 2019-05-29 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
JP2016001464A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム、及び、処理方法 |
JP2016001170A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理プログラム、及び、処理方法 |
JP6417729B2 (ja) | 2014-06-09 | 2018-11-07 | 株式会社リコー | 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム |
JP6550881B2 (ja) * | 2014-07-14 | 2019-07-31 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
US20160019429A1 (en) | 2014-07-17 | 2016-01-21 | Tomoko Ishigaki | Image processing apparatus, solid object detection method, solid object detection program, and moving object control system |
CN105335955B (zh) * | 2014-07-17 | 2018-04-10 | 株式会社理光 | 对象检测方法和对象检测装置 |
US10664705B2 (en) * | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
US9378554B2 (en) * | 2014-10-09 | 2016-06-28 | Caterpillar Inc. | Real-time range map generation |
US9726604B2 (en) | 2014-11-12 | 2017-08-08 | Ricoh Company, Ltd. | Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices |
US10079827B2 (en) | 2015-03-16 | 2018-09-18 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and information processing system |
US10643101B2 (en) * | 2015-07-09 | 2020-05-05 | Texas Instruments Incorporated | Window grouping and tracking for fast object detection |
JP6534609B2 (ja) * | 2015-12-04 | 2019-06-26 | クラリオン株式会社 | 追跡装置 |
US20180047173A1 (en) * | 2016-08-12 | 2018-02-15 | Qualcomm Incorporated | Methods and systems of performing content-adaptive object tracking in video analytics |
US10992847B2 (en) * | 2017-05-25 | 2021-04-27 | Eys3D Microelectronics, Co. | Image device for generating a 360 degree depth map |
US10395144B2 (en) * | 2017-07-24 | 2019-08-27 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
-
2017
- 2017-01-04 WO PCT/JP2017/000039 patent/WO2017130639A1/ja active Application Filing
- 2017-01-04 EP EP17743873.6A patent/EP3410415B1/en active Active
- 2017-01-04 JP JP2017563752A patent/JP6587000B2/ja active Active
-
2018
- 2018-07-25 US US16/044,983 patent/US10984509B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10984509B2 (en) | 2021-04-20 |
JPWO2017130639A1 (ja) | 2018-11-08 |
EP3410415A4 (en) | 2018-12-05 |
US20180330481A1 (en) | 2018-11-15 |
WO2017130639A1 (ja) | 2017-08-03 |
EP3410415B1 (en) | 2020-11-18 |
EP3410415A1 (en) | 2018-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6587000B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6657789B2 (ja) | 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム | |
JP6702340B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6705496B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム | |
JP6662388B2 (ja) | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム | |
JP6583527B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
WO2017145634A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP2017162116A (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6972797B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム | |
JPWO2017154389A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JPWO2017159056A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6812701B2 (ja) | 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP2017211791A (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP2018088234A (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20180720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190826 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6587000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |