JP7179687B2 - Obstacle detector - Google Patents
Obstacle detector Download PDFInfo
- Publication number
- JP7179687B2 JP7179687B2 JP2019112244A JP2019112244A JP7179687B2 JP 7179687 B2 JP7179687 B2 JP 7179687B2 JP 2019112244 A JP2019112244 A JP 2019112244A JP 2019112244 A JP2019112244 A JP 2019112244A JP 7179687 B2 JP7179687 B2 JP 7179687B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- dimensional
- noise
- points
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本実施形態は、障害物検知装置に関する。 This embodiment relates to an obstacle detection device.
近年、例えば、ステレオカメラを車両などの移動体に搭載し、このカメラから一定間隔で出力される画像に基づいて障害物を検出し、当該障害物との接触を回避するように車両の走行に係る自動制御を行って運転の支援をするようなシステム(安全運転システム)が実用化されつつある。 In recent years, for example, a stereo camera is mounted on a moving body such as a vehicle, and an obstacle is detected based on the images output from the camera at regular intervals, and the vehicle is controlled to avoid contact with the obstacle. A system (safe driving system) that assists driving by performing such automatic control is being put into practical use.
このような安全運転システムを用いて移動体の制御を行う場合、障害物を精度よく検出することが重要となる。 Accurate detection of obstacles is important when controlling a moving object using such a safe driving system.
本実施形態は、障害物を精度よく検出することができる、障害物検知装置を提供することを目的とする。 An object of the present embodiment is to provide an obstacle detection device that can accurately detect an obstacle.
本実施形態の障害物検知装置は、移動体に設けられたセンサにより得られる撮影画像に基づき、前記移動体外部に存在する障害物を検知する障害物検知装置であって、前記撮影画像から複数の特徴点を検出しそれぞれの前記特徴点について三次元点の位置である三次元座標を推定する三次元点検出部と、検出された複数の前記三次元点からなる三次元点群を蓄積する三次元点群蓄積部と、前記三次元点群から前記三次元座標が誤推定されている前記三次元点をノイズ点として検出し除去するノイズ点除去部と、を有する。
前記ノイズ点除去部は、一の前記三次元点をノイズ候補点として抽出し、前記三次元点群を前記撮影画像に投影した際に、前記撮影画像において前記ノイズ候補点の投影位置を中心とする所定の領域内に投影された一つ以上の前記三次元点である判定対象三次元点を抽出し、前記ノイズ候補点の前記センサからの距離と、前記判定対象三次元点の前記センサからの平均距離とを比較し、前記ノイズ候補点がノイズ点であるか否かを判定する。
An obstacle detection device according to the present embodiment is an obstacle detection device that detects obstacles existing outside a moving body based on a captured image obtained by a sensor provided on the moving body. a three-dimensional point detection unit for detecting the feature points and estimating the three-dimensional coordinates, which are the positions of the three-dimensional points, for each of the feature points; A 3D point cloud storage unit and a noise point removal unit that detects and removes the 3D points whose 3D coordinates are erroneously estimated from the 3D point cloud as noise points.
The noise point removal unit extracts one of the three-dimensional points as a noise candidate point, and when projecting the three-dimensional point group onto the captured image, the projection position of the noise candidate point is the center of the captured image. a three-dimensional point to be determined, which is one or more of the three-dimensional points projected in a predetermined area where the is compared with the average distance of , and it is determined whether or not the noise candidate point is a noise point.
以下、図面を参照して実施形態を説明する。
(第1の実施形態)
図1は、本実施形態に係わる障害物検知装置を搭載する移動体100の一例を示す図である。
Embodiments will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing an example of a moving
移動体100は、画像処理装置10と、出力部100Aと、センサ100Bと、動力制御部100Gと、動力部100Hと、を備える。
The moving
移動体100は、移動可能な物体である。移動体100は、例えば、車両(自動二輪車、自動四輪車、自転車)、台車、ロボット、船舶、飛翔体(飛行機、無人航空機(UAV:Unmanned Aerial Vehicle)など)である。移動体100は、例えば、人による運転操作を介して走行する移動体や、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体である。自律走行可能な移動体は、例えば、自動運転車両である。本実施形態の移動体100は、自律走行可能であり、かつ、人による運転操作も可能な車両を一例として説明する。
A
出力部100Aは、各種情報を出力する。例えば出力部100Aは、各種処理による出力情報を出力する。
The
出力部100Aは、例えば、出力情報を送信する通信機能、出力情報を表示する表示機能、出力情報を示す音を出力する音出力機能、などを備える。例えば、出力部100Aは、通信部100Dと、ディスプレイ100Eと、スピーカ100Fと、を含む。
The
通信部100Dは、外部装置と通信する。通信部100Dは、VICS(登録商標)通信回路やダイナミックマップ通信回路である。通信部100Dは、出力情報を外部装置へ送信する。また、通信部100Dは、道路情報などを外部装置から受信する。道路情報は、信号、標識、周囲の建物、各車線の道幅、レーン中心線などである。道路情報は、画像処理装置10内に設けたRAM、ROMといったメモリ10b内に記憶されても、移動体内に別に設けたメモリ内に記憶してもよい。なお、メモリ10bは、後述する図3における画像処理装置10の説明において、具体的な構成を詳述する。
The
ディスプレイ100Eは、出力情報を表示する。ディスプレイ100Eは、例えば、公知のLCD(Liquid Crystal Display)や投影装置やライトなどである。スピーカ100Fは、出力情報を示す音を出力する。
The
センサ100Bは、移動体100の走行環境を取得するセンサである。走行環境は、例えば、移動体100の観測情報や、移動体100の周辺情報である。センサ100Bは、例えば、外界センサや内界センサである。
The
内界センサは、観測情報を観測するセンサである。観測情報は、例えば、移動体100の加速度、移動体100の速度、移動体100の角速度(ヨー軸角速度)を含む。
An internal sensor is a sensor that observes observation information. The observation information includes, for example, the acceleration of the
内界センサは、例えば、慣性計測装置(IMU:Inertial Measurement Unit)、加速度センサ、速度センサ、ロータリエンコーダ、ヨーレートセンサ、などである。IMUは、移動体100の三軸加速度および三軸角速度を含む観測情報を観測する。
The internal sensor is, for example, an inertial measurement unit (IMU: Inertial Measurement Unit), an acceleration sensor, a speed sensor, a rotary encoder, a yaw rate sensor, or the like. The IMU observes observation information including triaxial acceleration and triaxial angular velocity of the moving
外界センサは、移動体100の周辺情報を観測する。外界センサは、移動体100に搭載されていてもよいし、該移動体100の外部(例えば、他の移動体や外部装置など)に搭載されていてもよい。
The external sensor observes surrounding information of the
周辺情報は、移動体100の周辺の状況を示す情報である。移動体100の周辺とは、該移動体100から予め定めた範囲内の領域である。この範囲は、外界センサの観測可能な範囲である。この範囲は、予め設定すればよい。
Peripheral information is information indicating the surrounding situation of the
周辺情報は、例えば、移動体100の周辺の撮影画像および距離情報などである。なお、周辺情報は、移動体100の位置情報を含んでいてもよい。撮影画像は、撮影によって得られる撮影画像データである(以下、単に、撮影画像と称する場合がある)。距離情報は、移動体100から対象までの距離を示す情報である。対象は、外界における、外界センサによって観測可能な箇所である。位置情報は、相対位置であってもよいし、絶対位置であってもよい。
Peripheral information is, for example, a photographed image and distance information of the periphery of the
外界センサは、例えば、撮影によって撮影画像を得る撮影装置(カメラ)、距離センサ(ミリ波レーダ、レーザセンサ、距離画像センサ)、位置センサ(GNSS(Global Navigation Satellite System)、GPS(Global Positioning System)、無線通信装置)などである。 External sensors include, for example, a photographing device (camera) that obtains a photographed image by photographing, a distance sensor (millimeter wave radar, laser sensor, distance image sensor), a position sensor (GNSS (Global Navigation Satellite System), GPS (Global Positioning System) , wireless communication device), etc.
撮影画像は、画素ごとに画素値を規定したデジタル画像データや、画素毎にセンサ100Bからの距離を規定したデプスマップ(距離画像)などである。レーザセンサは、例えば、水平面に対して平行に設置された二次元LIDAR(Laser Imaging Detection and Ranging)センサや、三次元LIDARセンサである。
The captured image is digital image data that defines the pixel value for each pixel, a depth map (distance image) that defines the distance from the
動力制御部100Gは、動力部100Hを制御する。動力部100Hは、移動体100に搭載された、駆動するデバイスである。動力部100Hは、例えば、エンジン、モータ、車輪、などである。
The
動力部100Hは、動力制御部100Gの制御によって駆動する。本実施形態の移動体100は、自律走行可能であるので、動力制御部100Gは、画像処理装置10で生成された出力情報や、センサ100Bから得られた情報などに基づいて、周辺の状況を判断し、アクセル量、ブレーキ量、操舵角などの制御を行う。すなわち、移動体100の前方に検出された障害物が移動体100に衝突する可能性がある場合には、動力部100Hを制御して、移動体100と障害物との接触を回避させる。
The
次に、移動体100の電気的構成について詳細に説明する。図2は、本実施形態に係わる障害物検知装置を含む、移動体100の構成の一例を示すブロック図である。
Next, the electrical configuration of the moving
移動体100は、画像処理装置10と、出力部100Aと、センサ100Bと、動力制御部100Gと、動力部100Hと、を備える。出力部100Aは、上述したように、通信部100Dと、ディスプレイ100Eと、スピーカ100Fと、を含む。本実施形態の障害物検知装置1は、画像処理装置10を含んで構成される。
The moving
画像処理装置10、出力部100A、センサ100B、および動力制御部100Gは、バス100Iを介して接続されている。動力部100Hは、動力制御部100Gに接続されている。
なお、出力部100A(通信部100D、ディスプレイ100E、スピーカ100F)、センサ100B、および動力制御部100G、の少なくとも1つは、有線または無線で画像処理装置10に接続すればよい。また、出力部100A(通信部100D、ディスプレイ100E、スピーカ100F)、センサ100B、および動力制御部100Gの少なくとも1つと、画像処理装置10とを、ネットワークを介して接続してもよい。
At least one of the
図3は、移動体100に搭載された画像処理装置10の一例を示すブロック図である。画像処理装置10は、I/F10c、メモリ10b、プロセッサ10aを含む。
FIG. 3 is a block diagram showing an example of the
I/F10cは、他のシステムとのネットワーク(N/W)等に接続されている。また、I/F10cは、通信部100Dとの間の情報の送受信を司る。I/F10cを介して、人などの認識された対象の情報、認識された対象までの距離の情報が出力される。
The I/
メモリ10bは、各種データを記憶する。メモリ10bは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、メモリ10bは、画像処理装置10の外部に設けてもよい。ROMは、プロセッサ10aによって実行されるプログラムや必要なデータを保持する。RAMは、プロセッサ10aの作業領域として機能する。また、メモリ10bは、移動体100の外部に設けてもよい。例えば、メモリ10bを、クラウド上に設置されたサーバ装置に配置してもよい。
The
また、メモリ10bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、メモリ10bを、複数の記憶媒体から構成してもよい。
Also, the
プロセッサ10aにおける各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ10bへ記憶されている。プロセッサ10aは、プログラムをメモリ10bから読出、実行することで、各プログラムに対応する機能部を実現するプロセッサである。
Each processing function of the
なお、各機能の各々を実現するための独立した複数のプロセッサを組み合わせて処理回路10eを構成してもよい。この場合、各プロセッサがプログラムを実行することにより各機能を実現する。また、各処理機能がプログラムとして構成され、1つの処理回路10eが各プログラムを実行してもよいし、専用回路として画像処理アクセラレータ10dを設け、特定の機能が独立したプログラム実行回路に実装してもよい。
Note that the
プロセッサ10aは、メモリ10bに保存されたプログラムを読み出し実行することで機能を実現する。なお、メモリ10bにプログラムを保存する代わりに、プロセッサをFPGAなどで構成し、回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
The
図4は、画像処理装置10の構成の一例を示す概略ブロック図である。図4には、障害物検知装置に係わる構成のみを図示している。画像処理装置10は、画像処理部11と、障害物特定部12とから構成されている。
FIG. 4 is a schematic block diagram showing an example of the configuration of the
画像処理部11は、センサ100Bに含まれているカメラに関し、3次元空間での姿勢(以下、カメラ姿勢と示す)を推定する。また、カメラ前方の障害物を3次元点群として抽出する。画像処理部11は、画像処理制御部111と、カメラ姿勢推定部112と、三次元点群検出部113と、三次元点群蓄積部114と、ノイズ点除去部115とを有して構成される。
The
障害物特定部12は、画像処理部11によって推定されたカメラ姿勢と、抽出された三次元点群に基づき、カメラ前方にある障害物を特定する。
The
画像処理制御部111は、カメラ姿勢を推定して三次元点群を抽出するよう、画像処理部11の他の構成要素の動作を制御する。
The image
カメラ姿勢推定部112は、センサ100Bに含まれるカメラから、時系列で撮影画像を取得する。時系列の撮影画像は一定時間間隔で入力される。以下の説明において、撮影画像を入力した時刻を、入力した順に0、1、2、…、t-1、t、t+1、…のように番号で表す。また、以下の説明において、カメラから取得した撮影画像を入力画像と示し、時刻tの入力画像をフレームtと呼ぶ。カメラ姿勢推定部112は、取得した時系列の撮影画像を解析し、SfM(Structure from Motion)などの手法を用いて、カメラ姿勢を推定する。
The camera
三次元点検出部としての三次元点群検出部113は、入力画像から特徴点を検出し、当該特徴点が実際に存在する位置の三次元座標を算出する。以下、特徴点が実際に存在すると推定される点を三次元点と示し、三次元点の位置を三次元座標と示す。三次元点群検出部113における、特徴点から三次元座標を算出する方法について説明する。まず、三次元点群検出部113は、例えば、sobelフィルタなどを用いて、入力画像(フレームt)中に存在する物体等の境界(エッジ)を検出し、特徴点とする。なお、特徴点の検出は、GFTT(Good Features To Track)など、他の手法やアルゴリズムを用いて行ってもよい。
A three-dimensional point
次に、三次元点群検出部113は、現在のフレーム(フレームt)において検出した特徴点と、過去のフレーム(例えば、フレームt-1)において検出した特徴点との対応付けを行い、対応点ペアを特定する。すなわち、対応点ペアとは、過去フレームと現在フレームの双方に存在する、同一構造物の同一部分について検出された特徴点のペアである。対応点ペアは、例えば画像テンプレートマッチングにより特定することができる。
Next, the 3D point
具体的には、現在のフレームと過去フレームにおいて検出された特徴点について、当該特徴点を中心とする小領域を設定する。そして、現在のフレームに設定された小領域と、過去フレームにおいて設定された小領域との間の類似度を算出する。類似度が設定された閾値以上である場合、現在のフレームの小領域内の特徴点と、過去フレームの小領域内の特徴点とを対応点ペアとする。類似度の計算は、ZNCC(Zero-mean Normalization Cross-Correction、ゼロ平均正規化相関)やNCC(Normalization Cross-Correction、正規化相関)、SAD(Sum of Squared Difference)、SSD(Sum of Absolute Difference)など、一般的に知られた類似度計算を用いて行う。なお、対応点ペアの特定は、上述の画像テンプレートマッチングに限定されない。例えば、ORB特徴量(Oriented FAST and Rotated BRIEF)など、特徴点マッチングの手法を用いて対応点ペアを特定してもよい。 Specifically, for the feature points detected in the current frame and the previous frame, a small area centered on the feature point is set. Then, the degree of similarity between the small area set in the current frame and the small area set in the past frame is calculated. If the similarity is equal to or higher than the set threshold, the feature points in the small area of the current frame and the feature points in the small area of the past frame are taken as corresponding point pairs. Similarity calculations are ZNCC (Zero-mean Normalization Cross-Correction, zero-mean normalization correlation), NCC (Normalization Cross-Correction, normalization correlation), SAD (Sum of Squared Difference), SSD (Sum of Absolute Difference) , etc., using a generally known similarity calculation. Note that the identification of corresponding point pairs is not limited to the image template matching described above. For example, corresponding point pairs may be identified using feature point matching techniques such as ORB features (Oriented FAST and Rotated BRIEF).
最後に、特定した各対応点ペアについて、(1)過去フレームと現在フレームのカメラ姿勢、(2)過去フレームと現在フレームにおける特徴点の入力画像上での座標、の各情報に基づき、特徴点から三次元座標を推定する。座標の推定には、三角測量など一般的な三次元座標推定手法を用いる。 Finally, for each identified pair of corresponding points, the feature points Estimate the 3D coordinates from A general three-dimensional coordinate estimation method such as triangulation is used to estimate the coordinates.
三次元点群検出部113における特徴点から三次元座標を推定する方法について、図5、6を用いて具体的に説明する。図5、6は画像テンプレートマッチングと三角測量を用いた三次元座標計算の説明図である。図5は、三次元点群検出部113が取得する入力画像であり、現在の入力画像であるフレームtと、過去の入力画像であるフレームt-1とを左から右へ時系列に並べて示している。なお、以下の図面において、移動体100が走行する路面に直交する方向をY方向、路面と平行であって移動体100の進行する方向(奥行き方向)をZ方向、路面と平行であって移動体100の進行方向と直交する方向をX方向とする。
A method for estimating three-dimensional coordinates from feature points in the three-dimensional point
まず、三次元点群検出部113は、現在のフレームであるフレームtにおいて、特徴点PFtを検出する。図5では、路上に設置されている箱状の障害物のエッジ(角部)を、特徴点PFtとして検出した例を示している。次に、フレームtの特徴点PFtと、過去のフレームであるフレームt-1において既に検出されている特徴点との対応付けを行い、対応点ペアを特定する。図5に示す一例の場合、画像テンプレートマッチングによって、フレームtの特徴点PFtと、フレームt-1の特徴点PFt-1とが対応点ペアとして特定される。
First, the three-dimensional point
最後に、三次元点群検出部113は、三角測量などを用い、フレームtの特徴点PFtの三次元点を推定して三次元座標を算出する。具体的な方法を、図6を用いて説明する。まず、フレームtの撮影時におけるカメラ100B(t)のレンズの光学中心と、フレームt上の特徴点PFtとを結ぶ直線をひく。次に、フレームt-1の撮影時におけるカメラ100B(t-1)のレンズの光学中心と、フレームt-1上の特徴点PFt-1とを結ぶ直線をひく。そして、2本の直線の交点を、特徴点PFtとして検出した障害物のエッジ(角部)の実在点(三次元点Ptd)であると推定する。
Finally, the three-dimensional point
三次元点Ptdの位置座標は、(i)フレームt-1、及び、フレームtのカメラ姿勢、(ii)フレームt-1における特徴点PFt-1の座標、(iii)フレームtにおける特徴点PFtの座標、(iv)カメラの焦点距離(カメラのレンズの光学中心からフレームまでの距離)、の各情報を用いて算出される。 The position coordinates of the three-dimensional point Ptd are: (i) the camera postures of the frames t-1 and t, (ii) the coordinates of the feature point PFt-1 in the frame t-1, and (iii) the feature point PFt in the frame t. and (iv) the focal length of the camera (the distance from the optical center of the camera lens to the frame).
三次元点群蓄積部114は、三次元点群検出部113において算出された三次元点を、バッファなどに蓄積する。一般的に、1つのフレームについて、複数の特徴点が検出される。そして、それぞれの特徴点について、対応点ペアが特定された特徴点については、三次元点が推定され三次元座標が算出される。なお、以下の説明において、三次元点の集合を三次元点群と示す。すなわち、三次元点群蓄積部114は、三次元点群検出部113から三次元点群の情報(三次元座標)を取得し、蓄積する。
The 3D point
三次元点群蓄積部114には、過去のフレームにおいて算出された三次元点群の情報が累積されている。三次元点群検出部113に新しいフレームが入力され、当該フレーム(現在のフレーム)について特徴点の三次元座標が算出される都度、三次元点群蓄積部114から三次元点群蓄積部114に三次元点群の情報が出力される。三次元点群蓄積部114には、すでに蓄積されている三次元点群の情報に加えて、入力された三次元点群の情報が格納される。1つのフレームの三次元点の個数が多く、また、入力されるフレーム数が多い場合、三次元点群蓄積部114に入力される三次元点の個数が膨大となり、全ての情報を格納しようとすると、膨大な容量のバッファが必要となる。一般的に、バッファの容量は限られているため、リングバッファ等を用い、FIFO(First in first out)方式で保存するデータの置き換えを行うことが好ましい。
The 3D point
ノイズ点除去部115は、三次元点群蓄積部114に蓄積されている三次元点の中からノイズ点を抽出して除去する。同じ構造物の局所部分に検出された三次元点群に含まれる三次元点は、正しく検出されていれば、カメラからの距離(Z方向の座標、奥行き)が同程度になる。従って、該三次元点群の中に、明らかに他の三次元点のZ座標と位置が異なる座標を有する三次元点が含まれている場合、当該三次元点は、正しく三次元座標が算出されていない可能性が高い。従って、このような三次元点をノイズ点として抽出し、三次元点群から除去することにより、後段の障害物検知において、検出精度を向上させることができる。
The noise
ここで、ノイズ点の発生メカニズムについて、図7、8を用いて説明する。図7、8は、ノイズ点発生のメカニズムの一例を説明する図である。正しく三次元座標が算出されない主な原因の一つに、対応点ペアの誤特定があげられる。画像中に繰り返しパターンが存在すると、繰り返しパターン上には類似度が近しい特徴点が複数存在する。繰り返しパターンの一例として、図7に示すような導流体(一定間隔で路上に白線が描かれている道路標示、ゼブラゾーンとも呼ばれる)があげられる。過去の入力画像であるフレームt-1において、導流体の白線のうちY方向上から5本目の白線部分に特徴点PFt-1が検出されているものとする。また、現在の入力画像であるフレームtにおいて、導流体の白線のうちY方向上から6本目の白線部分に特徴点PFt´が検出され、Y方向上から5本目の白線部分に特徴点PFtが検出されたものとする。 Here, the noise point generation mechanism will be described with reference to FIGS. 7 and 8 are diagrams for explaining an example of the mechanism of noise point generation. One of the main reasons why three-dimensional coordinates are not calculated correctly is erroneous identification of corresponding point pairs. When a repetitive pattern exists in an image, a plurality of feature points with similar degrees of similarity exist on the repetitive pattern. An example of a repeating pattern is a guiding fluid (a road marking in which white lines are drawn on the road at regular intervals, also called a zebra zone) as shown in FIG. In frame t-1, which is a past input image, it is assumed that feature point PFt-1 is detected in the fifth white line portion from the Y direction among the white lines of the conducting fluid. In frame t, which is the current input image, a feature point PFt′ is detected in the white line portion of the leading fluid that is the sixth white line from the Y direction, and a feature point PFt is detected in the white line portion that is the fifth from the Y direction. shall be detected.
画像テンプレートマッチングにより対応点ペアを特定する場合、それぞれの特徴点を中心とする微小領域を切り出して類似度を算出する。正しくは、フレームt-1の特徴点PFt-1と、フレームtの特徴点PFtとが対応点ペアである。(共に、導流体の白線のうちY方向上から5番目の白線部分に位置する特徴点である。)ところが、特徴点PFt´と特徴点PFtは、どちらも導流体の白線上に存在している。このため、特徴点PFt´の微小領域と特徴点PFtの微小領域とが極めて類似しており、フレームt-1の特徴点PFt-1と、フレームtの特徴点PFt´とが対応点ペアとして誤特定される可能性がある。 When identifying a corresponding point pair by image template matching, a minute area centered on each feature point is cut out to calculate the degree of similarity. Correctly, the feature point PFt-1 of the frame t-1 and the feature point PFt of the frame t are the corresponding point pair. (Both feature points are located on the fifth white line portion from the Y direction of the white line of the guiding fluid.) However, both the feature point PFt′ and the feature point PFt are present on the white line of the guiding fluid. there is For this reason, the minute area of the feature point PFt' and the minute area of the feature point PFt are very similar, and the feature point PFt-1 of the frame t-1 and the feature point PFt' of the frame t form a corresponding point pair. May be misidentified.
特徴点PFtを対応点ペアとして正しい三次元点を推定すると、図8に示すように、推定された三次元点Ptdは、路面上(Y=0)であってカメラ100B(t)からの奥行がZ=d1の位置であると算出される。一方、間違った特徴点PFt´を対応点ペアとして間違った三次元点を推定すると、推定された三次元点Ptd´は、路面から高さY=h2の位置であってカメラ100B(t)からの奥行がZ=d2の位置であると算出される。
When a correct three-dimensional point is estimated using the feature points PFt as corresponding point pairs, the estimated three-dimensional point Ptd is on the road surface (Y=0) and is at the depth from the
このように、間違った対応点ペアを用いて三次元点を推定してしまった場合、正しく推定した三次元点と異なる三次元座標が算出されてしまう。特に、奥行き方向であるZ軸は、正しい三次元点の位置と間違った三次元点の位置との差が大きく算出される傾向にある。 In this way, if a 3D point is estimated using an erroneous pair of corresponding points, 3D coordinates different from those of a correctly estimated 3D point will be calculated. In particular, the Z-axis, which is the depth direction, tends to result in a large difference between correct and incorrect 3D point positions.
ノイズ点除去部115は、上述したノイズ点の性質に基づき、三次元点群蓄積部114に蓄積されている三次元点の中からノイズ点を除去する。すなわち、ある三次元点のカメラ100Bからの奥行方向の距離が、画像上における近傍領域に存在する他の三次元点群と大きく異なる場合、当該三次元点をノイズ点と推定し除去する。
The noise
図9は、第1の実施形態に係わる三次元点群からノイズ点を除去する手順を説明するフローチャートである。まず、三次元点群蓄積部114に蓄積されている三次元点群を取得し、現在フレーム(フレームt)に投影する。そして、それぞれの三次元点について、フレーム上での座標(画像座標)を算出する(S1)。例えば、三次元点群蓄積部114にT個の三次元点群が蓄積されている場合、S1ではT個の画像座標が算出される。
FIG. 9 is a flowchart for explaining the procedure for removing noise points from the three-dimensional point cloud according to the first embodiment. First, the 3D point cloud stored in the 3D point
次に、T個の三次元点から、ノイズ点か否かの判定を最初に行う三次元点をセットする(S2)。例えば、T個の三次元点のそれぞれに対し1~Tの連番を付与しておく。S2では、1番が付与された三次元点が、最初にノイズ点判定を行う点としてセットされる。図9の手順では、ノイズ点の判定を行う三次元点の番号を変数nに代入して保持することにより、ノイズ候補点としてのノイズ点判定対象点が特定される。
Next, a three-dimensional point is set from among the T three-dimensional points to determine whether it is a noise point or not (S2). For example, a serial number from 1 to T is given to each of T three-dimensional points. In S2, the three-dimensional point assigned
続いて、ノイズ点判定対象点である三次元点について、当該三次元点を含む評価領域Reを設定する(S3)。図10、及び、図11は、ノイズ点除去方法の一例を説明する図である。図10は、三次元点群蓄積部114に蓄積されている三次元点群を現在フレームに投影して得られる画像である。図11は、評価領域Reに含まれる三次元点の三次元座標を説明する図である。なお、図10、11において、網掛けされた丸印で表される三次元点Ptdは正しく推定された三次元点を示しており、バツ印を含む白丸印で表される三次元点Ptd´は誤推定された三次元点を示している。
Subsequently, for the three-dimensional points that are noise point determination target points, an evaluation region Re including the three-dimensional points is set (S3). 10 and 11 are diagrams for explaining an example of the noise point removal method. FIG. 10 shows an image obtained by projecting the 3D point cloud stored in the 3D point
まず、図11に示すように、三次元点群蓄積部114に15個の三次元点からなる三次元点群PGが蓄積されているものとする。これら15個の三次元点群PGを現在フレームに投影すると、図10に示す画像が得らえる。例えば、S2において、ノイズ点判定対象点として三次元点P1がセットされたものとする。この場合、S3では、点P1を中心する所定の大きさの矩形領域が、評価領域Reとして設定される。
First, as shown in FIG. 11, it is assumed that a 3D point group PG consisting of 15 3D points is accumulated in the 3D point
そして、評価領域Reに含まれる三次元点を抽出する(S4)。図10に示す一例の場合、三次元点P1を含む4つの三次元点が抽出される。現在フレームに投影された三次元点が評価領域Reに含まれるか否かの判定は、S1で算出された画素座標を用いて行われる。 Then, three-dimensional points included in the evaluation region Re are extracted (S4). In the example shown in FIG. 10, four 3D points including 3D point P1 are extracted. The pixel coordinates calculated in S1 are used to determine whether or not the three-dimensional point projected onto the current frame is included in the evaluation area Re.
続いて、S4で抽出された三次元点の平均距離(カメラからそれぞれの三次元点までの奥行方向の距離の平均値)を算出する(S5)。すなわち、S4で抽出された三次元点の三次元座標について、Z方向の平均値を算出する。例えば、図11に示す一例の場合、評価領域Reに含まれる三次元点は、Ptd1´、Ptd2、Ptd3、Ptd4、の4点となる。従って、これら4点のZ座標の平均値を算出する。 Subsequently, the average distance of the three-dimensional points extracted in S4 (the average value of the distances in the depth direction from the camera to each three-dimensional point) is calculated (S5). That is, the average value in the Z direction is calculated for the three-dimensional coordinates of the three-dimensional points extracted in S4. For example, in the case of the example shown in FIG. 11, the three-dimensional points included in the evaluation region Re are four points, Ptd1′, Ptd2, Ptd3, and Ptd4. Therefore, the average value of the Z coordinates of these four points is calculated.
そして、ノイズ点判定対象点のカメラからの奥行方向の距離と、S4で算出した平均距離の差分を算出する。更に、算出した差分を平均距離で割り、ノイズ評価値を算出する(S6)。例えば、S6におけるノイズ評価値の算出は、以下の(1)式を用いて計算される。 Then, the difference between the distance in the depth direction from the camera of the noise point determination target point and the average distance calculated in S4 is calculated. Further, the calculated difference is divided by the average distance to calculate a noise evaluation value (S6). For example, the calculation of the noise evaluation value in S6 is performed using the following equation (1).
ノイズ評価値=|判定対象点の距離-平均距離|/平均距離 …(1)式
(1)式において、ノイズ評価値は、判定対象点の距離(カメラからの奥行方向の距離)が平均距離に近いほどゼロに近づく。逆に、判定対象点の距離(カメラからの奥行方向の距離)が平均距離から遠いほど大きな値となる。
Noise evaluation value = | distance of determination target point - average distance | / average distance (1) In equation (1), the noise evaluation value is the average distance of the distance of the determination target point (distance in the depth direction from the camera). The closer to , the closer to zero. Conversely, the farther the distance of the determination target point (the distance in the depth direction from the camera) from the average distance, the greater the value.
次に、S6で算出されたノイズ評価値と予め設定された閾値とを比較する。ノイズ評価値が閾値よりも大きい場合(S7、YES)、判定対象点をノイズ点と判定し、三次元点群から除去する(S8)。S8が終了すると、S9に進む。一方、ノイズ評価値が閾値以下の場合(S7、NO)、判定対象点はノイズ点ではない(正しく推定された三次元点である)と判定されるため、S8をスキップしてS9に進む。なお、S7においては、距離差分を平均距離で割ったものをノイズ評価値としているので、平均距離の大きさにかかわらず、ひとつの閾値で全ての判定対象点のノイズ判定を行うことができる。 Next, the noise evaluation value calculated in S6 is compared with a preset threshold value. If the noise evaluation value is greater than the threshold (S7, YES), the determination target point is determined as a noise point and removed from the three-dimensional point group (S8). When S8 ends, the process proceeds to S9. On the other hand, if the noise evaluation value is equal to or less than the threshold (S7, NO), the determination target point is determined not to be a noise point (it is a correctly estimated three-dimensional point), so S8 is skipped and the process proceeds to S9. In S7, since the noise evaluation value is obtained by dividing the distance difference by the average distance, it is possible to perform noise judgment for all the judgment target points using a single threshold regardless of the magnitude of the average distance.
S9では、S1で取得した全ての三次元点についてノイズ点判定を行ったか否かを確認する。未判定の三次元点が存在する場合(S9、NO)、次の判定対象点をセットし(S10)、S3からS8の一連のノイズ点判定及び除去手順を繰り返し実行する。未判定の三次元点が存在しない場合、つまり、全ての三次元点についてノイズ点判定を実施した場合(S9、YES)、三次元点群からノイズ点を除去する一連の手順を終了する。 In S9, it is checked whether noise point determination has been performed for all three-dimensional points acquired in S1. If an undetermined three-dimensional point exists (S9, NO), the next point to be determined is set (S10), and a series of noise point determination and removal procedures from S3 to S8 are repeatedly executed. If there is no undetermined 3D point, that is, if noise point determination has been performed for all 3D points (S9, YES), a series of procedures for removing noise points from the 3D point group is terminated.
例えば、T個の三次元点のそれぞれに対し1~Tの連番を付与しておき、1番から順に判定対象点としていく場合、S9において、変数nの値である現在の判定対象点がTである場合(n==T)、全ての三次元点の判定が終了したとみなすことができる。S9において、n<Tの場合、次の番号の三次元点を判定対象点として(n=n+1)、S3からS8の一連のノイズ点判定及び除去手順を繰り返し実行する。 For example, if a serial number from 1 to T is given to each of T three-dimensional points, and the points to be determined are sequentially numbered from 1, in S9, the current point to be determined, which is the value of the variable n, is If T (n==T), it can be considered that all 3D points have been determined. In S9, if n<T, a series of noise point determination and removal procedures from S3 to S8 are repeatedly executed with the next numbered three-dimensional point as a determination target point (n=n+1).
ノイズ点除去部115は、ノイズ点除去が終了した三次元点群を、障害物特定部12へ出力する。
The noise
このように、本実施形態によれば、入力画像から推定された三次元点群に含まれる三次元点について、奥行き位置に基づき三次元座標が正しく算出されているか否かを判定する。正しく三次元座標が算出されていないと推定される三次元点は、ノイズ点として三次元点群から除去してから、障害物特定部12へ当該三次元点群を入力する。従って、障害物特定部12は、ノイズ点が除去された確度の高い三次元点を用いて障害物の特定を行うことができるので、何もない空間に誤って障害物を誤検知する可能性が低減され、障害物を精度よく検出することができる。
As described above, according to the present embodiment, it is determined whether or not the 3D coordinates of the 3D points included in the 3D point group estimated from the input image are correctly calculated based on the depth positions. 3D points whose 3D coordinates are estimated to be incorrectly calculated are removed from the 3D point group as noise points, and then the 3D point group is input to the
なお、入力画像から検出される特徴点の個数は、画像によって大きく変動する。図10及び図11に示す一例では、特徴点を15個としているが、実際には数百~数千個のオーダーで検知される場合もあり得る。 Note that the number of feature points detected from an input image varies greatly depending on the image. In the example shown in FIGS. 10 and 11, the number of feature points is 15, but in reality there may be cases where the number of feature points is detected on the order of hundreds to thousands.
また、上述の一例では、カメラにより撮像された撮影画像を入力画像としているが、レーザセンサなどの距離センサやGPSなどの位置センサにより得られたデブスマップ(距離画像)を入力画像としてもよい。
(第2の実施形態)
上述の第1の実施形態では、三次元点群から評価領域に含まれる三次元点を抽出する際に、個々の三次元点の画素座標が評価領域内に存在するか否かを判定している。この場合う、1フレームあたりの判定処理回数は、三次元点の数の二乗程度となる。従って、三次元点数が増えるにつれ当該判定処理回数が二次関数的に増加してしまうため、処理時間が長くなってしまい、リアルタイム処理が困難な場合がある。
In the above example, the input image is a photographed image captured by a camera, but a depth map (distance image) obtained by a distance sensor such as a laser sensor or a position sensor such as GPS may be used as the input image.
(Second embodiment)
In the above-described first embodiment, when extracting the 3D points included in the evaluation area from the 3D point group, it is determined whether or not the pixel coordinates of each 3D point exist within the evaluation area. there is In this case, the number of determination processes per frame is about the square of the number of three-dimensional points. Therefore, as the number of three-dimensional points increases, the number of times of determination processing increases quadratically, and the processing time becomes longer, which may make real-time processing difficult.
これに対し、本実施形態においては、積分画像を用いて三次元点が評価領域に含まれるか否かを判定し、処理を高速化している点が異なっている。本実施形態における障害物検知装置の構成は、図1~図4に示す第1の障害物検知装置と同様であるので、説明を省略する。 On the other hand, the present embodiment differs in that an integral image is used to determine whether or not a three-dimensional point is included in the evaluation region, thereby speeding up the processing. The configuration of the obstacle detection device according to this embodiment is the same as that of the first obstacle detection device shown in FIGS. 1 to 4, so the description thereof is omitted.
図12は、第2の実施形態に係わる三次元点群からノイズ点を除去する手順を説明するフローチャートである。まず、三次元点群蓄積部114に蓄積されている三次元点群を取得し、現在フレーム(フレームt)に投影する。そして、それぞれの三次元点について、フレーム上での座標(画像座標)を算出する(S11)。
FIG. 12 is a flowchart for explaining procedures for removing noise points from a three-dimensional point cloud according to the second embodiment. First, the 3D point cloud stored in the 3D point
次に、距離画像と点群数画像とを作成する(S12)。距離画像とは、S11で算出された三次元点の画像座標の画素値を、当該三次元点の三次元座標のZ方向の値とする画像である。例えば、三次元点を現在フレームに投影して得られる画像座標が(X,Y)=(100、100)でり、当該三次元点の奥行方向の距離が25である場合、作成される距離画像の(X,Y)=(100、100)の画素値は25となる。なお、三次元点を投影したフレームにおいて、三次元点が存在しない座標の画素値は0とする。また、1つの画素に複数の三次元点が投影されている場合、距離画像における当該画素の画素値は、該画素に投影された複数の三次元点のZ方向の値の和とする。 Next, a distance image and a point cloud number image are created (S12). The distance image is an image in which the pixel value of the image coordinates of the three-dimensional point calculated in S11 is the value of the three-dimensional coordinates of the three-dimensional point in the Z direction. For example, if the image coordinates obtained by projecting a 3D point onto the current frame are (X, Y)=(100, 100) and the distance in the depth direction of the 3D point is 25, then the created distance The pixel value of (X, Y)=(100, 100) of the image is 25. Note that pixel values at coordinates where no 3D point exists are assumed to be 0 in the frame onto which the 3D point is projected. When a plurality of three-dimensional points are projected onto one pixel, the pixel value of that pixel in the range image is the sum of the Z-direction values of the plurality of three-dimensional points projected onto that pixel.
点群数画像とは、S11で三次元点を投影したフレームにおいて、各座標に投影された三次元点の数を画素値とする画像である。例えば、4つの三次元点を現在フレームに投影して得られる画像座標が(X,Y)=(100、100)、(100、100)、(100、101)、(99、100)である場合、作成される点群数画像の(X,Y)=(100、100)の画素値は2、(X,Y)=(100、101)、(99、100)の画素値は1となる。三次元点を投影したフレームにおいて、三次元点が存在しない座標の画素値は0とする。 The point cloud number image is an image whose pixel value is the number of three-dimensional points projected on each coordinate in the frame on which the three-dimensional points are projected in S11. For example, the image coordinates obtained by projecting four 3D points onto the current frame are (X, Y) = (100, 100), (100, 100), (100, 101), (99, 100). , the pixel value of (X, Y) = (100, 100) is 2, the pixel value of (X, Y) = (100, 101), (99, 100) is 1, and Become. In a frame on which a 3D point is projected, the pixel value of coordinates where no 3D point exists is set to 0.
次に、S12で作成した距離画像の積分画像(以下、距離積分画像と示す)と、点群数画像の積分画像(以下、点群数積分画像を示す)を作成する(S13)。積分画像とは、画像の画素値を積分した画像であり、元の画像中に任意に設定した矩形領域内の画素値の層和を高速に計算するために作成する画像である。積分画像における各画素の画素値は、元の画像における同じ座標の画素を右下角、原点((X、Y)=(0、0)の点)を左上角とする矩形領域内の画素値の総和である。S13では、距離画像と点群数画像について、それぞれ積分画像を作成する。 Next, an integral image of the distance image created in S12 (hereinafter referred to as a distance integral image) and an integral image of the point cloud number image (hereinafter referred to as a point cloud number integral image) are created (S13). An integral image is an image obtained by integrating the pixel values of an image, and is an image created to quickly calculate the layer sum of pixel values within a rectangular area arbitrarily set in the original image. The pixel value of each pixel in the integral image is the pixel value of the pixel value within a rectangular area in which the pixel of the same coordinates in the original image is the lower right corner and the origin ((X, Y)=(0, 0) point) is the upper left corner. summation. In S13, an integral image is created for each of the distance image and the point cloud number image.
続いて、S11で取得した三次元点から、ノイズ点か否かの判定を最初に行う三次元点をセットする(S14)。例えば、T個の三次元点のそれぞれに対し1~Tの連番を付与しておく。S14では、1番が付与された三次元点が、最初にノイズ点判定を行う点としてセットされる。図12の手順では、ノイズ点の判定を行う三次元点の番号を変数nに代入して保持することにより、ノイズ点判定対象点が特定される。
Next, from among the three-dimensional points acquired in S11, a three-dimensional point is set first for determining whether or not it is a noise point (S14). For example, a serial number from 1 to T is given to each of T three-dimensional points. In S14, the three-dimensional point assigned
次に、ノイズ点判定対象点である三次元点について、当該三次元点を含む評価領域Reを設定し(S15)、評価領域Reに含まれる三次元点群の平均距離(カメラからそれぞれの三次元点までの奥行方向の距離の平均値)を算出する(S16)。このS16における平均距離の算出は、S13で作成した積分画像を用いて行う。 Next, for the three-dimensional points that are the noise point determination target points, an evaluation region Re including the three-dimensional points is set (S15), and the average distance of the three-dimensional point group included in the evaluation region Re (from the camera to each cubic An average value of distances in the depth direction to the original point) is calculated (S16). The calculation of the average distance in S16 is performed using the integral image created in S13.
図13は、積分画像による評価領域内の値の総和計算手順を説明する図である。図13に示すように、評価領域Reに含まれる画素値の総和は、以下に示す(2)式を用いて計算される。 13A and 13B are diagrams for explaining the summation calculation procedure of the values in the evaluation area based on the integral image. As shown in FIG. 13, the sum of pixel values included in the evaluation region Re is calculated using the following equation (2).
SRe=SRa-SRb-SRc+SRd …(2)式
ただし、(2)式において、SRxは矩形領域Rxにおける画素値の総和を示している。
SRa、SRb、SRc、SRdは、それぞれ積分画像における矩形領域Ra、Rb、Rc、Rdの右下角の画素値として取得できる。従って、(2)式は、積分画像から4つの画素位置の画素値を取得し、和差演算を3回行うことで算出することができる。
SRe=SRa-SRb-SRc+SRd Equation (2) where SRx represents the sum of pixel values in the rectangular region Rx.
SRa, SRb, SRc, and SRd can be obtained as pixel values at the lower right corners of rectangular regions Ra, Rb, Rc, and Rd in the integral image, respectively. Therefore, equation (2) can be calculated by acquiring pixel values at four pixel positions from the integral image and performing sum-difference operation three times.
平均距離は、評価領域Reに含まれる三次元点の距離の和を、評価領域Reに含まれる三次元点の個数で割ることで算出できる。従って、S12で作成した距離積分画像における評価領域Reに含まれる画素値の総和を、S12で作成した点群数積分画像における評価領域Reに含まれる画素値の総和で割り、平均距離を算出することができる。 The average distance can be calculated by dividing the sum of the distances of the three-dimensional points included in the evaluation region Re by the number of three-dimensional points included in the evaluation region Re. Therefore, the average distance is calculated by dividing the sum of the pixel values included in the evaluation region Re in the distance integral image created in S12 by the sum of the pixel values included in the evaluation region Re in the point cloud number integral image created in S12. be able to.
そして、ノイズ点判定対象点のカメラからの奥行方向の距離と、S16で算出した平均距離の差分を算出する。更に、算出した差分を平均距離で割り、ノイズ評価値を算出する(S17)。S17におけるノイズ評価値の算出は、図9を用いて説明した第1の実施形態のS6と同様である。そして、S17で算出されたノイズ評価値と予め設定された閾値とを比較し、ノイズ評価値が閾値よりも大きい場合(S18、YES)、判定対象点をノイズ点と判定し、三次元点群から除去する(S19)。S19が終了すると、S20に進む。一方、ノイズ評価値が閾値以下の場合(S18、NO)、判定対象点はノイズ点ではない(正しく推定された三次元点である)と判定されるため、S19をスキップしてS20に進む。 Then, the difference between the distance in the depth direction from the camera of the noise point determination target point and the average distance calculated in S16 is calculated. Further, the calculated difference is divided by the average distance to calculate a noise evaluation value (S17). Calculation of the noise evaluation value in S17 is the same as in S6 of the first embodiment described using FIG. Then, the noise evaluation value calculated in S17 is compared with a preset threshold value, and if the noise evaluation value is greater than the threshold value (S18, YES), the determination target point is determined as a noise point, and the three-dimensional point group (S19). When S19 ends, the process proceeds to S20. On the other hand, if the noise evaluation value is less than or equal to the threshold value (S18, NO), it is determined that the determination target point is not a noise point (it is a correctly estimated three-dimensional point), so S19 is skipped and the process proceeds to S20.
S20では、S11で取得した全ての三次元点についてノイズ点判定を行ったか否かを確認する。未判定の三次元点が存在する場合(S20、NO)、次の判定対象点をセットし(S21)、S15からS19の一連のノイズ点判定及び除去手順を繰り返し実行する。未判定の三次元点が存在しない場合、つまり、全ての三次元点についてノイズ点判定を実施した場合(S20、YES)、三次元点群からノイズ点を除去する一連の手順を終了する。 In S20, it is confirmed whether noise point determination has been performed for all three-dimensional points acquired in S11. If an undetermined three-dimensional point exists (S20, NO), the next point to be determined is set (S21), and a series of noise point determination and removal procedures from S15 to S19 are repeatedly executed. If there are no undetermined 3D points, that is, if noise point determination has been performed for all 3D points (S20, YES), a series of procedures for removing noise points from the 3D point group is terminated.
上述した第1の実施形態におけるノイズ点の除去手順においては、判定対象点を次の三次元点にセットする都度、個々の三次元点の画素座標が評価領域内に存在するか否かを判定するために三次元点の二乗回程度の演算が必要であった。そして、評価領域内に存在する三次元点を用い、ノイズ評価値を算出する必要があった。これに対し、本実施形態では、判定対象点の三次元点が変わっても、S13で作成した距離画像を用いて四則演算を7回行うだけでノイズ評価値を算出することができる。従って、演算量を低減し、処理コストを削減することが可能であるため、演算の高速化を図ることができる。 In the procedure for removing noise points in the first embodiment described above, each time the determination target point is set to the next three-dimensional point, it is determined whether or not the pixel coordinates of each three-dimensional point exist within the evaluation area. In order to do so, it was necessary to perform calculations equivalent to the square of three-dimensional points. Then, it was necessary to calculate the noise evaluation value using the three-dimensional points existing within the evaluation area. On the other hand, in this embodiment, even if the three-dimensional point of the determination target point changes, the noise evaluation value can be calculated only by performing the four arithmetic operations seven times using the distance image created in S13. Therefore, it is possible to reduce the amount of calculation and the processing cost, so that the speed of calculation can be increased.
なお、ノイズ点除去部115は、三次元点の個数に応じて、第1の実施形態によるノイズ点除去手順と第2の実施形態によるノイズ除去手順とを切り替えて用いるように構成してもよい。
The noise
本発明のいくつかの実施形態を説明したが、これらの実施形態は、一例として示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
1…障害物検知装置
10…画像処理装置
10a…プロセッサ
10b…メモリ
10d…画像処理アクセラレータ
10e…処理回路
11…画像処理部
12…障害物特定部
100…移動体
100A…出力部
100B…センサ(カメラ)
100D…通信部
100E…ディスプレイ
100F…スピーカ
100G…動力制御部
100H…動力部
100I…バス
111…画像処理制御部
112…カメラ姿勢推定部
113…三次元点群検出部
114…三次元点群蓄積部
115…ノイズ点除去部
100D...
Claims (4)
前記撮影画像から複数の特徴点を検出し、それぞれの前記特徴点について、三次元点の位置である三次元座標を推定する三次元点検出部と、
検出された複数の前記三次元点からなる三次元点群を蓄積する三次元点群蓄積部と、
前記三次元点群から、前記三次元座標が誤推定されている前記三次元点をノイズ点として検出し除去するノイズ点除去部と、
を有し、
前記ノイズ点除去部は、一の前記三次元点をノイズ候補点として抽出し、前記三次元点群を前記撮影画像に投影した際に、前記撮影画像において前記ノイズ候補点の投影位置を中心とする所定の領域内に投影された一つ以上の前記三次元点である判定対象三次元点を抽出し、前記ノイズ候補点の前記センサからの距離と、前記判定対象三次元点の前記センサからの平均距離とを比較し、前記ノイズ候補点がノイズ点であるか否かを判定する、障害物検知装置。 An obstacle detection device that detects an obstacle existing outside the moving object based on a photographed image obtained by a sensor provided on the moving object,
a three-dimensional point detection unit that detects a plurality of feature points from the captured image and estimates three-dimensional coordinates, which are the positions of the three-dimensional points, for each of the feature points;
a 3D point cloud accumulation unit for accumulating a 3D point cloud composed of the plurality of detected 3D points;
a noise point removal unit that detects and removes, as noise points, the three-dimensional points whose three-dimensional coordinates are erroneously estimated from the three-dimensional point group;
has
The noise point removal unit extracts one of the three-dimensional points as a noise candidate point, and when projecting the three-dimensional point group onto the captured image, the projection position of the noise candidate point is the center of the captured image. a three-dimensional point to be determined, which is one or more of the three-dimensional points projected in a predetermined area where the , and determines whether or not the noise candidate point is a noise point .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112244A JP7179687B2 (en) | 2019-06-17 | 2019-06-17 | Obstacle detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112244A JP7179687B2 (en) | 2019-06-17 | 2019-06-17 | Obstacle detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020204525A JP2020204525A (en) | 2020-12-24 |
JP7179687B2 true JP7179687B2 (en) | 2022-11-29 |
Family
ID=73837357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019112244A Active JP7179687B2 (en) | 2019-06-17 | 2019-06-17 | Obstacle detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7179687B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102408481B1 (en) * | 2022-01-11 | 2022-06-13 | 주식회사 다리소프트 | Information collecting terminal apparatus for collecting hazardous object information on the road, and the operating method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078264A (en) | 2009-10-01 | 2011-04-14 | Yazaki Corp | Fixing structure |
JP2014142241A (en) | 2013-01-23 | 2014-08-07 | Denso Corp | Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method |
JP2018189510A (en) | 2017-05-08 | 2018-11-29 | 株式会社マイクロ・テクニカ | Method and device for estimating position and posture of three-dimensional object |
JP2019066333A (en) | 2017-09-29 | 2019-04-25 | クラリオン株式会社 | Outside recognition device for vehicle |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143245A (en) * | 1996-11-07 | 1998-05-29 | Komatsu Ltd | Obstacle collision preventing device for mobile object |
JP3337197B2 (en) * | 1997-04-04 | 2002-10-21 | 富士重工業株式会社 | Outside monitoring device |
US9488721B2 (en) * | 2009-12-25 | 2016-11-08 | Honda Motor Co., Ltd. | Image processing apparatus, image processing method, computer program, and movable body |
-
2019
- 2019-06-17 JP JP2019112244A patent/JP7179687B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078264A (en) | 2009-10-01 | 2011-04-14 | Yazaki Corp | Fixing structure |
JP2014142241A (en) | 2013-01-23 | 2014-08-07 | Denso Corp | Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method |
JP2018189510A (en) | 2017-05-08 | 2018-11-29 | 株式会社マイクロ・テクニカ | Method and device for estimating position and posture of three-dimensional object |
JP2019066333A (en) | 2017-09-29 | 2019-04-25 | クラリオン株式会社 | Outside recognition device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2020204525A (en) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210012520A1 (en) | Distance measuring method and device | |
CN110869700B (en) | System and method for determining vehicle position | |
CN112292711B (en) | Associating LIDAR data and image data | |
KR102434580B1 (en) | Method and apparatus of dispalying virtual route | |
JP7082545B2 (en) | Information processing methods, information processing equipment and programs | |
EP3346237B1 (en) | Information processing apparatus, information processing method, and computer-readable medium for obstacle detection | |
KR20200042760A (en) | Vehicle localization method and vehicle localization apparatus | |
KR20180050823A (en) | Generating method and apparatus of 3d lane model | |
EP3624002A2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
KR102056147B1 (en) | Registration method of distance data and 3D scan data for autonomous vehicle and method thereof | |
CN111837136A (en) | Autonomous navigation based on local sensing and associated systems and methods | |
CN111353453B (en) | Obstacle detection method and device for vehicle | |
US11842440B2 (en) | Landmark location reconstruction in autonomous machine applications | |
KR20200093271A (en) | Apparatus and method for estimating location of landmark and computer recordable medium storing computer program thereof | |
WO2022062480A1 (en) | Positioning method and positioning apparatus of mobile device | |
CN112673280A (en) | Road detection method for a motor vehicle equipped with a LIDAR sensor | |
JP7179687B2 (en) | Obstacle detector | |
JP7337617B2 (en) | Estimation device, estimation method and program | |
JP2020064029A (en) | Mobile body controller | |
US11514588B1 (en) | Object localization for mapping applications using geometric computer vision techniques | |
JP2020076714A (en) | Position attitude estimation device | |
Lins et al. | A novel machine vision approach applied for autonomous robotics navigation | |
JP7205049B2 (en) | Movement vector calculation method and movement vector calculation device | |
WO2023017624A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving | |
Musleh et al. | Extrinsic parameter self-calibration and nonlinear filtering for in-vehicle stereo vision systems at urban environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7179687 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |