JP7179687B2 - Obstacle detector - Google Patents

Obstacle detector Download PDF

Info

Publication number
JP7179687B2
JP7179687B2 JP2019112244A JP2019112244A JP7179687B2 JP 7179687 B2 JP7179687 B2 JP 7179687B2 JP 2019112244 A JP2019112244 A JP 2019112244A JP 2019112244 A JP2019112244 A JP 2019112244A JP 7179687 B2 JP7179687 B2 JP 7179687B2
Authority
JP
Japan
Prior art keywords
point
dimensional
noise
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019112244A
Other languages
Japanese (ja)
Other versions
JP2020204525A (en
Inventor
智和 若杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2019112244A priority Critical patent/JP7179687B2/en
Publication of JP2020204525A publication Critical patent/JP2020204525A/en
Application granted granted Critical
Publication of JP7179687B2 publication Critical patent/JP7179687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本実施形態は、障害物検知装置に関する。 This embodiment relates to an obstacle detection device.

近年、例えば、ステレオカメラを車両などの移動体に搭載し、このカメラから一定間隔で出力される画像に基づいて障害物を検出し、当該障害物との接触を回避するように車両の走行に係る自動制御を行って運転の支援をするようなシステム(安全運転システム)が実用化されつつある。 In recent years, for example, a stereo camera is mounted on a moving body such as a vehicle, and an obstacle is detected based on the images output from the camera at regular intervals, and the vehicle is controlled to avoid contact with the obstacle. A system (safe driving system) that assists driving by performing such automatic control is being put into practical use.

このような安全運転システムを用いて移動体の制御を行う場合、障害物を精度よく検出することが重要となる。 Accurate detection of obstacles is important when controlling a moving object using such a safe driving system.

特開2013-239905号公報JP 2013-239905 A

本実施形態は、障害物を精度よく検出することができる、障害物検知装置を提供することを目的とする。 An object of the present embodiment is to provide an obstacle detection device that can accurately detect an obstacle.

本実施形態の障害物検知装置は、移動体に設けられたセンサにより得られる撮影画像に基づき、前記移動体外部に存在する障害物を検知する障害物検知装置であって、前記撮影画像から複数の特徴点を検出しそれぞれの前記特徴点について三次元点の位置である三次元座標を推定する三次元点検出部と、検出された複数の前記三次元点からなる三次元点群を蓄積する三次元点群蓄積部と、前記三次元点群から前記三次元座標が誤推定されている前記三次元点をノイズ点として検出し除去するノイズ点除去部と、を有する。
前記ノイズ点除去部は、一の前記三次元点をノイズ候補点として抽出し、前記三次元点群を前記撮影画像に投影した際に、前記撮影画像において前記ノイズ候補点の投影位置を中心とする所定の領域内に投影された一つ以上の前記三次元点である判定対象三次元点を抽出し、前記ノイズ候補点の前記センサからの距離と、前記判定対象三次元点の前記センサからの平均距離とを比較し、前記ノイズ候補点がノイズ点であるか否かを判定する。
An obstacle detection device according to the present embodiment is an obstacle detection device that detects obstacles existing outside a moving body based on a captured image obtained by a sensor provided on the moving body. a three-dimensional point detection unit for detecting the feature points and estimating the three-dimensional coordinates, which are the positions of the three-dimensional points, for each of the feature points; A 3D point cloud storage unit and a noise point removal unit that detects and removes the 3D points whose 3D coordinates are erroneously estimated from the 3D point cloud as noise points.
The noise point removal unit extracts one of the three-dimensional points as a noise candidate point, and when projecting the three-dimensional point group onto the captured image, the projection position of the noise candidate point is the center of the captured image. a three-dimensional point to be determined, which is one or more of the three-dimensional points projected in a predetermined area where the is compared with the average distance of , and it is determined whether or not the noise candidate point is a noise point.

本実施形態に係わる障害物検知装置を搭載する移動体100の一例を示す図。The figure which shows an example of the mobile body 100 which mounts the obstacle detection apparatus concerning this embodiment. 本実施形態に係わる障害物検知装置を含む、移動体100の構成の一例を示すブロック図。1 is a block diagram showing an example of a configuration of a moving body 100 including an obstacle detection device according to this embodiment; FIG. 移動体100に搭載された画像処理装置10の一例を示すブロック図。1 is a block diagram showing an example of an image processing device 10 mounted on a mobile body 100; FIG. 画像処理装置10における、障害物検知装置に係わる構成の一例を示す概略ブロック図。2 is a schematic block diagram showing an example of a configuration related to an obstacle detection device in the image processing device 10; FIG. 画像テンプレートマッチングと三角測量を用いた三次元座標計算の説明図。Explanatory diagram of three-dimensional coordinate calculation using image template matching and triangulation. 画像テンプレートマッチングと三角測量を用いた三次元座標計算の説明図。Explanatory diagram of three-dimensional coordinate calculation using image template matching and triangulation. ノイズ点発生のメカニズムの一例を説明する図。FIG. 4 is a diagram for explaining an example of a mechanism of generating noise points; ノイズ点発生のメカニズムの一例を説明する図。FIG. 4 is a diagram for explaining an example of a mechanism of generating noise points; 第1の実施形態に係わる三次元点群からノイズ点を除去する手順を説明するフローチャート。4 is a flowchart for explaining a procedure for removing noise points from a three-dimensional point cloud according to the first embodiment; ノイズ点除去方法の一例を説明する図。FIG. 4 is a diagram for explaining an example of a noise point removal method; ノイズ点除去方法の一例を説明する図。FIG. 4 is a diagram for explaining an example of a noise point removal method; 第2の実施形態に係わる三次元点群からノイズ点を除去する手順を説明するフローチャート。9 is a flowchart for explaining the procedure for removing noise points from a three-dimensional point cloud according to the second embodiment; 積分画像による評価領域内の値の総和計算手順を説明する図。FIG. 10 is a diagram for explaining a summation calculation procedure of values in an evaluation region based on an integral image;

以下、図面を参照して実施形態を説明する。
(第1の実施形態)
図1は、本実施形態に係わる障害物検知装置を搭載する移動体100の一例を示す図である。
Embodiments will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing an example of a moving object 100 equipped with an obstacle detection device according to this embodiment.

移動体100は、画像処理装置10と、出力部100Aと、センサ100Bと、動力制御部100Gと、動力部100Hと、を備える。 The moving body 100 includes an image processing device 10, an output section 100A, a sensor 100B, a power control section 100G, and a power section 100H.

移動体100は、移動可能な物体である。移動体100は、例えば、車両(自動二輪車、自動四輪車、自転車)、台車、ロボット、船舶、飛翔体(飛行機、無人航空機(UAV:Unmanned Aerial Vehicle)など)である。移動体100は、例えば、人による運転操作を介して走行する移動体や、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体である。自律走行可能な移動体は、例えば、自動運転車両である。本実施形態の移動体100は、自律走行可能であり、かつ、人による運転操作も可能な車両を一例として説明する。 A moving object 100 is a movable object. The mobile object 100 is, for example, a vehicle (motorcycle, automobile, bicycle), cart, robot, ship, flying object (airplane, unmanned aerial vehicle (UAV: Unmanned Aerial Vehicle), etc.). The mobile object 100 is, for example, a mobile object that travels through human driving operation, or a mobile object that can automatically travel (autonomously travel) without human driving operation. A mobile body capable of autonomous travel is, for example, an autonomous vehicle. The moving body 100 of the present embodiment will be described as an example of a vehicle that can travel autonomously and that can also be operated by a person.

出力部100Aは、各種情報を出力する。例えば出力部100Aは、各種処理による出力情報を出力する。 The output unit 100A outputs various information. For example, the output unit 100A outputs output information from various processes.

出力部100Aは、例えば、出力情報を送信する通信機能、出力情報を表示する表示機能、出力情報を示す音を出力する音出力機能、などを備える。例えば、出力部100Aは、通信部100Dと、ディスプレイ100Eと、スピーカ100Fと、を含む。 The output unit 100A has, for example, a communication function for transmitting output information, a display function for displaying output information, a sound output function for outputting sound indicating output information, and the like. For example, the output section 100A includes a communication section 100D, a display 100E, and a speaker 100F.

通信部100Dは、外部装置と通信する。通信部100Dは、VICS(登録商標)通信回路やダイナミックマップ通信回路である。通信部100Dは、出力情報を外部装置へ送信する。また、通信部100Dは、道路情報などを外部装置から受信する。道路情報は、信号、標識、周囲の建物、各車線の道幅、レーン中心線などである。道路情報は、画像処理装置10内に設けたRAM、ROMといったメモリ10b内に記憶されても、移動体内に別に設けたメモリ内に記憶してもよい。なお、メモリ10bは、後述する図3における画像処理装置10の説明において、具体的な構成を詳述する。 The communication unit 100D communicates with an external device. The communication unit 100D is a VICS (registered trademark) communication circuit or a dynamic map communication circuit. The communication unit 100D transmits output information to an external device. The communication unit 100D also receives road information and the like from an external device. Road information includes traffic signals, signs, surrounding buildings, road width of each lane, lane center lines, and the like. The road information may be stored in a memory 10b such as RAM and ROM provided in the image processing apparatus 10, or may be stored in a memory separately provided in the moving body. The specific configuration of the memory 10b will be described in detail in the description of the image processing apparatus 10 in FIG. 3, which will be described later.

ディスプレイ100Eは、出力情報を表示する。ディスプレイ100Eは、例えば、公知のLCD(Liquid Crystal Display)や投影装置やライトなどである。スピーカ100Fは、出力情報を示す音を出力する。 The display 100E displays output information. The display 100E is, for example, a known LCD (Liquid Crystal Display), projection device, light, or the like. The speaker 100F outputs sound indicating the output information.

センサ100Bは、移動体100の走行環境を取得するセンサである。走行環境は、例えば、移動体100の観測情報や、移動体100の周辺情報である。センサ100Bは、例えば、外界センサや内界センサである。 The sensor 100B is a sensor that acquires the traveling environment of the moving body 100. FIG. The driving environment is, for example, observation information of the mobile object 100 and peripheral information of the mobile object 100 . The sensor 100B is, for example, an external sensor or an internal sensor.

内界センサは、観測情報を観測するセンサである。観測情報は、例えば、移動体100の加速度、移動体100の速度、移動体100の角速度(ヨー軸角速度)を含む。 An internal sensor is a sensor that observes observation information. The observation information includes, for example, the acceleration of the mobile object 100, the speed of the mobile object 100, and the angular velocity of the mobile object 100 (yaw axis angular velocity).

内界センサは、例えば、慣性計測装置(IMU:Inertial Measurement Unit)、加速度センサ、速度センサ、ロータリエンコーダ、ヨーレートセンサ、などである。IMUは、移動体100の三軸加速度および三軸角速度を含む観測情報を観測する。 The internal sensor is, for example, an inertial measurement unit (IMU: Inertial Measurement Unit), an acceleration sensor, a speed sensor, a rotary encoder, a yaw rate sensor, or the like. The IMU observes observation information including triaxial acceleration and triaxial angular velocity of the moving body 100 .

外界センサは、移動体100の周辺情報を観測する。外界センサは、移動体100に搭載されていてもよいし、該移動体100の外部(例えば、他の移動体や外部装置など)に搭載されていてもよい。 The external sensor observes surrounding information of the moving object 100 . The external sensor may be mounted on the moving body 100 or may be mounted outside the moving body 100 (for example, another moving body or an external device).

周辺情報は、移動体100の周辺の状況を示す情報である。移動体100の周辺とは、該移動体100から予め定めた範囲内の領域である。この範囲は、外界センサの観測可能な範囲である。この範囲は、予め設定すればよい。 Peripheral information is information indicating the surrounding situation of the moving object 100 . The periphery of the moving body 100 is an area within a predetermined range from the moving body 100 . This range is the observable range of the external sensor. This range may be set in advance.

周辺情報は、例えば、移動体100の周辺の撮影画像および距離情報などである。なお、周辺情報は、移動体100の位置情報を含んでいてもよい。撮影画像は、撮影によって得られる撮影画像データである(以下、単に、撮影画像と称する場合がある)。距離情報は、移動体100から対象までの距離を示す情報である。対象は、外界における、外界センサによって観測可能な箇所である。位置情報は、相対位置であってもよいし、絶対位置であってもよい。 Peripheral information is, for example, a photographed image and distance information of the periphery of the mobile object 100 . In addition, the peripheral information may include position information of the moving object 100 . A photographed image is photographed image data obtained by photographing (hereinafter, simply referred to as a photographed image in some cases). The distance information is information indicating the distance from the moving body 100 to the object. A target is a point in the external world observable by an external sensor. The position information may be relative position or absolute position.

外界センサは、例えば、撮影によって撮影画像を得る撮影装置(カメラ)、距離センサ(ミリ波レーダ、レーザセンサ、距離画像センサ)、位置センサ(GNSS(Global Navigation Satellite System)、GPS(Global Positioning System)、無線通信装置)などである。 External sensors include, for example, a photographing device (camera) that obtains a photographed image by photographing, a distance sensor (millimeter wave radar, laser sensor, distance image sensor), a position sensor (GNSS (Global Navigation Satellite System), GPS (Global Positioning System) , wireless communication device), etc.

撮影画像は、画素ごとに画素値を規定したデジタル画像データや、画素毎にセンサ100Bからの距離を規定したデプスマップ(距離画像)などである。レーザセンサは、例えば、水平面に対して平行に設置された二次元LIDAR(Laser Imaging Detection and Ranging)センサや、三次元LIDARセンサである。 The captured image is digital image data that defines the pixel value for each pixel, a depth map (distance image) that defines the distance from the sensor 100B for each pixel, or the like. The laser sensor is, for example, a two-dimensional LIDAR (Laser Imaging Detection and Ranging) sensor installed parallel to a horizontal plane, or a three-dimensional LIDAR sensor.

動力制御部100Gは、動力部100Hを制御する。動力部100Hは、移動体100に搭載された、駆動するデバイスである。動力部100Hは、例えば、エンジン、モータ、車輪、などである。 The power control section 100G controls the power section 100H. The power unit 100H is a driving device mounted on the moving body 100 . The power section 100H is, for example, an engine, a motor, wheels, and the like.

動力部100Hは、動力制御部100Gの制御によって駆動する。本実施形態の移動体100は、自律走行可能であるので、動力制御部100Gは、画像処理装置10で生成された出力情報や、センサ100Bから得られた情報などに基づいて、周辺の状況を判断し、アクセル量、ブレーキ量、操舵角などの制御を行う。すなわち、移動体100の前方に検出された障害物が移動体100に衝突する可能性がある場合には、動力部100Hを制御して、移動体100と障害物との接触を回避させる。 The power section 100H is driven under the control of the power control section 100G. Since the moving object 100 of the present embodiment can travel autonomously, the power control unit 100G can monitor the surrounding situation based on output information generated by the image processing device 10, information obtained from the sensor 100B, and the like. Acceleration amount, brake amount, steering angle, etc. are controlled. That is, when an obstacle detected in front of the moving body 100 may collide with the moving body 100, the power unit 100H is controlled to avoid contact between the moving body 100 and the obstacle.

次に、移動体100の電気的構成について詳細に説明する。図2は、本実施形態に係わる障害物検知装置を含む、移動体100の構成の一例を示すブロック図である。 Next, the electrical configuration of the moving body 100 is described in detail. FIG. 2 is a block diagram showing an example of the configuration of the moving body 100 including the obstacle detection device according to this embodiment.

移動体100は、画像処理装置10と、出力部100Aと、センサ100Bと、動力制御部100Gと、動力部100Hと、を備える。出力部100Aは、上述したように、通信部100Dと、ディスプレイ100Eと、スピーカ100Fと、を含む。本実施形態の障害物検知装置1は、画像処理装置10を含んで構成される。 The moving body 100 includes an image processing device 10, an output section 100A, a sensor 100B, a power control section 100G, and a power section 100H. Output unit 100A includes communication unit 100D, display 100E, and speaker 100F, as described above. The obstacle detection device 1 of this embodiment includes an image processing device 10 .

画像処理装置10、出力部100A、センサ100B、および動力制御部100Gは、バス100Iを介して接続されている。動力部100Hは、動力制御部100Gに接続されている。 Image processing device 10, output unit 100A, sensor 100B, and power control unit 100G are connected via bus 100I. The power section 100H is connected to the power control section 100G.

なお、出力部100A(通信部100D、ディスプレイ100E、スピーカ100F)、センサ100B、および動力制御部100G、の少なくとも1つは、有線または無線で画像処理装置10に接続すればよい。また、出力部100A(通信部100D、ディスプレイ100E、スピーカ100F)、センサ100B、および動力制御部100Gの少なくとも1つと、画像処理装置10とを、ネットワークを介して接続してもよい。 At least one of the output unit 100A (communication unit 100D, display 100E, speaker 100F), sensor 100B, and power control unit 100G may be connected to the image processing apparatus 10 by wire or wirelessly. At least one of the output unit 100A (communication unit 100D, display 100E, speaker 100F), sensor 100B, and power control unit 100G may be connected to the image processing device 10 via a network.

図3は、移動体100に搭載された画像処理装置10の一例を示すブロック図である。画像処理装置10は、I/F10c、メモリ10b、プロセッサ10aを含む。 FIG. 3 is a block diagram showing an example of the image processing device 10 mounted on the mobile body 100. As shown in FIG. The image processing device 10 includes an I/F 10c, a memory 10b, and a processor 10a.

I/F10cは、他のシステムとのネットワーク(N/W)等に接続されている。また、I/F10cは、通信部100Dとの間の情報の送受信を司る。I/F10cを介して、人などの認識された対象の情報、認識された対象までの距離の情報が出力される。 The I/F 10c is connected to a network (N/W) or the like with other systems. Also, the I/F 10c controls transmission and reception of information with the communication unit 100D. Through the I/F 10c, information on a recognized target such as a person and information on the distance to the recognized target are output.

メモリ10bは、各種データを記憶する。メモリ10bは、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、メモリ10bは、画像処理装置10の外部に設けてもよい。ROMは、プロセッサ10aによって実行されるプログラムや必要なデータを保持する。RAMは、プロセッサ10aの作業領域として機能する。また、メモリ10bは、移動体100の外部に設けてもよい。例えば、メモリ10bを、クラウド上に設置されたサーバ装置に配置してもよい。 The memory 10b stores various data. The memory 10b is, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. Note that the memory 10 b may be provided outside the image processing apparatus 10 . The ROM holds programs executed by the processor 10a and necessary data. The RAM functions as a work area for the processor 10a. Also, the memory 10b may be provided outside the moving body 100 . For example, the memory 10b may be arranged in a server device installed on the cloud.

また、メモリ10bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、メモリ10bを、複数の記憶媒体から構成してもよい。 Also, the memory 10b may be a storage medium. Specifically, the storage medium may store or temporarily store programs and various information downloaded via a LAN (Local Area Network), the Internet, or the like. Also, the memory 10b may be composed of a plurality of storage media.

プロセッサ10aにおける各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ10bへ記憶されている。プロセッサ10aは、プログラムをメモリ10bから読出、実行することで、各プログラムに対応する機能部を実現するプロセッサである。 Each processing function of the processor 10a is stored in the memory 10b in the form of a computer-executable program. The processor 10a is a processor that implements a functional unit corresponding to each program by reading and executing the program from the memory 10b.

なお、各機能の各々を実現するための独立した複数のプロセッサを組み合わせて処理回路10eを構成してもよい。この場合、各プロセッサがプログラムを実行することにより各機能を実現する。また、各処理機能がプログラムとして構成され、1つの処理回路10eが各プログラムを実行してもよいし、専用回路として画像処理アクセラレータ10dを設け、特定の機能が独立したプログラム実行回路に実装してもよい。 Note that the processing circuit 10e may be configured by combining a plurality of independent processors for realizing each function. In this case, each processor implements each function by executing a program. Further, each processing function may be configured as a program, and one processing circuit 10e may execute each program, or an image processing accelerator 10d may be provided as a dedicated circuit, and a specific function may be implemented in an independent program execution circuit. good too.

プロセッサ10aは、メモリ10bに保存されたプログラムを読み出し実行することで機能を実現する。なお、メモリ10bにプログラムを保存する代わりに、プロセッサをFPGAなどで構成し、回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 The processor 10a implements its functions by reading and executing programs stored in the memory 10b. Instead of storing the program in the memory 10b, the processor may be configured with an FPGA or the like, and the program may be configured to be directly embedded in the circuit. In this case, the processor implements its functions by reading and executing the program embedded in the circuit.

図4は、画像処理装置10の構成の一例を示す概略ブロック図である。図4には、障害物検知装置に係わる構成のみを図示している。画像処理装置10は、画像処理部11と、障害物特定部12とから構成されている。 FIG. 4 is a schematic block diagram showing an example of the configuration of the image processing apparatus 10. As shown in FIG. FIG. 4 shows only the configuration related to the obstacle detection device. The image processing device 10 is composed of an image processing section 11 and an obstacle identification section 12 .

画像処理部11は、センサ100Bに含まれているカメラに関し、3次元空間での姿勢(以下、カメラ姿勢と示す)を推定する。また、カメラ前方の障害物を3次元点群として抽出する。画像処理部11は、画像処理制御部111と、カメラ姿勢推定部112と、三次元点群検出部113と、三次元点群蓄積部114と、ノイズ点除去部115とを有して構成される。 The image processing unit 11 estimates the orientation of the camera included in the sensor 100B in a three-dimensional space (hereinafter referred to as camera orientation). Also, obstacles in front of the camera are extracted as a three-dimensional point group. The image processing unit 11 includes an image processing control unit 111, a camera posture estimation unit 112, a 3D point group detection unit 113, a 3D point group storage unit 114, and a noise point removal unit 115. be.

障害物特定部12は、画像処理部11によって推定されたカメラ姿勢と、抽出された三次元点群に基づき、カメラ前方にある障害物を特定する。 The obstacle identification unit 12 identifies obstacles in front of the camera based on the camera orientation estimated by the image processing unit 11 and the extracted three-dimensional point group.

画像処理制御部111は、カメラ姿勢を推定して三次元点群を抽出するよう、画像処理部11の他の構成要素の動作を制御する。 The image processing control unit 111 controls operations of other components of the image processing unit 11 so as to estimate the camera pose and extract the 3D point cloud.

カメラ姿勢推定部112は、センサ100Bに含まれるカメラから、時系列で撮影画像を取得する。時系列の撮影画像は一定時間間隔で入力される。以下の説明において、撮影画像を入力した時刻を、入力した順に0、1、2、…、t-1、t、t+1、…のように番号で表す。また、以下の説明において、カメラから取得した撮影画像を入力画像と示し、時刻tの入力画像をフレームtと呼ぶ。カメラ姿勢推定部112は、取得した時系列の撮影画像を解析し、SfM(Structure from Motion)などの手法を用いて、カメラ姿勢を推定する。 The camera posture estimation unit 112 acquires captured images in time series from the camera included in the sensor 100B. Time-series captured images are input at regular time intervals. In the following description, the times at which captured images are input are represented by numbers such as 0, 1, 2, . . . , t−1, t, t+1, . Also, in the following description, a photographed image obtained from a camera is referred to as an input image, and an input image at time t is referred to as frame t. The camera posture estimation unit 112 analyzes the acquired time-series captured images and estimates the camera posture using a technique such as SfM (Structure from Motion).

三次元点検出部としての三次元点群検出部113は、入力画像から特徴点を検出し、当該特徴点が実際に存在する位置の三次元座標を算出する。以下、特徴点が実際に存在すると推定される点を三次元点と示し、三次元点の位置を三次元座標と示す。三次元点群検出部113における、特徴点から三次元座標を算出する方法について説明する。まず、三次元点群検出部113は、例えば、sobelフィルタなどを用いて、入力画像(フレームt)中に存在する物体等の境界(エッジ)を検出し、特徴点とする。なお、特徴点の検出は、GFTT(Good Features To Track)など、他の手法やアルゴリズムを用いて行ってもよい。 A three-dimensional point group detection unit 113 as a three-dimensional point detection unit detects feature points from an input image and calculates three-dimensional coordinates of positions where the feature points actually exist. In the following description, a point where a feature point is estimated to actually exist will be referred to as a three-dimensional point, and the position of the three-dimensional point will be referred to as a three-dimensional coordinate. A method of calculating three-dimensional coordinates from feature points in the three-dimensional point group detection unit 113 will be described. First, the three-dimensional point group detection unit 113 uses, for example, a Sobel filter or the like to detect boundaries (edges) of an object or the like existing in the input image (frame t) and set them as feature points. Note that feature point detection may be performed using other techniques or algorithms such as GFTT (Good Features To Track).

次に、三次元点群検出部113は、現在のフレーム(フレームt)において検出した特徴点と、過去のフレーム(例えば、フレームt-1)において検出した特徴点との対応付けを行い、対応点ペアを特定する。すなわち、対応点ペアとは、過去フレームと現在フレームの双方に存在する、同一構造物の同一部分について検出された特徴点のペアである。対応点ペアは、例えば画像テンプレートマッチングにより特定することができる。 Next, the 3D point cloud detection unit 113 associates the feature points detected in the current frame (frame t) with the feature points detected in the past frame (eg, frame t−1), Identify point pairs. That is, a corresponding point pair is a pair of feature points detected for the same portion of the same structure existing in both the past frame and the current frame. Corresponding point pairs can be identified, for example, by image template matching.

具体的には、現在のフレームと過去フレームにおいて検出された特徴点について、当該特徴点を中心とする小領域を設定する。そして、現在のフレームに設定された小領域と、過去フレームにおいて設定された小領域との間の類似度を算出する。類似度が設定された閾値以上である場合、現在のフレームの小領域内の特徴点と、過去フレームの小領域内の特徴点とを対応点ペアとする。類似度の計算は、ZNCC(Zero-mean Normalization Cross-Correction、ゼロ平均正規化相関)やNCC(Normalization Cross-Correction、正規化相関)、SAD(Sum of Squared Difference)、SSD(Sum of Absolute Difference)など、一般的に知られた類似度計算を用いて行う。なお、対応点ペアの特定は、上述の画像テンプレートマッチングに限定されない。例えば、ORB特徴量(Oriented FAST and Rotated BRIEF)など、特徴点マッチングの手法を用いて対応点ペアを特定してもよい。 Specifically, for the feature points detected in the current frame and the previous frame, a small area centered on the feature point is set. Then, the degree of similarity between the small area set in the current frame and the small area set in the past frame is calculated. If the similarity is equal to or higher than the set threshold, the feature points in the small area of the current frame and the feature points in the small area of the past frame are taken as corresponding point pairs. Similarity calculations are ZNCC (Zero-mean Normalization Cross-Correction, zero-mean normalization correlation), NCC (Normalization Cross-Correction, normalization correlation), SAD (Sum of Squared Difference), SSD (Sum of Absolute Difference) , etc., using a generally known similarity calculation. Note that the identification of corresponding point pairs is not limited to the image template matching described above. For example, corresponding point pairs may be identified using feature point matching techniques such as ORB features (Oriented FAST and Rotated BRIEF).

最後に、特定した各対応点ペアについて、(1)過去フレームと現在フレームのカメラ姿勢、(2)過去フレームと現在フレームにおける特徴点の入力画像上での座標、の各情報に基づき、特徴点から三次元座標を推定する。座標の推定には、三角測量など一般的な三次元座標推定手法を用いる。 Finally, for each identified pair of corresponding points, the feature points Estimate the 3D coordinates from A general three-dimensional coordinate estimation method such as triangulation is used to estimate the coordinates.

三次元点群検出部113における特徴点から三次元座標を推定する方法について、図5、6を用いて具体的に説明する。図5、6は画像テンプレートマッチングと三角測量を用いた三次元座標計算の説明図である。図5は、三次元点群検出部113が取得する入力画像であり、現在の入力画像であるフレームtと、過去の入力画像であるフレームt-1とを左から右へ時系列に並べて示している。なお、以下の図面において、移動体100が走行する路面に直交する方向をY方向、路面と平行であって移動体100の進行する方向(奥行き方向)をZ方向、路面と平行であって移動体100の進行方向と直交する方向をX方向とする。 A method for estimating three-dimensional coordinates from feature points in the three-dimensional point group detection unit 113 will be specifically described with reference to FIGS. 5 and 6 are explanatory diagrams of three-dimensional coordinate calculation using image template matching and triangulation. FIG. 5 is an input image acquired by the three-dimensional point cloud detection unit 113, and shows a frame t, which is a current input image, and a frame t-1, which is a past input image, arranged in chronological order from left to right. ing. In the following drawings, the Y direction is the direction orthogonal to the road surface on which the moving body 100 travels, the Z direction is the direction parallel to the road surface in which the moving body 100 travels (depth direction), and the Z direction is parallel to the road surface. The direction orthogonal to the traveling direction of the body 100 is defined as the X direction.

まず、三次元点群検出部113は、現在のフレームであるフレームtにおいて、特徴点PFtを検出する。図5では、路上に設置されている箱状の障害物のエッジ(角部)を、特徴点PFtとして検出した例を示している。次に、フレームtの特徴点PFtと、過去のフレームであるフレームt-1において既に検出されている特徴点との対応付けを行い、対応点ペアを特定する。図5に示す一例の場合、画像テンプレートマッチングによって、フレームtの特徴点PFtと、フレームt-1の特徴点PFt-1とが対応点ペアとして特定される。 First, the three-dimensional point group detection unit 113 detects feature points PFt in a frame t, which is the current frame. FIG. 5 shows an example in which edges (corners) of a box-shaped obstacle placed on the road are detected as feature points PFt. Next, the feature points PFt of the frame t are associated with the feature points already detected in the frame t−1, which is the past frame, to identify corresponding point pairs. In the example shown in FIG. 5, image template matching identifies a feature point PFt of frame t and a feature point PFt-1 of frame t-1 as a pair of corresponding points.

最後に、三次元点群検出部113は、三角測量などを用い、フレームtの特徴点PFtの三次元点を推定して三次元座標を算出する。具体的な方法を、図6を用いて説明する。まず、フレームtの撮影時におけるカメラ100B(t)のレンズの光学中心と、フレームt上の特徴点PFtとを結ぶ直線をひく。次に、フレームt-1の撮影時におけるカメラ100B(t-1)のレンズの光学中心と、フレームt-1上の特徴点PFt-1とを結ぶ直線をひく。そして、2本の直線の交点を、特徴点PFtとして検出した障害物のエッジ(角部)の実在点(三次元点Ptd)であると推定する。 Finally, the three-dimensional point group detection unit 113 uses triangulation or the like to estimate the three-dimensional point of the feature point PFt of the frame t and calculate the three-dimensional coordinates. A specific method will be described with reference to FIG. First, a straight line is drawn connecting the optical center of the lens of the camera 100B(t) when the frame t is captured and the feature point PFt on the frame t. Next, draw a straight line connecting the optical center of the lens of the camera 100B(t-1) when the frame t-1 was shot and the feature point PFt-1 on the frame t-1. Then, the intersection of the two straight lines is estimated to be the real point (three-dimensional point Ptd) of the edge (corner) of the obstacle detected as the feature point PFt.

三次元点Ptdの位置座標は、(i)フレームt-1、及び、フレームtのカメラ姿勢、(ii)フレームt-1における特徴点PFt-1の座標、(iii)フレームtにおける特徴点PFtの座標、(iv)カメラの焦点距離(カメラのレンズの光学中心からフレームまでの距離)、の各情報を用いて算出される。 The position coordinates of the three-dimensional point Ptd are: (i) the camera postures of the frames t-1 and t, (ii) the coordinates of the feature point PFt-1 in the frame t-1, and (iii) the feature point PFt in the frame t. and (iv) the focal length of the camera (the distance from the optical center of the camera lens to the frame).

三次元点群蓄積部114は、三次元点群検出部113において算出された三次元点を、バッファなどに蓄積する。一般的に、1つのフレームについて、複数の特徴点が検出される。そして、それぞれの特徴点について、対応点ペアが特定された特徴点については、三次元点が推定され三次元座標が算出される。なお、以下の説明において、三次元点の集合を三次元点群と示す。すなわち、三次元点群蓄積部114は、三次元点群検出部113から三次元点群の情報(三次元座標)を取得し、蓄積する。 The 3D point cloud storage unit 114 stores the 3D points calculated by the 3D point cloud detection unit 113 in a buffer or the like. In general, multiple feature points are detected for one frame. Then, for each feature point for which a corresponding point pair has been specified, a three-dimensional point is estimated and three-dimensional coordinates are calculated. In the following description, a set of three-dimensional points will be referred to as a three-dimensional point group. That is, the 3D point cloud accumulation unit 114 acquires and accumulates 3D point cloud information (three-dimensional coordinates) from the 3D point cloud detection unit 113 .

三次元点群蓄積部114には、過去のフレームにおいて算出された三次元点群の情報が累積されている。三次元点群検出部113に新しいフレームが入力され、当該フレーム(現在のフレーム)について特徴点の三次元座標が算出される都度、三次元点群蓄積部114から三次元点群蓄積部114に三次元点群の情報が出力される。三次元点群蓄積部114には、すでに蓄積されている三次元点群の情報に加えて、入力された三次元点群の情報が格納される。1つのフレームの三次元点の個数が多く、また、入力されるフレーム数が多い場合、三次元点群蓄積部114に入力される三次元点の個数が膨大となり、全ての情報を格納しようとすると、膨大な容量のバッファが必要となる。一般的に、バッファの容量は限られているため、リングバッファ等を用い、FIFO(First in first out)方式で保存するデータの置き換えを行うことが好ましい。 The 3D point cloud accumulation unit 114 accumulates information on 3D point clouds calculated in past frames. Each time a new frame is input to the 3D point cloud detection unit 113 and the 3D coordinates of the feature points are calculated for that frame (current frame), the 3D point cloud storage unit 114 transfers the 3D point cloud information is output. The 3D point cloud storage unit 114 stores information on the input 3D point cloud in addition to information on the 3D point cloud that has already been stored. When the number of 3D points in one frame is large and the number of frames to be input is large, the number of 3D points to be input to the 3D point cloud accumulation unit 114 becomes enormous, and it is difficult to store all the information. Then, a huge amount of buffer is required. Since the capacity of a buffer is generally limited, it is preferable to use a ring buffer or the like to replace data to be stored in a FIFO (first in first out) manner.

ノイズ点除去部115は、三次元点群蓄積部114に蓄積されている三次元点の中からノイズ点を抽出して除去する。同じ構造物の局所部分に検出された三次元点群に含まれる三次元点は、正しく検出されていれば、カメラからの距離(Z方向の座標、奥行き)が同程度になる。従って、該三次元点群の中に、明らかに他の三次元点のZ座標と位置が異なる座標を有する三次元点が含まれている場合、当該三次元点は、正しく三次元座標が算出されていない可能性が高い。従って、このような三次元点をノイズ点として抽出し、三次元点群から除去することにより、後段の障害物検知において、検出精度を向上させることができる。 The noise point removal unit 115 extracts and removes noise points from the three-dimensional points accumulated in the three-dimensional point cloud accumulation unit 114 . Three-dimensional points included in a three-dimensional point group detected in a local portion of the same structure will have similar distances (coordinates in the Z direction, depth) from the camera if they are detected correctly. Therefore, if the 3D point group includes a 3D point whose position is clearly different from the Z coordinate of another 3D point, the 3D coordinate of the 3D point is calculated correctly. Most likely not. Therefore, by extracting such three-dimensional points as noise points and removing them from the three-dimensional point group, it is possible to improve detection accuracy in subsequent obstacle detection.

ここで、ノイズ点の発生メカニズムについて、図7、8を用いて説明する。図7、8は、ノイズ点発生のメカニズムの一例を説明する図である。正しく三次元座標が算出されない主な原因の一つに、対応点ペアの誤特定があげられる。画像中に繰り返しパターンが存在すると、繰り返しパターン上には類似度が近しい特徴点が複数存在する。繰り返しパターンの一例として、図7に示すような導流体(一定間隔で路上に白線が描かれている道路標示、ゼブラゾーンとも呼ばれる)があげられる。過去の入力画像であるフレームt-1において、導流体の白線のうちY方向上から5本目の白線部分に特徴点PFt-1が検出されているものとする。また、現在の入力画像であるフレームtにおいて、導流体の白線のうちY方向上から6本目の白線部分に特徴点PFt´が検出され、Y方向上から5本目の白線部分に特徴点PFtが検出されたものとする。 Here, the noise point generation mechanism will be described with reference to FIGS. 7 and 8 are diagrams for explaining an example of the mechanism of noise point generation. One of the main reasons why three-dimensional coordinates are not calculated correctly is erroneous identification of corresponding point pairs. When a repetitive pattern exists in an image, a plurality of feature points with similar degrees of similarity exist on the repetitive pattern. An example of a repeating pattern is a guiding fluid (a road marking in which white lines are drawn on the road at regular intervals, also called a zebra zone) as shown in FIG. In frame t-1, which is a past input image, it is assumed that feature point PFt-1 is detected in the fifth white line portion from the Y direction among the white lines of the conducting fluid. In frame t, which is the current input image, a feature point PFt′ is detected in the white line portion of the leading fluid that is the sixth white line from the Y direction, and a feature point PFt is detected in the white line portion that is the fifth from the Y direction. shall be detected.

画像テンプレートマッチングにより対応点ペアを特定する場合、それぞれの特徴点を中心とする微小領域を切り出して類似度を算出する。正しくは、フレームt-1の特徴点PFt-1と、フレームtの特徴点PFtとが対応点ペアである。(共に、導流体の白線のうちY方向上から5番目の白線部分に位置する特徴点である。)ところが、特徴点PFt´と特徴点PFtは、どちらも導流体の白線上に存在している。このため、特徴点PFt´の微小領域と特徴点PFtの微小領域とが極めて類似しており、フレームt-1の特徴点PFt-1と、フレームtの特徴点PFt´とが対応点ペアとして誤特定される可能性がある。 When identifying a corresponding point pair by image template matching, a minute area centered on each feature point is cut out to calculate the degree of similarity. Correctly, the feature point PFt-1 of the frame t-1 and the feature point PFt of the frame t are the corresponding point pair. (Both feature points are located on the fifth white line portion from the Y direction of the white line of the guiding fluid.) However, both the feature point PFt′ and the feature point PFt are present on the white line of the guiding fluid. there is For this reason, the minute area of the feature point PFt' and the minute area of the feature point PFt are very similar, and the feature point PFt-1 of the frame t-1 and the feature point PFt' of the frame t form a corresponding point pair. May be misidentified.

特徴点PFtを対応点ペアとして正しい三次元点を推定すると、図8に示すように、推定された三次元点Ptdは、路面上(Y=0)であってカメラ100B(t)からの奥行がZ=d1の位置であると算出される。一方、間違った特徴点PFt´を対応点ペアとして間違った三次元点を推定すると、推定された三次元点Ptd´は、路面から高さY=h2の位置であってカメラ100B(t)からの奥行がZ=d2の位置であると算出される。 When a correct three-dimensional point is estimated using the feature points PFt as corresponding point pairs, the estimated three-dimensional point Ptd is on the road surface (Y=0) and is at the depth from the camera 100B(t), as shown in FIG. is calculated to be the position of Z=d1. On the other hand, if an incorrect three-dimensional point is estimated using an incorrect feature point PFt' as a pair of corresponding points, the estimated three-dimensional point Ptd' is located at a height Y=h2 from the road surface and from the camera 100B(t). is calculated to be the position of Z=d2.

このように、間違った対応点ペアを用いて三次元点を推定してしまった場合、正しく推定した三次元点と異なる三次元座標が算出されてしまう。特に、奥行き方向であるZ軸は、正しい三次元点の位置と間違った三次元点の位置との差が大きく算出される傾向にある。 In this way, if a 3D point is estimated using an erroneous pair of corresponding points, 3D coordinates different from those of a correctly estimated 3D point will be calculated. In particular, the Z-axis, which is the depth direction, tends to result in a large difference between correct and incorrect 3D point positions.

ノイズ点除去部115は、上述したノイズ点の性質に基づき、三次元点群蓄積部114に蓄積されている三次元点の中からノイズ点を除去する。すなわち、ある三次元点のカメラ100Bからの奥行方向の距離が、画像上における近傍領域に存在する他の三次元点群と大きく異なる場合、当該三次元点をノイズ点と推定し除去する。 The noise point removal unit 115 removes noise points from the three-dimensional points accumulated in the three-dimensional point cloud accumulation unit 114 based on the properties of the noise points described above. That is, when the distance of a certain 3D point from the camera 100B in the depth direction is significantly different from other 3D point groups present in the neighboring area on the image, the 3D point is presumed to be a noise point and removed.

図9は、第1の実施形態に係わる三次元点群からノイズ点を除去する手順を説明するフローチャートである。まず、三次元点群蓄積部114に蓄積されている三次元点群を取得し、現在フレーム(フレームt)に投影する。そして、それぞれの三次元点について、フレーム上での座標(画像座標)を算出する(S1)。例えば、三次元点群蓄積部114にT個の三次元点群が蓄積されている場合、S1ではT個の画像座標が算出される。 FIG. 9 is a flowchart for explaining the procedure for removing noise points from the three-dimensional point cloud according to the first embodiment. First, the 3D point cloud stored in the 3D point cloud storage unit 114 is acquired and projected onto the current frame (frame t). Then, the coordinates (image coordinates) on the frame are calculated for each three-dimensional point (S1). For example, when T 3D point clouds are accumulated in the 3D point cloud accumulation unit 114, T image coordinates are calculated in S1.

次に、T個の三次元点から、ノイズ点か否かの判定を最初に行う三次元点をセットする(S2)。例えば、T個の三次元点のそれぞれに対し1~Tの連番を付与しておく。S2では、1番が付与された三次元点が、最初にノイズ点判定を行う点としてセットされる。図9の手順では、ノイズ点の判定を行う三次元点の番号を変数nに代入して保持することにより、ノイズ候補点としてのノイズ点判定対象点が特定される。 Next, a three-dimensional point is set from among the T three-dimensional points to determine whether it is a noise point or not (S2). For example, a serial number from 1 to T is given to each of T three-dimensional points. In S2, the three-dimensional point assigned number 1 is set as the point to be first subjected to noise point determination. In the procedure of FIG. 9, noise point determination target points as noise candidate points are specified by substituting and holding the number of the three-dimensional point for which noise point determination is to be performed in the variable n.

続いて、ノイズ点判定対象点である三次元点について、当該三次元点を含む評価領域Reを設定する(S3)。図10、及び、図11は、ノイズ点除去方法の一例を説明する図である。図10は、三次元点群蓄積部114に蓄積されている三次元点群を現在フレームに投影して得られる画像である。図11は、評価領域Reに含まれる三次元点の三次元座標を説明する図である。なお、図10、11において、網掛けされた丸印で表される三次元点Ptdは正しく推定された三次元点を示しており、バツ印を含む白丸印で表される三次元点Ptd´は誤推定された三次元点を示している。 Subsequently, for the three-dimensional points that are noise point determination target points, an evaluation region Re including the three-dimensional points is set (S3). 10 and 11 are diagrams for explaining an example of the noise point removal method. FIG. 10 shows an image obtained by projecting the 3D point cloud stored in the 3D point cloud storage unit 114 onto the current frame. FIG. 11 is a diagram for explaining three-dimensional coordinates of three-dimensional points included in the evaluation area Re. In FIGS. 10 and 11, the three-dimensional point Ptd indicated by the hatched circle indicates the correctly estimated three-dimensional point, and the three-dimensional point Ptd′ indicated by the white circle including the cross mark. indicates an erroneously estimated 3D point.

まず、図11に示すように、三次元点群蓄積部114に15個の三次元点からなる三次元点群PGが蓄積されているものとする。これら15個の三次元点群PGを現在フレームに投影すると、図10に示す画像が得らえる。例えば、S2において、ノイズ点判定対象点として三次元点P1がセットされたものとする。この場合、S3では、点P1を中心する所定の大きさの矩形領域が、評価領域Reとして設定される。 First, as shown in FIG. 11, it is assumed that a 3D point group PG consisting of 15 3D points is accumulated in the 3D point group accumulation unit 114 . Projecting these 15 3D point clouds PG onto the current frame yields the image shown in FIG. For example, in S2, it is assumed that the three-dimensional point P1 is set as the noise point determination target point. In this case, in S3, a rectangular area having a predetermined size centered on the point P1 is set as the evaluation area Re.

そして、評価領域Reに含まれる三次元点を抽出する(S4)。図10に示す一例の場合、三次元点P1を含む4つの三次元点が抽出される。現在フレームに投影された三次元点が評価領域Reに含まれるか否かの判定は、S1で算出された画素座標を用いて行われる。 Then, three-dimensional points included in the evaluation region Re are extracted (S4). In the example shown in FIG. 10, four 3D points including 3D point P1 are extracted. The pixel coordinates calculated in S1 are used to determine whether or not the three-dimensional point projected onto the current frame is included in the evaluation area Re.

続いて、S4で抽出された三次元点の平均距離(カメラからそれぞれの三次元点までの奥行方向の距離の平均値)を算出する(S5)。すなわち、S4で抽出された三次元点の三次元座標について、Z方向の平均値を算出する。例えば、図11に示す一例の場合、評価領域Reに含まれる三次元点は、Ptd1´、Ptd2、Ptd3、Ptd4、の4点となる。従って、これら4点のZ座標の平均値を算出する。 Subsequently, the average distance of the three-dimensional points extracted in S4 (the average value of the distances in the depth direction from the camera to each three-dimensional point) is calculated (S5). That is, the average value in the Z direction is calculated for the three-dimensional coordinates of the three-dimensional points extracted in S4. For example, in the case of the example shown in FIG. 11, the three-dimensional points included in the evaluation region Re are four points, Ptd1′, Ptd2, Ptd3, and Ptd4. Therefore, the average value of the Z coordinates of these four points is calculated.

そして、ノイズ点判定対象点のカメラからの奥行方向の距離と、S4で算出した平均距離の差分を算出する。更に、算出した差分を平均距離で割り、ノイズ評価値を算出する(S6)。例えば、S6におけるノイズ評価値の算出は、以下の(1)式を用いて計算される。 Then, the difference between the distance in the depth direction from the camera of the noise point determination target point and the average distance calculated in S4 is calculated. Further, the calculated difference is divided by the average distance to calculate a noise evaluation value (S6). For example, the calculation of the noise evaluation value in S6 is performed using the following equation (1).

ノイズ評価値=|判定対象点の距離-平均距離|/平均距離 …(1)式
(1)式において、ノイズ評価値は、判定対象点の距離(カメラからの奥行方向の距離)が平均距離に近いほどゼロに近づく。逆に、判定対象点の距離(カメラからの奥行方向の距離)が平均距離から遠いほど大きな値となる。
Noise evaluation value = | distance of determination target point - average distance | / average distance (1) In equation (1), the noise evaluation value is the average distance of the distance of the determination target point (distance in the depth direction from the camera). The closer to , the closer to zero. Conversely, the farther the distance of the determination target point (the distance in the depth direction from the camera) from the average distance, the greater the value.

次に、S6で算出されたノイズ評価値と予め設定された閾値とを比較する。ノイズ評価値が閾値よりも大きい場合(S7、YES)、判定対象点をノイズ点と判定し、三次元点群から除去する(S8)。S8が終了すると、S9に進む。一方、ノイズ評価値が閾値以下の場合(S7、NO)、判定対象点はノイズ点ではない(正しく推定された三次元点である)と判定されるため、S8をスキップしてS9に進む。なお、S7においては、距離差分を平均距離で割ったものをノイズ評価値としているので、平均距離の大きさにかかわらず、ひとつの閾値で全ての判定対象点のノイズ判定を行うことができる。 Next, the noise evaluation value calculated in S6 is compared with a preset threshold value. If the noise evaluation value is greater than the threshold (S7, YES), the determination target point is determined as a noise point and removed from the three-dimensional point group (S8). When S8 ends, the process proceeds to S9. On the other hand, if the noise evaluation value is equal to or less than the threshold (S7, NO), the determination target point is determined not to be a noise point (it is a correctly estimated three-dimensional point), so S8 is skipped and the process proceeds to S9. In S7, since the noise evaluation value is obtained by dividing the distance difference by the average distance, it is possible to perform noise judgment for all the judgment target points using a single threshold regardless of the magnitude of the average distance.

S9では、S1で取得した全ての三次元点についてノイズ点判定を行ったか否かを確認する。未判定の三次元点が存在する場合(S9、NO)、次の判定対象点をセットし(S10)、S3からS8の一連のノイズ点判定及び除去手順を繰り返し実行する。未判定の三次元点が存在しない場合、つまり、全ての三次元点についてノイズ点判定を実施した場合(S9、YES)、三次元点群からノイズ点を除去する一連の手順を終了する。 In S9, it is checked whether noise point determination has been performed for all three-dimensional points acquired in S1. If an undetermined three-dimensional point exists (S9, NO), the next point to be determined is set (S10), and a series of noise point determination and removal procedures from S3 to S8 are repeatedly executed. If there is no undetermined 3D point, that is, if noise point determination has been performed for all 3D points (S9, YES), a series of procedures for removing noise points from the 3D point group is terminated.

例えば、T個の三次元点のそれぞれに対し1~Tの連番を付与しておき、1番から順に判定対象点としていく場合、S9において、変数nの値である現在の判定対象点がTである場合(n==T)、全ての三次元点の判定が終了したとみなすことができる。S9において、n<Tの場合、次の番号の三次元点を判定対象点として(n=n+1)、S3からS8の一連のノイズ点判定及び除去手順を繰り返し実行する。 For example, if a serial number from 1 to T is given to each of T three-dimensional points, and the points to be determined are sequentially numbered from 1, in S9, the current point to be determined, which is the value of the variable n, is If T (n==T), it can be considered that all 3D points have been determined. In S9, if n<T, a series of noise point determination and removal procedures from S3 to S8 are repeatedly executed with the next numbered three-dimensional point as a determination target point (n=n+1).

ノイズ点除去部115は、ノイズ点除去が終了した三次元点群を、障害物特定部12へ出力する。 The noise point removal unit 115 outputs the three-dimensional point cloud for which noise point removal has been completed to the obstacle identification unit 12 .

このように、本実施形態によれば、入力画像から推定された三次元点群に含まれる三次元点について、奥行き位置に基づき三次元座標が正しく算出されているか否かを判定する。正しく三次元座標が算出されていないと推定される三次元点は、ノイズ点として三次元点群から除去してから、障害物特定部12へ当該三次元点群を入力する。従って、障害物特定部12は、ノイズ点が除去された確度の高い三次元点を用いて障害物の特定を行うことができるので、何もない空間に誤って障害物を誤検知する可能性が低減され、障害物を精度よく検出することができる。 As described above, according to the present embodiment, it is determined whether or not the 3D coordinates of the 3D points included in the 3D point group estimated from the input image are correctly calculated based on the depth positions. 3D points whose 3D coordinates are estimated to be incorrectly calculated are removed from the 3D point group as noise points, and then the 3D point group is input to the obstacle identification unit 12 . Therefore, since the obstacle identification unit 12 can identify an obstacle using highly accurate three-dimensional points from which noise points have been removed, there is a possibility of erroneously detecting an obstacle in an empty space. is reduced, and obstacles can be detected with high accuracy.

なお、入力画像から検出される特徴点の個数は、画像によって大きく変動する。図10及び図11に示す一例では、特徴点を15個としているが、実際には数百~数千個のオーダーで検知される場合もあり得る。 Note that the number of feature points detected from an input image varies greatly depending on the image. In the example shown in FIGS. 10 and 11, the number of feature points is 15, but in reality there may be cases where the number of feature points is detected on the order of hundreds to thousands.

また、上述の一例では、カメラにより撮像された撮影画像を入力画像としているが、レーザセンサなどの距離センサやGPSなどの位置センサにより得られたデブスマップ(距離画像)を入力画像としてもよい。
(第2の実施形態)
上述の第1の実施形態では、三次元点群から評価領域に含まれる三次元点を抽出する際に、個々の三次元点の画素座標が評価領域内に存在するか否かを判定している。この場合う、1フレームあたりの判定処理回数は、三次元点の数の二乗程度となる。従って、三次元点数が増えるにつれ当該判定処理回数が二次関数的に増加してしまうため、処理時間が長くなってしまい、リアルタイム処理が困難な場合がある。
In the above example, the input image is a photographed image captured by a camera, but a depth map (distance image) obtained by a distance sensor such as a laser sensor or a position sensor such as GPS may be used as the input image.
(Second embodiment)
In the above-described first embodiment, when extracting the 3D points included in the evaluation area from the 3D point group, it is determined whether or not the pixel coordinates of each 3D point exist within the evaluation area. there is In this case, the number of determination processes per frame is about the square of the number of three-dimensional points. Therefore, as the number of three-dimensional points increases, the number of times of determination processing increases quadratically, and the processing time becomes longer, which may make real-time processing difficult.

これに対し、本実施形態においては、積分画像を用いて三次元点が評価領域に含まれるか否かを判定し、処理を高速化している点が異なっている。本実施形態における障害物検知装置の構成は、図1~図4に示す第1の障害物検知装置と同様であるので、説明を省略する。 On the other hand, the present embodiment differs in that an integral image is used to determine whether or not a three-dimensional point is included in the evaluation region, thereby speeding up the processing. The configuration of the obstacle detection device according to this embodiment is the same as that of the first obstacle detection device shown in FIGS. 1 to 4, so the description thereof is omitted.

図12は、第2の実施形態に係わる三次元点群からノイズ点を除去する手順を説明するフローチャートである。まず、三次元点群蓄積部114に蓄積されている三次元点群を取得し、現在フレーム(フレームt)に投影する。そして、それぞれの三次元点について、フレーム上での座標(画像座標)を算出する(S11)。 FIG. 12 is a flowchart for explaining procedures for removing noise points from a three-dimensional point cloud according to the second embodiment. First, the 3D point cloud stored in the 3D point cloud storage unit 114 is acquired and projected onto the current frame (frame t). Then, the coordinates (image coordinates) on the frame are calculated for each three-dimensional point (S11).

次に、距離画像と点群数画像とを作成する(S12)。距離画像とは、S11で算出された三次元点の画像座標の画素値を、当該三次元点の三次元座標のZ方向の値とする画像である。例えば、三次元点を現在フレームに投影して得られる画像座標が(X,Y)=(100、100)でり、当該三次元点の奥行方向の距離が25である場合、作成される距離画像の(X,Y)=(100、100)の画素値は25となる。なお、三次元点を投影したフレームにおいて、三次元点が存在しない座標の画素値は0とする。また、1つの画素に複数の三次元点が投影されている場合、距離画像における当該画素の画素値は、該画素に投影された複数の三次元点のZ方向の値の和とする。 Next, a distance image and a point cloud number image are created (S12). The distance image is an image in which the pixel value of the image coordinates of the three-dimensional point calculated in S11 is the value of the three-dimensional coordinates of the three-dimensional point in the Z direction. For example, if the image coordinates obtained by projecting a 3D point onto the current frame are (X, Y)=(100, 100) and the distance in the depth direction of the 3D point is 25, then the created distance The pixel value of (X, Y)=(100, 100) of the image is 25. Note that pixel values at coordinates where no 3D point exists are assumed to be 0 in the frame onto which the 3D point is projected. When a plurality of three-dimensional points are projected onto one pixel, the pixel value of that pixel in the range image is the sum of the Z-direction values of the plurality of three-dimensional points projected onto that pixel.

点群数画像とは、S11で三次元点を投影したフレームにおいて、各座標に投影された三次元点の数を画素値とする画像である。例えば、4つの三次元点を現在フレームに投影して得られる画像座標が(X,Y)=(100、100)、(100、100)、(100、101)、(99、100)である場合、作成される点群数画像の(X,Y)=(100、100)の画素値は2、(X,Y)=(100、101)、(99、100)の画素値は1となる。三次元点を投影したフレームにおいて、三次元点が存在しない座標の画素値は0とする。 The point cloud number image is an image whose pixel value is the number of three-dimensional points projected on each coordinate in the frame on which the three-dimensional points are projected in S11. For example, the image coordinates obtained by projecting four 3D points onto the current frame are (X, Y) = (100, 100), (100, 100), (100, 101), (99, 100). , the pixel value of (X, Y) = (100, 100) is 2, the pixel value of (X, Y) = (100, 101), (99, 100) is 1, and Become. In a frame on which a 3D point is projected, the pixel value of coordinates where no 3D point exists is set to 0.

次に、S12で作成した距離画像の積分画像(以下、距離積分画像と示す)と、点群数画像の積分画像(以下、点群数積分画像を示す)を作成する(S13)。積分画像とは、画像の画素値を積分した画像であり、元の画像中に任意に設定した矩形領域内の画素値の層和を高速に計算するために作成する画像である。積分画像における各画素の画素値は、元の画像における同じ座標の画素を右下角、原点((X、Y)=(0、0)の点)を左上角とする矩形領域内の画素値の総和である。S13では、距離画像と点群数画像について、それぞれ積分画像を作成する。 Next, an integral image of the distance image created in S12 (hereinafter referred to as a distance integral image) and an integral image of the point cloud number image (hereinafter referred to as a point cloud number integral image) are created (S13). An integral image is an image obtained by integrating the pixel values of an image, and is an image created to quickly calculate the layer sum of pixel values within a rectangular area arbitrarily set in the original image. The pixel value of each pixel in the integral image is the pixel value of the pixel value within a rectangular area in which the pixel of the same coordinates in the original image is the lower right corner and the origin ((X, Y)=(0, 0) point) is the upper left corner. summation. In S13, an integral image is created for each of the distance image and the point cloud number image.

続いて、S11で取得した三次元点から、ノイズ点か否かの判定を最初に行う三次元点をセットする(S14)。例えば、T個の三次元点のそれぞれに対し1~Tの連番を付与しておく。S14では、1番が付与された三次元点が、最初にノイズ点判定を行う点としてセットされる。図12の手順では、ノイズ点の判定を行う三次元点の番号を変数nに代入して保持することにより、ノイズ点判定対象点が特定される。 Next, from among the three-dimensional points acquired in S11, a three-dimensional point is set first for determining whether or not it is a noise point (S14). For example, a serial number from 1 to T is given to each of T three-dimensional points. In S14, the three-dimensional point assigned number 1 is set as the point for which noise point determination is performed first. In the procedure of FIG. 12, a noise point determination target point is specified by substituting and holding the number of a three-dimensional point whose noise point is to be determined in the variable n.

次に、ノイズ点判定対象点である三次元点について、当該三次元点を含む評価領域Reを設定し(S15)、評価領域Reに含まれる三次元点群の平均距離(カメラからそれぞれの三次元点までの奥行方向の距離の平均値)を算出する(S16)。このS16における平均距離の算出は、S13で作成した積分画像を用いて行う。 Next, for the three-dimensional points that are the noise point determination target points, an evaluation region Re including the three-dimensional points is set (S15), and the average distance of the three-dimensional point group included in the evaluation region Re (from the camera to each cubic An average value of distances in the depth direction to the original point) is calculated (S16). The calculation of the average distance in S16 is performed using the integral image created in S13.

図13は、積分画像による評価領域内の値の総和計算手順を説明する図である。図13に示すように、評価領域Reに含まれる画素値の総和は、以下に示す(2)式を用いて計算される。 13A and 13B are diagrams for explaining the summation calculation procedure of the values in the evaluation area based on the integral image. As shown in FIG. 13, the sum of pixel values included in the evaluation region Re is calculated using the following equation (2).

SRe=SRa-SRb-SRc+SRd …(2)式
ただし、(2)式において、SRxは矩形領域Rxにおける画素値の総和を示している。
SRa、SRb、SRc、SRdは、それぞれ積分画像における矩形領域Ra、Rb、Rc、Rdの右下角の画素値として取得できる。従って、(2)式は、積分画像から4つの画素位置の画素値を取得し、和差演算を3回行うことで算出することができる。
SRe=SRa-SRb-SRc+SRd Equation (2) where SRx represents the sum of pixel values in the rectangular region Rx.
SRa, SRb, SRc, and SRd can be obtained as pixel values at the lower right corners of rectangular regions Ra, Rb, Rc, and Rd in the integral image, respectively. Therefore, equation (2) can be calculated by acquiring pixel values at four pixel positions from the integral image and performing sum-difference operation three times.

平均距離は、評価領域Reに含まれる三次元点の距離の和を、評価領域Reに含まれる三次元点の個数で割ることで算出できる。従って、S12で作成した距離積分画像における評価領域Reに含まれる画素値の総和を、S12で作成した点群数積分画像における評価領域Reに含まれる画素値の総和で割り、平均距離を算出することができる。 The average distance can be calculated by dividing the sum of the distances of the three-dimensional points included in the evaluation region Re by the number of three-dimensional points included in the evaluation region Re. Therefore, the average distance is calculated by dividing the sum of the pixel values included in the evaluation region Re in the distance integral image created in S12 by the sum of the pixel values included in the evaluation region Re in the point cloud number integral image created in S12. be able to.

そして、ノイズ点判定対象点のカメラからの奥行方向の距離と、S16で算出した平均距離の差分を算出する。更に、算出した差分を平均距離で割り、ノイズ評価値を算出する(S17)。S17におけるノイズ評価値の算出は、図9を用いて説明した第1の実施形態のS6と同様である。そして、S17で算出されたノイズ評価値と予め設定された閾値とを比較し、ノイズ評価値が閾値よりも大きい場合(S18、YES)、判定対象点をノイズ点と判定し、三次元点群から除去する(S19)。S19が終了すると、S20に進む。一方、ノイズ評価値が閾値以下の場合(S18、NO)、判定対象点はノイズ点ではない(正しく推定された三次元点である)と判定されるため、S19をスキップしてS20に進む。 Then, the difference between the distance in the depth direction from the camera of the noise point determination target point and the average distance calculated in S16 is calculated. Further, the calculated difference is divided by the average distance to calculate a noise evaluation value (S17). Calculation of the noise evaluation value in S17 is the same as in S6 of the first embodiment described using FIG. Then, the noise evaluation value calculated in S17 is compared with a preset threshold value, and if the noise evaluation value is greater than the threshold value (S18, YES), the determination target point is determined as a noise point, and the three-dimensional point group (S19). When S19 ends, the process proceeds to S20. On the other hand, if the noise evaluation value is less than or equal to the threshold value (S18, NO), it is determined that the determination target point is not a noise point (it is a correctly estimated three-dimensional point), so S19 is skipped and the process proceeds to S20.

S20では、S11で取得した全ての三次元点についてノイズ点判定を行ったか否かを確認する。未判定の三次元点が存在する場合(S20、NO)、次の判定対象点をセットし(S21)、S15からS19の一連のノイズ点判定及び除去手順を繰り返し実行する。未判定の三次元点が存在しない場合、つまり、全ての三次元点についてノイズ点判定を実施した場合(S20、YES)、三次元点群からノイズ点を除去する一連の手順を終了する。 In S20, it is confirmed whether noise point determination has been performed for all three-dimensional points acquired in S11. If an undetermined three-dimensional point exists (S20, NO), the next point to be determined is set (S21), and a series of noise point determination and removal procedures from S15 to S19 are repeatedly executed. If there are no undetermined 3D points, that is, if noise point determination has been performed for all 3D points (S20, YES), a series of procedures for removing noise points from the 3D point group is terminated.

上述した第1の実施形態におけるノイズ点の除去手順においては、判定対象点を次の三次元点にセットする都度、個々の三次元点の画素座標が評価領域内に存在するか否かを判定するために三次元点の二乗回程度の演算が必要であった。そして、評価領域内に存在する三次元点を用い、ノイズ評価値を算出する必要があった。これに対し、本実施形態では、判定対象点の三次元点が変わっても、S13で作成した距離画像を用いて四則演算を7回行うだけでノイズ評価値を算出することができる。従って、演算量を低減し、処理コストを削減することが可能であるため、演算の高速化を図ることができる。 In the procedure for removing noise points in the first embodiment described above, each time the determination target point is set to the next three-dimensional point, it is determined whether or not the pixel coordinates of each three-dimensional point exist within the evaluation area. In order to do so, it was necessary to perform calculations equivalent to the square of three-dimensional points. Then, it was necessary to calculate the noise evaluation value using the three-dimensional points existing within the evaluation area. On the other hand, in this embodiment, even if the three-dimensional point of the determination target point changes, the noise evaluation value can be calculated only by performing the four arithmetic operations seven times using the distance image created in S13. Therefore, it is possible to reduce the amount of calculation and the processing cost, so that the speed of calculation can be increased.

なお、ノイズ点除去部115は、三次元点の個数に応じて、第1の実施形態によるノイズ点除去手順と第2の実施形態によるノイズ除去手順とを切り替えて用いるように構成してもよい。 The noise point removal unit 115 may be configured to switch between the noise point removal procedure according to the first embodiment and the noise removal procedure according to the second embodiment according to the number of three-dimensional points. .

本発明のいくつかの実施形態を説明したが、これらの実施形態は、一例として示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…障害物検知装置
10…画像処理装置
10a…プロセッサ
10b…メモリ
10d…画像処理アクセラレータ
10e…処理回路
11…画像処理部
12…障害物特定部
100…移動体
100A…出力部
100B…センサ(カメラ)
100D…通信部
100E…ディスプレイ
100F…スピーカ
100G…動力制御部
100H…動力部
100I…バス
111…画像処理制御部
112…カメラ姿勢推定部
113…三次元点群検出部
114…三次元点群蓄積部
115…ノイズ点除去部
Reference Signs List 1 obstacle detection device 10 image processing device 10a processor 10b memory 10d image processing accelerator 10e processing circuit 11 image processing unit 12 obstacle identification unit 100 moving object 100A output unit 100B sensor (camera )
100D...communication section 100E...display 100F...speaker 100G...power control section 100H...power section 100I...bus 111...image processing control section 112...camera attitude estimation section 113...three-dimensional point group detection section 114...three-dimensional point group accumulation section 115... Noise point removing unit

Claims (4)

移動体に設けられたセンサにより得られる撮影画像に基づき、前記移動体外部に存在する障害物を検知する障害物検知装置であって、
前記撮影画像から複数の特徴点を検出し、それぞれの前記特徴点について、三次元点の位置である三次元座標を推定する三次元点検出部と、
検出された複数の前記三次元点からなる三次元点群を蓄積する三次元点群蓄積部と、
前記三次元点群から、前記三次元座標が誤推定されている前記三次元点をノイズ点として検出し除去するノイズ点除去部と、
を有し、
前記ノイズ点除去部は、一の前記三次元点をノイズ候補点として抽出し、前記三次元点群を前記撮影画像に投影した際に、前記撮影画像において前記ノイズ候補点の投影位置を中心とする所定の領域内に投影された一つ以上の前記三次元点である判定対象三次元点を抽出し、前記ノイズ候補点の前記センサからの距離と、前記判定対象三次元点の前記センサからの平均距離とを比較し、前記ノイズ候補点がノイズ点であるか否かを判定する、障害物検知装置。
An obstacle detection device that detects an obstacle existing outside the moving object based on a photographed image obtained by a sensor provided on the moving object,
a three-dimensional point detection unit that detects a plurality of feature points from the captured image and estimates three-dimensional coordinates, which are the positions of the three-dimensional points, for each of the feature points;
a 3D point cloud accumulation unit for accumulating a 3D point cloud composed of the plurality of detected 3D points;
a noise point removal unit that detects and removes, as noise points, the three-dimensional points whose three-dimensional coordinates are erroneously estimated from the three-dimensional point group;
has
The noise point removal unit extracts one of the three-dimensional points as a noise candidate point, and when projecting the three-dimensional point group onto the captured image, the projection position of the noise candidate point is the center of the captured image. a three-dimensional point to be determined, which is one or more of the three-dimensional points projected in a predetermined area where the , and determines whether or not the noise candidate point is a noise point .
前記ノイズ点除去部は、前記ノイズ候補点の前記センサからの距離と前記判定対象三次元点の前記センサからの平均距離との差を、前記平均距離で割った評価値が、所定の閾値より大きい場合に前記ノイズ候補点がノイズ点であると判定することを特徴とする、請求項に記載の障害物検知装置。 The noise point removal unit divides the difference between the distance of the candidate noise point from the sensor and the average distance of the three-dimensional point to be determined from the sensor by the average distance so that the evaluation value is greater than a predetermined threshold. 2. The obstacle detection device according to claim 1 , wherein said noise candidate point is determined to be a noise point when it is large. 前記ノイズ点が除去された前記三次元点群を用いて前記障害物を特定する障害物特定部を更に有することを特徴とする、請求項に記載の障害物検知装置。 2. The obstacle detection device according to claim 1 , further comprising an obstacle identification unit that identifies the obstacle using the three-dimensional point group from which the noise points have been removed. 前記ノイズ点除去部は、前記三次元点群を前記撮影画像に投影した投影画像において、前記三次元点群の前記センサからの距離についての第一積分画像と、前記三次元点群の数についての第二積分画像とを作成し、前記第一積分画像と前記第二積分画像とを用いて前記判定対象三次元点の前記センサからの平均距離を算出することを特徴とする、請求項に記載の障害物検知装置。 The noise point removal unit is configured to, in a projection image obtained by projecting the three-dimensional point group onto the captured image, a first integral image for the distance from the sensor of the three-dimensional point group, and A second integral image is created, and an average distance of the three-dimensional point to be determined from the sensor is calculated using the first integral image and the second integral image. The obstacle detection device according to .
JP2019112244A 2019-06-17 2019-06-17 Obstacle detector Active JP7179687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019112244A JP7179687B2 (en) 2019-06-17 2019-06-17 Obstacle detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019112244A JP7179687B2 (en) 2019-06-17 2019-06-17 Obstacle detector

Publications (2)

Publication Number Publication Date
JP2020204525A JP2020204525A (en) 2020-12-24
JP7179687B2 true JP7179687B2 (en) 2022-11-29

Family

ID=73837357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019112244A Active JP7179687B2 (en) 2019-06-17 2019-06-17 Obstacle detector

Country Status (1)

Country Link
JP (1) JP7179687B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102408481B1 (en) * 2022-01-11 2022-06-13 주식회사 다리소프트 Information collecting terminal apparatus for collecting hazardous object information on the road, and the operating method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011078264A (en) 2009-10-01 2011-04-14 Yazaki Corp Fixing structure
JP2014142241A (en) 2013-01-23 2014-08-07 Denso Corp Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method
JP2018189510A (en) 2017-05-08 2018-11-29 株式会社マイクロ・テクニカ Method and device for estimating position and posture of three-dimensional object
JP2019066333A (en) 2017-09-29 2019-04-25 クラリオン株式会社 Outside recognition device for vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143245A (en) * 1996-11-07 1998-05-29 Komatsu Ltd Obstacle collision preventing device for mobile object
JP3337197B2 (en) * 1997-04-04 2002-10-21 富士重工業株式会社 Outside monitoring device
US9488721B2 (en) * 2009-12-25 2016-11-08 Honda Motor Co., Ltd. Image processing apparatus, image processing method, computer program, and movable body

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011078264A (en) 2009-10-01 2011-04-14 Yazaki Corp Fixing structure
JP2014142241A (en) 2013-01-23 2014-08-07 Denso Corp Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method
JP2018189510A (en) 2017-05-08 2018-11-29 株式会社マイクロ・テクニカ Method and device for estimating position and posture of three-dimensional object
JP2019066333A (en) 2017-09-29 2019-04-25 クラリオン株式会社 Outside recognition device for vehicle

Also Published As

Publication number Publication date
JP2020204525A (en) 2020-12-24

Similar Documents

Publication Publication Date Title
US20210012520A1 (en) Distance measuring method and device
CN110869700B (en) System and method for determining vehicle position
CN112292711B (en) Associating LIDAR data and image data
KR102434580B1 (en) Method and apparatus of dispalying virtual route
JP7082545B2 (en) Information processing methods, information processing equipment and programs
EP3346237B1 (en) Information processing apparatus, information processing method, and computer-readable medium for obstacle detection
KR20200042760A (en) Vehicle localization method and vehicle localization apparatus
KR20180050823A (en) Generating method and apparatus of 3d lane model
EP3624002A2 (en) Training data generating method for image processing, image processing method, and devices thereof
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
CN111837136A (en) Autonomous navigation based on local sensing and associated systems and methods
CN111353453B (en) Obstacle detection method and device for vehicle
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
KR20200093271A (en) Apparatus and method for estimating location of landmark and computer recordable medium storing computer program thereof
WO2022062480A1 (en) Positioning method and positioning apparatus of mobile device
CN112673280A (en) Road detection method for a motor vehicle equipped with a LIDAR sensor
JP7179687B2 (en) Obstacle detector
JP7337617B2 (en) Estimation device, estimation method and program
JP2020064029A (en) Mobile body controller
US11514588B1 (en) Object localization for mapping applications using geometric computer vision techniques
JP2020076714A (en) Position attitude estimation device
Lins et al. A novel machine vision approach applied for autonomous robotics navigation
JP7205049B2 (en) Movement vector calculation method and movement vector calculation device
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving
Musleh et al. Extrinsic parameter self-calibration and nonlinear filtering for in-vehicle stereo vision systems at urban environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221116

R150 Certificate of patent or registration of utility model

Ref document number: 7179687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150