JP2021135061A - Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program - Google Patents

Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program Download PDF

Info

Publication number
JP2021135061A
JP2021135061A JP2020028737A JP2020028737A JP2021135061A JP 2021135061 A JP2021135061 A JP 2021135061A JP 2020028737 A JP2020028737 A JP 2020028737A JP 2020028737 A JP2020028737 A JP 2020028737A JP 2021135061 A JP2021135061 A JP 2021135061A
Authority
JP
Japan
Prior art keywords
information
image
radar
contour
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020028737A
Other languages
Japanese (ja)
Other versions
JP7461160B2 (en
Inventor
将広 星
Masahiro Hoshi
将広 星
幸伸 時枝
Yukinobu Tokieda
幸伸 時枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JRC Mobility Inc
Original Assignee
JRC Mobility Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JRC Mobility Inc filed Critical JRC Mobility Inc
Priority to JP2020028737A priority Critical patent/JP7461160B2/en
Publication of JP2021135061A publication Critical patent/JP2021135061A/en
Application granted granted Critical
Publication of JP7461160B2 publication Critical patent/JP7461160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To estimate three-dimensional information of a structure with a low-cost structure.SOLUTION: A three-dimensional information estimation system includes: a radar that transmits a radar wave to surroundings and receives a reflection wave reflected by an object to acquire a radar signal; a camera that images the surroundings and acquires image information; contour information extraction means for extracting contour information of the image information output from the camera; target detection means for searching a maximum intensity point in each direction for the radar signal output from the radar and detecting nearest neighbor reflection point on the image information output from the camera; distance information giving means for giving distance information of the nearest neighbor reflection point in each direction to the contour information of the image information in the same direction; height information giving means for giving height information to the contour information of the image information; and three-dimensional information estimation means for estimating three-dimensional information according to the contour information, the distance information, and the height information.SELECTED DRAWING: Figure 1

Description

本発明は、3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラムに関する。 The present invention relates to a three-dimensional information estimation system, a three-dimensional information estimation method, and a computer-executable program.

従来、3次元情報の推定では、ステレオカメラ単体で左右の画像の視差を利用する技術やLiDAR(Laser Imaging Detection and Ranging)を用いて計測する技術が提案されている。上述のステレオカメラやLiDARを用いた場合は、センサ自体が高額であるため、システムが高コストとなる。 Conventionally, in the estimation of three-dimensional information, a technique of using the parallax of the left and right images with a stereo camera alone and a technique of measuring using LiDAR (Larser Imaging Detection and Ranking) have been proposed. When the above-mentioned stereo camera or LiDAR is used, the cost of the system becomes high because the sensor itself is expensive.

他方、近時、ミリ波レーダと単眼カメラを用いた周辺環境認識技術の研究が盛んに行われているが、動態のみをターゲットにした研究が多く、構造物の3次元情報を正確に認識する方法は提案されていない。安価なレーダと単眼カメラを用いて構造物の3次元情報が推定できれば、コストの面で優位となる。 On the other hand, recently, research on surrounding environment recognition technology using millimeter-wave radar and monocular camera has been actively conducted, but many researches target only dynamics, and accurately recognize 3D information of structures. No method has been proposed. If three-dimensional information of a structure can be estimated using an inexpensive radar and a monocular camera, it will be advantageous in terms of cost.

特開2010−286926号公報Japanese Unexamined Patent Publication No. 2010-286926

本発明は、上記に鑑みてなされたものであって、構造物の3次元情報を低コストな構成で推定することが可能な3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラムを提供することを目的とする。 The present invention has been made in view of the above, and can be executed by a three-dimensional information estimation system, a three-dimensional information estimation method, and a computer capable of estimating three-dimensional information of a structure with a low-cost configuration. The purpose is to provide a good program.

上述した課題を解決し、目的を達成するために、本発明は、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダと、周辺を撮像して画像情報を取得するカメラと、前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、前記カメラから出力される画像情報上での最近傍反射点を検出する物標検出手段と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する距離情報付与手段と、前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与部と、前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention transmits a radar wave to the periphery, receives the reflected wave reflected by the object and acquires a radar signal, and images the periphery. The highest intensity point in each direction is searched for the camera that acquires the image information, the contour information extracting means that extracts the contour information of the image information output from the camera, and the radar signal output from the radar. , The target detecting means for detecting the nearest reflection point on the image information output from the camera, and the distance information for adding the distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction. The giving means, the height information adding unit that gives height information to the contour information of the image information, and the three-dimensional information estimating means that estimates three-dimensional information according to the contour information, the distance information, and the height information. It is characterized by having.

また、本発明の一態様によれば、前記カメラは、単眼カメラであることにしてもよい。 Further, according to one aspect of the present invention, the camera may be a monocular camera.

また、本発明の一態様によれば、前記距離情報付与手段は、前記最近傍反射点について、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定して、不足する方位の距離情報を補間することにしてもよい。 Further, according to one aspect of the present invention, the distance information imparting means assumes that the distance information between adjacent directional bins changes linearly with respect to the nearest reflection point, and the distance in the insufficient directional direction. The information may be interpolated.

また、本発明の一態様によれば、前記物標検出手段は、前記レーダから出力されるレーダ信号について、各方位をサーチして、各方位における最高強度点を決定し、前記カメラから出力される画像情報上に各方位における前記最高強度点をプロットし、画像情報上の各最高強度点の近傍の輝度特性値を算出し、算出された前記輝度特性値に基づいて、画像情報上の各最高強度点が実像か偽像かを判定して、実像と判定した場合には、当該最高強度点を前記最近傍反射点とし、偽像と判定した場合には、当該方位の次に強度の高い信号点を取得し、実像と判定されるまで、処理を繰り返し、対象の信号がなくなった場合は、当該方位の実像なしと判断することにしてもよい。 Further, according to one aspect of the present invention, the target detection means searches each direction for the radar signal output from the radar, determines the maximum intensity point in each direction, and outputs the radar signal from the camera. The highest intensity points in each direction are plotted on the image information, the brightness characteristic values in the vicinity of the highest intensity points on the image information are calculated, and each of the brightness characteristic values on the image information is calculated based on the calculated brightness characteristic values. When it is determined whether the highest intensity point is a real image or a false image and it is determined to be a real image, the highest intensity point is set as the nearest reflection point, and when it is determined to be a false image, the intensity is next to the direction. The process may be repeated until a high signal point is acquired and a real image is determined, and when the target signal disappears, it may be determined that there is no real image in the direction.

また、本発明の一態様によれば、前記レーダは、ミリ波レーダであることにしてもよい。 Further, according to one aspect of the present invention, the radar may be a millimeter wave radar.

また、上述した課題を解決し、目的を達成するために、本発明は、レーダが、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得する工程と、カメラが、周辺を撮像して画像情報を取得する工程と、前記カメラから出力される画像情報の輪郭情報を抽出する工程と、前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、前記カメラから出力される画像情報上での最近傍反射点を検出する工程と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する工程と、前記画像情報の輪郭情報に高さ情報を付与する工程と、前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する工程と、を含むことを特徴とする。 Further, in order to solve the above-mentioned problems and achieve the object, the present invention is a step in which a radar transmits a radar wave to the periphery, receives a reflected wave reflected by an object, and acquires a radar signal. The maximum intensity of each direction with respect to the process in which the camera captures the surroundings to acquire image information, the process in which the contour information of the image information output from the camera is extracted, and the radar signal output from the radar. A step of searching for a point to detect the nearest reflection point on the image information output from the camera and adding distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction. It is characterized by including a step, a step of adding height information to the contour information of the image information, and a step of estimating three-dimensional information according to the contour information, the distance information, and the height information.

また、上述した課題を解決し、目的を達成するために、本発明は、コンピュータを、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、周辺を撮像して画像情報を取得するカメラから出力される画像情報上での最近傍反射点を検出する前記物標検出手段と、前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する輪郭情報付与手段と、前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与手段と、前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、して機能させるためのコンピュータが実行可能なプログラムであることを特徴とする。 Further, in order to solve the above-mentioned problems and achieve the object, the present invention transmits a radar wave to the periphery of the computer, receives the reflected wave reflected by the object, and acquires a radar signal. The target detection that detects the nearest reflection point on the image information output from the camera that searches the highest intensity point in each direction for the radar signal output from and acquires image information by imaging the periphery. Means, contour information extracting means for extracting contour information of image information output from the camera, and contour information giving means for imparting distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction. As a height information giving means for giving height information to the contour information of the image information, and a three-dimensional information estimating means for estimating three-dimensional information according to the contour information, the distance information, and the height information. It is characterized in that the computer for functioning is an executable program.

本発明によれば、構造物の3次元情報を低コストな構成で推定することが可能になるという効果を奏する。 According to the present invention, it is possible to estimate the three-dimensional information of the structure with a low-cost configuration.

図1は、本実施の形態に係る3次元情報推定システムの概略の構成例を示す図である。FIG. 1 is a diagram showing a schematic configuration example of a three-dimensional information estimation system according to the present embodiment. 図2は、本実施の形態に係る3次元情報システムの概略の動作を示すフローの一例を示す図である。FIG. 2 is a diagram showing an example of a flow showing a schematic operation of the three-dimensional information system according to the present embodiment. 図3は、解像度の計算方法を説明するための図である。FIG. 3 is a diagram for explaining a method of calculating the resolution. 図4は、カメラで撮像した画像にレーダ信号の最近傍の反射点と輝度分散値をプロットした例を示す図である。FIG. 4 is a diagram showing an example in which the reflection point and the luminance dispersion value in the nearest vicinity of the radar signal are plotted on the image captured by the camera. 図5は、解析に使用する信号と除外する信号を説明するための図である。FIG. 5 is a diagram for explaining signals used for analysis and signals to be excluded. 図6は、画像の輪郭情報と距離情報の紐付けを説明するための図である。FIG. 6 is a diagram for explaining the association between the contour information of the image and the distance information. 図7は、作成した3次元マップの一例を示す図である(第1のアングル)。FIG. 7 is a diagram showing an example of the created three-dimensional map (first angle). 図8は、作成した3次元マップの一例を示す図である(第2のアングル)。FIG. 8 is a diagram showing an example of the created three-dimensional map (second angle). 図9は、作成した3次元マップの一例を示す図である(第3のアングル)。FIG. 9 is a diagram showing an example of the created three-dimensional map (third angle). 図10は、作成した3次元マップの一例を示す図である(第4のアングル)。FIG. 10 is a diagram showing an example of the created three-dimensional map (fourth angle).

以下に、この発明にかかる3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、下記実施の形態における構成要素には、当業者が容易に想定できるものまたは実質的に同一のものが含まれる。本発明の構成要素は、本明細書の図面に一般に示してあるが、様々な構成で広く多様に配置して設計してもよいことは容易に理解できる。したがって、本発明のシステム及び装置の実施形態についての以下のより詳細な説明は、特許請求の範囲に示す本発明の範囲を限定するものではなく、単に本発明の選択した実施形態の一例を示すものである。本明細書は、参照により公知技術が組み込まれる。そのため、当業者は、公知技術を援用することで、特定の細目の1つ以上が無くても、または他の方法、部品、材料でも本発明を実現できることが理解できる。 Hereinafter, a three-dimensional information estimation system according to the present invention, a three-dimensional information estimation method, and an embodiment of a computer-executable program will be described in detail with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily assumed by those skilled in the art or those that are substantially the same. Although the components of the present invention are generally shown in the drawings of the present specification, it is easy to understand that they may be designed in a wide variety of arrangements in various configurations. Therefore, the following more detailed description of embodiments of the system and apparatus of the present invention does not limit the scope of the invention as shown in the claims, but merely provides an example of selected embodiments of the present invention. It is a thing. The present specification incorporates known techniques by reference. Therefore, those skilled in the art can understand that the present invention can be realized without one or more specific details, or with other methods, parts, and materials by using known techniques.

[1.本発明の原理]
本発明では、構造物の3次元情報を低コストな構成で推定するために、レーダと単眼カメラを使用し、レーダによって得られる距離・方位情報と、単眼カメラで撮像した画像によって得られる方位・高さ情報を用いて、周辺の構造物の3次元情報を推定する方法を提案する。
[1. Principle of the present invention]
In the present invention, in order to estimate the three-dimensional information of the structure with a low-cost configuration, a radar and a monocular camera are used, and the distance / orientation information obtained by the radar and the orientation / orientation obtained from the image captured by the monocular camera are used. We propose a method for estimating the three-dimensional information of surrounding structures using height information.

レーダ信号を抽出する際、動態である歩行者や車両の信号と比較して、静態である構造物のレーダ信号は、クラッタや偽像等のノイズ成分の影響を受けやすく、レーダ信号の選別が困難になる。そこで、本発明では、所望の構造物信号を抽出する手法として、画像情報を用いることでレーダ信号のクラッタ成分を抑圧する。 When extracting radar signals, compared to dynamic pedestrian and vehicle signals, radar signals of static structures are more susceptible to noise components such as clutter and false images, and radar signal selection can be performed. It will be difficult. Therefore, in the present invention, as a method for extracting a desired structure signal, the clutter component of the radar signal is suppressed by using image information.

具体的には、レーダ信号により検知した偽像位置と同位置の画像上には不要な成分が写り込む可能性が低いという性質を利用して、検出した各方位のレーダ信号を画像上にプロットすることで、各信号が物標からの信号か否かを判別する。より具体的には、撮像した画像上にレーダ信号をプロットする場合は、各レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して、物標が路面と接地している画像上の点にレーダ信号をプロットする。画像上にプロットした各レーダ信号付近で画像の輝度分散値を取得し、取得した輝度分散値から各レーダ信号が実像であるか偽像であるかを分類する。レーダ信号が実像である場合は、画像上で物標と路面の切り替わり部分の輝度を評価することになるので、輝度分散値が大きい傾向となる。他方、偽像のレーダ信号をプロットしても画像上では何もない路面部分の輝度評価をする確率が高まるため、輝度分散値が小さい傾向となる。このように、各レーダ信号に紐づく画像上の輝度分散値を評価することで、実像と偽像を区別することが可能となる。このようにして、各方位毎に最も近傍にある物体までの距離を精度よく得ることができる。 Specifically, the radar signals in each of the detected directions are plotted on the image by utilizing the property that it is unlikely that unnecessary components are reflected on the image at the same position as the false image position detected by the radar signal. By doing so, it is determined whether or not each signal is a signal from a target. More specifically, when plotting radar signals on an captured image, it is assumed that each radar signal is a reflected signal from a height of zero at each reflection distance, and the target is in contact with the road surface. Plot the radar signal at a point on the image. The luminance dispersion value of the image is acquired in the vicinity of each radar signal plotted on the image, and whether each radar signal is a real image or a false image is classified from the acquired luminance variance value. When the radar signal is a real image, the brightness of the switching portion between the target and the road surface is evaluated on the image, so that the brightness dispersion value tends to be large. On the other hand, even if a false radar signal is plotted, the probability of evaluating the brightness of a road surface portion that is empty on the image increases, so that the brightness dispersion value tends to be small. In this way, by evaluating the luminance dispersion value on the image associated with each radar signal, it is possible to distinguish between the real image and the false image. In this way, the distance to the nearest object can be accurately obtained for each direction.

この際、物体が存在しない方位については信号を検出しない(除外する)。信号を検出した方位の距離情報を用いて、各方位における構造物の3次元情報を算出する。 At this time, the signal is not detected (excluded) for the direction in which the object does not exist. The three-dimensional information of the structure in each direction is calculated by using the distance information of the direction in which the signal is detected.

このように、本発明では、画像は水平軸に方位情報を持つ特性があるため、水平座標が同じであれば同方位の物体であると見なすことができる点に着目した。画像の方位情報とレーダの方位情報を統合し、レーダで信号を検出した方位の信号距離を、同方位の画像の輪郭情報に紐付する。これにより、一定の方位の画像情報に対して距離情報を付与することが可能となる。 As described above, in the present invention, since the image has a characteristic of having orientation information on the horizontal axis, attention is paid to the point that if the horizontal coordinates are the same, it can be regarded as an object having the same orientation. The direction information of the image and the direction information of the radar are integrated, and the signal distance of the direction in which the signal is detected by the radar is linked to the contour information of the image of the same direction. This makes it possible to add distance information to image information in a certain direction.

但し、画像の水平角分解能に対して、レーダの水平角分解能は非常に低いため、レーダの各方位ビンの間にあたる方位の距離情報を推定する必要が生じる。そこで、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定し、不足する方位の距離情報を補間する。 However, since the horizontal angle resolution of the radar is very low with respect to the horizontal angle resolution of the image, it is necessary to estimate the distance information of the direction corresponding to each direction bin of the radar. Therefore, it is assumed that the distance information between adjacent directional bins changes linearly, and the distance information of the insufficient directional bins is interpolated.

画像の水平軸(地面)の各画素成分に対して距離情報を付与し、方位に対応する距離毎に解像度を計算する。ここで求めた解像度を用いることで、各方位の輪郭成分のそれぞれの高さ情報を計算する。以上の手法を適用することで、周辺の構造物の3次元情報を推定することが可能となる。 Distance information is added to each pixel component on the horizontal axis (ground) of the image, and the resolution is calculated for each distance corresponding to the orientation. By using the resolution obtained here, the height information of each contour component in each direction is calculated. By applying the above method, it is possible to estimate the three-dimensional information of the surrounding structure.

また、動態の検出をレーダと単眼カメラで行っているシステムに、本実施の形態の周辺構造物の3次元情報推定の技術を適用した場合、静態の情報が追加されることになるので、従来困難であった自己位置推定まで実現できる可能性がある。GPSに代表されるGNSSの発達により、自己位置のみであれば高精度に認識が可能となってきているが、瞬間的に絶対方位を導くことはできない。周辺の構造物との位置関係を正確に把握できれば、観測者の絶対方位を単一の計測で認識することが可能となる。 Further, when the technique of estimating the three-dimensional information of the peripheral structure of the present embodiment is applied to the system in which the dynamics are detected by the radar and the monocular camera, the static information is added. There is a possibility that even the difficult self-position estimation can be realized. With the development of GNSS represented by GPS, it has become possible to recognize with high accuracy if it is only the self-position, but it is not possible to derive the absolute direction instantaneously. If the positional relationship with the surrounding structures can be accurately grasped, the absolute orientation of the observer can be recognized by a single measurement.

[2.本実施の形態の3次元情報推定システムの構成例及び動作例]
図1〜図3を参照して、本実施の形態の3次元情報推定システムの構成例及び動作例を説明する。図1は、本実施の形態に係る3次元情報推定システム1の概略の構成例を示す図である。図2は、本実施の形態に係る3次元情報推定システム1の概略の動作を示すフローの一例を示す図である。
[2. Configuration example and operation example of the three-dimensional information estimation system of this embodiment]
A configuration example and an operation example of the three-dimensional information estimation system of the present embodiment will be described with reference to FIGS. 1 to 3. FIG. 1 is a diagram showing a schematic configuration example of the three-dimensional information estimation system 1 according to the present embodiment. FIG. 2 is a diagram showing an example of a flow showing a schematic operation of the three-dimensional information estimation system 1 according to the present embodiment.

図1を参照して、本実施の形態に係る3次元情報推定システム1の構成を説明する。図1に示すように、本実施の形態に係る3次元情報推定システム1は、3次元情報推定装置10と、レーダ20と、カメラ30とを備えている。 The configuration of the three-dimensional information estimation system 1 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the three-dimensional information estimation system 1 according to the present embodiment includes a three-dimensional information estimation device 10, a radar 20, and a camera 30.

レーダ20は、周囲にレーダ波を送信して、対象物によって反射された反射波を受信して、レーダ信号として3次元情報推定装置10に出力する。レーダ20は、例えば、FM−CW方式のミリ波レーダ(79GHz帯、帯域幅4GHz、MIMOレーダ(送信アンテナ3個、受信アンテナ6個)であり、検出範囲は、水平角が−75度〜75度、仰角が−3度〜3度である。レーダ20は、複数の送信アンテナを備える送信器からレーダ波を周囲に送信し、対象物によって反射された反射波を複数の受信アンテナを備える受信器で受信することによって対象物の距離、相対速度、角度、及び信号強度を検知するためのセンサである。 The radar 20 transmits a radar wave to the surroundings, receives the reflected wave reflected by the object, and outputs the radar signal to the three-dimensional information estimation device 10. The radar 20 is, for example, an FM-CW type millimeter-wave radar (79 GHz band, bandwidth 4 GHz, MIMO radar (3 transmitting antennas, 6 receiving antennas), and the detection range has a horizontal angle of −75 degrees to 75 degrees. The degree and elevation angle are -3 degrees to 3 degrees. The radar 20 transmits radar waves to the surroundings from a transmitter having a plurality of transmitting antennas, and receives reflected waves reflected by an object with a plurality of receiving antennas. It is a sensor for detecting the distance, relative speed, angle, and signal strength of an object by receiving it with a device.

レーダ20から出力されるレーダ信号は、例えば、レーダ20が備える信号処理回路において反射波が処理された対象物の1または複数の代表位置を示す点または点列からなる信号であっても良く、あるいは、未処理の反射波を示す信号であっても良い。本例では、レーダ20から出力されるレーダ信号は、上述の信号処理回路において、公知のFM−CW方式で算出した対象物の距離、方位、及び相対速度、信号強度の情報を含んでいるものとする。なお、未処理の受信波がレーダ信号として用いられる場合には、3次元情報推定装置10においてこれらの信号処理が実行される。 The radar signal output from the radar 20 may be, for example, a signal consisting of points or a sequence of points indicating one or a plurality of representative positions of an object whose reflected wave has been processed in the signal processing circuit included in the radar 20. Alternatively, it may be a signal indicating an unprocessed reflected wave. In this example, the radar signal output from the radar 20 includes information on the distance, orientation, relative velocity, and signal strength of the object calculated by the known FM-CW method in the above-mentioned signal processing circuit. And. When the unprocessed received wave is used as a radar signal, the three-dimensional information estimation device 10 executes these signal processes.

カメラ30は、周囲を撮像した画像情報を3次元情報推定装置10に出力する。カメラ30は、可視光や赤外光を受光することによって対象物の外形情報である画像情報として出力するためのセンサである。カメラ30は、例えば、単眼カメラであり、例えば、CMOSグローバルシャッタセンサ(例えば、有効画素数:1920ピクセル×1200ピクセル,フレームレート:41.6fps、インターフェース:USB3.0)とメガピクセル対応CCTVレンズ(例えば、画角:86.71度×61.44度、焦点距離6mm)の組み合わせで構成することができ、例えば、検出範囲は、水平角が−43.36度〜43.36度、仰角が−30.72度〜30.72度である。 The camera 30 outputs the image information obtained by capturing the surroundings to the three-dimensional information estimation device 10. The camera 30 is a sensor for receiving visible light or infrared light and outputting it as image information which is external information of an object. The camera 30 is, for example, a monocular camera, for example, a CMOS global shutter sensor (for example, the number of effective pixels: 1920 pixels × 1200 pixels, a frame rate: 41.6 fps, an interface: USB3.0) and a megapixel compatible CCTV lens (for example). For example, it can be configured by a combination of an angle of view: 86.71 degrees × 61.44 degrees, a focal length of 6 mm). It is -30.72 degrees to 30.72 degrees.

カメラ30から出力される画像情報は、時系列的に連続する複数のフレーム画像によって構成されており、各フレーム画像は画素データにより表されている。画素データは、モノクロの画素データまたはカラーの画素データである。 The image information output from the camera 30 is composed of a plurality of frame images that are continuous in time series, and each frame image is represented by pixel data. The pixel data is monochrome pixel data or color pixel data.

3次元情報推定装置10は、物標検出部11と、輪郭抽出部12と、距離情報付与部13と、高さ情報付与部14と、3次元情報推定部15とを備えている。 The three-dimensional information estimation device 10 includes a target detection unit 11, a contour extraction unit 12, a distance information addition unit 13, a height information addition unit 14, and a three-dimensional information estimation unit 15.

物標検出部11は、レーダ20から出力されるレーダ信号について、各方位の最高強度点をサーチして、カメラ30から出力される画像情報上での最近傍反射点を検出する。物標検出部11は、動態成分(歩行者等)については、各方位の最近傍反射点として検出しない。 The target detection unit 11 searches for the highest intensity point in each direction with respect to the radar signal output from the radar 20, and detects the nearest reflection point on the image information output from the camera 30. The target detection unit 11 does not detect dynamic components (pedestrians, etc.) as the nearest reflection points in each direction.

物標検出部11は、例えば、しきい値処理部40と、ピークサーチ部41と、プロット部42と、輝度特性値算出部43と、実像・偽像判定部44と、を備えている。 The target detection unit 11 includes, for example, a threshold value processing unit 40, a peak search unit 41, a plot unit 42, a luminance characteristic value calculation unit 43, and a real image / false image determination unit 44.

しきい値処理部40は、レーダ20から出力されるレーダ信号に対して、CFAR等のしきい値処理を施す。ピークサーチ部41は、しきい値処理後のレーダ信号について、各方位における最高強度点を決定する。実像・偽像判定部44で、最高強度点が偽像と判定された場合には、当該方位についての次に強度の高い信号点を取得する。 The threshold value processing unit 40 performs threshold value processing such as CFAR on the radar signal output from the radar 20. The peak search unit 41 determines the highest intensity point in each direction for the radar signal after the threshold processing. When the real image / false image determination unit 44 determines that the highest intensity point is a false image, the signal point having the next highest intensity for the direction is acquired.

プロット部42は、カメラ30から出力される画像上にレーダ信号の各方位における最高強度点をプロットする。画像上に最高強度点をプロットする場合は、レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して(レーダの仰角が小さいため)、物標が路面と接地している画像上の対応座標を算出して、レーダ信号点(最高強度点)をプロットする。プロット部42は、ピークサーチ部41で、当該方位の次に強度の高い信号点が取得された場合には、当該方位における次に強度の高い信号点をプロットする。 The plotting unit 42 plots the highest intensity points in each direction of the radar signal on the image output from the camera 30. When plotting the highest intensity points on the image, it is assumed that the radar signal is a reflected signal from zero height at each reflection distance (because the radar's elevation angle is small), and the target is in contact with the road surface. Calculate the corresponding coordinates on the image and plot the radar signal points (highest intensity points). When the peak search unit 41 acquires the signal point having the next highest intensity in the direction, the plotting unit 42 plots the signal point having the next highest intensity in the direction.

輝度特性値算出部43は、画像上の各最高強度点の近傍の輝度特性値(例えば、輝度分散値、輝度勾配)を算出する。輝度特性値算出部43は、プロット部42で、当該方位の次に強度の高い信号点がプロットされた場合には、当該次に強度の高い信号点の近傍の輝度特性値を算出する。 The luminance characteristic value calculation unit 43 calculates the luminance characteristic value (for example, the luminance dispersion value, the luminance gradient) in the vicinity of each highest intensity point on the image. The luminance characteristic value calculation unit 43 calculates the luminance characteristic value in the vicinity of the signal point having the next highest intensity when the signal point having the next highest intensity in the direction is plotted by the plotting unit 42.

実像・偽像判定部44は、輝度特性値に基づいて、画像上の最高強度点が実像か偽像かを判定して、実像の結果を出力する。具体的には、実像・偽像判定部44は、実像と判定した場合には、当該最高強度点を最近傍の反射点とし、偽像と判定した場合には、当該方位の次に強度の高い信号点を判定し、実像と判定されるまで、処理を繰り返し実行する。但し、対象の信号がなくなった場合は、当該方位の実像なしと判断する。
例えば、輝度特性値がしきい値以上の場合は、最高強度点が実像であると判定し、輝度特性値がしきい値以上でない場合には、当該最高強度点が偽像であると判定することができる。
The real image / false image determination unit 44 determines whether the highest intensity point on the image is a real image or a false image based on the luminance characteristic value, and outputs the result of the real image. Specifically, when the real image / false image determination unit 44 determines that the real image is a real image, the highest intensity point is set as the nearest reflection point, and when it is determined that the image is a false image, the intensity is next to the direction. A high signal point is determined, and the process is repeatedly executed until it is determined to be a real image. However, when the target signal disappears, it is judged that there is no real image of the relevant direction.
For example, when the luminance characteristic value is equal to or more than the threshold value, it is determined that the highest intensity point is a real image, and when the luminance characteristic value is not equal to or more than the threshold value, it is determined that the highest intensity point is a false image. be able to.

輪郭抽出部12は、カメラ30から出力される画像情報の輪郭情報を抽出して、距離情報付与部13及び高さ情報付与部14に出力する。 The contour extraction unit 12 extracts the contour information of the image information output from the camera 30 and outputs it to the distance information addition unit 13 and the height information addition unit 14.

距離情報付与部13は、各方位の距離情報を同方位の画像の輪郭情報に付与する。距離情報付与部13は、最近傍反射点について、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定して、不足する方位の距離情報を補間することにしてもよい。 The distance information adding unit 13 adds the distance information of each direction to the contour information of the image of the same direction. The distance information imparting unit 13 may interpolate the distance information of the insufficient direction on the assumption that the distance information between the adjacent direction bins changes linearly with respect to the nearest reflection point.

高さ情報付与部14は、画像の輪郭情報に高さ情報(Z)を付与する。 The height information adding unit 14 adds height information (Z) to the contour information of the image.

3次元情報推定部15は、画像の輪郭情報に、算出した距離情報(X,Y)及び高さ情報(Z)に従って、3次元プロットして3次元情報を推定(描画)し、3次元マップを出力する。 The three-dimensional information estimation unit 15 estimates (draws) the three-dimensional information by three-dimensionally plotting the contour information of the image according to the calculated distance information (X, Y) and height information (Z), and the three-dimensional map. Is output.

3次元情報推定装置10は、CPU(プロセッサ)、DSP、RAM、ROMやフラッシュメモリ等の不揮発性メモリ、I/O、モニタ等を搭載している。3次元情報推定装置10の各機能は、CPUがROMまたはフラッシュメモリ等の不揮発メモリに記憶されているプログラムを実行することにより実現される。このプログラムが実行されることにより、プログラムに対応する方法が実行される。 The three-dimensional information estimation device 10 is equipped with a CPU (processor), a DSP, a RAM, a non-volatile memory such as a ROM or a flash memory, an I / O, a monitor, and the like. Each function of the three-dimensional information estimation device 10 is realized by the CPU executing a program stored in a non-volatile memory such as a ROM or a flash memory. When this program is executed, the method corresponding to the program is executed.

CPUがプログラムを実行することにより、物標検出部11と、輪郭抽出部12と、距離情報付与部13と、高さ情報付与部14と、3次元情報推定部15の機能を実現する。 When the CPU executes the program, the functions of the target detection unit 11, the contour extraction unit 12, the distance information addition unit 13, the height information addition unit 14, and the three-dimensional information estimation unit 15 are realized.

3次元情報推定装置10を構成するこれらの要素を実現する手法は、ソフトウェアに限るものではなく、その一部または全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。 The method for realizing these elements constituting the three-dimensional information estimation device 10 is not limited to software, and some or all of the elements are realized by using hardware that combines logic circuits, analog circuits, and the like. You may.

図2を参照して、図1の3次元情報推定システム1の全体の処理を説明する。 The entire process of the three-dimensional information estimation system 1 of FIG. 1 will be described with reference to FIG.

図2において、レーダ20は、周囲にレーダ波を送信して、その反射波を受信してレーダ信号を取得し、3次元情報推定装置10に出力する(ステップS1)。カメラ30は、周囲を撮像して2次元の画像情報を取得して、3次元情報推定装置10に出力する(ステップS2)。レーダ信号と画像情報のフレームは同期しているものとする。 In FIG. 2, the radar 20 transmits a radar wave to the surroundings, receives the reflected wave, acquires a radar signal, and outputs the radar signal to the three-dimensional information estimation device 10 (step S1). The camera 30 takes an image of the surroundings, acquires two-dimensional image information, and outputs the two-dimensional image information to the three-dimensional information estimation device 10 (step S2). It is assumed that the radar signal and the frame of the image information are synchronized.

物標検出部11は、カメラ30から出力される画像情報とレーダ20から出力されるレーダ信号に基づいて、レーダ信号の各方位における画像上の最近傍反射点を検出する(ステップS3)。物標検出部11は、動態成分(歩行者等)については、各方位の最近傍反射点として検出しない。具体的には、物標検出部11は、レーダ20から出力されるレーダ信号について、各方位をサーチして、各方位における最高強度点を決定し、カメラ30から出力される画像情報上に各方位における最高強度点をプロットし、画像情報上の各最高強度点の近傍の輝度特性値を算出し、算出された輝度特性値に基づいて、画像情報上の各最高強度点が実像か偽像かを判定して、実像と判定した場合には、当該最高強度点を最近傍の反射点とし、偽像と判定した場合には、当該方位の次に強度の高い信号点を取得し、実像と判定されるまで、処理を繰り返し実行する(各方位の最高強度点が実像と判定されるまで(最近傍の反射点を取得するまで)、同じ処理を繰り返し実行する)。但し、対象の信号がなくなった場合は、当該方位の実像なしと判断する。 The target detection unit 11 detects the nearest reflection point on the image in each direction of the radar signal based on the image information output from the camera 30 and the radar signal output from the radar 20 (step S3). The target detection unit 11 does not detect dynamic components (pedestrians, etc.) as the nearest reflection points in each direction. Specifically, the target detection unit 11 searches each direction for the radar signal output from the radar 20, determines the maximum intensity point in each direction, and displays each on the image information output from the camera 30. Plot the highest intensity points in the orientation, calculate the brightness characteristic value in the vicinity of each highest intensity point on the image information, and based on the calculated brightness characteristic value, each highest intensity point on the image information is a real image or a false image. If it is determined that the image is a real image, the highest intensity point is set as the nearest reflection point, and if it is determined to be a false image, the signal point with the next highest intensity in the direction is acquired and the real image is obtained. The process is repeatedly executed until it is determined that the image is (until the highest intensity point in each direction is determined to be a real image (until the nearest reflection point is acquired)). However, when the target signal disappears, it is judged that there is no real image of the relevant direction.

輪郭抽出部12は、カメラ30から出力される画像情報の輪郭情報を抽出する(ステップS4)。輪郭抽出部12は、動態成分(歩行者等)については輪郭情報を抽出しない。画像中の動態成分は公知の方法で検出できるので、その説明は省略する。 The contour extraction unit 12 extracts the contour information of the image information output from the camera 30 (step S4). The contour extraction unit 12 does not extract contour information for dynamic components (pedestrians and the like). Since the dynamic components in the image can be detected by a known method, the description thereof will be omitted.

距離情報付与部13は、各方位の距離情報を同方位の画像の輪郭情報に付与する(ステップS5)。具体的には、例えば、距離情報付与部13は、各方位の最近傍反射点を極座標系データ(r、θ)から直交座標系データ(X,Y)に変換し、隣接方位ビンの信号を確認し、隣接信号間を補間した後、各方位の距離情報を同方位の画像の輪郭情報に付与する。ここで、隣接信号間を補間しているのは、画像の水平角分解能に対して、レーダの水平角分解能は非常に粗いため、レーダ信号の各方位ビンの間にあたる方位の距離情報を推定する必要が生じる。そこで、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定し、不足する方位の距離情報を補間する。 The distance information adding unit 13 adds the distance information of each direction to the contour information of the image of the same direction (step S5). Specifically, for example, the distance information adding unit 13 converts the nearest reflection point of each direction from polar coordinate system data (r, θ) to Cartesian coordinate system data (X, Y), and outputs a signal in the adjacent direction bin. After confirming and interpolating between adjacent signals, distance information in each direction is added to the contour information of the image in the same direction. Here, the reason why the adjacent signals are interpolated is that the horizontal angle resolution of the radar is very coarse with respect to the horizontal angle resolution of the image, so the distance information of the direction between each direction bin of the radar signal is estimated. Need arises. Therefore, it is assumed that the distance information between adjacent directional bins changes linearly, and the distance information of the insufficient directional bins is interpolated.

なお、過去フレーム(例えば、過去5フレーム分)における同方位の距離情報を加味して、各物標までの距離を平滑化することで、測距誤差を抑制することにしてもよい。 It should be noted that the distance measurement error may be suppressed by smoothing the distance to each target by adding the distance information of the same direction in the past frame (for example, the past 5 frames).

高さ情報付与部14は、画像の輪郭情報に高さ情報(Z)を付与する(ステップS6)。ここで、高さ情報(Z)の計算方法の一例を説明する。各方位の画像の輪郭成分までの 距離を算出したので、算出した距離における画像の解像度(m/pix)を計算し、解像度の情報を用いて高さ情報を計算する。図3は、解像度の計算方法を説明するための図である。 The height information adding unit 14 adds height information (Z) to the contour information of the image (step S6). Here, an example of the calculation method of the height information (Z) will be described. Since the distance to the contour component of the image in each direction has been calculated, the resolution (m / pix) of the image at the calculated distance is calculated, and the height information is calculated using the resolution information. FIG. 3 is a diagram for explaining a method of calculating the resolution.

(1)下式(1)により、距離Y(m)における画像の垂直方向解像度を求める。
垂直方向解像度vReso(m/pix)=Y*7.13/6/1200
・・・(1)
ここで、7.13(mm)は、CMOSセンササイズ、6(mm)は、CCTVレンズの焦点距離、1200(pix)は画素数である。
(1) The vertical resolution of the image at a distance Y (m) is obtained by the following equation (1).
Vertical resolution vReso (m / pix) = Y * 7.13 / 6/1200
... (1)
Here, 7.13 (mm) is the CMOS sensor size, 6 (mm) is the focal length of the CCTV lens, and 1200 (pix) is the number of pixels.

(2)下式(2)により、距離Y(m)の路面高さにおける画像上の路面座標を求める。
路面座標rCol(pix)=ColCross+(CamHgt/vReso)
・・・(2)
ここでは、ColCross(pix)は、垂直成分の消失点座標、CamHgt(m)はカメラ設置高さである。
(2) The road surface coordinates on the image at the road surface height at a distance Y (m) are obtained by the following equation (2).
Road surface coordinates rCol (pix) = ColCross + (CamHgt / vReso)
... (2)
Here, ColCross (pix) is the vanishing point coordinates of the vertical component, and CamHgt (m) is the camera installation height.

消失点とは遠近法において、実際のものでは平行線になっているものを平行でなく描く際に、その線が交わる点である。例えば、本来平行な通路も、画像上ではある一点で収束する。消失点とはこの収束する点を指す。消失点と画像中心が一致するように予めキャリブレーションした場合、消失点=無限遠距離におけるカメラ設置高さの座標という等式が成り立つ。この前提より、消失点座標から各距離におけるカメラ設置高さ(pix)を引くことで、該当距離における路面座標rCol(pix)が式(2)により求めることができる。 The vanishing point is the point where the lines intersect when drawing what is actually parallel lines in perspective in a non-parallel manner. For example, an originally parallel passage also converges at a certain point on the image. The vanishing point refers to this converging point. When calibrated in advance so that the vanishing point and the center of the image match, the equation of vanishing point = coordinates of the camera installation height at an infinity distance holds. From this premise, by subtracting the camera installation height (pix) at each distance from the vanishing point coordinates, the road surface coordinates rCol (pix) at the corresponding distance can be obtained by the equation (2).

(3)下式(3)により、各輪郭成分までの高さを求める。
注目点高さZ(m)=(TgtCol(pix)−rCol(pix))*vReso
・・・(3)
ここでは、TgtCol(pix)は、高さ算出の対象となる画素の垂直成分座標である。
(3) The height to each contour component is obtained by the following equation (3).
Point of interest Height Z (m) = (TgtCol (pix) -rCol (pix)) * vReso
... (3)
Here, TgtCol (pix) is the vertical component coordinates of the pixel whose height is to be calculated.

図2に戻り、3次元情報推定部15は、輪郭情報、算出した距離情報及び高さ情報に従い、3次元プロットすることで3次元情報を推定し、3次元マップを作成する(ステップS7)。 Returning to FIG. 2, the three-dimensional information estimation unit 15 estimates the three-dimensional information by plotting three-dimensionally according to the contour information, the calculated distance information, and the height information, and creates a three-dimensional map (step S7).

[3.本実施の形態の3次元情報推定装置の検証例(実施例)]
図4〜図10を参照して、本実施の形態の図1の3次元情報推定システム1の検証例(実施例)を説明する。図4に示すような周辺環境において3次元マップを作成する例を説明する。
[3. Verification example of the three-dimensional information estimation device of this embodiment (Example)]
A verification example (example) of the three-dimensional information estimation system 1 of FIG. 1 of the present embodiment will be described with reference to FIGS. 4 to 10. An example of creating a three-dimensional map in the surrounding environment as shown in FIG. 4 will be described.

図4において、左側の図はカメラ30で撮像した画像に最近傍反射点と輝度分散値をプロットした例を示す図であり、右側の図は、画像中の移動物標を説明するための図である。図4において、折れ線は輝度分散値、縦の点線はレーダ20の方位、□は最近傍反射点を示している。上述の図2のフローのステップS3に従って、最近傍反射点を検出する。 In FIG. 4, the figure on the left side is a diagram showing an example in which the nearest neighbor reflection point and the brightness dispersion value are plotted on the image captured by the camera 30, and the figure on the right side is a diagram for explaining a moving object in the image. Is. In FIG. 4, the polygonal line indicates the luminance dispersion value, the vertical dotted line indicates the direction of the radar 20, and □ indicates the nearest neighbor reflection point. The nearest neighbor reflection point is detected according to step S3 of the flow of FIG. 2 described above.

図4において、歩行者のような移動物標が存在する方位では、その物標からの信号に大きく影響を受けるので、移動物標が存在する方位を除く信号を用いて構造物(静止物全般)の3次元マップを作成する。 In FIG. 4, in the direction in which a moving object such as a pedestrian exists, the signal from the target is greatly affected. ) Create a 3D map.

図5は、解析に使用する信号と除外する信号を説明するための図である。同図において、構造物は解析に使用し、歩行者は除外する。解析に用いる信号の全点までの距離及び方位を算出し、上述の図2のフローのステップS4,S5に従って、画像の輪郭情報を抽出し、各方位の距離情報を同方位の画像の輪郭情報に付与する。 FIG. 5 is a diagram for explaining signals used for analysis and signals to be excluded. In the figure, structures are used for analysis and pedestrians are excluded. The distances and directions to all points of the signal used for analysis are calculated, the contour information of the image is extracted according to steps S4 and S5 of the flow of FIG. 2 described above, and the distance information of each direction is used as the contour information of the image of the same direction. Give to.

図6は、画像の輪郭情報と距離情報の紐付けを説明するための図である。図6において、画像は、横軸が方位となるので、縦に並ぶ一列の輪郭ピクセル群全てを該当方位における距離の成分であると仮定する。画像の輪郭情報の縦軸毎に距離情報を紐付けする。なお、図6において、移動物標(歩行者)が示されているが、これは参考用に示したものであり、実際には、移動物標(歩行者)の輪郭情報は抽出しない。 FIG. 6 is a diagram for explaining the association between the contour information of the image and the distance information. In FIG. 6, since the horizontal axis of the image is the direction, it is assumed that all the contour pixel groups in a vertically arranged row are the components of the distance in the corresponding direction. Distance information is linked to each vertical axis of the contour information of the image. Although the moving object target (pedestrian) is shown in FIG. 6, this is shown for reference only, and the contour information of the moving object target (pedestrian) is not actually extracted.

上述の図2のフローのステップS6に従って画像の輪郭情報の高さ情報を算出する。そして、上述の図2のフローのステップS7に従って、輪郭情報、算出した距離及び高さに従い、3次元プロットした3次元マップを作成する。図7〜図10は、作成した3次元マップを各アングルで示す図である。近距離の成分と、遠距離の成分を識別表示してもよい(例えば、近距離の成分を赤、遠距離の成分を緑で表示してもよい)。なお、図7〜図10において、移動物標(歩行者)が3次元表示されているが、これは参考用に示したものであり、実際には移動物標(歩行者)は描画されない。図7〜図10に示すように、レーダ信号の各方位で検出した最高強度点の情報を使用し、また、物体距離が線形的に変化するという推定情報(補間情報)を加味することで、ビルや倉庫等の静止物体の3次元情報を推定することができた。 The height information of the contour information of the image is calculated according to step S6 of the flow of FIG. 2 described above. Then, according to step S7 of the flow of FIG. 2 described above, a three-dimensional map is created by three-dimensional plotting according to the contour information, the calculated distance and the height. 7 to 10 are views showing the created three-dimensional map at each angle. The short-distance component and the long-distance component may be distinguished and displayed (for example, the short-distance component may be displayed in red and the long-distance component may be displayed in green). Although the moving object target (pedestrian) is displayed three-dimensionally in FIGS. 7 to 10, this is shown for reference only, and the moving object target (pedestrian) is not actually drawn. As shown in FIGS. 7 to 10, by using the information of the highest intensity point detected in each direction of the radar signal and adding the estimation information (interpolation information) that the object distance changes linearly, It was possible to estimate the three-dimensional information of stationary objects such as buildings and warehouses.

以上の検証結果により、本実施の形態の3次元情報推定システム1は、安価な単眼カメラとレーダの組み合わせで、周辺構造物の3次元情報を推定でき、周辺環境認識を実現するのに有用であることが確認された。 Based on the above verification results, the 3D information estimation system 1 of the present embodiment can estimate 3D information of surrounding structures by a combination of an inexpensive monocular camera and a radar, and is useful for realizing recognition of the surrounding environment. It was confirmed that there was.

以上説明したように、本実施の形態の3次元情報推定システム1によれば、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダ20と、周辺を撮像して画像情報を取得する単眼のカメラ30と、カメラ30から出力される画像情報の輪郭情報を抽出する輪郭抽出部12と、レーダ20から出力されるレーダ信号について、各方位の最高強度点をサーチして、カメラ30から出力される画像情報上での最近傍反射点を検出する物標検出部11と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する距離情報付与部13と、画像情報の輪郭情報に高さ情報を付与する高さ情報付与部14と、輪郭情報、距離情報及び高さ情報に従って3次元情報を推定する3次元情報推定部15と、を備えているので、構造物の3次元情報を低コストな構成で推定することが可能となる。 As described above, according to the three-dimensional information estimation system 1 of the present embodiment, the radar 20 transmits a radar wave to the periphery, receives the reflected wave reflected by the object, and acquires a radar signal. A monocular camera 30 that captures an image of the surroundings to acquire image information, a contour extraction unit 12 that extracts contour information of image information output from the camera 30, and a radar signal output from the radar 20 in each direction. The target detection unit 11 that searches for the highest intensity point and detects the nearest reflection point on the image information output from the camera 30, and the distance information of the nearest reflection point in each direction is the image information in the same direction. The distance information adding unit 13 given to the contour information of the image information, the height information adding unit 14 giving height information to the contour information of the image information, and the three-dimensional information estimation according to the contour information, the distance information, and the height information 3 Since the dimensional information estimation unit 15 is provided, it is possible to estimate the three-dimensional information of the structure with a low-cost configuration.

本実施の形態の3次元情報推定システム1は、例えば、車載用レーダシステム、先進運転支援システム(ADAS)、及び周辺監視システム等の各種用途で好適に使用可能である。 The three-dimensional information estimation system 1 of the present embodiment can be suitably used in various applications such as an in-vehicle radar system, an advanced driver assistance system (ADAS), and a peripheral monitoring system.

1 3次元情報推定システム
10 3次元情報推定装置
11 物標検出部
12 輪郭抽出部
13 距離情報付与部
14 高さ情報付与部
15 3次元情報推定部(3次元マップ生成部)
20 レーダ
30 カメラ
41 ピークサーチ部
42 プロット部
43 輝度特性値算出部
44 実像・偽像判定部
1 3D information estimation system 10 3D information estimation device 11 Target detection unit 12 Contour extraction unit 13 Distance information addition unit 14 Height information addition unit 15 3D information estimation unit (3D map generation unit)
20 Radar 30 Camera 41 Peak search unit 42 Plot unit 43 Luminance characteristic value calculation unit 44 Real image / false image determination unit

Claims (7)

周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダと、
周辺を撮像して画像情報を取得するカメラと、
前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、
前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、前記カメラから出力される画像情報上での最近傍反射点を検出する物標検出手段と、
各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する距離情報付与手段と、
前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与部と、
前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、
を備えたことを特徴とする3次元情報推定システム。
A radar that transmits radar waves to the surroundings, receives reflected waves reflected by an object, and acquires radar signals.
A camera that captures the surroundings and acquires image information,
A contour information extraction means for extracting contour information of image information output from the camera, and
A target detection means that searches for the highest intensity point in each direction of the radar signal output from the radar and detects the nearest reflection point on the image information output from the camera.
A distance information imparting means for imparting distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction, and
A height information adding unit that adds height information to the contour information of the image information,
A three-dimensional information estimation means that estimates three-dimensional information according to the contour information, the distance information, and the height information.
A three-dimensional information estimation system characterized by being equipped with.
前記カメラは、単眼カメラであることを特徴とする請求項1に記載の3次元情報推定システム。 The three-dimensional information estimation system according to claim 1, wherein the camera is a monocular camera. 前記距離情報付与手段は、前記最近傍反射点について、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定して、不足する方位の距離情報を補間することを特徴とする請求項1又は請求項2に記載の3次元情報推定システム。 The claim is characterized in that the distance information imparting means interpolates the distance information of insufficient directions on the assumption that the distance information between adjacent direction bins changes linearly with respect to the nearest reflection point. 1 or the three-dimensional information estimation system according to claim 2. 前記物標検出手段は、
前記レーダから出力されるレーダ信号について、各方位をサーチして、各方位における
最高強度点を決定し、
前記カメラから出力される画像情報上に各方位における前記最高強度点をプロットし、画像情報上の各最高強度点の近傍の輝度特性値を算出し、
算出された前記輝度特性値に基づいて、画像情報上の各最高強度点が実像か偽像かを判定して、実像と判定した場合には、当該最高強度点を前記最近傍反射点とし、
偽像と判定した場合には、当該方位の次に強度の高い信号点を取得し、実像と判定されるまで、処理を繰り返し、対象の信号がなくなった場合は、当該方位の実像なしと判断することを特徴とする請求項1〜請求項3のいずれか1つに記載の3次元情報推定システム。
The target detection means is
With respect to the radar signal output from the radar, each direction is searched to determine the highest intensity point in each direction.
The highest intensity points in each direction are plotted on the image information output from the camera, and the luminance characteristic value in the vicinity of each highest intensity point on the image information is calculated.
Based on the calculated luminance characteristic value, it is determined whether each maximum intensity point on the image information is a real image or a false image, and if it is determined to be a real image, the maximum intensity point is set as the nearest neighbor reflection point.
If it is determined to be a false image, the signal point with the next highest intensity after the relevant direction is acquired, the process is repeated until it is determined to be a real image, and if the target signal disappears, it is determined that there is no real image in the relevant direction. The three-dimensional information estimation system according to any one of claims 1 to 3, wherein the three-dimensional information estimation system is characterized.
前記レーダは、ミリ波レーダであることを特徴とする請求項1〜請求項4のいずれか1つに記載の3次元情報推定システム。 The three-dimensional information estimation system according to any one of claims 1 to 4, wherein the radar is a millimeter-wave radar. レーダが、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得する工程と、
カメラが、周辺を撮像して画像情報を取得する工程と、
前記カメラから出力される画像情報の輪郭情報を抽出する工程と、
前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、前記カメラから出力される画像情報上での最近傍反射点を検出する工程と、
各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する工程と、
前記画像情報の輪郭情報に高さ情報を付与する工程と、
前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する工程と、
を含むことを特徴とする3次元情報推定方法。
The process in which the radar transmits radar waves to the surroundings, receives the reflected waves reflected by the object, and acquires the radar signal.
The process by which the camera captures the surroundings and acquires image information,
The process of extracting the contour information of the image information output from the camera and
A process of searching for the highest intensity point in each direction of the radar signal output from the radar and detecting the nearest reflection point on the image information output from the camera.
A step of adding the distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction, and
The process of adding height information to the contour information of the image information and
A step of estimating three-dimensional information according to the contour information, the distance information, and the height information, and
A three-dimensional information estimation method characterized by including.
コンピュータを、
周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、周辺を撮像して画像情報を取得するカメラから出力される画像情報上での最近傍反射点を検出する物標検出手段と、
前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、
各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する輪郭情報付与手段と、
前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与手段と、
前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、
して機能させるためのコンピュータが実行可能なプログラム。
Computer,
A radar wave is transmitted to the periphery, and the reflected wave reflected by the object is received to acquire the radar signal. For the radar signal output from the radar, the highest intensity point in each direction is searched and the periphery is imaged. A target detection means that detects the nearest reflection point on the image information output from the camera that acquires the image information.
A contour information extraction means for extracting contour information of image information output from the camera, and
A contour information imparting means for imparting distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction, and
A height information imparting means for imparting height information to the contour information of the image information, and
A three-dimensional information estimation means that estimates three-dimensional information according to the contour information, the distance information, and the height information.
A computer-executable program to make it work.
JP2020028737A 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program Active JP7461160B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020028737A JP7461160B2 (en) 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020028737A JP7461160B2 (en) 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Publications (2)

Publication Number Publication Date
JP2021135061A true JP2021135061A (en) 2021-09-13
JP7461160B2 JP7461160B2 (en) 2024-04-03

Family

ID=77660866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020028737A Active JP7461160B2 (en) 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Country Status (1)

Country Link
JP (1) JP7461160B2 (en)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0261581A (en) * 1988-08-29 1990-03-01 Oki Electric Ind Co Ltd False image remover for radar
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP2005071204A (en) * 2003-08-27 2005-03-17 Fuji Heavy Ind Ltd Operation supporting device for vehicle
WO2005026769A1 (en) * 2003-09-11 2005-03-24 Mitsubishi Denki Kabushiki Kaisha Radar device
JP2006047057A (en) * 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2007263986A (en) * 2007-07-24 2007-10-11 Denso Corp Orientation detector
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP2013002927A (en) * 2011-06-15 2013-01-07 Honda Elesys Co Ltd Obstacle detection apparatus and computer program
JP2014153874A (en) * 2013-02-07 2014-08-25 Denso Corp Target recognition device
WO2014195994A1 (en) * 2013-06-05 2014-12-11 古野電気株式会社 Sensor information output apparatus, sensor image display apparatus, detection apparatus, and sensor information output method
JP2015105836A (en) * 2013-11-28 2015-06-08 トヨタ自動車株式会社 Brake device
JP2016153775A (en) * 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2016176736A (en) * 2015-03-19 2016-10-06 トヨタ自動車株式会社 Image distance measuring device
WO2016208318A1 (en) * 2015-06-24 2016-12-29 コニカミノルタ株式会社 Distance image processing device, distance image processing method, distance image processing program, and recording medium
US20180120842A1 (en) * 2016-10-27 2018-05-03 Uber Technologies, Inc. Radar multipath processing
JP2019158692A (en) * 2018-03-15 2019-09-19 東芝電波プロダクツ株式会社 Precision approach radar and display system
JP2019211403A (en) * 2018-06-07 2019-12-12 Jrcモビリティ株式会社 Object position measurement device and object position measurement program

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0261581A (en) * 1988-08-29 1990-03-01 Oki Electric Ind Co Ltd False image remover for radar
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP2005071204A (en) * 2003-08-27 2005-03-17 Fuji Heavy Ind Ltd Operation supporting device for vehicle
WO2005026769A1 (en) * 2003-09-11 2005-03-24 Mitsubishi Denki Kabushiki Kaisha Radar device
JP2006047057A (en) * 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2007263986A (en) * 2007-07-24 2007-10-11 Denso Corp Orientation detector
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP2013002927A (en) * 2011-06-15 2013-01-07 Honda Elesys Co Ltd Obstacle detection apparatus and computer program
JP2014153874A (en) * 2013-02-07 2014-08-25 Denso Corp Target recognition device
WO2014195994A1 (en) * 2013-06-05 2014-12-11 古野電気株式会社 Sensor information output apparatus, sensor image display apparatus, detection apparatus, and sensor information output method
JP2015105836A (en) * 2013-11-28 2015-06-08 トヨタ自動車株式会社 Brake device
JP2016153775A (en) * 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2016176736A (en) * 2015-03-19 2016-10-06 トヨタ自動車株式会社 Image distance measuring device
WO2016208318A1 (en) * 2015-06-24 2016-12-29 コニカミノルタ株式会社 Distance image processing device, distance image processing method, distance image processing program, and recording medium
US20180120842A1 (en) * 2016-10-27 2018-05-03 Uber Technologies, Inc. Radar multipath processing
JP2019158692A (en) * 2018-03-15 2019-09-19 東芝電波プロダクツ株式会社 Precision approach radar and display system
JP2019211403A (en) * 2018-06-07 2019-12-12 Jrcモビリティ株式会社 Object position measurement device and object position measurement program

Also Published As

Publication number Publication date
JP7461160B2 (en) 2024-04-03

Similar Documents

Publication Publication Date Title
US11885872B2 (en) System and method for camera radar fusion
CN108352056B (en) System and method for correcting erroneous depth information
CN107272021B (en) Object detection using radar and visually defined image detection areas
JP6784943B2 (en) Information processing equipment, information processing methods, and programs
US9151626B1 (en) Vehicle position estimation system
KR20210096607A (en) Radar Deep Learning
EP3792660B1 (en) Method, apparatus and system for measuring distance
US20150356357A1 (en) A method of detecting structural parts of a scene
Nedevschi et al. High accuracy stereovision approach for obstacle detection on non-planar roads
JP6450294B2 (en) Object detection apparatus, object detection method, and program
CN111045000A (en) Monitoring system and method
CN109583416B (en) Pseudo lane line identification method and system
JPWO2009099022A1 (en) Perimeter monitoring device and perimeter monitoring method
EP3324359B1 (en) Image processing device and image processing method
KR102117313B1 (en) Gradient estimation device, gradient estimation method, computer program, and controlling system
JPWO2019202628A1 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
KR101076406B1 (en) Apparatus and Method for Extracting Location and velocity of Obstacle
JP2019128350A (en) Image processing method, image processing device, on-vehicle device, moving body and system
KR101674298B1 (en) Method for distance calculation using a camera lens focal length information
JP2015230703A (en) Object detection device and object detection method
Nedevschi et al. Driving environment perception using stereovision
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
KR102195040B1 (en) Method for collecting road signs information using MMS and mono camera
JP2006072757A (en) Object detection system

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20230213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240322

R150 Certificate of patent or registration of utility model

Ref document number: 7461160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150