JP7461160B2 - Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program - Google Patents

Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program Download PDF

Info

Publication number
JP7461160B2
JP7461160B2 JP2020028737A JP2020028737A JP7461160B2 JP 7461160 B2 JP7461160 B2 JP 7461160B2 JP 2020028737 A JP2020028737 A JP 2020028737A JP 2020028737 A JP2020028737 A JP 2020028737A JP 7461160 B2 JP7461160 B2 JP 7461160B2
Authority
JP
Japan
Prior art keywords
information
image
radar
distance
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020028737A
Other languages
Japanese (ja)
Other versions
JP2021135061A (en
Inventor
将広 星
幸伸 時枝
Original Assignee
Jrcモビリティ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jrcモビリティ株式会社 filed Critical Jrcモビリティ株式会社
Priority to JP2020028737A priority Critical patent/JP7461160B2/en
Publication of JP2021135061A publication Critical patent/JP2021135061A/en
Application granted granted Critical
Publication of JP7461160B2 publication Critical patent/JP7461160B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラムに関する。 The present invention relates to a three-dimensional information estimation system, a three-dimensional information estimation method, and a program executable by a computer.

従来、3次元情報の推定では、ステレオカメラ単体で左右の画像の視差を利用する技術やLiDAR(Laser Imaging Detection and Ranging)を用いて計測する技術が提案されている。上述のステレオカメラやLiDARを用いた場合は、センサ自体が高額であるため、システムが高コストとなる。 Conventionally, techniques proposed for estimating 3D information include using a stereo camera alone to exploit the parallax between left and right images, and using LiDAR (Laser Imaging Detection and Ranging) for measurement. When using the above-mentioned stereo camera or LiDAR, the sensor itself is expensive, resulting in a high system cost.

他方、近時、ミリ波レーダと単眼カメラを用いた周辺環境認識技術の研究が盛んに行われているが、動態のみをターゲットにした研究が多く、構造物の3次元情報を正確に認識する方法は提案されていない。安価なレーダと単眼カメラを用いて構造物の3次元情報が推定できれば、コストの面で優位となる。 On the other hand, in recent years, there has been active research into surrounding environment recognition technology using millimeter wave radar and monocular cameras, but most of the research has focused only on dynamic movement, and no method has been proposed for accurately recognizing three-dimensional information about structures. If three-dimensional information about structures could be estimated using inexpensive radar and monocular cameras, it would be advantageous in terms of cost.

特開2010-286926号公報JP 2010-286926 A

本発明は、上記に鑑みてなされたものであって、構造物の3次元情報を低コストな構成で推定することが可能な3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides a three-dimensional information estimation system, a three-dimensional information estimation method, and a computer-executable three-dimensional information estimation system capable of estimating three-dimensional information of a structure with a low-cost configuration. The purpose of this program is to provide a comprehensive program.

上述した課題を解決し、目的を達成するために、本発明は、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダと、周辺を撮像して画像情報を取得するカメラと、前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、前記カメラから出力される画像情報上での最近傍反射点を検出する物標検出手段と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する距離情報付与手段と、前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与部と、前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、を備えたことを特徴とする。 In order to solve the above problems and achieve the object, the present invention is characterized by comprising a radar that transmits radar waves to the surroundings and receives reflected waves reflected by an object to obtain a radar signal, a camera that captures an image of the surroundings to obtain image information, a contour information extraction means that extracts contour information of the image information output from the camera, a target detection means that searches for the highest intensity point in each direction for the radar signal output from the radar and detects the nearest reflection point on the image information output from the camera, a distance information assignment means that assigns distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction, a height information assignment unit that assigns height information to the contour information of the image information, and a three-dimensional information estimation means that estimates three-dimensional information according to the contour information, the distance information, and the height information.

また、本発明の一態様によれば、前記カメラは、単眼カメラであることにしてもよい。 According to one aspect of the present invention, the camera may be a monocular camera.

また、本発明の一態様によれば、前記距離情報付与手段は、前記最近傍反射点について、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定して、不足する方位の距離情報を補間することにしてもよい。 According to one aspect of the present invention, the distance information providing means may assume that the distance information between adjacent orientation bins for the nearest reflection point changes linearly, and may interpolate the missing orientation distance information.

また、本発明の一態様によれば、前記物標検出手段は、前記レーダから出力されるレーダ信号について、各方位をサーチして、各方位における最高強度点を決定し、前記カメラから出力される画像情報上に各方位における前記最高強度点をプロットし、画像情報上の各最高強度点の近傍の輝度特性値を算出し、算出された前記輝度特性値に基づいて、画像情報上の各最高強度点が実像か偽像かを判定して、実像と判定した場合には、当該最高強度点を前記最近傍反射点とし、偽像と判定した場合には、当該方位の次に強度の高い信号点を取得し、実像と判定されるまで、処理を繰り返し、対象の信号がなくなった場合は、当該方位の実像なしと判断することにしてもよい。 According to one aspect of the present invention, the target detection means searches each direction for the radar signal output from the radar, determines the highest intensity point in each direction, plots the highest intensity point in each direction on the image information output from the camera, calculates the brightness characteristic value near each highest intensity point on the image information, and determines whether each highest intensity point on the image information is a real image or a false image based on the calculated brightness characteristic value. If it is determined to be a real image, the highest intensity point is set as the nearest reflection point, and if it is determined to be a false image, the next highest intensity signal point in that direction is obtained, and the process is repeated until it is determined to be a real image. If the target signal disappears, it is determined that there is no real image in that direction.

また、本発明の一態様によれば、前記レーダは、ミリ波レーダであることにしてもよい。 Further, according to one aspect of the present invention, the radar may be a millimeter wave radar.

また、上述した課題を解決し、目的を達成するために、本発明は、レーダが、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得する工程と、カメラが、周辺を撮像して画像情報を取得する工程と、前記カメラから出力される画像情報の輪郭情報を抽出する工程と、前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、前記カメラから出力される画像情報上での最近傍反射点を検出する工程と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する工程と、前記画像情報の輪郭情報に高さ情報を付与する工程と、前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する工程と、を含むことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention is characterized by including a step of a radar transmitting radar waves to the surroundings and receiving the reflected waves reflected by an object to obtain a radar signal, a step of a camera capturing an image of the surroundings to obtain image information, a step of extracting contour information of the image information output from the camera, a step of searching for the maximum intensity point in each direction for the radar signal output from the radar and detecting the nearest reflection point on the image information output from the camera, a step of adding distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction, a step of adding height information to the contour information of the image information, and a step of estimating three-dimensional information according to the contour information, the distance information, and the height information.

また、上述した課題を解決し、目的を達成するために、本発明は、コンピュータを、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダから出力されるレーダ信号について、各方位の最高強度点をサーチして、周辺を撮像して画像情報を取得するカメラから出力される画像情報上での最近傍反射点を検出する前記物標検出手段と、前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する輪郭情報付与手段と、前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与手段と、前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、して機能させるためのコンピュータが実行可能なプログラムであることを特徴とする。 Furthermore, in order to solve the above-mentioned problems and achieve the objects, the present invention provides a radar system that transmits radar waves to the surroundings of a computer, receives reflected waves reflected by an object, and acquires radar signals. Detecting the target object by searching for the highest intensity point in each direction for the radar signal output from the camera and detecting the nearest reflection point on the image information output from the camera. a contour information extracting means for extracting contour information of the image information output from the camera; and a contour information adding means for adding distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction. and height information adding means for adding height information to contour information of the image information, and three-dimensional information estimating means for estimating three-dimensional information according to the contour information, the distance information, and the height information. It is characterized in that it is a computer-executable program for functioning.

本発明によれば、構造物の3次元情報を低コストな構成で推定することが可能になるという効果を奏する。 According to the present invention, it is possible to estimate three-dimensional information of a structure with a low-cost configuration.

図1は、本実施の形態に係る3次元情報推定システムの概略の構成例を示す図である。FIG. 1 is a diagram showing an example of a schematic configuration of a three-dimensional information estimation system according to the present embodiment. 図2は、本実施の形態に係る3次元情報システムの概略の動作を示すフローの一例を示す図である。FIG. 2 is a diagram illustrating an example of a flow illustrating the general operation of the three-dimensional information system according to the present embodiment. 図3は、解像度の計算方法を説明するための図である。FIG. 3 is a diagram for explaining a method of calculating the resolution. 図4は、カメラで撮像した画像にレーダ信号の最近傍の反射点と輝度分散値をプロットした例を示す図である。FIG. 4 is a diagram showing an example in which the nearest reflection point of a radar signal and the brightness dispersion value are plotted on an image captured by a camera. 図5は、解析に使用する信号と除外する信号を説明するための図である。FIG. 5 is a diagram for explaining signals to be used in the analysis and signals to be excluded. 図6は、画像の輪郭情報と距離情報の紐付けを説明するための図である。FIG. 6 is a diagram for explaining the association of image contour information and distance information. 図7は、作成した3次元マップの一例を示す図である(第1のアングル)。FIG. 7 is a diagram showing an example of the created three-dimensional map (first angle). 図8は、作成した3次元マップの一例を示す図である(第2のアングル)。FIG. 8 is a diagram showing an example of the created three-dimensional map (second angle). 図9は、作成した3次元マップの一例を示す図である(第3のアングル)。FIG. 9 is a diagram showing an example of the created three-dimensional map (third angle). 図10は、作成した3次元マップの一例を示す図である(第4のアングル)。FIG. 10 is a diagram showing an example of the created three-dimensional map (fourth angle).

以下に、この発明にかかる3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、下記実施の形態における構成要素には、当業者が容易に想定できるものまたは実質的に同一のものが含まれる。本発明の構成要素は、本明細書の図面に一般に示してあるが、様々な構成で広く多様に配置して設計してもよいことは容易に理解できる。したがって、本発明のシステム及び装置の実施形態についての以下のより詳細な説明は、特許請求の範囲に示す本発明の範囲を限定するものではなく、単に本発明の選択した実施形態の一例を示すものである。本明細書は、参照により公知技術が組み込まれる。そのため、当業者は、公知技術を援用することで、特定の細目の1つ以上が無くても、または他の方法、部品、材料でも本発明を実現できることが理解できる。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, embodiments of a three-dimensional information estimation system, a three-dimensional information estimation method, and a computer-executable program according to the present invention will be described in detail based on the drawings. Note that the present invention is not limited to this embodiment. Furthermore, the constituent elements in the embodiments described below include those that can be easily imagined by those skilled in the art or those that are substantially the same. Although the components of the invention are generally illustrated in the drawings herein, it will be readily appreciated that they may be arranged and designed in a wide variety of different configurations. Accordingly, the following more detailed description of embodiments of systems and apparatus of the invention does not limit the scope of the invention as set forth in the claims, but merely represents an example of selected embodiments of the invention. It is something. This specification incorporates known technology by reference. Therefore, those skilled in the art will appreciate, through the use of known techniques, that the invention may be practiced without one or more of the specific details, or with other methods, components, or materials.

[1.本発明の原理]
本発明では、構造物の3次元情報を低コストな構成で推定するために、レーダと単眼カメラを使用し、レーダによって得られる距離・方位情報と、単眼カメラで撮像した画像によって得られる方位・高さ情報を用いて、周辺の構造物の3次元情報を推定する方法を提案する。
[1. Principle of the present invention]
In the present invention, in order to estimate three-dimensional information of a structure with a low-cost configuration, a radar and a monocular camera are used. We propose a method for estimating three-dimensional information of surrounding structures using height information.

レーダ信号を抽出する際、動態である歩行者や車両の信号と比較して、静態である構造物のレーダ信号は、クラッタや偽像等のノイズ成分の影響を受けやすく、レーダ信号の選別が困難になる。そこで、本発明では、所望の構造物信号を抽出する手法として、画像情報を用いることでレーダ信号のクラッタ成分を抑圧する。 When extracting radar signals, radar signals from stationary structures are more susceptible to noise components such as clutter and false images than signals from moving pedestrians and vehicles, making it difficult to select radar signals. Therefore, in this invention, as a method for extracting the desired structure signal, image information is used to suppress the clutter components of the radar signal.

具体的には、レーダ信号により検知した偽像位置と同位置の画像上には不要な成分が写り込む可能性が低いという性質を利用して、検出した各方位のレーダ信号を画像上にプロットすることで、各信号が物標からの信号か否かを判別する。より具体的には、撮像した画像上にレーダ信号をプロットする場合は、各レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して、物標が路面と接地している画像上の点にレーダ信号をプロットする。画像上にプロットした各レーダ信号付近で画像の輝度分散値を取得し、取得した輝度分散値から各レーダ信号が実像であるか偽像であるかを分類する。レーダ信号が実像である場合は、画像上で物標と路面の切り替わり部分の輝度を評価することになるので、輝度分散値が大きい傾向となる。他方、偽像のレーダ信号をプロットしても画像上では何もない路面部分の輝度評価をする確率が高まるため、輝度分散値が小さい傾向となる。このように、各レーダ信号に紐づく画像上の輝度分散値を評価することで、実像と偽像を区別することが可能となる。このようにして、各方位毎に最も近傍にある物体までの距離を精度よく得ることができる。 Specifically, the detected radar signals from each direction are plotted on the image, taking advantage of the property that there is a low possibility that unnecessary components will appear on the image at the same position as the false image position detected by the radar signal. By doing so, it is determined whether each signal is a signal from a target object. More specifically, when plotting radar signals on captured images, it is assumed that each radar signal is a reflection signal from a height of zero at each reflection distance, and when the target is in contact with the road surface. Plot the radar signal at the point on the image. The brightness dispersion value of the image is obtained near each radar signal plotted on the image, and each radar signal is classified as a real image or a false image based on the obtained brightness dispersion value. When the radar signal is a real image, the brightness of the transition portion between the target object and the road surface on the image is evaluated, so the brightness variance value tends to be large. On the other hand, even if a radar signal of a false image is plotted, the probability of evaluating the brightness of a road surface area where there is nothing on the image increases, so the brightness variance value tends to be small. In this way, by evaluating the brightness dispersion value on the image associated with each radar signal, it becomes possible to distinguish between a real image and a false image. In this way, the distance to the nearest object can be obtained with high accuracy for each direction.

この際、物体が存在しない方位については信号を検出しない(除外する)。信号を検出した方位の距離情報を用いて、各方位における構造物の3次元情報を算出する。 At this time, signals are not detected (excluded) in directions where no object exists. Three-dimensional information of the structure in each direction is calculated using the distance information of the direction in which the signal was detected.

このように、本発明では、画像は水平軸に方位情報を持つ特性があるため、水平座標が同じであれば同方位の物体であると見なすことができる点に着目した。画像の方位情報とレーダの方位情報を統合し、レーダで信号を検出した方位の信号距離を、同方位の画像の輪郭情報に紐付する。これにより、一定の方位の画像情報に対して距離情報を付与することが可能となる。 In this way, this invention focuses on the fact that images have the characteristic of having azimuth information on the horizontal axis, and therefore objects with the same horizontal coordinates can be considered to be in the same orientation. The image azimuth information and radar azimuth information are integrated, and the signal distance in the direction in which the radar detected the signal is linked to the image contour information in the same direction. This makes it possible to assign distance information to image information in a certain direction.

但し、画像の水平角分解能に対して、レーダの水平角分解能は非常に低いため、レーダの各方位ビンの間にあたる方位の距離情報を推定する必要が生じる。そこで、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定し、不足する方位の距離情報を補間する。 However, since the horizontal angular resolution of the radar is very low compared to the horizontal angular resolution of the image, it is necessary to estimate the distance information of the azimuths between the azimuth bins of the radar. Therefore, it is assumed that the distance information between adjacent azimuth bins changes linearly, and the missing azimuth distance information is interpolated.

画像の水平軸(地面)の各画素成分に対して距離情報を付与し、方位に対応する距離毎に解像度を計算する。ここで求めた解像度を用いることで、各方位の輪郭成分のそれぞれの高さ情報を計算する。以上の手法を適用することで、周辺の構造物の3次元情報を推定することが可能となる。 Distance information is assigned to each pixel component on the horizontal axis (ground) of the image, and the resolution is calculated for each distance corresponding to the direction. The resolution calculated here is then used to calculate the height information for each contour component in each direction. By applying the above method, it is possible to estimate three-dimensional information about surrounding structures.

また、動態の検出をレーダと単眼カメラで行っているシステムに、本実施の形態の周辺構造物の3次元情報推定の技術を適用した場合、静態の情報が追加されることになるので、従来困難であった自己位置推定まで実現できる可能性がある。GPSに代表されるGNSSの発達により、自己位置のみであれば高精度に認識が可能となってきているが、瞬間的に絶対方位を導くことはできない。周辺の構造物との位置関係を正確に把握できれば、観測者の絶対方位を単一の計測で認識することが可能となる。 Furthermore, if the technology for estimating three-dimensional information of surrounding structures of this embodiment is applied to a system in which dynamic detection is performed using radar and a monocular camera, static information will be added, which is different from the conventional method. It may even be possible to achieve self-position estimation, which has been difficult. With the development of GNSS, typified by GPS, it has become possible to recognize only one's own position with high precision, but it is not possible to instantly derive the absolute direction. If the positional relationship with surrounding structures can be accurately determined, it becomes possible to recognize the observer's absolute orientation with a single measurement.

[2.本実施の形態の3次元情報推定システムの構成例及び動作例]
図1~図3を参照して、本実施の形態の3次元情報推定システムの構成例及び動作例を説明する。図1は、本実施の形態に係る3次元情報推定システム1の概略の構成例を示す図である。図2は、本実施の形態に係る3次元情報推定システム1の概略の動作を示すフローの一例を示す図である。
2. Configuration and Operation Examples of the Three-Dimensional Information Estimation System of the Present Embodiment
An example of the configuration and operation of a three-dimensional information estimation system according to the present embodiment will be described with reference to Figures 1 to 3. Figure 1 is a diagram showing an example of the schematic configuration of a three-dimensional information estimation system 1 according to the present embodiment. Figure 2 is a diagram showing an example of a flow showing the schematic operation of the three-dimensional information estimation system 1 according to the present embodiment.

図1を参照して、本実施の形態に係る3次元情報推定システム1の構成を説明する。図1に示すように、本実施の形態に係る3次元情報推定システム1は、3次元情報推定装置10と、レーダ20と、カメラ30とを備えている。 With reference to FIG. 1, the configuration of a three-dimensional information estimation system 1 according to the present embodiment will be described. As shown in FIG. 1, a three-dimensional information estimation system 1 according to the present embodiment includes a three-dimensional information estimation device 10, a radar 20, and a camera 30.

レーダ20は、周囲にレーダ波を送信して、対象物によって反射された反射波を受信して、レーダ信号として3次元情報推定装置10に出力する。レーダ20は、例えば、FM-CW方式のミリ波レーダ(79GHz帯、帯域幅4GHz、MIMOレーダ(送信アンテナ3個、受信アンテナ6個)であり、検出範囲は、水平角が-75度~75度、仰角が-3度~3度である。レーダ20は、複数の送信アンテナを備える送信器からレーダ波を周囲に送信し、対象物によって反射された反射波を複数の受信アンテナを備える受信器で受信することによって対象物の距離、相対速度、角度、及び信号強度を検知するためのセンサである。 The radar 20 transmits radar waves to the surroundings, receives reflected waves reflected by objects, and outputs them to the three-dimensional information estimation device 10 as radar signals. The radar 20 is, for example, an FM-CW millimeter wave radar (79 GHz band, 4 GHz bandwidth, MIMO radar (3 transmitting antennas, 6 receiving antennas), and the detection range is from -75 degrees to 75 degrees horizontally. The radar 20 transmits radar waves to the surroundings from a transmitter equipped with a plurality of transmitting antennas, and receives reflected waves reflected by an object using a receiver equipped with a plurality of receiving antennas. This is a sensor for detecting the distance, relative velocity, angle, and signal strength of an object by receiving it with a device.

レーダ20から出力されるレーダ信号は、例えば、レーダ20が備える信号処理回路において反射波が処理された対象物の1または複数の代表位置を示す点または点列からなる信号であっても良く、あるいは、未処理の反射波を示す信号であっても良い。本例では、レーダ20から出力されるレーダ信号は、上述の信号処理回路において、公知のFM-CW方式で算出した対象物の距離、方位、及び相対速度、信号強度の情報を含んでいるものとする。なお、未処理の受信波がレーダ信号として用いられる場合には、3次元情報推定装置10においてこれらの信号処理が実行される。 The radar signal output from the radar 20 may be, for example, a signal consisting of a point or a sequence of points indicating one or more representative positions of the object whose reflected waves have been processed in the signal processing circuit included in the radar 20, Alternatively, it may be a signal indicating an unprocessed reflected wave. In this example, the radar signal output from the radar 20 includes information on the distance, direction, relative speed, and signal strength of the object calculated by the known FM-CW method in the signal processing circuit described above. shall be. Note that when unprocessed received waves are used as radar signals, these signal processes are executed in the three-dimensional information estimation device 10.

カメラ30は、周囲を撮像した画像情報を3次元情報推定装置10に出力する。カメラ30は、可視光や赤外光を受光することによって対象物の外形情報である画像情報として出力するためのセンサである。カメラ30は、例えば、単眼カメラであり、例えば、CMOSグローバルシャッタセンサ(例えば、有効画素数:1920ピクセル×1200ピクセル,フレームレート:41.6fps、インターフェース:USB3.0)とメガピクセル対応CCTVレンズ(例えば、画角:86.71度×61.44度、焦点距離6mm)の組み合わせで構成することができ、例えば、検出範囲は、水平角が-43.36度~43.36度、仰角が-30.72度~30.72度である。 The camera 30 outputs image information of the surroundings to the three-dimensional information estimation device 10. The camera 30 is a sensor that receives visible light and infrared light and outputs the image information, which is information on the outer shape of the object. The camera 30 is, for example, a monocular camera, and can be configured, for example, by combining a CMOS global shutter sensor (for example, effective pixel count: 1920 pixels x 1200 pixels, frame rate: 41.6 fps, interface: USB 3.0) with a megapixel-compatible CCTV lens (for example, angle of view: 86.71 degrees x 61.44 degrees, focal length 6 mm), and has a detection range of, for example, a horizontal angle of -43.36 degrees to 43.36 degrees and an elevation angle of -30.72 degrees to 30.72 degrees.

カメラ30から出力される画像情報は、時系列的に連続する複数のフレーム画像によって構成されており、各フレーム画像は画素データにより表されている。画素データは、モノクロの画素データまたはカラーの画素データである。 The image information output from the camera 30 is composed of multiple frame images that are successive in time series, and each frame image is represented by pixel data. The pixel data is monochrome pixel data or color pixel data.

3次元情報推定装置10は、物標検出部11と、輪郭抽出部12と、距離情報付与部13と、高さ情報付与部14と、3次元情報推定部15とを備えている。 The three-dimensional information estimation device 10 includes a target detection unit 11, a contour extraction unit 12, a distance information assignment unit 13, a height information assignment unit 14, and a three-dimensional information estimation unit 15.

物標検出部11は、レーダ20から出力されるレーダ信号について、各方位の最高強度点をサーチして、カメラ30から出力される画像情報上での最近傍反射点を検出する。物標検出部11は、動態成分(歩行者等)については、各方位の最近傍反射点として検出しない。 The target detection unit 11 searches for the maximum intensity point in each direction for the radar signal output from the radar 20, and detects the nearest reflection point on the image information output from the camera 30. The target detection unit 11 does not detect moving components (pedestrians, etc.) as the nearest reflection point in each direction.

物標検出部11は、例えば、しきい値処理部40と、ピークサーチ部41と、プロット部42と、輝度特性値算出部43と、実像・偽像判定部44と、を備えている。 The target detection unit 11 includes, for example, a threshold processing unit 40, a peak search unit 41, a plot unit 42, a brightness characteristic value calculation unit 43, and a real image/false image determination unit 44.

しきい値処理部40は、レーダ20から出力されるレーダ信号に対して、CFAR等のしきい値処理を施す。ピークサーチ部41は、しきい値処理後のレーダ信号について、各方位における最高強度点を決定する。実像・偽像判定部44で、最高強度点が偽像と判定された場合には、当該方位についての次に強度の高い信号点を取得する。 The threshold processing unit 40 performs threshold processing such as CFAR on the radar signal output from the radar 20. The peak search unit 41 determines the highest intensity point in each direction for the radar signal after threshold processing. When the real image/false image determination unit 44 determines that the highest intensity point is a false image, the next highest intensity signal point in the relevant direction is acquired.

プロット部42は、カメラ30から出力される画像上にレーダ信号の各方位における最高強度点をプロットする。画像上に最高強度点をプロットする場合は、レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して(レーダの仰角が小さいため)、物標が路面と接地している画像上の対応座標を算出して、レーダ信号点(最高強度点)をプロットする。プロット部42は、ピークサーチ部41で、当該方位の次に強度の高い信号点が取得された場合には、当該方位における次に強度の高い信号点をプロットする。 The plot unit 42 plots the maximum intensity point of the radar signal in each direction on the image output from the camera 30. When plotting the maximum intensity point on the image, it assumes that the radar signal is a reflected signal from a height of zero at each reflection distance (because the radar elevation angle is small), calculates the corresponding coordinates on the image where the target is in contact with the road surface, and plots the radar signal point (maximum intensity point). If the peak search unit 41 acquires a signal point with the next highest intensity in the direction, the plot unit 42 plots the signal point with the next highest intensity in the direction.

輝度特性値算出部43は、画像上の各最高強度点の近傍の輝度特性値(例えば、輝度分散値、輝度勾配)を算出する。輝度特性値算出部43は、プロット部42で、当該方位の次に強度の高い信号点がプロットされた場合には、当該次に強度の高い信号点の近傍の輝度特性値を算出する。 The luminance characteristic value calculation unit 43 calculates the luminance characteristic value (e.g., luminance variance, luminance gradient) in the vicinity of each maximum intensity point on the image. When the plot unit 42 plots a signal point with the next highest intensity in the relevant direction, the luminance characteristic value calculation unit 43 calculates the luminance characteristic value in the vicinity of the signal point with the next highest intensity.

実像・偽像判定部44は、輝度特性値に基づいて、画像上の最高強度点が実像か偽像かを判定して、実像の結果を出力する。具体的には、実像・偽像判定部44は、実像と判定した場合には、当該最高強度点を最近傍の反射点とし、偽像と判定した場合には、当該方位の次に強度の高い信号点を判定し、実像と判定されるまで、処理を繰り返し実行する。但し、対象の信号がなくなった場合は、当該方位の実像なしと判断する。
例えば、輝度特性値がしきい値以上の場合は、最高強度点が実像であると判定し、輝度特性値がしきい値以上でない場合には、当該最高強度点が偽像であると判定することができる。
The real image/false image determining unit 44 determines whether the highest intensity point on the image is a real image or a false image based on the brightness characteristic value, and outputs the result of the real image. Specifically, when the real image/false image determination unit 44 determines that the image is a real image, it sets the highest intensity point as the nearest reflection point, and when it determines that it is a false image, it sets the next highest intensity point in the direction. The process is repeated until a high signal point is determined and determined to be a real image. However, if the target signal disappears, it is determined that there is no real image in that direction.
For example, if the brightness characteristic value is greater than or equal to the threshold value, the highest intensity point is determined to be a real image, and if the brightness characteristic value is not greater than the threshold value, the highest intensity point is determined to be a false image. be able to.

輪郭抽出部12は、カメラ30から出力される画像情報の輪郭情報を抽出して、距離情報付与部13及び高さ情報付与部14に出力する。 The contour extraction unit 12 extracts contour information from the image information output from the camera 30 and outputs it to the distance information assignment unit 13 and the height information assignment unit 14.

距離情報付与部13は、各方位の距離情報を同方位の画像の輪郭情報に付与する。距離情報付与部13は、最近傍反射点について、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定して、不足する方位の距離情報を補間することにしてもよい。 The distance information adding unit 13 adds distance information for each direction to the contour information of the image in the same direction. The distance information providing unit 13 may assume that distance information between adjacent azimuth bins changes linearly with respect to the nearest reflection point, and may interpolate the missing azimuth distance information.

高さ情報付与部14は、画像の輪郭情報に高さ情報(Z)を付与する。 The height information adding unit 14 adds height information (Z) to the outline information of the image.

3次元情報推定部15は、画像の輪郭情報に、算出した距離情報(X,Y)及び高さ情報(Z)に従って、3次元プロットして3次元情報を推定(描画)し、3次元マップを出力する。 The three-dimensional information estimation unit 15 estimates (draws) three-dimensional information by three-dimensional plotting on the contour information of the image according to the calculated distance information (X, Y) and height information (Z), and creates a three-dimensional map. Output.

3次元情報推定装置10は、CPU(プロセッサ)、DSP、RAM、ROMやフラッシュメモリ等の不揮発性メモリ、I/O、モニタ等を搭載している。3次元情報推定装置10の各機能は、CPUがROMまたはフラッシュメモリ等の不揮発メモリに記憶されているプログラムを実行することにより実現される。このプログラムが実行されることにより、プログラムに対応する方法が実行される。 The three-dimensional information estimation device 10 is equipped with a CPU (processor), a DSP, a RAM, a nonvolatile memory such as a ROM or a flash memory, an I/O, a monitor, and the like. Each function of the three-dimensional information estimating device 10 is realized by the CPU executing a program stored in a nonvolatile memory such as a ROM or a flash memory. By executing this program, a method corresponding to the program is executed.

CPUがプログラムを実行することにより、物標検出部11と、輪郭抽出部12と、距離情報付与部13と、高さ情報付与部14と、3次元情報推定部15の機能を実現する。 When the CPU executes the program, the functions of the target object detection section 11, contour extraction section 12, distance information addition section 13, height information addition section 14, and three-dimensional information estimation section 15 are realized.

3次元情報推定装置10を構成するこれらの要素を実現する手法は、ソフトウェアに限るものではなく、その一部または全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。 The method of realizing these elements constituting the three-dimensional information estimation device 10 is not limited to software, but it is also possible to realize some or all of the elements using hardware that combines logic circuits, analog circuits, etc. You can.

図2を参照して、図1の3次元情報推定システム1の全体の処理を説明する。 The overall processing of the three-dimensional information estimation system 1 of FIG. 1 will be explained with reference to FIG. 2.

図2において、レーダ20は、周囲にレーダ波を送信して、その反射波を受信してレーダ信号を取得し、3次元情報推定装置10に出力する(ステップS1)。カメラ30は、周囲を撮像して2次元の画像情報を取得して、3次元情報推定装置10に出力する(ステップS2)。レーダ信号と画像情報のフレームは同期しているものとする。 In FIG. 2, the radar 20 transmits radar waves to the surroundings, receives the reflected waves, acquires a radar signal, and outputs it to the three-dimensional information estimation device 10 (step S1). The camera 30 captures the surroundings, acquires two-dimensional image information, and outputs it to the three-dimensional information estimation device 10 (step S2). It is assumed that the radar signal and the image information frames are synchronized.

物標検出部11は、カメラ30から出力される画像情報とレーダ20から出力されるレーダ信号に基づいて、レーダ信号の各方位における画像上の最近傍反射点を検出する(ステップS3)。物標検出部11は、動態成分(歩行者等)については、各方位の最近傍反射点として検出しない。具体的には、物標検出部11は、レーダ20から出力されるレーダ信号について、各方位をサーチして、各方位における最高強度点を決定し、カメラ30から出力される画像情報上に各方位における最高強度点をプロットし、画像情報上の各最高強度点の近傍の輝度特性値を算出し、算出された輝度特性値に基づいて、画像情報上の各最高強度点が実像か偽像かを判定して、実像と判定した場合には、当該最高強度点を最近傍の反射点とし、偽像と判定した場合には、当該方位の次に強度の高い信号点を取得し、実像と判定されるまで、処理を繰り返し実行する(各方位の最高強度点が実像と判定されるまで(最近傍の反射点を取得するまで)、同じ処理を繰り返し実行する)。但し、対象の信号がなくなった場合は、当該方位の実像なしと判断する。 The target detection unit 11 detects the nearest reflection point on the image in each direction of the radar signal based on the image information output from the camera 30 and the radar signal output from the radar 20 (step S3). The target detection unit 11 does not detect dynamic components (pedestrians, etc.) as the nearest reflection point in each direction. Specifically, the target detection unit 11 searches each direction for the radar signal output from the radar 20, determines the highest intensity point in each direction, and displays each direction on the image information output from the camera 30. Plot the highest intensity points in the azimuth, calculate the brightness characteristic values in the vicinity of each highest intensity point on the image information, and determine whether each highest intensity point on the image information is a real image or a false image based on the calculated brightness characteristic values. If it is determined to be a real image, the highest intensity point is set as the nearest reflection point, and if it is determined to be a false image, the signal point with the next highest intensity in the direction is acquired and the real image is determined. The process is repeatedly executed until it is determined that (the same process is repeatedly executed until the highest intensity point in each direction is determined to be a real image (until the nearest reflection point is obtained)). However, if the target signal disappears, it is determined that there is no real image in that direction.

輪郭抽出部12は、カメラ30から出力される画像情報の輪郭情報を抽出する(ステップS4)。輪郭抽出部12は、動態成分(歩行者等)については輪郭情報を抽出しない。画像中の動態成分は公知の方法で検出できるので、その説明は省略する。 The contour extraction unit 12 extracts contour information from the image information output from the camera 30 (step S4). The contour extraction unit 12 does not extract contour information for moving components (pedestrians, etc.). Moving components in an image can be detected by known methods, so a description of this is omitted.

距離情報付与部13は、各方位の距離情報を同方位の画像の輪郭情報に付与する(ステップS5)。具体的には、例えば、距離情報付与部13は、各方位の最近傍反射点を極座標系データ(r、θ)から直交座標系データ(X,Y)に変換し、隣接方位ビンの信号を確認し、隣接信号間を補間した後、各方位の距離情報を同方位の画像の輪郭情報に付与する。ここで、隣接信号間を補間しているのは、画像の水平角分解能に対して、レーダの水平角分解能は非常に粗いため、レーダ信号の各方位ビンの間にあたる方位の距離情報を推定する必要が生じる。そこで、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定し、不足する方位の距離情報を補間する。 The distance information adding unit 13 adds the distance information of each direction to the contour information of the image of the same direction (step S5). Specifically, for example, the distance information adding unit 13 converts the nearest reflection point of each direction from polar coordinate system data (r, θ) to Cartesian coordinate system data (X, Y), checks the signals of adjacent direction bins, interpolates between the adjacent signals, and then adds the distance information of each direction to the contour information of the image of the same direction. Here, the reason for interpolating between adjacent signals is that the horizontal angle resolution of the radar is very coarse compared to the horizontal angle resolution of the image, so it becomes necessary to estimate the distance information of the direction between each direction bin of the radar signal. Therefore, it is assumed that the distance information between adjacent direction bins changes linearly, and the missing distance information of the direction is interpolated.

なお、過去フレーム(例えば、過去5フレーム分)における同方位の距離情報を加味して、各物標までの距離を平滑化することで、測距誤差を抑制することにしてもよい。 In addition, distance measurement errors can be suppressed by smoothing the distance to each target by taking into account distance information in the same direction in past frames (e.g., the past five frames).

高さ情報付与部14は、画像の輪郭情報に高さ情報(Z)を付与する(ステップS6)。ここで、高さ情報(Z)の計算方法の一例を説明する。各方位の画像の輪郭成分までの 距離を算出したので、算出した距離における画像の解像度(m/pix)を計算し、解像度の情報を用いて高さ情報を計算する。図3は、解像度の計算方法を説明するための図である。 The height information adding unit 14 adds height information (Z) to the outline information of the image (step S6). Here, an example of a method for calculating height information (Z) will be explained. Since the distance to the contour component of the image in each direction has been calculated, the resolution (m/pix) of the image at the calculated distance is calculated, and height information is calculated using the resolution information. FIG. 3 is a diagram for explaining a resolution calculation method.

(1)下式(1)により、距離Y(m)における画像の垂直方向解像度を求める。
垂直方向解像度vReso(m/pix)=Y*7.13/6/1200
・・・(1)
ここで、7.13(mm)は、CMOSセンササイズ、6(mm)は、CCTVレンズの焦点距離、1200(pix)は画素数である。
(1) The vertical resolution of the image at a distance Y (m) is calculated using the following equation (1).
Vertical resolution vReso (m/pix) = Y * 7.13/6/1200
... (1)
Here, 7.13 (mm) is the CMOS sensor size, 6 (mm) is the focal length of the CCTV lens, and 1200 (pix) is the number of pixels.

(2)下式(2)により、距離Y(m)の路面高さにおける画像上の路面座標を求める。
路面座標rCol(pix)=ColCross+(CamHgt/vReso)
・・・(2)
ここでは、ColCross(pix)は、垂直成分の消失点座標、CamHgt(m)はカメラ設置高さである。
(2) Find the road surface coordinates on the image at the road surface height of distance Y (m) using the following formula (2).
Road surface coordinates rCol (pix) = ColCross + (CamHgt/vReso)
...(2)
Here, ColCross(pix) is the vanishing point coordinate of the vertical component, and CamHgt(m) is the camera installation height.

消失点とは遠近法において、実際のものでは平行線になっているものを平行でなく描く際に、その線が交わる点である。例えば、本来平行な通路も、画像上ではある一点で収束する。消失点とはこの収束する点を指す。消失点と画像中心が一致するように予めキャリブレーションした場合、消失点=無限遠距離におけるカメラ設置高さの座標という等式が成り立つ。この前提より、消失点座標から各距離におけるカメラ設置高さ(pix)を引くことで、該当距離における路面座標rCol(pix)が式(2)により求めることができる。 In perspective, a vanishing point is the point where lines that are actually parallel intersect when they are drawn as non-parallel. For example, parallel passageways converge at a single point on the image. The vanishing point refers to this convergence point. If the image is pre-calibrated so that the vanishing point and the center of the image coincide, the equation vanishing point = coordinates of the camera installation height at infinite distance holds true. Based on this premise, by subtracting the camera installation height (pix) at each distance from the vanishing point coordinates, the road surface coordinates rCol (pix) at that distance can be calculated using equation (2).

(3)下式(3)により、各輪郭成分までの高さを求める。
注目点高さZ(m)=(TgtCol(pix)-rCol(pix))*vReso
・・・(3)
ここでは、TgtCol(pix)は、高さ算出の対象となる画素の垂直成分座標である。
(3) The height to each contour component is calculated using the following equation (3).
Attention point height Z (m) = (TgtCol (pix) - rCol (pix)) * vReso
...(3)
Here, TgtCol(pix) is the vertical component coordinate of the pixel for which height is to be calculated.

図2に戻り、3次元情報推定部15は、輪郭情報、算出した距離情報及び高さ情報に従い、3次元プロットすることで3次元情報を推定し、3次元マップを作成する(ステップS7)。 Returning to FIG. 2, the three-dimensional information estimation unit 15 estimates three-dimensional information by three-dimensional plotting according to the contour information, the calculated distance information, and the height information, and creates a three-dimensional map (step S7).

[3.本実施の形態の3次元情報推定装置の検証例(実施例)]
図4~図10を参照して、本実施の形態の図1の3次元情報推定システム1の検証例(実施例)を説明する。図4に示すような周辺環境において3次元マップを作成する例を説明する。
[3. Verification example (example) of the three-dimensional information estimation device of this embodiment]
A verification example (example) of the three-dimensional information estimation system 1 of FIG. 1 according to the present embodiment will be described with reference to FIGS. 4 to 10. An example of creating a three-dimensional map in the surrounding environment as shown in FIG. 4 will be described.

図4において、左側の図はカメラ30で撮像した画像に最近傍反射点と輝度分散値をプロットした例を示す図であり、右側の図は、画像中の移動物標を説明するための図である。図4において、折れ線は輝度分散値、縦の点線はレーダ20の方位、□は最近傍反射点を示している。上述の図2のフローのステップS3に従って、最近傍反射点を検出する。 In Figure 4, the diagram on the left shows an example in which the nearest reflection point and brightness variance value are plotted on an image captured by the camera 30, and the diagram on the right is a diagram for explaining a moving target in the image. In Figure 4, the broken line indicates the brightness variance value, the vertical dotted line indicates the direction of the radar 20, and the square indicates the nearest reflection point. The nearest reflection point is detected according to step S3 of the flow in Figure 2 above.

図4において、歩行者のような移動物標が存在する方位では、その物標からの信号に大きく影響を受けるので、移動物標が存在する方位を除く信号を用いて構造物(静止物全般)の3次元マップを作成する。 In Fig. 4, in the direction where a moving target such as a pedestrian exists, the signal from the target is greatly affected, so the signal excluding the direction in which the moving target exists is used to detect structures (stationary objects in general). ) to create a 3D map.

図5は、解析に使用する信号と除外する信号を説明するための図である。同図において、構造物は解析に使用し、歩行者は除外する。解析に用いる信号の全点までの距離及び方位を算出し、上述の図2のフローのステップS4,S5に従って、画像の輪郭情報を抽出し、各方位の距離情報を同方位の画像の輪郭情報に付与する。 FIG. 5 is a diagram for explaining signals used for analysis and signals to be excluded. In the figure, structures are used for analysis and pedestrians are excluded. The distances and directions to all points of the signal used for analysis are calculated, and the contour information of the image is extracted according to steps S4 and S5 in the flow of FIG. granted to.

図6は、画像の輪郭情報と距離情報の紐付けを説明するための図である。図6において、画像は、横軸が方位となるので、縦に並ぶ一列の輪郭ピクセル群全てを該当方位における距離の成分であると仮定する。画像の輪郭情報の縦軸毎に距離情報を紐付けする。なお、図6において、移動物標(歩行者)が示されているが、これは参考用に示したものであり、実際には、移動物標(歩行者)の輪郭情報は抽出しない。 FIG. 6 is a diagram for explaining the association of image contour information and distance information. In FIG. 6, since the horizontal axis of the image represents the orientation, it is assumed that all the contour pixel groups in a vertical row are distance components in the relevant orientation. Distance information is linked to each vertical axis of image contour information. Note that although a moving target (pedestrian) is shown in FIG. 6, this is shown for reference, and contour information of the moving target (pedestrian) is not actually extracted.

上述の図2のフローのステップS6に従って画像の輪郭情報の高さ情報を算出する。そして、上述の図2のフローのステップS7に従って、輪郭情報、算出した距離及び高さに従い、3次元プロットした3次元マップを作成する。図7~図10は、作成した3次元マップを各アングルで示す図である。近距離の成分と、遠距離の成分を識別表示してもよい(例えば、近距離の成分を赤、遠距離の成分を緑で表示してもよい)。なお、図7~図10において、移動物標(歩行者)が3次元表示されているが、これは参考用に示したものであり、実際には移動物標(歩行者)は描画されない。図7~図10に示すように、レーダ信号の各方位で検出した最高強度点の情報を使用し、また、物体距離が線形的に変化するという推定情報(補間情報)を加味することで、ビルや倉庫等の静止物体の3次元情報を推定することができた。 The height information of the contour information of the image is calculated according to step S6 of the flowchart of FIG. 2 described above. Then, according to step S7 of the flowchart of FIG. 2 described above, a three-dimensional map is created by three-dimensional plotting according to the contour information and the calculated distance and height. FIGS. 7 to 10 are diagrams showing the created three-dimensional map from various angles. A short-distance component and a long-distance component may be distinguished and displayed (for example, a short-distance component may be displayed in red, and a long-distance component may be displayed in green). Note that in FIGS. 7 to 10, a moving target (pedestrian) is displayed in three dimensions, but this is shown for reference, and the moving target (pedestrian) is not actually drawn. As shown in Figures 7 to 10, by using the information of the highest intensity point detected in each direction of the radar signal, and by taking into account the estimated information (interpolation information) that the object distance changes linearly, It was possible to estimate 3D information of stationary objects such as buildings and warehouses.

以上の検証結果により、本実施の形態の3次元情報推定システム1は、安価な単眼カメラとレーダの組み合わせで、周辺構造物の3次元情報を推定でき、周辺環境認識を実現するのに有用であることが確認された。 The above verification results confirm that the 3D information estimation system 1 of this embodiment can estimate 3D information of surrounding structures by combining an inexpensive monocular camera and radar, and is useful for realizing recognition of the surrounding environment.

以上説明したように、本実施の形態の3次元情報推定システム1によれば、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダ20と、周辺を撮像して画像情報を取得する単眼のカメラ30と、カメラ30から出力される画像情報の輪郭情報を抽出する輪郭抽出部12と、レーダ20から出力されるレーダ信号について、各方位の最高強度点をサーチして、カメラ30から出力される画像情報上での最近傍反射点を検出する物標検出部11と、各方位の最近傍反射点の距離情報を同方位の前記画像情報の輪郭情報に付与する距離情報付与部13と、画像情報の輪郭情報に高さ情報を付与する高さ情報付与部14と、輪郭情報、距離情報及び高さ情報に従って3次元情報を推定する3次元情報推定部15と、を備えているので、構造物の3次元情報を低コストな構成で推定することが可能となる。 As described above, the three-dimensional information estimation system 1 of this embodiment includes a radar 20 that transmits radar waves to the surroundings and receives reflected waves reflected by an object to acquire a radar signal, a monocular camera 30 that captures images of the surroundings and acquires image information, a contour extraction unit 12 that extracts contour information from the image information output from the camera 30, a target detection unit 11 that searches for the highest intensity point in each direction for the radar signal output from the radar 20 and detects the nearest reflection point on the image information output from the camera 30, a distance information assignment unit 13 that assigns distance information of the nearest reflection point in each direction to the contour information of the image information in the same direction, a height information assignment unit 14 that assigns height information to the contour information of the image information, and a three-dimensional information estimation unit 15 that estimates three-dimensional information according to the contour information, distance information, and height information, making it possible to estimate three-dimensional information of a structure with a low-cost configuration.

本実施の形態の3次元情報推定システム1は、例えば、車載用レーダシステム、先進運転支援システム(ADAS)、及び周辺監視システム等の各種用途で好適に使用可能である。 The three-dimensional information estimation system 1 of the present embodiment can be suitably used in various applications such as, for example, an in-vehicle radar system, an advanced driving assistance system (ADAS), and a surrounding monitoring system.

1 3次元情報推定システム
10 3次元情報推定装置
11 物標検出部
12 輪郭抽出部
13 距離情報付与部
14 高さ情報付与部
15 3次元情報推定部(3次元マップ生成部)
20 レーダ
30 カメラ
41 ピークサーチ部
42 プロット部
43 輝度特性値算出部
44 実像・偽像判定部
1 3D information estimation system 10 3D information estimation device 11 Target detection section 12 Contour extraction section 13 Distance information addition section 14 Height information addition section 15 3D information estimation section (3D map generation section)
20 Radar 30 Camera 41 Peak search unit 42 Plot unit 43 Brightness characteristic value calculation unit 44 Real image/false image determination unit

Claims (7)

周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダと、
周辺を撮像して画像情報を取得するカメラと、
前記カメラから出力される画像情報の輪郭情報を抽出する輪郭情報抽出手段と、
前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチし、前記カメラから出力される画像情報上にレーダ信号をプロットする場合は、各レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して、物標が路面と接地している画像情報上の点にレーダ信号の各方位の最高強度点をプロットすることにより、前記カメラから出力される画像情報上での最近傍反射点を検出する物標検出手段と、
各方位の最近傍反射点を極座標系データ(r、θ)から直交座標系データ(X,Y)に変換し、各方位距離情報を同方位の画像の輪郭情報に付与する距離情報付与手段と、
算出した各方位の画像の輪郭成分までの距離における画像の解像度(m/pix)を計算し、解像度の情報を用いて高さ情報を計算し、前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与手段と、
前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、
を備えたことを特徴とする3次元情報推定システム。
A radar that transmits radar waves to the surrounding area and receives reflected waves reflected by objects to obtain radar signals;
A camera that captures images of the surrounding area and obtains image information;
Contour information extraction means for extracting contour information of image information output from the camera;
When searching for the highest intensity point in each direction for the radar signal output from the radar and plotting the radar signal on the image information output from the camera, each radar signal has a height of zero at each reflection distance. By plotting the highest intensity point in each direction of the radar signal at the point on the image information where the target is in contact with the road surface, we can calculate the reflected signal from the camera. target detection means for detecting the nearest reflection point at the
Distance information adding means that converts the nearest reflection point in each direction from polar coordinate system data (r, θ) to orthogonal coordinate system data (X, Y) and adds distance information in each direction to contour information of an image in the same direction. and,
Calculate the resolution (m/pix) of the image at the distance to the contour component of the image in each calculated direction, calculate height information using the resolution information, and add height information to the contour information of the image information. height information providing means for
3D information estimating means for estimating 3D information according to the contour information, the distance information, and the height information;
A three-dimensional information estimation system characterized by comprising:
前記カメラは、単眼カメラであることを特徴とする請求項1に記載の3次元情報推定システム。 The three-dimensional information estimation system according to claim 1, characterized in that the camera is a monocular camera. 前記距離情報付与手段は、前記最近傍反射点について、隣り合う方位ビン間の距離情報は線形的に変化するものと仮定して、不足する方位の距離情報を補間することを特徴とする請求項1又は請求項2に記載の3次元情報推定システム。 The three-dimensional information estimation system according to claim 1 or 2, characterized in that the distance information providing means assumes that the distance information between adjacent orientation bins for the nearest reflection point changes linearly, and interpolates the missing orientation distance information. 前記物標検出手段は、
前記レーダから出力されるレーダ信号について、各方位をサーチして、各方位における
最高強度点を決定し、
前記カメラから出力される画像情報上に各方位における前記最高強度点をプロットし、画像情報上の各最高強度点の近傍の輝度特性値を算出し、
算出された前記輝度特性値に基づいて、画像情報上の各最高強度点が実像か偽像かを判定して、実像と判定した場合には、当該最高強度点を前記最近傍反射点とし、
偽像と判定した場合には、当該方位の次に強度の高い信号点を取得し、実像と判定されるまで、処理を繰り返し、対象の信号がなくなった場合は、当該方位の実像なしと判断することを特徴とする請求項1~請求項3のいずれか1つに記載の3次元情報推定システム。
The target object detection means includes:
Searching each direction for the radar signal output from the radar and determining the highest intensity point in each direction,
Plotting the highest intensity points in each direction on image information output from the camera, calculating brightness characteristic values in the vicinity of each highest intensity point on the image information,
Based on the calculated brightness characteristic value, it is determined whether each highest intensity point on the image information is a real image or a false image, and when it is determined that it is a real image, the highest intensity point is set as the nearest reflection point,
If the image is determined to be a false image, the signal point with the next highest intensity in the relevant direction is acquired, and the process is repeated until it is determined to be a real image. If the target signal disappears, it is determined that there is no real image in the relevant direction. The three-dimensional information estimation system according to any one of claims 1 to 3, characterized in that:
前記レーダは、ミリ波レーダであることを特徴とする請求項1~請求項4のいずれか1つに記載の3次元情報推定システム。 The three-dimensional information estimation system according to any one of claims 1 to 4, wherein the radar is a millimeter wave radar. レーダが、周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得する工程と、
カメラが、周辺を撮像して画像情報を取得する工程と、
前記カメラから出力される画像情報の輪郭情報を抽出する工程と、
前記レーダから出力されるレーダ信号について、各方位の最高強度点をサーチし、前記カメラから出力される画像情報上にレーダ信号をプロットする場合は、各レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して、物標が路面と接地している画像情報上の点にレーダ信号の各方位の最高強度点をプロットすることにより、前記カメラから出力される画像情報上での最近傍反射点を検出する工程と、
各方位の最近傍反射点を極座標系データ(r、θ)から直交座標系データ(X,Y)に変換し、各方位距離情報を同方位の画像の輪郭情報に付与する工程と、
算出した各方位の画像の輪郭成分までの距離における画像の解像度(m/pix)を計算し、解像度の情報を用いて高さ情報を計算し、前記画像情報の輪郭情報に高さ情報を付与する工程と、
前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する工程と、
を含むことを特徴とする3次元情報推定方法。
A step in which the radar transmits radar waves to the surrounding area and receives reflected waves reflected by the target object to obtain a radar signal;
A step in which the camera images the surrounding area and obtains image information;
extracting contour information of image information output from the camera;
When searching for the highest intensity point in each direction for the radar signal output from the radar and plotting the radar signal on the image information output from the camera, each radar signal has a height of zero at each reflection distance. By plotting the highest intensity point in each direction of the radar signal at the point on the image information where the target is in contact with the road surface, it is possible to calculate the reflected signal from the camera. detecting the nearest reflection point at;
Converting the nearest reflection point in each direction from polar coordinate system data (r, θ) to orthogonal coordinate system data (X, Y), and adding distance information in each direction to contour information of an image in the same direction;
Calculate the image resolution (m/pix) at the distance to the contour component of the image in each calculated direction, calculate height information using the resolution information, and add height information to the contour information of the image information. The process of
estimating three-dimensional information according to the contour information, the distance information, and the height information;
A three-dimensional information estimation method characterized by comprising:
コンピュータを、
周辺にレーダ波を送信して、対象物によって反射された反射波を受信してレーダ信号を取得するレーダから出力されるレーダ信号について、各方位の最高強度点をサーチし、周辺を撮像して画像情報を取得するカメラから出力される画像情報上にレーダ信号をプロットする場合は、各レーダ信号はそれぞれの反射距離における高さゼロからの反射信号であると仮定して、物標が路面と接地している画像情報上の点にレーダ信号の各方位の最高強度点をプロットすることにより、前記カメラから出力される画像情報上での最近傍反射点を検出する物標検出手段と、
各方位の最近傍反射点を極座標系データ(r、θ)から直交座標系データ(X,Y)に変換し、各方位距離情報を同方位の画像の輪郭情報に付与する距離情報付与手段と、
算出した各方位の画像の輪郭成分までの距離における画像の解像度(m/pix)を計算し、解像度の情報を用いて高さ情報を計算し、前記画像情報の輪郭情報に高さ情報を付与する高さ情報付与手段と、
前記輪郭情報、前記距離情報及び前記高さ情報に従って3次元情報を推定する3次元情報推定手段と、
して機能させるためのコンピュータが実行可能なプログラム。
Computer,
a target detection means for searching for the maximum intensity point in each direction for a radar signal output from a radar which transmits radar waves into the surroundings and receives the reflected waves reflected by an object to obtain a radar signal , and for plotting the radar signal on image information output from a camera which captures an image of the surroundings to obtain image information, said target detection means assumes that each radar signal is a reflected signal from a height of zero at each reflection distance, and plots the maximum intensity point in each direction of the radar signal at a point on the image information where the target is in contact with the road surface, thereby detecting the nearest reflection point on the image information output from said camera;
distance information adding means for converting the nearest reflection point in each direction from polar coordinate system data (r, θ) to orthogonal coordinate system data (X, Y) and adding the distance information of each direction to the contour information of the image in the same direction;
a height information adding means for calculating an image resolution (m/pix) at the calculated distance to the contour component of the image in each direction, calculating height information using the resolution information, and adding the height information to the contour information of the image information;
a three-dimensional information estimating means for estimating three-dimensional information according to the contour information, the distance information and the height information;
A program that a computer can execute to make the device function as a processor.
JP2020028737A 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program Active JP7461160B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020028737A JP7461160B2 (en) 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020028737A JP7461160B2 (en) 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Publications (2)

Publication Number Publication Date
JP2021135061A JP2021135061A (en) 2021-09-13
JP7461160B2 true JP7461160B2 (en) 2024-04-03

Family

ID=77660866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020028737A Active JP7461160B2 (en) 2020-02-21 2020-02-21 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program

Country Status (1)

Country Link
JP (1) JP7461160B2 (en)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071204A (en) 2003-08-27 2005-03-17 Fuji Heavy Ind Ltd Operation supporting device for vehicle
WO2005026769A1 (en) 2003-09-11 2005-03-24 Mitsubishi Denki Kabushiki Kaisha Radar device
JP2006047057A (en) 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2007263986A (en) 2007-07-24 2007-10-11 Denso Corp Orientation detector
US20090292468A1 (en) 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP2013002927A (en) 2011-06-15 2013-01-07 Honda Elesys Co Ltd Obstacle detection apparatus and computer program
JP2014153874A (en) 2013-02-07 2014-08-25 Denso Corp Target recognition device
WO2014195994A1 (en) 2013-06-05 2014-12-11 古野電気株式会社 Sensor information output apparatus, sensor image display apparatus, detection apparatus, and sensor information output method
JP2015105836A (en) 2013-11-28 2015-06-08 トヨタ自動車株式会社 Brake device
JP2016153775A (en) 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2016176736A (en) 2015-03-19 2016-10-06 トヨタ自動車株式会社 Image distance measuring device
WO2016208318A1 (en) 2015-06-24 2016-12-29 コニカミノルタ株式会社 Distance image processing device, distance image processing method, distance image processing program, and recording medium
US20180120842A1 (en) 2016-10-27 2018-05-03 Uber Technologies, Inc. Radar multipath processing
JP2019158692A (en) 2018-03-15 2019-09-19 東芝電波プロダクツ株式会社 Precision approach radar and display system
JP2019211403A (en) 2018-06-07 2019-12-12 Jrcモビリティ株式会社 Object position measurement device and object position measurement program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2563509B2 (en) * 1988-08-29 1996-12-11 沖電気工業株式会社 False image remover for radar
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071204A (en) 2003-08-27 2005-03-17 Fuji Heavy Ind Ltd Operation supporting device for vehicle
WO2005026769A1 (en) 2003-09-11 2005-03-24 Mitsubishi Denki Kabushiki Kaisha Radar device
JP2006047057A (en) 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2007263986A (en) 2007-07-24 2007-10-11 Denso Corp Orientation detector
US20090292468A1 (en) 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP2013002927A (en) 2011-06-15 2013-01-07 Honda Elesys Co Ltd Obstacle detection apparatus and computer program
JP2014153874A (en) 2013-02-07 2014-08-25 Denso Corp Target recognition device
WO2014195994A1 (en) 2013-06-05 2014-12-11 古野電気株式会社 Sensor information output apparatus, sensor image display apparatus, detection apparatus, and sensor information output method
JP2015105836A (en) 2013-11-28 2015-06-08 トヨタ自動車株式会社 Brake device
JP2016153775A (en) 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2016176736A (en) 2015-03-19 2016-10-06 トヨタ自動車株式会社 Image distance measuring device
WO2016208318A1 (en) 2015-06-24 2016-12-29 コニカミノルタ株式会社 Distance image processing device, distance image processing method, distance image processing program, and recording medium
US20180120842A1 (en) 2016-10-27 2018-05-03 Uber Technologies, Inc. Radar multipath processing
JP2019158692A (en) 2018-03-15 2019-09-19 東芝電波プロダクツ株式会社 Precision approach radar and display system
JP2019211403A (en) 2018-06-07 2019-12-12 Jrcモビリティ株式会社 Object position measurement device and object position measurement program

Also Published As

Publication number Publication date
JP2021135061A (en) 2021-09-13

Similar Documents

Publication Publication Date Title
US11885872B2 (en) System and method for camera radar fusion
US10353053B2 (en) Object detection using radar and machine learning
CN107272021B (en) Object detection using radar and visually defined image detection areas
CN108352056B (en) System and method for correcting erroneous depth information
Sugimoto et al. Obstacle detection using millimeter-wave radar and its visualization on image sequence
WO2017057041A1 (en) Signal processing apparatus, signal processing method, and program
KR20210096607A (en) Radar Deep Learning
JP6589926B2 (en) Object detection device
Nedevschi et al. High accuracy stereovision approach for obstacle detection on non-planar roads
CN111045000A (en) Monitoring system and method
KR102001594B1 (en) Radar-camera fusion disaster tracking system and method for scanning invisible space
EP3324359B1 (en) Image processing device and image processing method
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
KR101076406B1 (en) Apparatus and Method for Extracting Location and velocity of Obstacle
KR101674298B1 (en) Method for distance calculation using a camera lens focal length information
JP2015230703A (en) Object detection device and object detection method
EP3845922A1 (en) Calibration system for combined depth and texture sensor
JP7461160B2 (en) Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program
KR102195040B1 (en) Method for collecting road signs information using MMS and mono camera
JP2006072757A (en) Object detection system
EP3373199A2 (en) Object detector, object detection method, carrier means, and equipment control system
WO2021124657A1 (en) Camera system
CN112712476B (en) Denoising method and device for TOF ranging and TOF camera
JP2021135149A (en) Dynamic target detection system, dynamic target detection method, and computer-executable program
CN110488320A (en) A method of vehicle distances are detected using stereoscopic vision

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20230213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240322

R150 Certificate of patent or registration of utility model

Ref document number: 7461160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150