JP2016004019A - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP2016004019A
JP2016004019A JP2014126233A JP2014126233A JP2016004019A JP 2016004019 A JP2016004019 A JP 2016004019A JP 2014126233 A JP2014126233 A JP 2014126233A JP 2014126233 A JP2014126233 A JP 2014126233A JP 2016004019 A JP2016004019 A JP 2016004019A
Authority
JP
Japan
Prior art keywords
shape
image
measurement
polarization component
vertical polarization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014126233A
Other languages
Japanese (ja)
Other versions
JP6424488B2 (en
Inventor
光範 中村
Mitsunori Nakamura
光範 中村
慎一 西岡
Shinichi Nishioka
慎一 西岡
佐藤 宏
Hiroshi Sato
宏 佐藤
西内 秀和
Hidekazu Nishiuchi
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2014126233A priority Critical patent/JP6424488B2/en
Publication of JP2016004019A publication Critical patent/JP2016004019A/en
Application granted granted Critical
Publication of JP6424488B2 publication Critical patent/JP6424488B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect electromagnetic waves emitted from an objet, to detect a shape of the three-dimensional object to be measured.SOLUTION: An object detection apparatus 1 includes: an electric wave receiving section 3 which receives electromagnetic waves emitted from an object to be measured, to generate a horizontal polarization image and a vertical polarization image; an object identifying section 5 which calculates a polarization ratio indicating a ratio between a horizontal polarization component and a vertical polarization component in positions on each of the horizontal polarization image and the vertical polarization image, to identify whether the object to be measured is a three-dimensional object or not, on the basis of the polarization ratio; and an object shape determination section 7 which determines the shape of the object, on the basis of the change in polarization ratio between the positions on the images.

Description

本発明は、物体から放射される電磁波を検知して物体を検出する物体検出装置及びその方法に関する。   The present invention relates to an object detection apparatus and method for detecting an object by detecting electromagnetic waves radiated from the object.

従来、物体から放射される電磁波を利用して地平面上に存在する立体物や路面を検出するための技術として、特許文献1が開示されている。   Conventionally, Patent Document 1 is disclosed as a technique for detecting a three-dimensional object or road surface existing on the ground plane using electromagnetic waves radiated from an object.

特許文献1に開示された物体検出装置では、物体から放射される電磁波の水平偏波成分と垂直偏波成分とを利用して、計測対象物とアンテナ観測面との間の相対角度を計測していた。   In the object detection device disclosed in Patent Document 1, the relative angle between the measurement object and the antenna observation plane is measured using the horizontal polarization component and the vertical polarization component of the electromagnetic wave radiated from the object. It was.

特開2012−73221号公報JP 2012-73221 A

しかしながら、上述した従来の物体検出装置では、計測対象物とアンテナ観測面との間の相対角度を計測しているので、計測対象物が立体物であるのか、地平面であるのかを判別できるだけで、物体の形状を検出することはできなかった。   However, since the conventional object detection apparatus described above measures the relative angle between the measurement object and the antenna observation surface, it can only determine whether the measurement object is a three-dimensional object or a ground plane. The shape of the object could not be detected.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、立体物である計測対象物の形状を判定することのできる物体検出装置及びその方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and an object thereof is to provide an object detection apparatus and method that can determine the shape of a measurement object that is a three-dimensional object.

上述した課題を解決するために、本発明の一態様に係る物体検出装置及びその方法は、計測対象物から放射される電磁波の水平偏波成分及び垂直偏波成分を受信して水平偏波画像と垂直偏波画像を生成する。そして、水平偏波成分と垂直偏波成分との間の相対的な関係を示す相対値を算出し、この相対値に基づいて計測対象物が立体物であるか否かを識別し、相対値の変化に基づいて計測対象物の形状を判定する。   In order to solve the above-described problem, an object detection apparatus and method according to one aspect of the present invention receives a horizontal polarization component and a vertical polarization component of an electromagnetic wave radiated from a measurement target, and receives a horizontal polarization image. And generate a vertically polarized image. Then, a relative value indicating a relative relationship between the horizontal polarization component and the vertical polarization component is calculated, and whether or not the measurement object is a three-dimensional object is identified based on the relative value. The shape of the object to be measured is determined based on the change.

本発明によれば、水平偏波成分と垂直偏波成分との間の相対的な関係を示す相対値を利用して計測対象物が立体物であるか否かを識別することができ、さらに立体物であると識別された計測対象物の形状を判定することができる。   According to the present invention, it is possible to identify whether the measurement target is a three-dimensional object using a relative value indicating a relative relationship between the horizontal polarization component and the vertical polarization component, The shape of the measurement object identified as a three-dimensional object can be determined.

図1は、本発明の第1実施形態に係る物体検出装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the object detection apparatus according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る物体検出装置による自己位置推定処理の処理手順を示すフローチャートである。FIG. 2 is a flowchart showing a processing procedure of self-position estimation processing by the object detection apparatus according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る物体検出装置によって生成された電波画像を示す図である。FIG. 3 is a diagram showing a radio wave image generated by the object detection device according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係る物体検出装置に備えられた偏波比のマップを示す図である。FIG. 4 is a diagram showing a polarization ratio map provided in the object detection apparatus according to the first embodiment of the present invention. 図5は、本発明の第1実施形態に係る物体検出装置による計測対象物の形状を判定する方法を説明するための図である。FIG. 5 is a diagram for explaining a method of determining the shape of the measurement target by the object detection device according to the first embodiment of the present invention. 図6は、本発明の第1実施形態に係る物体検出装置を搭載した車両と計測対象物との間の位置関係を示す図である。FIG. 6 is a diagram illustrating a positional relationship between a vehicle on which the object detection device according to the first embodiment of the present invention is mounted and a measurement target. 図7は、本発明の第2実施形態に係る物体検出装置によって生成された電波画像を示す図である。FIG. 7 is a diagram showing a radio wave image generated by the object detection device according to the second embodiment of the present invention. 図8は、本発明の第2実施形態に係る物体検出装置による計測対象物の形状を判定する方法を説明するための図である。FIG. 8 is a diagram for explaining a method of determining the shape of the measurement target by the object detection device according to the second embodiment of the present invention. 図9は、本発明の第2実施形態に係る物体検出装置を搭載した車両と計測対象物との間の位置関係を示す図である。FIG. 9 is a diagram illustrating a positional relationship between a vehicle on which the object detection device according to the second embodiment of the present invention is mounted and a measurement target. 図10は、本発明の第3実施形態に係る物体検出装置によって生成された電波画像を示す図である。FIG. 10 is a diagram showing a radio wave image generated by the object detection device according to the third embodiment of the present invention. 図11は、本発明の第3実施形態に係る物体検出装置による計測対象物の形状を判定する方法を説明するための図である。FIG. 11 is a diagram for explaining a method of determining the shape of the measurement target by the object detection device according to the third embodiment of the present invention. 図12は、本発明の第3実施形態に係る物体検出装置を搭載した車両と計測対象物との間の位置関係を示す図である。FIG. 12 is a diagram illustrating a positional relationship between a vehicle on which the object detection device according to the third embodiment of the present invention is mounted and a measurement target.

以下、本発明を適用した第1〜第3実施形態について図面を参照して説明する。   Hereinafter, first to third embodiments to which the present invention is applied will be described with reference to the drawings.

[第1実施形態]
[物体形状検出装置の構成]
図1は本実施形態に係る物体検出装置の構成を示すブロック図である。図1に示すように、本実施形態に係る物体検出装置1は、電波受信部3と、物体識別部5と、物体形状判定部7と、立体物形状記憶部9と、物体位置判定部11と、自己位置推定部13とを備えている。
[First Embodiment]
[Configuration of Object Shape Detection Device]
FIG. 1 is a block diagram showing the configuration of the object detection apparatus according to the present embodiment. As shown in FIG. 1, the object detection apparatus 1 according to the present embodiment includes a radio wave reception unit 3, an object identification unit 5, an object shape determination unit 7, a three-dimensional object shape storage unit 9, and an object position determination unit 11. And a self-position estimation unit 13.

ここで、本実施形態に係る物体検出装置1は、例えば車両等の移動体に搭載され、車両前方の道路状況や障害物を検出するために、物体から放射される電磁波を検知して物体を検出する。また、物体検出装置1は、計測対象物の位置についても検出することができ、さらに搭載された自車両61の自己位置を推定することも可能である。本実施形態では、物体検出装置1を車両に搭載した場合について説明する。   Here, the object detection device 1 according to the present embodiment is mounted on a moving body such as a vehicle, for example, and detects an electromagnetic wave radiated from the object in order to detect a road condition or an obstacle ahead of the vehicle. To detect. Moreover, the object detection apparatus 1 can also detect the position of the measurement object, and can also estimate the self-position of the mounted vehicle 61. In the present embodiment, a case where the object detection device 1 is mounted on a vehicle will be described.

電波受信部3は、計測対象物から放射される電磁波の水平偏波成分を他の偏波成分よりも高感度に受信する水平偏波アンテナと、計測対象物から放射される電磁波の垂直偏波成分を他の偏波成分よりも高感度に受信する垂直偏波アンテナとを備えている。そして、これらのアンテナで受信した水平偏波成分及び垂直偏波成分から水平偏波画像と垂直偏波画像を生成する。   The radio wave receiving unit 3 includes a horizontal polarization antenna that receives the horizontal polarization component of the electromagnetic wave radiated from the measurement object with higher sensitivity than other polarization components, and the vertical polarization of the electromagnetic wave radiated from the measurement object. And a vertically polarized antenna that receives the component with higher sensitivity than the other polarized components. Then, a horizontal polarization image and a vertical polarization image are generated from the horizontal polarization component and the vertical polarization component received by these antennas.

物体識別部5は、電波受信部3で生成された水平偏波画像及び垂直偏波画像の各画像上の位置において、水平偏波成分の強度と垂直偏波成分の強度との比を示す偏波比を算出する。この偏波比は、水平偏波成分と垂直偏波成分との間の相対的な関係を示す相対値である。そして、物体識別部5は、算出した偏波比に基づいて計測対象物が立体物であるか否かを識別する。具体的に説明すると、物体識別部5は、水平偏波成分の強度と垂直偏波成分の強度とで表されたマップを予め備えており、このマップ上に計測対象物の種類に応じた領域(図4参照)を設定し、画素間の偏波比がどの物体種類の領域にマッピングされたかによって、同一種類の物体を識別して、立体物であるか否かを判定する。   The object identification unit 5 is a bias indicating a ratio between the intensity of the horizontal polarization component and the intensity of the vertical polarization component at a position on each image of the horizontal polarization image and the vertical polarization image generated by the radio wave reception unit 3. Calculate the wave ratio. This polarization ratio is a relative value indicating a relative relationship between the horizontal polarization component and the vertical polarization component. Then, the object identification unit 5 identifies whether the measurement target is a three-dimensional object based on the calculated polarization ratio. More specifically, the object identification unit 5 is provided with a map represented by the intensity of the horizontal polarization component and the intensity of the vertical polarization component in advance, and an area corresponding to the type of the measurement object on this map. (See FIG. 4) is set, and based on which object type region the polarization ratio between pixels is mapped to, the same type of object is identified to determine whether it is a three-dimensional object.

物体形状判定部7は、物体識別部5にて、画素間で同一種類の物体を識別して立体物であると識別された計測対象物の形状を、各画像上の位置の間での偏波比の変化に基づいて判定する。具体的な判定方法については後述する。   The object shape determination unit 7 discriminates the shape of the measurement object identified by the object identification unit 5 as a three-dimensional object by identifying the same type of object between pixels between positions on each image. Judgment is made based on the change of the wave ratio. A specific determination method will be described later.

立体物形状記憶部9は、地図情報上に存在する立体物、例えば建物やガードレール等の立体形状を予めデータとして記憶しているデータベースである。特に、立体物形状記憶部9は、立体物の面と面が接する角部の位置について記憶している。   The three-dimensional object shape storage unit 9 is a database in which three-dimensional objects existing on the map information, for example, three-dimensional shapes such as buildings and guardrails, are stored as data in advance. In particular, the three-dimensional object shape storage unit 9 stores the position of the corner where the surface of the three-dimensional object contacts.

物体位置判定部11は、自車両61の位置等の自らの位置を示す位置情報をGPS等から取得し、この位置情報に基づいて周囲に存在している立体物の形状を立体物形状記憶部9から取得する。そして、取得した立体物の形状と物体形状判定部7で判定された計測対象物の形状とを比較して、これらの形状が一致すれば、計測対象物の位置は地図情報上の立体物が存在する位置であると判定する。   The object position determination unit 11 obtains position information indicating its own position such as the position of the host vehicle 61 from the GPS or the like, and based on this position information, the shape of a three-dimensional object existing around the three-dimensional object shape storage unit 9 is obtained. Then, the acquired shape of the three-dimensional object is compared with the shape of the measurement object determined by the object shape determination unit 7, and if these shapes match, the position of the measurement object is determined by the three-dimensional object on the map information. It is determined that the position exists.

自己位置推定部13は、物体位置判定部11で判定された計測対象物の位置と水平偏波画像及び垂直偏波画像に撮像された計測対象物の画像とを用いて自己位置を推定する。具体的には、自己位置推定部13は、電波画像に撮像された計測対象物の画像を用いて自車両61から計測対象物までの距離や方向等の相対的な位置関係を求め、この相対的な位置関係を用いて地図上における計測対象物の角部の位置から自車両61の位置を推定する。   The self-position estimation unit 13 estimates the self-position using the position of the measurement target determined by the object position determination unit 11 and the image of the measurement target captured in the horizontal polarization image and the vertical polarization image. Specifically, the self-position estimation unit 13 obtains a relative positional relationship such as a distance and a direction from the own vehicle 61 to the measurement object using the image of the measurement object captured in the radio wave image, and the relative The position of the host vehicle 61 is estimated from the position of the corner of the measurement object on the map using a typical positional relationship.

ここで、物体検出装置1は、マイクロコンピュータ、マイクロプロセッサ、CPUを含む汎用の電子回路と周辺機器から構成されている。そして、特定のプログラムを実行することにより、物体検出装置1は、電波受信部3、物体識別部5、物体形状判定部7、立体物形状記憶部9、物体位置判定部11及び自己位置推定部13として動作する。   Here, the object detection apparatus 1 includes a general-purpose electronic circuit including a microcomputer, a microprocessor, and a CPU, and peripheral devices. Then, by executing a specific program, the object detection apparatus 1 includes a radio wave reception unit 3, an object identification unit 5, an object shape determination unit 7, a three-dimensional object shape storage unit 9, an object position determination unit 11, and a self position estimation unit. It operates as 13.

[自己位置推定処理の手順]
次に、本実施形態に係る物体検出装置1による自己位置推定処理の手順を図2のフローチャートを参照して説明する。尚、本実施形態では、自己位置を推定する場合について説明するが、物体の形状または物体の形状と位置を判定するだけでもよい。
[Self-position estimation process]
Next, the procedure of self-position estimation processing by the object detection apparatus 1 according to the present embodiment will be described with reference to the flowchart of FIG. In this embodiment, the case where the self position is estimated will be described. However, the object shape or the object shape and position may be determined only.

図2に示すように、まずステップS101において、電波受信部3は、計測対象物から放射される電磁波の水平偏波成分と垂直偏波成分を受信して水平偏波画像と垂直偏波画像を生成する。例えば、電波受信部3は、図3に示すような水平偏波画像と垂直偏波画像を生成する。図3の電波画像には、空30と、アスファルト等の平坦な路面31と、コンクリート等の四角い立体物の建物33が撮像されている。   As shown in FIG. 2, first, in step S101, the radio wave receiving unit 3 receives the horizontal polarization component and the vertical polarization component of the electromagnetic wave radiated from the measurement object, and generates a horizontal polarization image and a vertical polarization image. Generate. For example, the radio wave receiver 3 generates a horizontally polarized image and a vertically polarized image as shown in FIG. In the radio wave image of FIG. 3, the sky 30, a flat road surface 31 such as asphalt, and a square three-dimensional object building 33 such as concrete are captured.

ステップS102において、物体識別部5は、電波受信部3で生成された水平偏波画像及び垂直偏波画像の各画素において水平偏波成分と垂直偏波成分との比を示す偏波比を算出する。この偏波比は、垂直偏波成分の強度に対する水平偏波成分の強度の割合を示したものであり、
偏波比=水平偏波成分の強度/垂直偏波成分の強度 (1)
として表される。
In step S102, the object identification unit 5 calculates a polarization ratio indicating a ratio between the horizontal polarization component and the vertical polarization component in each pixel of the horizontal polarization image and the vertical polarization image generated by the radio wave reception unit 3. To do. This polarization ratio shows the ratio of the intensity of the horizontal polarization component to the intensity of the vertical polarization component,
Polarization ratio = Intensity of horizontal polarization component / Intensity of vertical polarization component (1)
Represented as:

例えば、図3に示す水平偏波画像及び垂直偏波画像では、走査線100上の各画素において、水平偏波成分の強度と垂直偏波成分の強度とを検出し、上記の式(1)によって偏波比を算出する。そして、走査線100上の各画素(画像上の位置)について偏波比を算出したら、次の走査線に移動して偏波比を算出し、最終的に水平偏波画像及び垂直偏波画像のすべての画素について偏波比を算出する。   For example, in the horizontal polarization image and the vertical polarization image shown in FIG. 3, the intensity of the horizontal polarization component and the intensity of the vertical polarization component are detected in each pixel on the scanning line 100, and the above equation (1) is obtained. To calculate the polarization ratio. Then, after calculating the polarization ratio for each pixel (position on the image) on the scanning line 100, it moves to the next scanning line to calculate the polarization ratio, and finally the horizontal polarization image and the vertical polarization image The polarization ratio is calculated for all the pixels.

こうして偏波比を算出すると、物体識別部5は、算出した偏波比に基づいて計測対象物が立体物であるか否かを識別する。具体的に、物体識別部5は、図4に示すようなマップを予め備えており、このマップ上に偏波比をマッピングすることによって、複数の画素間で同一の物体種類を捉えているか識別して、計測対象物が立体物であるか否かを識別する。   When the polarization ratio is calculated in this way, the object identification unit 5 identifies whether the measurement target is a three-dimensional object based on the calculated polarization ratio. Specifically, the object identification unit 5 has a map as shown in FIG. 4 in advance, and by mapping the polarization ratio on this map, it is identified whether the same object type is captured among a plurality of pixels. Thus, it is identified whether or not the measurement object is a three-dimensional object.

図4は、黒体から放射される電磁波の強度を100とした場合の垂直偏波成分の強度の割合を横軸、水平偏波成分の強度の割合を縦軸にして表したマップであり、このマップ上にはさまざまな計測対象物から放射される電磁波に応じた領域がそれぞれ設定されている。図4では、計測対象物の種類として道路、金属、空、自然物、建物、動物の領域が設定されている。そして、物体識別部5は、算出した偏波比が建物や金属の領域にマッピングされると立体物であると識別し、それ以外の領域にマッピングされると立体物ではないと識別する。   FIG. 4 is a map in which the horizontal axis represents the intensity ratio of the vertical polarization component when the intensity of the electromagnetic wave radiated from the black body is 100, and the vertical axis represents the intensity ratio of the horizontal polarization component. On this map, areas corresponding to electromagnetic waves radiated from various measurement objects are set. In FIG. 4, roads, metals, sky, natural objects, buildings, and animal areas are set as the types of measurement objects. Then, the object identification unit 5 identifies a three-dimensional object when the calculated polarization ratio is mapped to a building or metal region, and identifies that it is not a three-dimensional object when mapped to another region.

ステップS103において、物体形状判定部7は、物体識別部5で立体物であると識別された計測対象物の形状を画像上の位置の間での偏波比の変化に基づいて判定する。   In step S103, the object shape determination unit 7 determines the shape of the measurement target identified as a three-dimensional object by the object identification unit 5 based on the change in the polarization ratio between the positions on the image.

ここで、図3に示す電波画像の走査線100上において算出した偏波比と垂直偏波成分の強度(黒体輻射換算)との関係を示すマップを図5に示す。図5には、計測対象物から放射される電磁波に応じて図4と同様に予め領域が設定されており、道路から放射される電磁波が対応する道路の領域51と、建物から放射される電磁波が対応する建物の領域53が設定されている。また、図5のA〜Eの丸印は図3のA〜Eの各画素(画像上の位置)の偏波比を示している。   Here, a map showing the relationship between the polarization ratio calculated on the scanning line 100 of the radio wave image shown in FIG. 3 and the intensity (converted to black body radiation) of the vertical polarization component is shown in FIG. In FIG. 5, areas are set in advance in the same manner as in FIG. 4 according to the electromagnetic waves radiated from the measurement object, and the road areas 51 corresponding to the electromagnetic waves radiated from the road and the electromagnetic waves radiated from the building The area 53 of the building corresponding to is set. Further, circles A to E in FIG. 5 indicate polarization ratios of the respective pixels (positions on the image) of A to E in FIG.

図3に示すように、画素Aは路面31上にあるので、その偏波比は図5に示すように道路の領域51にマッピングされている。そして、画素Bは図3の建物33上にあるので、画素Bの偏波比は図5の建物の領域53にマッピングされる。同様に、画素C、Dの偏波比は建物の領域53にマッピングされ、画素Eの偏波比は道路の領域51にマッピングされる。   As shown in FIG. 3, since the pixel A is on the road surface 31, its polarization ratio is mapped to a road area 51 as shown in FIG. Since the pixel B is on the building 33 in FIG. 3, the polarization ratio of the pixel B is mapped to the region 53 of the building in FIG. Similarly, the polarization ratio of the pixels C and D is mapped to the building area 53, and the polarization ratio of the pixel E is mapped to the road area 51.

ここで、画素B、C、Dの偏波比は、図5の建物の領域53の中で位置が変化しており、特に画素Cと画素Dとの間の偏波比が大きく変化している。これは、図3に示すように、画素B、Cは建物33の手前側の面に位置しているのに対して、画素Dは建物33の側面に位置しているためである。すなわち、画素Cと画素Dの間には面と面が接する角部があるために偏波比が大きく変化する。したがって、建物の領域53の中にマッピングされている偏波比が大きく変化している場合には、その部分に面と面が接する角部があると判断することができる。   Here, the positions of the polarization ratios of the pixels B, C, and D change in the building region 53 of FIG. 5, and in particular, the polarization ratio between the pixels C and D changes greatly. Yes. This is because, as shown in FIG. 3, the pixels B and C are located on the front surface of the building 33, whereas the pixel D is located on the side surface of the building 33. That is, since there is a corner where the surface is in contact between the pixel C and the pixel D, the polarization ratio changes greatly. Therefore, when the polarization ratio mapped in the building region 53 is greatly changed, it can be determined that there is a corner where the surface is in contact with the surface.

そこで、物体形状判定部7は、建物の領域53の中で偏波比が所定値以上変化している場合には、その部分に建物の角部が存在していると判定する。閾値となる所定値としては、建物の角部における変化を検出できる程度の値に設定されていればよく、例えば、ノイズレベルの5倍、すなわち偏波比の誤差の5倍に設定しておけばよい。   Therefore, when the polarization ratio changes by a predetermined value or more in the building region 53, the object shape determination unit 7 determines that the corner of the building exists in that portion. The predetermined value as the threshold may be set to a value that can detect a change in the corner of the building. For example, it may be set to 5 times the noise level, that is, 5 times the error of the polarization ratio. That's fine.

ここで、物体検出装置1を搭載した自車両61と図3の建物33との間の位置関係を表した図を図6に示す。図6に示すように、自車両61に対して図3の建物33は左寄りの位置にあり、点線63と点線65との間の範囲が図3において建物33が撮像されている範囲である。そして、物体形状判定部7によって検出された角部は図6のPの位置となる。   Here, the figure showing the positional relationship between the own vehicle 61 carrying the object detection apparatus 1 and the building 33 of FIG. 3 is shown in FIG. As shown in FIG. 6, the building 33 in FIG. 3 is located on the left side with respect to the host vehicle 61, and the range between the dotted line 63 and the dotted line 65 is the range in which the building 33 is imaged in FIG. And the corner | angular part detected by the object shape determination part 7 becomes a position of P of FIG.

このようにして物体形状判定部7は計測対象物の形状を判定し、特に計測対象物の角部を検出する。   In this way, the object shape determination unit 7 determines the shape of the measurement object, and particularly detects the corner of the measurement object.

ステップS104において、物体位置判定部11は、自車両61の位置を示す位置情報をGPS等から取得し、この位置情報に基づいて周囲に存在している立体物の形状を立体物形状記憶部9から取得する。そして、取得した立体物の形状とステップS103で判定した計測対象物の形状とを比較して、これらの形状が一致すれば、計測対象物の位置は地図上の立体物の位置であると判定する。特に、本実施形態では計測対象物の角部の位置を電波画像上で特定しているので、地図上の立体物の角部の位置と計測対象物の角部の位置とを一致させることで、計測対象物の地図上における正確な位置を判定することができる。これに対して、従来では計測対象物の角部の位置を検出することはできなかったので、計測対象物である建物の幅が広い場合には、地図情報と照合する際に正確な位置を特定することはできなかった。   In step S104, the object position determination unit 11 acquires position information indicating the position of the host vehicle 61 from the GPS or the like, and based on the position information, the shape of a three-dimensional object existing around is obtained as a three-dimensional object shape storage unit 9. Get from. Then, the acquired shape of the three-dimensional object is compared with the shape of the measurement object determined in step S103, and if these shapes match, the position of the measurement object is determined to be the position of the three-dimensional object on the map. To do. In particular, in this embodiment, since the position of the corner of the measurement object is specified on the radio wave image, the position of the corner of the three-dimensional object on the map matches the position of the corner of the measurement object. The accurate position of the measurement object on the map can be determined. On the other hand, since the position of the corner of the measurement object could not be detected conventionally, if the width of the building that is the measurement object is wide, an accurate position is determined when collating with the map information. Could not be identified.

ステップS105において、自己位置推定部13は、物体位置判定部11で判定された計測対象物の位置と水平偏波画像及び垂直偏波画像に撮像された計測対象物の画像とを用いて自己位置を推定する。まず、自己位置推定部13は、電波画像に撮像された計測対象物の画像を用いて自車両61から計測対象物までの距離や方向等の相対的な位置関係を求める。例えば、電波画像に撮像されている計測対象物の大きさによって計測対象物までの距離を求めることができ、また電波画像上における計測対象物の位置によって計測対象物の方向を求めることができる。そして、自己位置推定部13は、この距離や方向等の相対的な位置関係を用いて地図上における計測対象物の角部の位置から自車両61の位置を推定する。これにより、自己位置推定部13は、GPS等で取得できる位置情報よりも正確な自車両61の自己位置を推定できるとともに、自車両61の方向や姿勢角についても推定することができる。   In step S105, the self-position estimation unit 13 uses the position of the measurement target determined by the object position determination unit 11 and the image of the measurement target captured in the horizontal polarization image and the vertical polarization image. Is estimated. First, the self-position estimation unit 13 obtains a relative positional relationship such as a distance and a direction from the own vehicle 61 to the measurement object using an image of the measurement object captured in the radio wave image. For example, the distance to the measurement object can be obtained from the size of the measurement object captured in the radio wave image, and the direction of the measurement object can be obtained from the position of the measurement object on the radio wave image. Then, the self-position estimating unit 13 estimates the position of the host vehicle 61 from the position of the corner of the measurement target on the map using the relative positional relationship such as the distance and the direction. Accordingly, the self-position estimating unit 13 can estimate the self-position of the own vehicle 61 more accurately than the position information that can be acquired by GPS or the like, and can also estimate the direction and the attitude angle of the own vehicle 61.

こうして自車両61の自己位置が推定できると、本実施形態に係る自己位置推定処理を終了する。   When the self-position of the host vehicle 61 can be estimated in this way, the self-position estimation process according to the present embodiment is terminated.

[第1実施形態の効果]
以上詳細に説明したように、本実施形態に係る物体検出装置1によれば、計測対象物から放射される電磁波の水平偏波成分と垂直偏波成分との間の相対的な関係を示す相対値を利用して計測対象物が立体物であるか否かを識別することができる。さらに、立体物であると識別された計測対象物の形状を判定することができる。
[Effect of the first embodiment]
As described above in detail, according to the object detection device 1 according to the present embodiment, a relative indicating a relative relationship between the horizontal polarization component and the vertical polarization component of the electromagnetic wave radiated from the measurement object. Whether or not the measurement object is a three-dimensional object can be identified using the value. Furthermore, the shape of the measurement object identified as a three-dimensional object can be determined.

また、本実施形態に係る物体検出装置1では、地図情報上に存在する立体物の形状を記憶しておき、自車両61の位置情報に基づいて周囲に存在している立体物の形状を取得し、取得した立体物の形状と計測対象物の形状とを比較して計測対象物の位置を判定する。これにより、計測対象物の地図上における位置を正確に特定することができる。   Further, in the object detection device 1 according to the present embodiment, the shape of the three-dimensional object existing on the map information is stored, and the shape of the three-dimensional object existing around is acquired based on the position information of the own vehicle 61. The position of the measurement object is determined by comparing the acquired shape of the three-dimensional object with the shape of the measurement object. Thereby, the position on the map of a measurement target object can be specified correctly.

さらに、本実施形態に係る物体検出装置1では、判定された計測対象物の位置と水平偏波画像及び垂直偏波画像に撮像された計測対象物の画像とを用いて自己位置を推定する。これにより、物体検出装置1を搭載した車両の自己位置を推定することが可能となる。   Furthermore, in the object detection apparatus 1 according to the present embodiment, the self position is estimated using the determined position of the measurement object and the image of the measurement object captured in the horizontal polarization image and the vertical polarization image. Thereby, it is possible to estimate the self-position of the vehicle on which the object detection device 1 is mounted.

また、本実施形態に係る物体検出装置1では、相対値として水平偏波成分と垂直偏波成分との比を示す偏波比を用いる。偏波比は計測対象物の形状による面の向きに応じて値が変化するので、偏波比を用いることによって計測対象物の形状を検出することができる。   Further, in the object detection device 1 according to the present embodiment, a polarization ratio indicating a ratio between a horizontal polarization component and a vertical polarization component is used as a relative value. Since the value of the polarization ratio changes according to the orientation of the surface depending on the shape of the measurement object, the shape of the measurement object can be detected by using the polarization ratio.

さらに、本実施形態に係る物体検出装置1では、水平偏波成分の強度と垂直偏波成分の強度との関係から複数の領域を設定し、偏波比が位置する領域に応じて立体物であるか否かを判定する。これにより、計測対象物が立体物であるか否かを容易に判定することができる。   Furthermore, in the object detection device 1 according to the present embodiment, a plurality of regions are set based on the relationship between the intensity of the horizontal polarization component and the intensity of the vertical polarization component, and a three-dimensional object is used according to the region where the polarization ratio is located. It is determined whether or not there is. Thereby, it can be easily determined whether or not the measurement object is a three-dimensional object.

[第2実施形態]
次に、本発明の第2実施形態に係る物体検出装置について図面を参照して説明する。ただし、本実施形態に係る物体検出装置の構成は第1実施形態と同一なので詳細な説明は省略する。
[Second Embodiment]
Next, an object detection apparatus according to a second embodiment of the present invention will be described with reference to the drawings. However, since the configuration of the object detection apparatus according to the present embodiment is the same as that of the first embodiment, detailed description thereof is omitted.

[自己位置推定処理の手順]
本実施形態に係る物体検出装置による自己位置推定処理の手順を説明する。ただし、フローチャートは第1実施形態と同一なので、図2のフローチャートを参照して説明し、第1実施形態と同一の処理が行われるステップについては詳細な説明は省略する。
[Self-position estimation process]
A procedure of self-position estimation processing by the object detection apparatus according to the present embodiment will be described. However, since the flowchart is the same as that of the first embodiment, it will be described with reference to the flowchart of FIG.

上述した第1実施形態では、計測対象物が四角い建物である場合に建物の角部を検出することを説明したが、本実施形態では計測対象物が円柱状の建物で角部がない場合について説明する。   In the first embodiment described above, it has been described that the corner of the building is detected when the measurement target is a square building. However, in the present embodiment, the measurement target is a cylindrical building and has no corner. explain.

ステップS103において、物体形状判定部7は、計測対象物が円柱状の建物で角部がない場合でも第1実施形態と同様に、画像上の位置の間での偏波比の変化に基づいて計測対象物の形状を判定する。   In step S103, the object shape determination unit 7 is based on the change in the polarization ratio between the positions on the image, as in the first embodiment, even when the measurement target is a cylindrical building and has no corners. The shape of the measurement object is determined.

まず、計測対象物が円柱状の建物で角部がない場合には、ステップS101において図7に示すような電波画像が生成されている。そして、図7に示す電波画像の走査線200上において算出した偏波比と垂直偏波成分の強度(黒体輻射換算)との関係を示したマップは図8となる。   First, when the measurement object is a cylindrical building and has no corners, a radio wave image as shown in FIG. 7 is generated in step S101. A map showing the relationship between the polarization ratio calculated on the scanning line 200 of the radio wave image shown in FIG. 7 and the intensity of the vertical polarization component (converted to blackbody radiation) is shown in FIG.

図7に示すように、画素Aは路面31上にあるので、その偏波比は図8に示すように道路の領域51にマッピングされている。そして、画素Bは図7の建物35上にあるので、画素Bの偏波比は図8の建物の領域53にマッピングされる。同様に、画素C、Dの偏波比は建物の領域53にマッピングされ、画素Eの偏波比は道路の領域51にマッピングされる。   As shown in FIG. 7, since the pixel A is on the road surface 31, the polarization ratio is mapped to a road area 51 as shown in FIG. And since the pixel B exists on the building 35 of FIG. 7, the polarization ratio of the pixel B is mapped to the area | region 53 of the building of FIG. Similarly, the polarization ratio of the pixels C and D is mapped to the building area 53, and the polarization ratio of the pixel E is mapped to the road area 51.

ここで、画素B、C、Dの偏波比は、図8の建物の領域53の中で位置が変化しており、特に画素Cの偏波比の値は最も小さくなっている。これは、図7に示すように、画素Cが建物35の側面の最も手前側に位置しているためである。したがって、建物の領域53の中にマッピングされている偏波比のうちで最も小さな値となる画素が、建物35の側面の中で自車両61に最も近い位置であると判断することができる。よって、画素(画像上の位置)の間での偏波比の変化から円筒状の建物の形状を判定することができる。   Here, the positions of the polarization ratios of the pixels B, C, and D change in the building region 53 of FIG. 8, and in particular, the value of the polarization ratio of the pixel C is the smallest. This is because the pixel C is located on the most front side of the side surface of the building 35 as shown in FIG. Therefore, it can be determined that the pixel having the smallest value among the polarization ratios mapped in the building area 53 is the position closest to the host vehicle 61 in the side surface of the building 35. Therefore, the shape of the cylindrical building can be determined from the change in the polarization ratio between pixels (positions on the image).

ここで、物体検出装置1を搭載した自車両61と図7の建物35との間の位置関係を表した図を図9に示す。図9に示すように、自車両61に対して図7の建物35は左寄りの位置にあり、点線63と点線65との間の範囲が図7において建物35が撮像されている範囲である。そして、物体形状判定部7によって自車両61に最も近い位置であると判定された画素Cの位置は図9のPの位置となる。   Here, FIG. 9 shows a diagram showing the positional relationship between the host vehicle 61 on which the object detection device 1 is mounted and the building 35 of FIG. As shown in FIG. 9, the building 35 in FIG. 7 is located on the left side with respect to the host vehicle 61, and the range between the dotted line 63 and the dotted line 65 is the range in which the building 35 is imaged in FIG. Then, the position of the pixel C determined by the object shape determination unit 7 as the position closest to the host vehicle 61 is the position P in FIG.

このようにして物体形状判定部7は計測対象物の形状を判定し、特に計測対象物の自車両61に最も近い位置を検出することができる。   In this way, the object shape determination unit 7 can determine the shape of the measurement object, and in particular, can detect the position of the measurement object closest to the host vehicle 61.

ステップS104において、物体位置判定部11は、自車両61の位置を示す位置情報をGPS等から取得し、この位置情報に基づいて周囲に存在している立体物の形状を立体物形状記憶部9から取得する。そして、取得した立体物の形状とステップS103で判定した計測対象物の形状とを比較して、これらの形状が一致すれば、計測対象物の位置は地図上の立体物の位置であると判定する。特に、本実施形態では計測対象物の自車両61に最も近い位置を電波画像上で特定しているので、地図上の立体物の自車両61に最も近い位置と計測対象物の自車両61に最も近い位置とを一致させることで、計測対象物の地図上における正確な位置を判定することができる。これに対して、従来では計測対象物の自車両61に最も近い位置を検出することはできなかったので、計測対象物が電柱や円柱状をした建物である場合には、地図情報と照合する際に正確な位置を特定することはできなかった。   In step S104, the object position determination unit 11 acquires position information indicating the position of the host vehicle 61 from the GPS or the like, and based on the position information, the shape of a three-dimensional object existing around is obtained as a three-dimensional object shape storage unit 9. Get from. Then, the acquired shape of the three-dimensional object is compared with the shape of the measurement object determined in step S103, and if these shapes match, the position of the measurement object is determined to be the position of the three-dimensional object on the map. To do. In particular, in the present embodiment, since the position closest to the subject vehicle 61 of the measurement object is specified on the radio wave image, the position closest to the subject vehicle 61 of the three-dimensional object on the map and the subject vehicle 61 of the measurement object are determined. By matching the closest position, the exact position of the measurement object on the map can be determined. On the other hand, conventionally, since the position closest to the subject vehicle 61 of the measurement object could not be detected, when the measurement object is a utility pole or a columnar building, it is checked against map information. The exact position could not be specified.

[第2実施形態の効果]
以上詳細に説明したように、本実施形態に係る物体検出装置では、計測対象物が角部のない円柱状の立体物であっても、計測対象物の自車両61に最も近い位置を検出することができる。これにより、地図情報と照合して計測対象物の地図上における正確な位置を判定することができる。
[Effects of Second Embodiment]
As described above in detail, the object detection device according to the present embodiment detects the position of the measurement target closest to the host vehicle 61 even if the measurement target is a cylindrical solid object having no corners. be able to. Thereby, it can collate with map information and can determine the exact position on the map of a measuring object.

[第3実施形態]
次に、本発明の第3実施形態に係る物体検出装置について図面を参照して説明する。ただし、本実施形態に係る物体検出装置の構成は第1実施形態と同一なので詳細な説明は省略する。
[Third Embodiment]
Next, an object detection apparatus according to a third embodiment of the present invention will be described with reference to the drawings. However, since the configuration of the object detection apparatus according to the present embodiment is the same as that of the first embodiment, detailed description thereof is omitted.

[自己位置推定処理の手順]
本実施形態に係る物体検出装置による自己位置推定処理の手順を説明する。ただし、フローチャートは第1実施形態と同一なので、図2のフローチャートを参照して説明し、第1実施形態と同一の処理が行われるステップについては詳細な説明は省略する。
[Self-position estimation process]
A procedure of self-position estimation processing by the object detection apparatus according to the present embodiment will be described. However, since the flowchart is the same as that of the first embodiment, it will be described with reference to the flowchart of FIG.

上述した第1及び第2実施形態では、計測対象物が四角や円柱状の建物である場合について説明したが、本実施形態では計測対象物がガードレールの場合について説明する。   In the first and second embodiments described above, the case where the measurement object is a square or columnar building has been described, but in the present embodiment, the case where the measurement object is a guard rail will be described.

ステップS103において、物体形状判定部7は、計測対象物がガードレールの場合でも第1実施形態と同様に、画像上の位置の間での偏波比の変化に基づいて計測対象物の形状を判定する。   In step S103, the object shape determination unit 7 determines the shape of the measurement object based on the change in the polarization ratio between the positions on the image, as in the first embodiment, even when the measurement object is a guardrail. To do.

まず、計測対象物がガードレールの場合には、ステップS101において図10に示すような電波画像が生成されている。そして、図10に示す電波画像の走査線300上において算出した偏波比と垂直偏波成分の強度(黒体輻射換算)との関係を示したマップは図11となる。   First, when the measurement target is a guard rail, a radio wave image as shown in FIG. 10 is generated in step S101. A map showing the relationship between the polarization ratio calculated on the scanning line 300 of the radio wave image shown in FIG. 10 and the intensity of the vertical polarization component (converted to blackbody radiation) is shown in FIG.

図10に示すように、画素A、Bは路面31上にあるので、その偏波比は図11に示すように道路の領域51にマッピングされている。そして、画素Cは図10のガードレール37上にあるので、画素Cの偏波比は図11の金属の領域55にマッピングされる。同様に、画素D、Eの偏波比は金属の領域55にマッピングされ、画素Fの偏波比は道路の領域51にマッピングされる。   As shown in FIG. 10, since the pixels A and B are on the road surface 31, their polarization ratios are mapped to a road area 51 as shown in FIG. Since the pixel C is on the guard rail 37 in FIG. 10, the polarization ratio of the pixel C is mapped to the metal region 55 in FIG. Similarly, the polarization ratio of the pixels D and E is mapped to the metal region 55, and the polarization ratio of the pixel F is mapped to the road region 51.

ここで、画素C、D、Eの偏波比は、図11の金属の領域55の中で位置が激しく変化している。これは、図10に示すように、ガードレール37に凹凸があるためである。したがって、金属の領域55の中で偏波比が激しく変化している場合、例えば各画素の偏波比が第1実施形態で説明した所定値以上変化している場合には、計測対象物をガードレールであると判断する。そして、計測対象物がガードレールであると判断すると、電波受信部3はより高密度な電波画像を生成する。   Here, the positions of the polarization ratios of the pixels C, D, and E change drastically in the metal region 55 of FIG. This is because the guard rail 37 is uneven as shown in FIG. Therefore, when the polarization ratio changes drastically in the metal region 55, for example, when the polarization ratio of each pixel changes more than the predetermined value described in the first embodiment, the measurement object is Judged as a guardrail. When it is determined that the measurement object is a guard rail, the radio wave receiving unit 3 generates a higher-density radio wave image.

ここで、物体検出装置1を搭載した自車両61と図10のガードレール37との間の位置関係を表した図を図12に示す。図12に示すように、自車両61に対して図10のガードレール37は右寄りの位置にあり、実線67と実線69との間の範囲が図10においてガードレール37が撮像されている範囲である。ガードレール37の両端の位置は図10に示す電波画像と図11に示す偏波比の変化とを考慮して特定することができ、図12のP1、P2の位置となる。例えば、図11において画素Bと画素Cの間で道路の領域51から金属の領域55へ偏波比が変化し、画素Eと画素Fの間で金属の領域55から道路の領域51へ偏波比が変化している。そこで、画素Bと画素Cの間、または画素Eと画素Fの間のいずれかがガードレールの端部であると考えられるが、図10の電波画像を考慮して画素Eと画素Fの間がガードレールの端部であると判断する。   Here, the figure showing the positional relationship between the own vehicle 61 carrying the object detection apparatus 1 and the guardrail 37 of FIG. 10 is shown in FIG. As shown in FIG. 12, the guard rail 37 in FIG. 10 is located to the right of the host vehicle 61, and the range between the solid line 67 and the solid line 69 is the range in which the guard rail 37 is imaged in FIG. The positions of both ends of the guardrail 37 can be specified in consideration of the radio wave image shown in FIG. 10 and the change in the polarization ratio shown in FIG. 11, and are the positions of P1 and P2 in FIG. For example, in FIG. 11, the polarization ratio changes between the pixel region B and the pixel C from the road region 51 to the metal region 55, and between the pixel E and the pixel F, the polarization region changes from the metal region 55 to the road region 51. The ratio is changing. Therefore, it is considered that either the pixel B and the pixel C or between the pixel E and the pixel F is an end of the guardrail. However, in consideration of the radio wave image of FIG. Judged as the end of the guardrail.

このようにして物体形状判定部7は計測対象物の形状を判定し、特に計測対象物がガードレールである場合にその両端の位置を検出することができる。   In this way, the object shape determination unit 7 can determine the shape of the measurement object, and can detect the positions of both ends particularly when the measurement object is a guardrail.

ステップS104において、物体位置判定部11は、自車両61の位置を示す位置情報をGPS等から取得し、この位置情報に基づいて周囲に存在している立体物の形状を立体物形状記憶部9から取得する。そして、取得した立体物の形状とステップS103で判定した計測対象物の形状とを比較して、これらの形状が一致すれば、計測対象物の位置は地図上の立体物の位置であると判定する。特に、本実施形態では計測対象物がガードレールである場合にその両端の位置を特定しているので、地図上のガードレールの両端の位置と、検出したガードレールの両端の位置とを一致させれば、計測対象物の地図上における正確な位置を判定することができる。   In step S104, the object position determination unit 11 acquires position information indicating the position of the host vehicle 61 from the GPS or the like, and based on the position information, the shape of a three-dimensional object existing around is obtained as a three-dimensional object shape storage unit 9. Get from. Then, the acquired shape of the three-dimensional object is compared with the shape of the measurement object determined in step S103, and if these shapes match, the position of the measurement object is determined to be the position of the three-dimensional object on the map. To do. In particular, in the present embodiment, when the measurement object is a guard rail, the positions of both ends thereof are specified, so if the positions of both ends of the guard rail on the map coincide with the positions of both ends of the detected guard rail, The exact position of the measurement object on the map can be determined.

[第3実施形態の効果]
以上詳細に説明したように、本実施形態に係る物体検出装置では、計測対象物がガードレールの場合でも、ガードレールの両端の位置を検出することができる。これにより、地図情報と照合して計測対象物の地図上における正確な位置を判定することができる。
[Effect of the third embodiment]
As described above in detail, the object detection device according to the present embodiment can detect the positions of both ends of the guard rail even when the measurement target is the guard rail. Thereby, it can collate with map information and can determine the exact position on the map of a measuring object.

なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea of the present invention, it depends on the design and the like. Of course, various modifications are possible.

1 物体検出装置
3 電波受信部
5 物体識別部
7 物体形状判定部
9 立体物形状記憶部
11 物体位置判定部
13 自己位置推定部
30 空
31 路面
33、35 建物
37 ガードレール
61 自車両
51 道路の領域
53 建物の領域
55 金属の領域
DESCRIPTION OF SYMBOLS 1 Object detection apparatus 3 Radio wave reception part 5 Object identification part 7 Object shape determination part 9 Three-dimensional object shape memory | storage part 11 Object position determination part 13 Self-position estimation part 30 Sky 31 Road surface 33, 35 Building 37 Guardrail 61 Own vehicle 51 Road area 53 Building area 55 Metal area

Claims (6)

物体から放射される電磁波を検知して物体を検出する物体検出装置であって、
計測対象物から放射される電磁波の水平偏波成分及び垂直偏波成分を受信して水平偏波画像と垂直偏波画像を生成する電波受信部と、
前記電波受信部で生成された水平偏波画像及び垂直偏波画像の各画像上の位置において、前記水平偏波成分と前記垂直偏波成分との間の相対的な関係を示す相対値を算出し、前記相対値に基づいて前記計測対象物が立体物であるか否かを識別する物体識別部と、
前記物体識別部で立体物であると識別された計測対象物の形状を、前記各画像上の位置の間での前記相対値の変化に基づいて判定する物体形状判定部と
を備えたことを特徴とする物体検出装置。
An object detection device for detecting an object by detecting electromagnetic waves radiated from an object,
A radio wave receiver that receives a horizontal polarization component and a vertical polarization component of an electromagnetic wave radiated from a measurement object, and generates a horizontal polarization image and a vertical polarization image;
Calculates a relative value indicating a relative relationship between the horizontal polarization component and the vertical polarization component at a position on each image of the horizontal polarization image and the vertical polarization image generated by the radio wave reception unit. And an object identification unit for identifying whether the measurement object is a three-dimensional object based on the relative value;
An object shape determination unit that determines the shape of the measurement object identified as a three-dimensional object by the object identification unit based on a change in the relative value between positions on the images. A featured object detection device.
前記電波受信部は、移動体に搭載され、
地図情報上に存在する立体物の形状を記憶する立体物形状記憶部と、
前記移動体の位置情報に基づいて周囲に存在している立体物の形状を前記立体物形状記憶部から取得し、取得した立体物の形状と前記物体形状判定部で判定された計測対象物の形状とを比較して前記計測対象物の位置を判定する物体位置判定部と
をさらに備えたことを特徴とする請求項1に記載の物体検出装置。
The radio wave receiver is mounted on a moving body,
A three-dimensional object shape storage unit for storing the shape of a three-dimensional object existing on map information;
Based on the position information of the moving body, the shape of a three-dimensional object existing around is acquired from the three-dimensional object shape storage unit, and the shape of the acquired three-dimensional object and the measurement object determined by the object shape determination unit The object detection apparatus according to claim 1, further comprising: an object position determination unit that compares the shape and determines the position of the measurement object.
前記物体位置判定部で判定された計測対象物の位置と前記水平偏波画像及び前記垂直偏波画像に撮像された計測対象物の画像とを用いて前記移動体の自己位置を推定する自己位置推定部をさらに備えたことを特徴とする請求項2に記載の物体検出装置。   Self-position that estimates the self-position of the moving object using the position of the measurement object determined by the object position determination unit and the image of the measurement object captured in the horizontal polarization image and the vertical polarization image The object detection apparatus according to claim 2, further comprising an estimation unit. 前記相対値は、前記水平偏波成分と前記垂直偏波成分との比を示す偏波比であることを特徴とする請求項1〜3のいずれか1項に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the relative value is a polarization ratio indicating a ratio between the horizontal polarization component and the vertical polarization component. 前記物体識別部は、前記水平偏波成分の強度と前記垂直偏波成分の強度との関係から複数の領域を設定し、前記偏波比が位置する領域に応じて立体物であるか否かを判定することを特徴とする請求項4に記載の物体検出装置。   The object identification unit sets a plurality of regions based on the relationship between the intensity of the horizontal polarization component and the intensity of the vertical polarization component, and whether the object is a three-dimensional object according to the region where the polarization ratio is located. The object detection device according to claim 4, wherein: 物体から放射される電磁波を検知して物体を検出する物体検出装置による物体検出方法であって、
前記物体検出装置は、
計測対象物から放射される電磁波の水平偏波成分及び垂直偏波成分を受信して水平偏波画像と垂直偏波画像を生成し、
生成された前記水平偏波画像及び前記垂直偏波画像の各画像上の位置において、前記水平偏波成分と前記垂直偏波成分との間の相対的な関係を示す相対値を算出し、前記相対値に基づいて前記計測対象物が立体物であるか否かを識別し、
立体物であると識別された前記計測対象物の形状を、前記各画像上の位置の間での前記相対値の変化に基づいて判定する
ことを特徴とする物体検出方法。
An object detection method by an object detection device for detecting an object by detecting electromagnetic waves radiated from an object,
The object detection device includes:
Receives the horizontal and vertical polarization components of the electromagnetic wave radiated from the measurement object, generates a horizontal polarization image and a vertical polarization image,
At a position on each image of the generated horizontal polarization image and the vertical polarization image, a relative value indicating a relative relationship between the horizontal polarization component and the vertical polarization component is calculated, Identifying whether the measurement object is a three-dimensional object based on a relative value,
An object detection method comprising: determining a shape of the measurement object identified as a three-dimensional object based on a change in the relative value between positions on the images.
JP2014126233A 2014-06-19 2014-06-19 Object detection apparatus and object detection method Active JP6424488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014126233A JP6424488B2 (en) 2014-06-19 2014-06-19 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014126233A JP6424488B2 (en) 2014-06-19 2014-06-19 Object detection apparatus and object detection method

Publications (2)

Publication Number Publication Date
JP2016004019A true JP2016004019A (en) 2016-01-12
JP6424488B2 JP6424488B2 (en) 2018-11-21

Family

ID=55223375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014126233A Active JP6424488B2 (en) 2014-06-19 2014-06-19 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP6424488B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084535A (en) * 2016-11-25 2018-05-31 日産自動車株式会社 Road surface determination method and road surface determination device
WO2019163216A1 (en) * 2018-02-23 2019-08-29 株式会社村田製作所 Object shape detection device, vehicle provided with same, and object shape detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040016870A1 (en) * 2002-05-03 2004-01-29 Pawlicki John A. Object detection system for vehicle
JP2007328738A (en) * 2006-06-09 2007-12-20 Nippon Telegr & Teleph Corp <Ntt> Object detection system, and object detection method
JP2011150687A (en) * 2009-12-25 2011-08-04 Ricoh Co Ltd Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
JP2012073221A (en) * 2010-08-30 2012-04-12 Nissan Motor Co Ltd Object detection device and object detection method
JP2013190417A (en) * 2012-02-13 2013-09-26 Ricoh Co Ltd Imaging unit and installation method thereof
WO2014024763A1 (en) * 2012-08-08 2014-02-13 日産自動車株式会社 Road surface state detection device and road surface state detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040016870A1 (en) * 2002-05-03 2004-01-29 Pawlicki John A. Object detection system for vehicle
JP2007328738A (en) * 2006-06-09 2007-12-20 Nippon Telegr & Teleph Corp <Ntt> Object detection system, and object detection method
JP2011150687A (en) * 2009-12-25 2011-08-04 Ricoh Co Ltd Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
JP2012073221A (en) * 2010-08-30 2012-04-12 Nissan Motor Co Ltd Object detection device and object detection method
JP2013190417A (en) * 2012-02-13 2013-09-26 Ricoh Co Ltd Imaging unit and installation method thereof
WO2014024763A1 (en) * 2012-08-08 2014-02-13 日産自動車株式会社 Road surface state detection device and road surface state detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084535A (en) * 2016-11-25 2018-05-31 日産自動車株式会社 Road surface determination method and road surface determination device
WO2019163216A1 (en) * 2018-02-23 2019-08-29 株式会社村田製作所 Object shape detection device, vehicle provided with same, and object shape detection method
JPWO2019163216A1 (en) * 2018-02-23 2020-09-17 株式会社村田製作所 Object shape detection device, vehicle equipped with it, and object shape detection method
US11885909B2 (en) 2018-02-23 2024-01-30 Murata Manufacturing Co., Ltd. Object shape detection apparatus, vehicle including the same, and object shape detection method

Also Published As

Publication number Publication date
JP6424488B2 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6667065B2 (en) Position estimation device and position estimation method
US20110199462A1 (en) Parallax calculation method and parallax calculation device
US10482615B2 (en) Image processing device and image processing method
Nienaber et al. A comparison of low-cost monocular vision techniques for pothole distance estimation
US9297653B2 (en) Location correction apparatus and method
US10348961B2 (en) Camera modeling system
JP6561670B2 (en) Step detecting device and step detecting method
US10410070B2 (en) Step detection device and step detection method
EP4136614A1 (en) Integrated fiducial marker for simultaneously calibrating sensors of different types
JPWO2018212292A1 (en) Information processing apparatus, control method, program, and storage medium
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP6424488B2 (en) Object detection apparatus and object detection method
JP2018084960A (en) Self-position estimation method and self-position estimation device
RU2667026C1 (en) Bench detection device and a bench detection method
CN110986887B (en) Monocular camera-based distance measurement method, storage medium and monocular camera
JP6477340B2 (en) Road boundary detection device, self-position estimation device, and road boundary detection method
JP6686776B2 (en) Step detection method and step detection apparatus
JP6485280B2 (en) Step detecting device and step detecting method
JP6789440B2 (en) Object identification device
WO2018212290A1 (en) Information processing device, control method, program and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181008

R151 Written notification of patent or utility model registration

Ref document number: 6424488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151