JP6593588B2 - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP6593588B2
JP6593588B2 JP2015193173A JP2015193173A JP6593588B2 JP 6593588 B2 JP6593588 B2 JP 6593588B2 JP 2015193173 A JP2015193173 A JP 2015193173A JP 2015193173 A JP2015193173 A JP 2015193173A JP 6593588 B2 JP6593588 B2 JP 6593588B2
Authority
JP
Japan
Prior art keywords
radar
region
capture
object detection
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015193173A
Other languages
Japanese (ja)
Other versions
JP2016153775A5 (en
JP2016153775A (en
Inventor
偉傑 劉
洋一 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201610008658.6A priority Critical patent/CN105893931A/en
Priority to US15/006,239 priority patent/US10061023B2/en
Publication of JP2016153775A publication Critical patent/JP2016153775A/en
Publication of JP2016153775A5 publication Critical patent/JP2016153775A5/ja
Application granted granted Critical
Publication of JP6593588B2 publication Critical patent/JP6593588B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、物体検出装置および物体検出方法に関し、より特定的には、車両、道路インフラシステム、または、特定施設の監視システムに搭載され、周辺に存在する物体を個別にかつ正確に検出することのできる物体検出装置および物体検出方法に関する。   The present disclosure relates to an object detection apparatus and an object detection method, and more specifically, to detect an object that is mounted on a vehicle, a road infrastructure system, or a monitoring facility of a specific facility individually and accurately. The present invention relates to an object detection apparatus and an object detection method capable of performing the above.

近年、乗用車などの車両には、当該車両の周囲に存在する、他車両、歩行者、二輪車、路上にある設置物などを検出する車載用レーダ装置または車載用カメラ装置が搭載されている。車載用レーダ装置または車載用カメラ装置は、自車両の前方や側方から接近してくる対象物体を検出し、自車両との相対位置、相対速度などを測定する。そして、車載用レーダ装置は、測定結果に基づき、自車両と対象物体とが衝突する危険性が無いかを判断する。車載用レーダ装置は、危険性があると判断した場合、更に、運転手に警告を出したり、自動的に自車両を制御したりすることによって、衝突を回避させる。   2. Description of the Related Art In recent years, vehicles such as passenger cars are equipped with an in-vehicle radar device or an in-vehicle camera device that detects other vehicles, pedestrians, two-wheeled vehicles, installations on the road, and the like existing around the vehicle. The in-vehicle radar device or the in-vehicle camera device detects a target object approaching from the front or side of the host vehicle, and measures a relative position, a relative speed, and the like with the host vehicle. Then, the in-vehicle radar device determines whether there is a risk of collision between the host vehicle and the target object based on the measurement result. When it is determined that there is a danger, the in-vehicle radar device further avoids a collision by giving a warning to the driver or automatically controlling the own vehicle.

例えば、特許文献1には、車載用レーダ装置および車載用カメラ装置を共に用いて、物体の検出を行う技術が開示されている。具体的に、特許文献1では、カメラ装置の測定情報を利用し、対象物体の数および方位角の範囲を確定し、対象物体の数および方位角の範囲に基づいて、レーダ装置の測定情報を修正している。   For example, Patent Document 1 discloses a technique for detecting an object using both a vehicle-mounted radar device and a vehicle-mounted camera device. Specifically, in Patent Document 1, the measurement information of the camera device is used to determine the number of target objects and the range of azimuth angles, and the measurement information of the radar device is determined based on the number of target objects and the range of azimuth angles. It has been corrected.

また、特許文献2には、道路周辺に設置されるカメラ装置とレーダ装置を共に用いて、交通量を監視する技術が開示されている。具体的に、特許文献2では、遠方車両の位置およびスピードの情報をレーダ装置で検知し、当該車両のカメラ画像における位置を確定の後、カメラ画像より当該車両より遠近両方の車両の状況を提示し、交通監視と交通管理を行っている。   Patent Document 2 discloses a technology for monitoring traffic volume using both a camera device and a radar device installed around a road. Specifically, in Patent Document 2, information on the position and speed of a distant vehicle is detected by a radar device, and after the position of the vehicle in the camera image is determined, the situation of both the vehicle far and near from the vehicle is presented from the camera image. Traffic monitoring and traffic management.

また、従来、空港、港、鉄道駅、又は、建物などの特定施設を監視するために、レーダ装置またはカメラ装置が設置され、地上又は空中(地上より上の空間)からの侵入する物体を検知し、関連セキュリティシステム又は表示部に情報を提供し、不審物体(不審者を含む)の侵入を防いでいる。   Conventionally, radar devices or camera devices have been installed to monitor specific facilities such as airports, ports, railway stations, or buildings, and detect intruding objects from the ground or in the air (space above the ground). In addition, information is provided to the related security system or display unit to prevent intrusion of suspicious objects (including suspicious persons).

特開2010−151621号公報JP 2010-151621 A 米国特許出願公開第2013/0300870号明細書US Patent Application Publication No. 2013/0300870

R.C.Gonzalez and R.E.Woods, Digital Image Processing, Prentice Hall, 2001.R.C.Gonzalez and R.E.Woods, Digital Image Processing, Prentice Hall, 2001.

しかしながら、上述した特許文献1の従来技術では、対象物体の数および各対象物体の方位角の範囲を車載されたカメラ装置の測定情報によって確定しなければならない。つまり、車載用カメラ装置に対して、高度な物体検出性能を必要とする。   However, in the above-described prior art of Patent Document 1, the number of target objects and the range of azimuth angles of each target object must be determined based on measurement information of a camera device mounted on the vehicle. That is, a high level of object detection performance is required for the in-vehicle camera device.

また、特許文献2の従来技術では、レーダ装置が1つの車両から複数の検出結果を取得してしまった場合に、当該車両の位置の確定が困難になってしまう。   Moreover, in the prior art of patent document 2, when the radar apparatus has acquired a plurality of detection results from one vehicle, it becomes difficult to determine the position of the vehicle.

つまり、上記の従来技術では、車両に搭載する、道路インフラシステムに利用する、または、特定施設の監視システムに利用する、といった場合であっても、物体の検出精度がカメラ装置とレーダ装置のうちの一方の性能に依存している。つまり、レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させることが困難である。   In other words, in the above-described conventional technology, even when the vehicle is mounted on a vehicle, used for a road infrastructure system, or used for a monitoring system for a specific facility, the detection accuracy of an object is the same between a camera device and a radar device. Depends on one of the performance. That is, it is difficult to effectively superimpose the sensing function of the radar device and the sensing function of the camera device to improve the object detection accuracy.

本開示は、レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させることを可能とする物体検出装置および物体検出方法を提供することを目的とする。   An object of the present disclosure is to provide an object detection device and an object detection method that can effectively superimpose a sensing function of a radar device and a sensing function of a camera device to improve an object detection accuracy. To do.

本開示の物体検出装置は、レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成する情報生成部と、前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出する捕捉領域算出部と、カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出するエッジ抽出部と、前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出するマーカー算出部と、前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出するコンポーネント領域算出部と、前記コンポーネント領域を対象物体領域としてグループ化するグループ化処理部と、前記対象物体領域から前記1つ以上の物体を判定し、前記判定結果を出力する物体確定部と、を具備する。   In the object detection device of the present disclosure, the radar signal includes one or more objects for a plurality of cells obtained by dividing the distance from the radar device at predetermined intervals in each transmission direction of the radar signal transmitted by the radar device. A reflection intensity that is a representative value of the power of the received signal received by the radar apparatus is calculated for each reflection signal reflected by the radar apparatus, and power profile information is generated for each of the plurality of cells using the reflection intensity. An information generator and a cell indicating the maximum value of the reflection intensity among the power profile information of the plurality of cells is calculated as a capture point for capturing the one or more objects, and one cell surrounding the capture point A capture region calculation unit that calculates a capture region that is the above cell; an edge extraction unit that extracts an edge of the one or more objects included in an image acquired by the camera device; The capture area is converted into a partial area in the image based on the measurement range of the reader device and the imaging range of the camera apparatus, and the partial area is calculated as a marker that is the area of the image corresponding to the capture area. A marker calculation unit that performs a component region calculation corresponding to a part of the one or more objects by extending the marker using the edge as a boundary, and the component region as a target object region. And a grouping processing unit for grouping, and an object determination unit for determining the one or more objects from the target object region and outputting the determination result.

本開示の物体検出方法は、レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成し、前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出し、カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出し、前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出し、前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出し、前記コンポーネント領域を対象物体領域としてグループ化し、前記対象物体領域から前記1つ以上の物体を判定し、前記判定結果を出力する。   In the object detection method of the present disclosure, the radar signal includes one or more objects for a plurality of cells in which the distance from the radar apparatus is divided at predetermined intervals in each transmission direction of the radar signal transmitted by the radar apparatus. A reflection intensity that is a representative value of the power of the received signal received by the radar apparatus is calculated for each reflected signal reflected by the radar apparatus, and power profile information is generated for each of the plurality of cells using the reflection intensity. Calculating a cell indicating the maximum value of the reflection intensity from the power profile information of the plurality of cells as a capture point for capturing the one or more objects, and at least one cell surrounding the capture point. A certain capture area is calculated, an edge of the one or more objects included in an image acquired by the camera device is extracted, and a measurement range of the radar device and an imaging range of the camera device are extracted. The capture region is converted into a partial region in the image, the partial region is calculated as a marker that is a region of the image corresponding to the capture region, and the marker is expanded with the edge as a boundary. To calculate a component area corresponding to a part of the one or more objects, group the component areas as target object areas, determine the one or more objects from the target object areas, and determine the determination result. Is output.

本開示によれば、レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させることができる。   According to the present disclosure, the sensing function of the radar device and the sensing function of the camera device can be effectively superimposed to improve the object detection accuracy.

本開示に係る物体検出装置を用いたセンシングユニットの構成の概念図Conceptual diagram of a configuration of a sensing unit using the object detection device according to the present disclosure 本開示に係る物体検出装置を用いたセンシングユニットの構成の概念図Conceptual diagram of a configuration of a sensing unit using the object detection device according to the present disclosure 本開示に係る物体検出装置の設置場所についての概念図Conceptual diagram about installation location of object detection device according to the present disclosure 本開示に係る物体検出装置の設置場所についての概念図Conceptual diagram about installation location of object detection device according to the present disclosure 本開示の実施の形態1に係る物体検出装置の主要構成を示すブロック図1 is a block diagram illustrating a main configuration of an object detection device according to a first embodiment of the present disclosure. 本開示の実施の形態1における電力プロファイル情報の一例を示す図The figure which shows an example of the power profile information in Embodiment 1 of this indication 本開示の実施の形態1における捕捉領域の算出結果の一例を示す図The figure which shows an example of the calculation result of the capture | acquisition area in Embodiment 1 of this indication レーダ測定三次元空間の座標系の一例を示す図Diagram showing an example of the coordinate system of the radar measurement three-dimensional space 距離、最大可能高さ、および、地面距離の関係を示す図Diagram showing the relationship between distance, maximum possible height, and ground distance カメラ三次元空間の座標からカメラ画像平面の座標への変換の説明に供する図Diagram for explaining the conversion from the coordinates of the camera 3D space to the coordinates of the camera image plane カメラ画像平面の一例を示す図The figure which shows an example of a camera image plane 図5に示す捕捉領域に対応するマーカーの算出結果の一例を示す図The figure which shows an example of the calculation result of the marker corresponding to the capture area | region shown in FIG. コンポーネント領域算出部がマーカーを分割する場合の一例を示す図The figure which shows an example in case a component area | region calculation part divides a marker コンポーネント算出部による領域拡張の結果の一例を示す図The figure which shows an example of the result of the area expansion by a component calculation part コンポーネント領域をレーダ測定平面上の領域に座標変換した結果の一例を示す図The figure which shows an example of the result of coordinate-transforming the component area into the area on the radar measurement plane グループ化処理部によるグルーピングの結果の一例を示す図The figure which shows an example of the result of grouping by a grouping process part 本開示の実施の形態2に係る物体検出装置の主要構成を示すブロック図FIG. 3 is a block diagram illustrating a main configuration of an object detection device according to a second embodiment of the present disclosure. 本開示の実施の形態3に係る物体検出装置の主要構成を示すブロック図FIG. 3 is a block diagram illustrating a main configuration of an object detection device according to a third embodiment of the present disclosure. 本開示の実施の形態4に係る物体検出装置の主要構成を示すブロック図FIG. 3 is a block diagram illustrating a main configuration of an object detection device according to a fourth embodiment of the present disclosure.

(本開示に至る経緯)
まず、本開示に至る経緯について説明する。本開示は、車載用レーダ装置およびカメラ装置、道路インフラシステム用レーダ装置およびカメラ装置、ならびに、特定施設の監視システムに、用いられる物体検出装置に関する。
(Background to this disclosure)
First, the process leading to the present disclosure will be described. The present disclosure relates to an on-vehicle radar device and a camera device, a road infrastructure system radar device and a camera device, and an object detection device used in a monitoring system for a specific facility.

車載用レーダ装置およびカメラ装置は、既に多くの車両に搭載されつつあるが、道路インフラシステム用レーダ装置およびカメラ装置も道路のインフラシステムに導入されつつあり、また、特定施設の監視システムとして、従来、レーダ装置又はカメラ装置のいずれかが単独に利用されてきたが、レーダ装置及びカメラ装置を併用して利用される場合も多くなりつつある。   In-vehicle radar devices and camera devices are already being installed in many vehicles, but road infrastructure system radar devices and camera devices are also being introduced into road infrastructure systems. However, either a radar device or a camera device has been used alone, but the use of a radar device and a camera device in combination is also increasing.

道路インフラシステム用レーダ装置およびカメラ装置は、交差点等の道路の周辺に設置され、道路および道路周辺に存在する車両、歩行者、二輪車などを検出し、交通状況の監視と交通の管理を行う。   A radar device and a camera device for a road infrastructure system are installed around a road such as an intersection, and detect a road, a vehicle, a pedestrian, a two-wheeled vehicle, and the like, and monitor a traffic situation and manage a traffic.

道路インフラシステム用レーダ装置およびカメラ装置は、交通状況の監視として、交通量の検出、車両のスピード違反や信号無視などの検出を行う。また、道路インフラシステム用レーダ装置およびカメラ装置は、交通の管理として、検出した交通量に基づいて、信号機の制御を行う。あるいは、道路インフラシステム用レーダ装置およびカメラ装置は、車両の死角に存在する物体を検出し、検出した物体の情報を車両の運転手に通知する。このように、道路インフラシステム用レーダ装置およびカメラ装置は、交通の効率化と交通事故の防止を実現することができる。   The road infrastructure system radar device and the camera device detect traffic volume, vehicle speed violation, signal ignorance, etc. as traffic condition monitoring. In addition, the road infrastructure system radar device and the camera device control traffic lights based on the detected traffic volume as traffic management. Alternatively, the radar device and the camera device for the road infrastructure system detect an object existing in the blind spot of the vehicle and notify the vehicle driver of information on the detected object. Thus, the road infrastructure system radar device and the camera device can realize traffic efficiency and prevention of traffic accidents.

車載用レーダ装置およびカメラ装置においても、あるいは、道路インフラシステム用レーダ装置およびカメラ装置においても、車両、歩行者、自転車、バイクなどの特徴の異なる対象物体は、正確に検出される必要がある。また、監視システム用レーダ装置およびカメラ装置においても、地上を監視領域とした場合は各種車両や歩行者を、また、空中を監視領域とした場合は各種飛行体や鳥を正確に検出する必要がある。   In both the on-vehicle radar device and the camera device, or the road infrastructure system radar device and the camera device, target objects having different characteristics such as a vehicle, a pedestrian, a bicycle, and a motorcycle need to be accurately detected. Also, in the radar system and the camera device for the monitoring system, it is necessary to accurately detect various vehicles and pedestrians when the ground is a monitoring area, and various flying objects and birds when the ground is a monitoring area. is there.

各対象物体が正確に検出されることによって、空間に物体が存在する状態、交通量の状態を正確に把握し、被侵入、又は、衝突の可能性を正確に予測することができる。各対象物体が正確に検出されなければ、対象物体の検出漏れや誤検出が発生し、空間に物体が存在する状態や交通量の状態の把握が困難になり、被侵入、又は、衝突の可能性の予測が困難になる。   By accurately detecting each target object, it is possible to accurately grasp the state in which the object exists in the space and the state of the traffic volume, and accurately predict the possibility of intrusion or collision. If each target object is not detected correctly, detection of the target object and false detection will occur, making it difficult to grasp the state of the object in the space and the traffic volume, and intrusion or collision is possible Gender prediction becomes difficult.

一般に、レーダ装置における測定では、1つの対象物体から複数の強い反射点(以下、捕捉点という)を取得する。そのため、測定結果から対象物体を検出するために、同一物体に対応する捕捉点をグループ化する必要がある。   In general, in a radar apparatus, a plurality of strong reflection points (hereinafter referred to as capture points) are acquired from one target object. Therefore, in order to detect the target object from the measurement result, it is necessary to group the capture points corresponding to the same object.

特許文献1では、車載されたカメラ装置の測定情報によって対象物体の数および各対象物体の方位角の範囲を確定し、グループ化した捕捉点を対象物体の数および各対象物体の方位角の範囲に基づいて、再グループ化またはグループの解除を行う。このような処理によって、特許文献1の開示する技術では誤検出や検出漏れを回避する。   In Patent Document 1, the number of target objects and the range of azimuth angles of each target object are determined based on measurement information of a camera device mounted on the vehicle, and the number of target objects and the range of azimuth angles of each target object are grouped. Regroup or ungroup based on By such processing, the technique disclosed in Patent Document 1 avoids erroneous detection and detection omission.

しかしながら、特許文献1の開示する技術では、対象物体の数および各対象物体の方位角の範囲の精度、つまり、カメラ装置のセンシング機能の精度によって、物体の検出精度が変わってしまう。   However, in the technique disclosed in Patent Document 1, the accuracy of object detection varies depending on the number of target objects and the accuracy of the range of azimuth angles of each target object, that is, the accuracy of the sensing function of the camera device.

また、特許文献2では、複数の捕捉点を取得した際に対象物体である車両を検出することが困難になり、結果的に、特許文献2の開示する技術が利用困難である。   Moreover, in patent document 2, it becomes difficult to detect the vehicle which is a target object when acquiring several capture points, and as a result, the technique which patent document 2 discloses is difficult to use.

このような事情に鑑み、カメラ装置の測定情報とレーダ装置の測定情報の違いを考慮すればこれらの測定情報を効果的に重畳できることに着目し、本開示に至った。   In view of such circumstances, the present disclosure has been achieved by paying attention to the fact that these measurement information can be effectively superimposed if the difference between the measurement information of the camera device and the measurement information of the radar device is taken into consideration.

本開示によれば、車載用レーダ装置およびカメラ装置において、自車両周辺に存在する車両、二輪車、および、歩行者を正確に検出し、自車両との衝突危険性を予測し、危険回避のための警告や制御を行うことができる。その結果、交通事故の防止が実現される。   According to the present disclosure, in an in-vehicle radar device and a camera device, a vehicle, a two-wheeled vehicle, and a pedestrian existing around the own vehicle are accurately detected, a collision risk with the own vehicle is predicted, and a risk is avoided. Can be alerted and controlled. As a result, prevention of traffic accidents is realized.

また、本開示によれば、空港、港、鉄道駅、又は、建物などの特定施設の監視システム用レーダ装置およびカメラ装置において、空中からは飛行体や鳥、地上からは各種車両や侵入者を正確に検出し、外部のセキュリティシステムと連動し、不審者の侵入を防止し施設の安全が確保される。   In addition, according to the present disclosure, in a radar device and a camera device for a monitoring facility of a specific facility such as an airport, a port, a railway station, or a building, a flying object or a bird from the air, and various vehicles or intruders from the ground. It is accurately detected and linked with an external security system to prevent the intrusion of suspicious persons and ensure the safety of the facility.

また、本開示によれば、道路インフラシステム用レーダ装置およびカメラ装置において、交差点を含む道路周辺に存在する車両、二輪車、および、歩行者を正確に検出し、衝突の可能性の予測、衝突の回避、および、交通量の把握と管理を行うことができる。その結果、交通事故の防止とともに交通管理の効率化が実現される。   Further, according to the present disclosure, in the radar device and the camera device for the road infrastructure system, the vehicle, the two-wheeled vehicle, and the pedestrian existing around the road including the intersection are accurately detected, and the possibility of the collision is predicted. You can avoid and manage and manage traffic volume. As a result, traffic accidents can be prevented and traffic management can be made more efficient.

(本開示の利用イメージ)
ここで、本開示に係る物体検出装置の接続方法および設置場所について図面を用いて説明する。
(Use image of this disclosure)
Here, the connection method and installation location of the object detection device according to the present disclosure will be described with reference to the drawings.

図1A、図1Bは、本開示に係る物体検出装置を用いたセンシングユニットの構成の概念図である。図1A、図1Bにおいて、RおよびCは、それぞれ、レーダ装置およびカメラ装置を示す。Wは、本開示に係る物体検出装置を示す。図1Aは、レーダ装置Rとカメラ装置Cが同一の筐体に設けられ、物体検出装置Wと接続する場合を示す。図1Bは、レーダ装置Rとカメラ装置Cが別々の筐体に設けられ、物体検出装置Wと接続する場合を示す。なお、図1A及び図1Bの物体検出装置Wは更に、外部のセキュリティシステム又は表示部に接続されている。   1A and 1B are conceptual diagrams of a configuration of a sensing unit using the object detection device according to the present disclosure. 1A and 1B, R and C indicate a radar device and a camera device, respectively. W represents an object detection device according to the present disclosure. FIG. 1A shows a case where the radar apparatus R and the camera apparatus C are provided in the same housing and are connected to the object detection apparatus W. FIG. 1B shows a case where the radar apparatus R and the camera apparatus C are provided in separate housings and are connected to the object detection apparatus W. 1A and 1B is further connected to an external security system or display unit.

本開示は、レーダ装置Rとカメラ装置Cの設置する方法、場所、および、相対的な位置関係を制限しない。また、レーダ装置Rの検知範囲とカメラ装置Cの検知範囲の位置関係についても制限しない。ただし、本開示はレーダ装置Rの検知範囲とカメラ装置Cの検知範囲の重畳範囲に対して適用するため、レーダ装置Rとカメラ装置Cは、重畳範囲が大きくなるように設置されるのが好ましい。   The present disclosure does not limit the installation method, location, and relative positional relationship between the radar apparatus R and the camera apparatus C. Further, the positional relationship between the detection range of the radar device R and the detection range of the camera device C is not limited. However, since the present disclosure is applied to the overlapping range of the detection range of the radar device R and the detection range of the camera device C, the radar device R and the camera device C are preferably installed so that the overlapping range is large. .

本開示は、レーダ装置Rの測定情報とカメラ装置Cの測定情報を重畳して処理する物体検出装置Wを提供する。本開示に係る物体検出装置Wは、レーダ装置Rの構成、および、カメラ装置Cの構成についても制限しない。レーダ装置Rおよびカメラ装置Cは、いずれも既存の市販品や公知技術で構成される製品でもよい。   The present disclosure provides an object detection apparatus W that superimposes and processes measurement information of the radar apparatus R and measurement information of the camera apparatus C. The object detection device W according to the present disclosure does not limit the configuration of the radar device R and the configuration of the camera device C. Both the radar device R and the camera device C may be existing commercial products or products composed of known techniques.

また、図1A及び図1Bに示す概念図において、物体検出装置Wは、レーダ装置Rおよびカメラ装置Cと別々に設けられるとしたが、レーダ装置Rまたはカメラ装置Cに含まれるとしてもよい。   1A and 1B, the object detection device W is provided separately from the radar device R and the camera device C, but may be included in the radar device R or the camera device C.

また、本開示において、レーダ装置Rおよびカメラ装置Cは、物体検出装置Wと接続して、測定情報を物体検出装置Wに伝送するが、その伝送方式は限定されない。伝送方式は、有線通信方式であっても無線通信方式であってもよい。   In the present disclosure, the radar apparatus R and the camera apparatus C are connected to the object detection apparatus W and transmit measurement information to the object detection apparatus W, but the transmission method is not limited. The transmission method may be a wired communication method or a wireless communication method.

次に、本開示に係る物体検出装置Wの設置場所について図2A、図2Bを用いて説明する。図2A、図2Bは、本開示に係る物体検出装置Wの設置場所についての概念図である。図2Aは、物体検出装置Wがレーダ装置Rおよびカメラ装置Cとともに車両に搭載される概念図であり、図2Bは、物体検出装置Wがレーダ装置Rおよびカメラ装置Cとともに道路インフラシステムで利用される概念図である。   Next, the installation location of the object detection device W according to the present disclosure will be described with reference to FIGS. 2A and 2B. 2A and 2B are conceptual diagrams of the installation location of the object detection device W according to the present disclosure. FIG. 2A is a conceptual diagram in which the object detection device W is mounted on a vehicle together with the radar device R and the camera device C, and FIG. 2B is used in a road infrastructure system in which the object detection device W is used together with the radar device R and the camera device C. FIG.

図2Aにおいて、Vは自車両、R/Cは自車両に搭載されるレーダ装置Rおよびカメラ装置Cを含む測定装置、T1およびT2は2つの異なる対象物体を示す。実装上、物体検出装置Wは、測定装置R/Cと一体としてもよいし、測定装置R/Cと設置位置が異なっていてもよいが、自車両Vの前方または側方の周辺にある物体を検出できれば好都合である。   In FIG. 2A, V is the own vehicle, R / C is a measuring device including a radar device R and a camera device C mounted on the own vehicle, and T1 and T2 are two different target objects. In terms of mounting, the object detection device W may be integrated with the measurement device R / C, or may be installed at a different position from the measurement device R / C. It is convenient if it can be detected.

図2Bにおいて、R/Cは道路インフラに搭載されるレーダ装置Rおよびカメラ装置Cを含む測定装置、Pは路面、Lは測定装置R/Cが設置されるポールなどのサポート装置、T1およびT2は2つの異なる対象物体を示す。図2Bは、測定装置R/Cが設置された位置付近の斜視したイメージ図である。   In FIG. 2B, R / C is a measuring device including a radar device R and a camera device C mounted on a road infrastructure, P is a road surface, L is a support device such as a pole on which the measuring device R / C is installed, and T1 and T2 Indicates two different target objects. FIG. 2B is a perspective image view of the vicinity of the position where the measuring device R / C is installed.

路面Pは、直進の道路でもよいし、交差点の一部であってもよい。また、測定装置R/Cが設置される位置は、道路の上方、路側、交差点の上方、または、交差点の各コーナーであってもよい。なお、本開示は、測定装置R/Cを設置する位置や設置する方法を限定しない。測定装置R/Cが交差点にある横断歩道の周囲に存在する車両、歩行者、二輪車などを検出できれば好都合である。   The road surface P may be a straight road or a part of an intersection. Further, the position where the measuring device R / C is installed may be above the road, on the roadside, above the intersection, or at each corner of the intersection. In addition, this indication does not limit the position which installs measuring apparatus R / C, and the installation method. It would be advantageous if the measuring device R / C could detect vehicles, pedestrians, two-wheeled vehicles, etc. that exist around the pedestrian crossing at the intersection.

図2Aおよび図2Bにおいて、対象物体T1は、対象物体T2よりも大きい物体であり、例えば、車両などの物体に該当する。また、対象物体T2は、例えば、バイク、自転車、歩行者などに該当する。また、図2Aおよび図2Bに示す概念図では、対象物体T2は、対象物体T1よりもレーダ装置に近い位置に存在する。本開示に係る物体検出装置Wは、対象物体T1とT2を分離して個別に検出する。   2A and 2B, the target object T1 is an object larger than the target object T2, and corresponds to an object such as a vehicle, for example. The target object T2 corresponds to, for example, a motorcycle, a bicycle, a pedestrian, and the like. In the conceptual diagrams shown in FIGS. 2A and 2B, the target object T2 is present at a position closer to the radar apparatus than the target object T1. The object detection device W according to the present disclosure separates and detects the target objects T1 and T2.

また、図示していないが、本開示に係る物体検出装置Wの設置場所は、空港、港、鉄道駅、又は建物などの特定施設を監視できる場所でもよい。本開示に係る物体検出装置Wの測定領域も地上領域に限定せず、空中に対する監視又は測定でも利用可能である。   Moreover, although not shown in figure, the installation place of the object detection apparatus W which concerns on this indication may be a place which can monitor specific facilities, such as an airport, a port, a railway station, or a building. The measurement region of the object detection device W according to the present disclosure is not limited to the ground region, and can be used for monitoring or measurement in the air.

次に、本開示の実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する各実施の形態は一例であり、本開示はこれらの実施の形態により限定されるものではない。   Next, an embodiment of the present disclosure will be described in detail with reference to the drawings. Each embodiment described below is an example, and the present disclosure is not limited by these embodiments.

(実施の形態1)
まず、本開示の実施の形態1に係る物体検出装置について図面を用いて説明する。図3は、本開示の実施の形態1に係る物体検出装置30の主要構成を示すブロック図である。
(Embodiment 1)
First, the object detection device according to the first embodiment of the present disclosure will be described with reference to the drawings. FIG. 3 is a block diagram illustrating a main configuration of the object detection device 30 according to the first embodiment of the present disclosure.

本開示の実施の形態1に係る物体検出装置30は、レーダ装置Rおよびカメラ装置Cに接続される。レーダ装置Rは、所定の角度間隔で順次方向を変えながらレーダ信号を送信する送信部と、レーダ信号が対象物体に反射した反射信号を受信する受信部と、反射信号をベースバンドに変換し、レーダ信号の送信方向毎の遅延プロファイル(伝搬遅延特性)を取得する信号処理部と、を有する。カメラ装置Cは、被写体(対象物体)を撮像し、画像データを取得する。   The object detection device 30 according to the first embodiment of the present disclosure is connected to the radar device R and the camera device C. The radar apparatus R includes a transmitter that transmits a radar signal while sequentially changing directions at predetermined angular intervals, a receiver that receives a reflected signal reflected from a target object by the radar signal, and converts the reflected signal to baseband. And a signal processing unit that acquires a delay profile (propagation delay characteristic) for each transmission direction of the radar signal. The camera device C captures an image of a subject (target object) and acquires image data.

物体検出装置30は、情報生成部31、補足領域算出部32、カメラ画像取得部33、エッジ算出部34、マーカー算出部35、コンポーネント領域算出部36、グループ化処理部37、および、物体確定部38を有する。物体検出装置30の各構成は、LSI回路などのハードウェアで実現可能である。あるいは、物体検出装置30の各構成は、車両を制御する電子制御ユニット(Electronic Control Unit:ECU)の一部としても実現可能である。   The object detection device 30 includes an information generation unit 31, a supplemental region calculation unit 32, a camera image acquisition unit 33, an edge calculation unit 34, a marker calculation unit 35, a component region calculation unit 36, a grouping processing unit 37, and an object determination unit. 38. Each configuration of the object detection device 30 can be realized by hardware such as an LSI circuit. Or each structure of the object detection apparatus 30 is realizable also as a part of electronic control unit (Electronic Control Unit: ECU) which controls a vehicle.

情報生成部31は、レーダ装置の信号処理部から出力された遅延プロファイルにより、レーダ信号の送信方向毎に、レーダ装置からの距離を所定の間隔で区切ったセル毎に、反射信号の受信電力の代表値(以下、「反射強度」と云う)を測定する。そして、情報生成部31は、各セルの反射強度を示す電力プロファイル情報を生成し、捕捉点算出部32へ出力する。なお、反射強度は、一般的に連続値であるが、処理を簡単にするために情報生成部31が量子化処理を行ってもよい。なお、情報生成部31が生成する電力プロファイル情報の詳細については、後述する。   The information generation unit 31 uses the delay profile output from the signal processing unit of the radar device to determine the received power of the reflected signal for each cell in which the distance from the radar device is divided at predetermined intervals for each transmission direction of the radar signal. A representative value (hereinafter referred to as “reflection intensity”) is measured. Then, the information generation unit 31 generates power profile information indicating the reflection intensity of each cell and outputs it to the capture point calculation unit 32. The reflection intensity is generally a continuous value, but the information generation unit 31 may perform a quantization process in order to simplify the process. Details of the power profile information generated by the information generation unit 31 will be described later.

捕捉領域算出部32は、まず、電力プロファイル情報から反射強度の極大点を算出する。捕捉領域算出部32によって算出される極大点は、対象物体を捕捉する捕捉点となる。具体的に、捕捉領域算出部32は、電力プロファイル情報を画像として取り扱い、公知の方法で極大点を算出する。次に、捕捉領域算出部32は、公知の画像処理の方法を用いて、捕捉点に対する捕捉領域を算出する。捕捉領域は、捕捉点を囲む局所領域であり、捕捉点の周囲の点のうち、所定の値以上の反射強度を有する点で構成される。なお、捕捉領域算出部32における捕捉領域の算出方法については後述する。   The capture region calculation unit 32 first calculates the maximum point of the reflection intensity from the power profile information. The maximum point calculated by the capture region calculation unit 32 is a capture point for capturing the target object. Specifically, the capture region calculation unit 32 handles the power profile information as an image, and calculates the maximum point by a known method. Next, the capture area calculation unit 32 calculates a capture area for the capture point using a known image processing method. The capture region is a local region surrounding the capture point, and is configured by points having a reflection intensity equal to or greater than a predetermined value among points around the capture point. Note that a method of calculating the capture area in the capture area calculation unit 32 will be described later.

カメラ画像取得部33は、カメラ装置Cから画像データを受け取り、画質改善等の前処理を行い、エッジ算出部34に出力する。   The camera image acquisition unit 33 receives the image data from the camera device C, performs preprocessing such as image quality improvement, and outputs it to the edge calculation unit 34.

エッジ算出部34は、公知のエッジ抽出手法を用いて、カメラ画像取得部33から出力された画像データから対象物体のエッジ(輪郭)を算出する。   The edge calculation unit 34 calculates the edge (contour) of the target object from the image data output from the camera image acquisition unit 33 using a known edge extraction method.

マーカー算出部35は、捕捉領域算出部32が算出した捕捉領域からマーカーを算出する。マーカーは、捕捉領域に対応するカメラ画像の部分領域である。マーカー算出部35におけるマーカーの算出方法については後述する。   The marker calculation unit 35 calculates a marker from the capture region calculated by the capture region calculation unit 32. The marker is a partial area of the camera image corresponding to the capture area. A marker calculation method in the marker calculation unit 35 will be described later.

コンポーネント領域算出部36は、エッジ算出部34が算出したカメラ画像のエッジを用いて、マーカー算出部35が算出したマーカーを拡張してコンポーネント領域を算出する。コンポーネント領域算出部36におけるコンポーネント領域の算出方法については後述する。   The component area calculation unit 36 calculates the component area by extending the marker calculated by the marker calculation unit 35 using the edge of the camera image calculated by the edge calculation unit 34. A component area calculation method in the component area calculation unit 36 will be described later.

グループ化処理部37は、コンポーネント領域算出部36が算出したコンポーネント領域のうち、同一の物体に属するコンポーネント領域をグルーピングする。グループ化処理部37は、グルーピングの結果、対象物体領域を取得する。グループ化処理部37におけるコンポーネント領域のグルーピングの方法については後述する。   The grouping processing unit 37 groups component regions belonging to the same object among the component regions calculated by the component region calculating unit 36. The grouping processing unit 37 acquires the target object region as a result of grouping. A method of grouping component areas in the grouping processing unit 37 will be described later.

物体確定部38は、グループ化処理部37におけるグループ化処理の結果である対象物体領域に基づいて、対象物体の位置、大きさ、形状、更に、物体の種別(例えば、大型車両、小型車両、二輪車、歩行者など)を判別する。物体確定部38における対象物体の判別方法については後述する。物体確定部38は、判別結果を外部のセキュリティシステムまたは表示部に出力する。   Based on the target object region that is the result of the grouping process in the grouping processing unit 37, the object determination unit 38 further determines the position, size, and shape of the target object, and the type of the object (for example, large vehicle, small vehicle, Motorcycles, pedestrians, etc.). A method of determining the target object in the object determination unit 38 will be described later. The object determination unit 38 outputs the determination result to an external security system or display unit.

次に、情報生成部31が生成する電力プロファイル情報について説明する。図4は、本開示の実施の形態1における電力プロファイル情報の一例を示す図である。図4の横軸は、レーダ装置Rの方位角を示し、縦軸は、レーダ装置Rからの距離を示す。以降の説明では、レーダ装置Rの方位角とレーダ装置Rからの距離とにより規定される平面をレーダ測定平面と呼ぶ。   Next, power profile information generated by the information generation unit 31 will be described. FIG. 4 is a diagram illustrating an example of power profile information according to the first embodiment of the present disclosure. The horizontal axis of FIG. 4 indicates the azimuth angle of the radar apparatus R, and the vertical axis indicates the distance from the radar apparatus R. In the following description, a plane defined by the azimuth angle of the radar apparatus R and the distance from the radar apparatus R is referred to as a radar measurement plane.

図4の例では、横軸の方位角を10°毎に区切り、縦軸の距離を10m毎に区切ってセルを構成している。なお、本実施の形態において、セルの角度範囲および距離範囲は、上記のものに限定されない。各範囲は、高い分解能を得られるという点で、より小さい方が好ましい。   In the example of FIG. 4, cells are configured by dividing the azimuth angle on the horizontal axis every 10 ° and dividing the distance on the vertical axis every 10 m. In the present embodiment, the cell angle range and distance range are not limited to those described above. Each range is preferably smaller in that high resolution can be obtained.

また、図4において、電力プロファイル情報における各セルの濃淡は、反射強度を示し、色が濃い程反射強度が強いことを示している。なお、説明を簡単にするために、特定のセル以外のセルの色は同じ白色としている。   In FIG. 4, the shading of each cell in the power profile information indicates the reflection intensity, and the darker the color, the stronger the reflection intensity. For simplicity of explanation, the color of cells other than the specific cell is the same white.

また、本実施の形態では、各セルの反射強度(代表値)は、そのセルの範囲における受信電力の最大値とする。ただし、本開示はこれに限られず、各セルの反射強度(代表値)を、そのセルの範囲における受信電力の平均値等、他の値を用いてもよい。   In the present embodiment, the reflection intensity (representative value) of each cell is the maximum value of received power in the cell range. However, the present disclosure is not limited to this, and other values such as an average value of received power in the range of the cell may be used as the reflection intensity (representative value) of each cell.

また、以下では、図4に示すような電力プロファイル情報の各セルを、適宜、1つの点として取り扱って説明を行う。   In the following description, each cell of the power profile information as shown in FIG. 4 is appropriately handled as one point.

次に、捕捉領域算出部32における捕捉領域の算出方法について図4および図5を用いて説明する。   Next, a method of calculating the capture area in the capture area calculation unit 32 will be described with reference to FIGS. 4 and 5.

捕捉領域算出部32は、まず、図4に示す電力プロファイル情報から捕捉点を算出する。捕捉点は、電力プロファイル情報における反射強度の極大点である。反射強度の極大点の算出方法は、公知の方法を用いてよい。例えば、ある特定の点とその点に隣接する点の反射強度を比較し、当該特定の点の反射強度が、隣接する点の反射強度よりも一定値以上大きければ、当該特定の点を反射強度の極大点としてよい。   The capture area calculation unit 32 first calculates a capture point from the power profile information shown in FIG. The capture point is the maximum point of the reflection intensity in the power profile information. A known method may be used to calculate the maximum point of the reflection intensity. For example, the reflection intensity of a specific point and a point adjacent to that point are compared, and if the reflection intensity of the specific point is greater than the reflection intensity of the adjacent point by a certain value or more, the specific point It may be a local maximum point.

図4に示す電力プロファイル情報の場合、捕捉領域算出部32は、反射強度の極大点である捕捉点a1、a2、および、a3を算出する。   In the case of the power profile information shown in FIG. 4, the capture region calculation unit 32 calculates capture points a1, a2, and a3 that are maximum points of reflection intensity.

次に、捕捉領域算出部32は、電力プロファイル情報を画像として取り扱い、region growing画像処理手法などの公知の画像処理手法を用いて、捕捉点a1、a2、および、a3それぞれを取り囲む捕捉領域を算出する。region growing画像処理手法の詳細については、非特許文献1を参照されたい。   Next, the capture area calculation unit 32 handles the power profile information as an image, and calculates a capture area surrounding each of the capture points a1, a2, and a3 using a known image processing method such as a region growing image processing method. To do. Refer to Non-Patent Document 1 for details of the region growing image processing technique.

図5は、本開示の実施の形態1における捕捉領域の算出結果の一例を示す図である。図5の横方向は、レーダ装置Rの方位角に対応し、縦方向は、レーダ装置Rからの距離に対応する。図5に示す捕捉領域A1、A2、および、A3は、それぞれ、捕捉点a1、a2、および、a3を取り囲む局所領域である。また、捕捉領域A1、A2、および、A3は、レーダ測定平面上の局所領域である。通常、捕捉点よりも捕捉領域の方がノイズの影響を受けにくい。   FIG. 5 is a diagram illustrating an example of a capture region calculation result according to the first embodiment of the present disclosure. The horizontal direction in FIG. 5 corresponds to the azimuth angle of the radar apparatus R, and the vertical direction corresponds to the distance from the radar apparatus R. Capture regions A1, A2, and A3 shown in FIG. 5 are local regions surrounding the capture points a1, a2, and a3, respectively. The capture areas A1, A2, and A3 are local areas on the radar measurement plane. Usually, the capture region is less susceptible to noise than the capture point.

次に、マーカー算出部35におけるマーカーの算出方法について説明する。マーカー算出部35は、レーダ測定平面上の局所領域である捕捉領域から、カメラ画像の平面上の部分領域であるマーカーを算出する。以降の説明では、カメラ画像の水平方向および垂直方向により規定される平面をカメラ画像平面と呼ぶ。なお、レーダ測定平面の座標とカメラ画像平面の座標は、一致しない。そのため、マーカー算出部35は、座標変換を行って、捕捉領域からマーカーを算出する。以下では、マーカー算出部35が対象物体T1に対応する捕捉領域Aから、マーカーを算出する場合を説明する。   Next, a marker calculation method in the marker calculation unit 35 will be described. The marker calculation unit 35 calculates a marker that is a partial region on the plane of the camera image from a capture region that is a local region on the radar measurement plane. In the following description, a plane defined by the horizontal direction and the vertical direction of the camera image is referred to as a camera image plane. Note that the coordinates of the radar measurement plane and the coordinates of the camera image plane do not match. Therefore, the marker calculation unit 35 performs coordinate conversion and calculates a marker from the capture region. Below, the case where the marker calculation part 35 calculates a marker from the capture area | region A corresponding to target object T1 is demonstrated.

具体的に、マーカー算出部35は、レーダ測定平面の座標からレーダ測定三次元空間の座標への変換、レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換、および、カメラ三次元空間の座標からカメラ画像平面の座標への変換、の3つの座標変換を順に行う。   Specifically, the marker calculation unit 35 converts the coordinates of the radar measurement plane to the coordinates of the radar measurement three-dimensional space, converts the coordinates of the radar measurement three-dimensional space to the coordinates of the camera three-dimensional space, and the camera three-dimensional space. Three coordinate transformations of the coordinate of the space to the coordinate of the camera image plane are sequentially performed.

レーダ測定三次元空間は、レーダ装置Rがスキャンする空間であり、カメラ三次元空間は、カメラ装置Cが撮影を行う空間である。レーダ装置Rとカメラ装置Cの設置位置が異なれば、レーダ測定三次元空間とカメラ三次元空間は、一致しない場合もある。   The radar measurement three-dimensional space is a space scanned by the radar device R, and the camera three-dimensional space is a space where the camera device C performs photographing. If the installation positions of the radar device R and the camera device C are different, the radar measurement three-dimensional space and the camera three-dimensional space may not match.

ここで、レーダ測定平面における捕捉領域Aの方位角範囲をθ1〜θ2、距離範囲をd1〜d2とする。方位角範囲は、捕捉領域Aの最小方位角θ1および最大方位角θ2から決定され、距離範囲は、捕捉領域Aの最小距離d1および最大距離d2から決定される。   Here, it is assumed that the azimuth angle range of the capture area A on the radar measurement plane is θ1 to θ2, and the distance range is d1 to d2. The azimuth angle range is determined from the minimum azimuth angle θ1 and the maximum azimuth angle θ2 of the capture region A, and the distance range is determined from the minimum distance d1 and the maximum distance d2 of the capture region A.

(レーダ測定平面の座標からレーダ測定三次元空間の座標への変換)
まず、レーダ測定平面の座標からレーダ測定三次元空間の座標への変換について説明する。この変換は、捕捉領域Aの方位角範囲θ1〜θ2および距離範囲d1〜d2から、捕捉領域Aに対応するレーダ測定三次元空間の位置および大きさを算出する変換である。
(Conversion from radar measurement plane coordinates to radar measurement three-dimensional space coordinates)
First, conversion from the coordinates of the radar measurement plane to the coordinates of the radar measurement three-dimensional space will be described. This conversion is a conversion for calculating the position and size of the radar measurement three-dimensional space corresponding to the capture area A from the azimuth angle ranges θ1 to θ2 and the distance ranges d1 to d2 of the capture area A.

図6は、レーダ測定三次元空間の座標系の一例を示す図である。図6に示す原点OおよびXr−Yr−Zrは、レーダ測定三次元空間の座標系を示している。レーダ装置Rは、Zr軸上に設置される。高さHrは、レーダ装置Rが設置される高さに対応する。また、図7に示すレーダ装置Rからの距離dは、レーダ測定平面における縦軸の距離dと対応する。地面距離Lは、Xr−Yr平面上の対象物体T1までの地面(路面)上の距離である。高さhは、対象物体T1の高さである。なお、対象物体T1の位置および形状は、模式的なものである。   FIG. 6 is a diagram illustrating an example of the coordinate system of the radar measurement three-dimensional space. The origin O and Xr-Yr-Zr shown in FIG. 6 indicate the coordinate system of the radar measurement three-dimensional space. The radar device R is installed on the Zr axis. The height Hr corresponds to the height at which the radar device R is installed. Further, the distance d from the radar apparatus R shown in FIG. 7 corresponds to the distance d on the vertical axis in the radar measurement plane. The ground distance L is a distance on the ground (road surface) to the target object T1 on the Xr-Yr plane. The height h is the height of the target object T1. Note that the position and shape of the target object T1 are schematic.

レーダ装置Rは、Xr=0におけるYr−Zr平面を方位角θ=0°の方向とし、Zr軸を軸として、図6に示すレーダ測定三次元空間をスキャンする。このとき、レーダ測定平面における横軸の方位角θは、レーダ装置Rのスキャン面のレーダ測定三次元空間のXr−Yr平面上に対する投影位置に対応する。例えば、スキャン面の投影位置とYr軸となす角が、方位角θに対応する。図6は、方位角θが0°に対応する位置に対象物体T1が存在する場合を示している。   The radar apparatus R scans the radar measurement three-dimensional space shown in FIG. 6 with the Yr-Zr plane at Xr = 0 as the direction of the azimuth angle θ = 0 ° and the Zr axis as the axis. At this time, the azimuth angle θ on the horizontal axis in the radar measurement plane corresponds to the projection position of the scan surface of the radar apparatus R on the Xr-Yr plane in the radar measurement three-dimensional space. For example, the angle formed between the projection position of the scan plane and the Yr axis corresponds to the azimuth angle θ. FIG. 6 shows a case where the target object T1 exists at a position corresponding to the azimuth angle θ of 0 °.

通常、レーダ装置Rは、方位角θおよび距離dに対応する反射強度を測定するが、一方で、レーダ装置Rは、図6のZr軸の方向、より詳細には図6における俯仰角φを精度よく検知しない。つまり、レーダ装置Rは、反射強度から対象物体T1の高さhを検知することができず、その結果、対象物体T1までの地面距離Lを検知困難である。   Normally, the radar apparatus R measures the reflection intensity corresponding to the azimuth angle θ and the distance d, while the radar apparatus R uses the Zr-axis direction in FIG. 6, more specifically, the elevation angle φ in FIG. Does not detect accurately. That is, the radar apparatus R cannot detect the height h of the target object T1 from the reflection intensity, and as a result, it is difficult to detect the ground distance L to the target object T1.

そこで、本実施の形態におけるマーカー算出部35は、対象物体T1の最大可能高さhpを予め設定しておく。最大可能高さhpは、対象物体T1の高さとして最大限可能な値である。例えば、対象物体T1が歩行者である場合には、最大可能高さhpを2mとする。なお、この段階において、対象物体T1が何であるかは確定されていないが、最大可能高さhpは、対象物体T1に対応する捕捉領域の大きさや反射強度等に基づいて設定される。   Therefore, the marker calculation unit 35 in the present embodiment presets the maximum possible height hp of the target object T1. The maximum possible height hp is a maximum possible value as the height of the target object T1. For example, when the target object T1 is a pedestrian, the maximum possible height hp is 2 m. At this stage, it is not determined what the target object T1 is, but the maximum possible height hp is set based on the size of the capture region corresponding to the target object T1, the reflection intensity, and the like.

マーカー算出部35は、最大可能高さhpを用いて、レーダ測定平面上の距離dからレーダ測定三次元空間における対象物体T1までの地面距離Lの範囲を算出する。   The marker calculation unit 35 calculates the range of the ground distance L from the distance d on the radar measurement plane to the target object T1 in the radar measurement three-dimensional space using the maximum possible height hp.

図7は、距離d、最大可能高さhp、および、地面距離Lの関係を示す図である。図7は、対象物体T1で反射する信号が対象物体T1の地面付近(図7におけるZr=0)で反射する場合と、対象物体T1で反射する信号が対象物体T1の最大可能高さhp付近で反射する場合とを示す。   FIG. 7 is a diagram illustrating a relationship among the distance d, the maximum possible height hp, and the ground distance L. FIG. 7 shows the case where the signal reflected by the target object T1 is reflected near the ground of the target object T1 (Zr = 0 in FIG. 7), and the signal reflected by the target object T1 is near the maximum possible height hp of the target object T1. Shows the case of reflection.

図7に示すように、地面距離Lは、1つの反射強度の距離dに対して、地面付近で反射する場合の地面距離L1と最大可能高さhp付近で反射する場合の地面距離L2の間の範囲になる。   As shown in FIG. 7, the ground distance L is the distance between the ground distance L1 when reflecting near the ground and the ground distance L2 when reflecting near the maximum possible height hp with respect to one distance d of reflection intensity. It becomes the range.

マーカー算出部35は、捕捉領域Aの距離範囲d1〜d2について、距離d1に対する地面距離L1(L11)および距離d1に対する地面距離L2(L12)を算出し、距離d2に対する地面距離L1(L21)および距離d2に対する地面距離L2(L22)を算出する。そして、マーカー算出部35は、L11、L12、L21、および、L22の中の最小値Lminおよび最大値Lmaxを判定する。その結果、マーカー算出部35は、捕捉領域Aの距離範囲d1〜d2から、Yr軸方向の地面距離範囲Lmin〜Lmaxを算出する。   The marker calculation unit 35 calculates the ground distance L1 (L11) with respect to the distance d1 and the ground distance L2 (L12) with respect to the distance d1 for the distance range d1 to d2 of the capture region A, and the ground distance L1 (L21) with respect to the distance d2 and A ground distance L2 (L22) with respect to the distance d2 is calculated. Then, the marker calculation unit 35 determines the minimum value Lmin and the maximum value Lmax among L11, L12, L21, and L22. As a result, the marker calculation unit 35 calculates the ground distance range Lmin to Lmax in the Yr axis direction from the distance range d1 to d2 of the capture region A.

また、上記の通り、レーダ測定平面における横軸の方位角θは、レーダ装置Rのスキャン面のXr−Yr平面上における投影位置に対応するので、マーカー算出部35は、方位角範囲θ1〜θ2からXr−Yr平面上における対象物体T1の方位角範囲θ1〜θ2を算出する。   Further, as described above, the azimuth angle θ on the horizontal axis in the radar measurement plane corresponds to the projection position on the Xr-Yr plane of the scan plane of the radar apparatus R, so that the marker calculation unit 35 has the azimuth angle range θ1 to θ2. To calculate the azimuth angle range θ1 to θ2 of the target object T1 on the Xr-Yr plane.

(レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換)
次に、レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換について説明する。レーダ装置Rの設置位置およびカメラ装置Cの設置位置はそれぞれ既知であるため、レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換は、標準の座標変換方式を用いて行われる。
(Conversion from radar measurement 3D space coordinates to camera 3D space coordinates)
Next, conversion from the coordinates of the radar measurement three-dimensional space to the coordinates of the camera three-dimensional space will be described. Since the installation position of the radar apparatus R and the installation position of the camera apparatus C are known, conversion from the coordinates in the radar measurement three-dimensional space to the coordinates in the camera three-dimensional space is performed using a standard coordinate conversion method.

この変換を行うことによって、レーダ装置Rの設置位置とカメラ装置Cの設置位置が異なる場合においても、レーダ測定平面上の局所領域である捕捉領域から、カメラ画像の平面上の部分領域であるマーカーを算出できる。   By performing this conversion, even when the installation position of the radar apparatus R and the installation position of the camera apparatus C are different from each other, a marker that is a partial area on the plane of the camera image from a capture area that is a local area on the radar measurement plane. Can be calculated.

以下では、説明を簡単にするため、カメラ三次元空間は、Xr−Yr−Zrの座標系を有するレーダ測定三次元空間と同一であるとする。つまり、レーダ測定三次元空間における方位角範囲θ1〜θ2およびYr軸方向の地面距離範囲Lmin〜Lmaxは、カメラ三次元空間においてそのまま用いて説明することとする。   In the following, for the sake of simplicity, it is assumed that the camera three-dimensional space is the same as the radar measurement three-dimensional space having the Xr-Yr-Zr coordinate system. That is, the azimuth angle ranges θ1 to θ2 in the radar measurement three-dimensional space and the ground distance ranges Lmin to Lmax in the Yr axis direction will be described as they are in the camera three-dimensional space.

(カメラ三次元空間の座標からカメラ画像平面の座標への変換)
次に、カメラ三次元空間の座標からカメラ画像平面の座標への変換について説明する。この変換は、カメラ三次元空間(以下の説明では、レーダ測定三次元空間と同一)における方位角範囲θ1〜θ2およびYr軸方向の地面距離範囲Lmin〜Lmaxから、カメラ画像平面上のそれぞれに対応する範囲を算出する変換である。この変換によって得られるカメラ画像平面上の範囲、つまり、部分領域が捕捉領域Aに対するマーカーである。
(Conversion from camera 3D space coordinates to camera image plane coordinates)
Next, conversion from the coordinates of the camera three-dimensional space to the coordinates of the camera image plane will be described. This conversion corresponds to each on the camera image plane from the azimuth angle range θ1 to θ2 and the ground distance range Lmin to Lmax in the Yr axis direction in the camera three-dimensional space (in the following description, the same as the radar measurement three-dimensional space). It is conversion which calculates the range to perform. A range on the camera image plane obtained by this conversion, that is, a partial area is a marker for the capture area A.

ここでは、まず、カメラ三次元空間におけるYr軸方向の地面距離範囲Lmin〜Lmaxから、対応するカメラ画像平面上の範囲を算出する方法について説明する。   Here, a method for calculating a corresponding range on the camera image plane from the ground distance ranges Lmin to Lmax in the Yr-axis direction in the camera three-dimensional space will be described first.

図8は、カメラ三次元空間の座標からカメラ画像平面の座標への変換の説明に供する図である。図9は、カメラ画像平面の一例を示す図である。図9は、図8に示す空間において、カメラ装置Cが撮影する画像を模式的に示すものである。ここでは、説明のため、図9のカメラ画像平面を示しており、マーカー算出部35は、実際に撮影される画像、つまり、カメラ画像取得部33が取得した画像を用いている。   FIG. 8 is a diagram for explaining the conversion from the coordinates of the camera three-dimensional space to the coordinates of the camera image plane. FIG. 9 is a diagram illustrating an example of a camera image plane. FIG. 9 schematically shows an image taken by the camera apparatus C in the space shown in FIG. Here, for the sake of explanation, the camera image plane of FIG. 9 is shown, and the marker calculation unit 35 uses an actually captured image, that is, an image acquired by the camera image acquisition unit 33.

図8に示す原点O及びXr−Yr−Zrは、カメラ三次元空間の座標系を示している。カメラ装置Cは、Zr軸上に設置される。高さHcは、カメラ装置Cが設置される高さに対応する。以下では、カメラ装置Cの位置、より詳細にはカメラ装置Cが画像を撮影する中心点を点Cとし、点CがZr軸の高さHcの位置にあるとして説明する。   The origin O and Xr-Yr-Zr shown in FIG. 8 indicate the coordinate system of the camera three-dimensional space. The camera device C is installed on the Zr axis. The height Hc corresponds to the height at which the camera device C is installed. In the following description, it is assumed that the position of the camera device C, more specifically, the center point at which the camera device C captures an image is a point C, and that the point C is at the height Hc of the Zr axis.

図8に示す角度∠PCQは、カメラ装置Cの垂直方向の画角範囲である。図8および図9に示す点Pおよび点Qは、それぞれ、カメラ装置Cの画角範囲の下限と上限に対応する。点Pおよび点Qは、カメラ装置Cの画角範囲から算出される。   An angle ∠PCQ shown in FIG. 8 is a vertical field angle range of the camera apparatus C. The points P and Q shown in FIGS. 8 and 9 correspond to the lower limit and the upper limit of the field angle range of the camera device C, respectively. The points P and Q are calculated from the angle of view range of the camera device C.

また、図8におけるXr=0におけるYr−Zr平面は、図9におけるPQ線分に対応する。また、図8におけるXr=0は、カメラ装置Cの水平方向の画角範囲の中央に対応する。   Further, the Yr-Zr plane at Xr = 0 in FIG. 8 corresponds to the PQ line segment in FIG. Further, Xr = 0 in FIG. 8 corresponds to the center of the horizontal field angle range of the camera apparatus C.

図8に示す消失点Fは、図9に示すように、カメラ画像平面における路面pの無限遠点である。消失点Fは、公知の方法で算出される。   As shown in FIG. 9, the vanishing point F shown in FIG. 8 is an infinite point on the road surface p in the camera image plane. The vanishing point F is calculated by a known method.

図8に示す地面距離範囲Lmin〜Lmaxは、レーダ測定平面の座標からレーダ測定三次元空間の座標への変換において得られた地面距離範囲である。以下では、地面距離範囲Lmin〜Lmaxは、Yr軸上の点K〜点Jの範囲として説明する。   The ground distance ranges Lmin to Lmax shown in FIG. 8 are ground distance ranges obtained in conversion from the coordinates of the radar measurement plane to the coordinates of the radar measurement three-dimensional space. Hereinafter, the ground distance range Lmin to Lmax will be described as the range of point K to point J on the Yr axis.

図8および図9に示すように、点Jおよび点Kに対応するカメラ画像平面上の点を、それぞれ点Vおよび点Uとする。Yr軸方向の地面距離範囲Lmin〜Lmaxから対応するカメラ画像平面上の範囲の算出は、すなわち、カメラ画像平面上における点Uおよび点Vの位置を算出することである。   As shown in FIGS. 8 and 9, the points on the camera image plane corresponding to the points J and K are point V and point U, respectively. Calculation of the corresponding range on the camera image plane from the ground distance ranges Lmin to Lmax in the Yr-axis direction means that the positions of the points U and V on the camera image plane are calculated.

まず、カメラ画像平面上における点Uの位置を算出する方法を説明する。   First, a method for calculating the position of the point U on the camera image plane will be described.

消失点F、点P、および、点Qについて、∠PCF:∠PCQ=PF:PQの関係が成り立つ。∠PCFおよび∠PCQは、図8に示すカメラ画像三次元空間における角度であり、PFおよびPQは、図9に示すカメラ画像平面における長さである。ここで、∠PCQはカメラ装置Cの垂直方向の画角範囲であり、PQはカメラ画像の縦幅なので、いずれもカメラ装置Cの仕様によって定まる既知の値である。また、消失点Fは公知の方法で算出されるので、PFも既知である。∠PCFは、上記の関係から算出される。   For vanishing point F, point P, and point Q, the relationship ∠PCF: ∠PCQ = PF: PQ holds. ∠PCF and ∠PCQ are angles in the camera image three-dimensional space shown in FIG. 8, and PF and PQ are lengths in the camera image plane shown in FIG. Here, ∠PCQ is the vertical angle of view range of the camera device C, and PQ is the vertical width of the camera image, so both are known values determined by the specifications of the camera device C. Since vanishing point F is calculated by a known method, PF is also known. ∠PCF is calculated from the above relationship.

次に、図8に示すように、OCの長さである高さHc、および、OKの長さである地面距離Lminから三角関数等を用いて、∠OKCを算出する。図8の点Cと点Fを結ぶ直線がYr軸に平行なので、算出した∠OKCは、∠UCFと同一である。   Next, as shown in FIG. 8, ∠OKC is calculated from the height Hc, which is the length of OC, and the ground distance Lmin, which is the length of OK, using a trigonometric function or the like. Since the straight line connecting point C and point F in FIG. 8 is parallel to the Yr axis, the calculated ∠OKC is the same as ∠UCF.

次に、算出した∠PCFおよび∠UCFについて、∠UCF:∠PCF=UF:PFという関係が成り立つ。PFおよびUFは、図9に示すカメラ画像平面における長さである。UFの長さは、この関係から算出される。   Next, for the calculated ∠PCF and ∠UCF, the relationship ∠UCF: ∠PCF = UF: PF holds. PF and UF are the lengths in the camera image plane shown in FIG. The length of the UF is calculated from this relationship.

算出したUFから図9に示すカメラ画像平面における点Uの位置が算出される。図9に示すカメラ画像平面における点Vについても、点Uと同様の手順で算出される。   The position of the point U on the camera image plane shown in FIG. 9 is calculated from the calculated UF. The point V on the camera image plane shown in FIG.

上記の通り、マーカー算出部35は、Yr軸方向の地面距離範囲Lmin〜Lmaxから、カメラ画像平面上における点Uおよび点Vの位置を算出する。   As described above, the marker calculation unit 35 calculates the positions of the points U and V on the camera image plane from the ground distance ranges Lmin to Lmax in the Yr axis direction.

次に、カメラ三次元空間における方位角範囲θ1〜θ2から、対応するカメラ画像平面上の範囲を算出する方法について説明する。   Next, a method for calculating the corresponding range on the camera image plane from the azimuth angle ranges θ1 to θ2 in the camera three-dimensional space will be described.

カメラ三次元空間における方位角は、図9に示すカメラ画像平面における水平方向のPQからの距離に対応する。また、カメラ装置Cの水平方向の画角範囲は、仕様で定められる既知の範囲であり、カメラ画像平面の水平方向の左端および右端に対応する。マーカー算出部35は、方位角範囲θ1〜θ2およびカメラ装置Cの水平方向の画角範囲に基づいて、対応するカメラ画像平面上における範囲、つまり、水平方向のPQからの距離を算出する。   The azimuth angle in the camera three-dimensional space corresponds to the distance from the horizontal PQ in the camera image plane shown in FIG. The horizontal field angle range of the camera device C is a known range defined by the specifications, and corresponds to the left and right ends of the camera image plane in the horizontal direction. The marker calculation unit 35 calculates a range on the corresponding camera image plane, that is, a distance from the horizontal PQ, based on the azimuth range θ1 to θ2 and the horizontal view angle range of the camera device C.

図9に示す垂直方向の線θ1およびθ2は、方位角範囲のθ1およびθ2に対応する。   The vertical lines θ1 and θ2 shown in FIG. 9 correspond to the azimuth range θ1 and θ2.

上記で説明したように、マーカー算出部35は、カメラ三次元空間における方位角範囲θ1〜θ2およびYr軸方向の地面距離範囲Lmin〜Lmaxから、カメラ画像平面上のそれぞれに対応する範囲を算出する。そして、マーカー算出部35は、算出した範囲を囲む矩形枠をマーカーとする。図9のマーカーBは、捕捉領域Aに対応するマーカーである。マーカーBは、算出した点Uおよび点Vを通る水平方向の直線と線θ1および線θ2によって囲まれる矩形である。   As described above, the marker calculation unit 35 calculates a range corresponding to each on the camera image plane from the azimuth angle ranges θ1 to θ2 in the camera three-dimensional space and the ground distance ranges Lmin to Lmax in the Yr axis direction. . Then, the marker calculation unit 35 uses a rectangular frame surrounding the calculated range as a marker. A marker B in FIG. 9 is a marker corresponding to the capture region A. The marker B is a rectangle surrounded by a horizontal straight line passing through the calculated points U and V, and the lines θ1 and θ2.

図10は、図5に示す捕捉領域に対応するマーカーの算出結果の一例を示す図である。図10は、図5に示す捕捉領域A1、A2、および、A3にそれぞれ対応する、カメラ画像平面上におけるマーカーB1、B2、および、B3を示す。また、図10では、マーカーB1、B2、および、B3は、エッジ算出部34によって算出されたカメラ画像のエッジと重畳されている。図10に示すように、レーダ測定平面上の各捕捉領域から、カメラ画像平面上のマーカーが矩形として算出される。   FIG. 10 is a diagram illustrating an example of a calculation result of markers corresponding to the capture region illustrated in FIG. FIG. 10 shows markers B1, B2, and B3 on the camera image plane corresponding to the capture areas A1, A2, and A3 shown in FIG. In FIG. 10, the markers B <b> 1, B <b> 2, and B <b> 3 are superimposed on the edge of the camera image calculated by the edge calculation unit 34. As shown in FIG. 10, the marker on the camera image plane is calculated as a rectangle from each capture region on the radar measurement plane.

なお、上記で説明した各座標変換によるマーカーの算出方法は一例であり、本開示はこれに限定されない。マーカー算出部35は、実空間におけるレーダ装置Rが測定可能な方位角の範囲、および、距離の範囲、ならびに、カメラ装置Cが撮影可能な範囲に基づいて、捕捉領域を変換し、マーカーを算出することができる。なお、実空間におけるレーダ装置Rが測定可能な方位角の範囲、および、距離の範囲は、レーダ装置Rの設置位置、および、レーダ装置Rの仕様で予め決定される。また、カメラ装置Cが撮影可能な範囲は、カメラ装置Cの設置位置、および、カメラ装置Cの仕様で予め決定される。   The marker calculation method by each coordinate transformation described above is an example, and the present disclosure is not limited to this. The marker calculation unit 35 converts the capture region based on the range of azimuth angles that can be measured by the radar apparatus R in real space, the range of distance, and the range that can be photographed by the camera apparatus C, and calculates a marker. can do. The range of azimuth angles and the range of distances that can be measured by the radar device R in real space are determined in advance according to the installation position of the radar device R and the specifications of the radar device R. Further, the range in which the camera device C can shoot is determined in advance by the installation position of the camera device C and the specifications of the camera device C.

また、上記で説明したマーカーは、矩形であるとしたが、本開示はこれに限定されない。マーカーは、矩形ではない形状であってもよい。   Moreover, although the marker demonstrated above was made into the rectangle, this indication is not limited to this. The marker may have a non-rectangular shape.

次に、コンポーネント領域算出部36におけるコンポーネント領域の算出方法について説明する。   Next, a component area calculation method in the component area calculation unit 36 will be described.

まず、コンポーネント領域算出部36は、マーカーとエッジを重畳し、1つのマーカーがエッジに重なる場合に、マーカーを分割する。図10の場合、マーカーB2がエッジに重なっているので、コンポーネント領域算出部35は、マーカーB2を分割する。   First, the component area calculation unit 36 superimposes the marker and the edge, and divides the marker when one marker overlaps the edge. In the case of FIG. 10, since the marker B2 overlaps the edge, the component area calculation unit 35 divides the marker B2.

図11は、コンポーネント領域算出部36がマーカーを分割する場合の一例を示す図である。図11に示すように、図10において、エッジに重なっていたマーカーB2は、マーカーB21およびマーカーB22に分割される。   FIG. 11 is a diagram illustrating an example when the component area calculation unit 36 divides the marker. As shown in FIG. 11, in FIG. 10, the marker B2 that overlaps the edge is divided into a marker B21 and a marker B22.

次に、コンポーネント領域算出部36は、各マーカーを領域拡張のシードとし、エッジを領域拡張の境界として、ウォーターシェッド(Watershed)アルゴリズムなどの公知の画像処理手法を利用して領域拡張を行い、コンポーネント領域を算出する。コンポーネント領域とは、物体を構成する一部分に対応するカメラ画像平面上の部分領域である。   Next, the component region calculation unit 36 performs region expansion using a known image processing method such as a watershed algorithm with each marker as a region expansion seed and an edge as a region expansion boundary. Calculate the area. The component area is a partial area on the camera image plane corresponding to a part constituting the object.

図12は、コンポーネント算出部36による領域拡張の結果の一例を示す図である。領域拡張の結果、マーカーB1とマーカーB22からコンポーネント領域C1が算出され、マーカーB21からコンポーネント領域C2が算出され、マーカーB3からコンポーネント領域C3が算出される。   FIG. 12 is a diagram illustrating an example of the result of area expansion by the component calculation unit 36. As a result of the area expansion, the component area C1 is calculated from the markers B1 and B22, the component area C2 is calculated from the marker B21, and the component area C3 is calculated from the marker B3.

次に、グループ化処理部37におけるコンポーネント領域のグルーピングの方法について説明する。   Next, a method for grouping component areas in the grouping processing unit 37 will be described.

グループ化処理部37は、コンポーネント領域算出部36が算出したコンポーネント領域のうち、同一の物体に属するコンポーネント領域をグルーピングする。コンポーネント領域が同一の物体に属するか否かは、カメラ画像から得られる情報およびレーダ測定から得られる情報の一方または両方によって判定される。   The grouping processing unit 37 groups component regions belonging to the same object among the component regions calculated by the component region calculating unit 36. Whether or not the component areas belong to the same object is determined by one or both of information obtained from the camera image and information obtained from the radar measurement.

カメラ画像から得られる情報としては、例えば、カメラ画像における各コンポーネント領域のテクスチャである。グループ化処理部37は、隣り合うコンポーネント領域のテクスチャを比較し、テクスチャが類似する場合に、隣り合うコンポーネント領域をグルーピングする。テクスチャが類似するか否かは、所定の閾値などによって判定されてもよい。   The information obtained from the camera image is, for example, the texture of each component area in the camera image. The grouping processing unit 37 compares the textures of adjacent component areas, and groups adjacent component areas when the textures are similar. Whether the textures are similar may be determined by a predetermined threshold value or the like.

レーダ測定から得られる情報としては、例えば、ドップラー情報がある。ドップラー情報は、レーダ測定平面における各点の速度の情報である。ここで、ドップラー情報はレーダ測定平面における情報であり、コンポーネント領域はカメラ画像平面上の領域である。そのため、コンポーネント領域が同一の物体に属するか否かをドップラー情報によって判定する場合、コンポーネント領域をレーダ測定平面上の領域に座標変換を行う必要がある。   As information obtained from radar measurement, for example, there is Doppler information. Doppler information is information on the speed of each point on the radar measurement plane. Here, the Doppler information is information on the radar measurement plane, and the component area is an area on the camera image plane. Therefore, when it is determined by Doppler information whether or not the component areas belong to the same object, it is necessary to perform coordinate conversion of the component area to an area on the radar measurement plane.

コンポーネント領域をレーダ測定平面上の領域に座標変換する方法は、上記で説明した捕捉領域からマーカーを算出する方法の逆の手順で行えばよい。   The method for converting the component area into the area on the radar measurement plane may be performed in the reverse order of the method for calculating the marker from the capture area described above.

図13は、コンポーネント領域をレーダ測定平面上の領域に座標変換した結果の一例を示す図である。図13の横方向は、レーダ装置Rの方位角に対応し、縦方向は、レーダ装置Rからの距離に対応し、各点(各セル)にはドップラー情報が含まれる。図13の領域D1、D2、および、D3は、それぞれ、図12に示すコンポーネント領域C1、C2、および、C3に対応する。   FIG. 13 is a diagram illustrating an example of a result of coordinate conversion of a component area to an area on a radar measurement plane. The horizontal direction in FIG. 13 corresponds to the azimuth angle of the radar apparatus R, the vertical direction corresponds to the distance from the radar apparatus R, and each point (each cell) includes Doppler information. Regions D1, D2, and D3 in FIG. 13 correspond to component regions C1, C2, and C3 shown in FIG. 12, respectively.

グループ化処理部37は、領域D1、D2、および、D3に含まれるドップラー情報を比較し、ドップラー情報が類似する場合に、カメラ画像平面上で隣り合うコンポーネント領域をグルーピングする。ドップラー情報が類似するか否かは、所定の閾値などによって判定されてもよい。   The grouping processing unit 37 compares the Doppler information included in the regions D1, D2, and D3, and groups the adjacent component regions on the camera image plane when the Doppler information is similar. Whether the Doppler information is similar may be determined by a predetermined threshold value or the like.

図14は、グループ化処理部37によるグルーピングの結果の一例を示す図である。図14に示すように、図12のコンポーネント領域C1およびC2がグルーピングされて、対象物体領域E1となり、図12のコンポーネント領域C3が他とグルーピングされずに、対象物体領域E2となる。   FIG. 14 is a diagram illustrating an example of a grouping result by the grouping processing unit 37. As shown in FIG. 14, the component areas C1 and C2 in FIG. 12 are grouped to become the target object area E1, and the component area C3 in FIG. 12 is not grouped with the other, but becomes the target object area E2.

図14に示す例では、グループ化処理部37は、グルーピングの結果、2つの対象物体領域E1およびE2を取得する。   In the example illustrated in FIG. 14, the grouping processing unit 37 acquires two target object regions E1 and E2 as a result of grouping.

次に、物体確定部38における対象物体の判別方法について説明する。   Next, a method for determining the target object in the object determination unit 38 will be described.

物体確定部38は、グループ化処理部37のグルーピングの結果である対象物体領域に基づいて、対象物体の位置、大きさ、形状、更に、物体の種別を判別する。本開示の実施の形態1では、物体確定部38における具体的な判別方法を限定しない。例えば、物体確定部38は、物体の種別に対応する対象物体領域のサイズおよび形状のテンプレートモデルを予め保持し、テンプレートモデルとグループ化処理部37のグルーピングの結果である対象物体領域を比較することによって、判別を行ってもよい。あるいは、物体確定部38は、物体の種別に対応する反射強度の分布のテンプレートモデルと比較することによって、判別を行ってもよい。   The object determination unit 38 determines the position, size, shape, and object type of the target object based on the target object region that is the result of the grouping by the grouping processing unit 37. In the first embodiment of the present disclosure, a specific determination method in the object determination unit 38 is not limited. For example, the object determination unit 38 holds in advance a template model of the size and shape of the target object region corresponding to the type of the object, and compares the template model with the target object region that is the result of grouping by the grouping processing unit 37. The determination may be made by Alternatively, the object determination unit 38 may perform the determination by comparing with a template model of the reflection intensity distribution corresponding to the type of the object.

例えば、図14に示す対象物体領域E1およびE2に対してテンプレートモデルを用いて判別する場合を説明する。物体確定部38は、対象物体領域E1と保持する複数のテンプレートモデルを比較し、対象物体領域E1が車両のテンプレートモデルと一致すると判定する。また、物体確定部38は、対象物体領域E2と保持する複数のテンプレートモデルを比較し、対象物体領域E2が歩行者のテンプレートモデルと一致すると判定する。   For example, the case where it discriminate | determines using the template model with respect to the target object area | regions E1 and E2 shown in FIG. 14 is demonstrated. The object determination unit 38 compares the target object region E1 with a plurality of held template models and determines that the target object region E1 matches the template model of the vehicle. Further, the object determination unit 38 compares the target object region E2 with a plurality of held template models, and determines that the target object region E2 matches the template model of the pedestrian.

上記で説明した本実施の形態によれば、レーダ測定平面上における捕捉領域をカメラ画像平面上におけるマーカーに変換し、マーカーをカメラ画像に重畳することによって、対象物体の検出精度を向上させることができる。つまり、レーダの測定情報とカメラの測定情報とを効果的に重畳することによって、対象物体の検出精度を向上させることができる。   According to the present embodiment described above, it is possible to improve the detection accuracy of the target object by converting the capture region on the radar measurement plane into a marker on the camera image plane and superimposing the marker on the camera image. it can. That is, by effectively superimposing the radar measurement information and the camera measurement information, it is possible to improve the detection accuracy of the target object.

(実施の形態2)
図15は、本開示の実施の形態2に係る物体検出装置150の主要構成を示すブロック図である。図15において、図3と共通する構成には、図3と同一の符号を付しその詳しい説明を省略する。図15に示す物体検出装置150は、図3に示す物体検出装置30の情報生成部31および捕捉領域算出部32がそれぞれ情報生成部151および捕捉領域算出部152に置き換わる構成を有する。
(Embodiment 2)
FIG. 15 is a block diagram illustrating a main configuration of the object detection device 150 according to the second embodiment of the present disclosure. In FIG. 15, the same components as those in FIG. 3 are denoted by the same reference numerals as those in FIG. An object detection device 150 shown in FIG. 15 has a configuration in which the information generation unit 31 and the capture region calculation unit 32 of the object detection device 30 shown in FIG. 3 are replaced with an information generation unit 151 and a capture region calculation unit 152, respectively.

情報生成部151は、実施の形態1の情報生成部31と同様に、電力プロファイル情報を生成する。更に、情報生成部151は、レーダ装置Rから受け取る遅延プロファイルから、各セルのドップラー速度を示すドップラープロファイル情報を生成する。ドップラープロファイル情報は、横軸が方位角、縦軸が距離を示す。   The information generation unit 151 generates power profile information in the same manner as the information generation unit 31 of the first embodiment. Furthermore, the information generation unit 151 generates Doppler profile information indicating the Doppler speed of each cell from the delay profile received from the radar apparatus R. In the Doppler profile information, the horizontal axis indicates the azimuth and the vertical axis indicates the distance.

捕捉領域算出部152は、電力プロファイル情報およびドップラープロファイル情報に基づいて、捕捉領域を算出する。   The capture area calculation unit 152 calculates the capture area based on the power profile information and the Doppler profile information.

具体的には、捕捉領域算出部152は、実施の形態1で説明した方法によって、電力プロファイル情報から捕捉領域を算出する。そして、捕捉領域算出部152は、捕捉領域に含まれる各点(各セル)のドップラー速度を比較し、ドップラー速度が一致するか否かを判定する。捕捉領域算出部152は、ドップラープロファイルの値が一致しない点(セル)を捕捉領域から除外する。   Specifically, the capture area calculation unit 152 calculates the capture area from the power profile information by the method described in the first embodiment. Then, the capture region calculation unit 152 compares the Doppler velocities of each point (each cell) included in the capture region and determines whether the Doppler velocities match. The capture region calculation unit 152 excludes points (cells) whose Doppler profile values do not match from the capture region.

捕捉領域算出部152は、算出した捕捉領域をマーカー算出部35へ出力する。マーカー算出部35以降では、実施の形態1で説明した処理と同様の処理を実行する。   The capture area calculation unit 152 outputs the calculated capture area to the marker calculation unit 35. In the marker calculation unit 35 and later, processing similar to that described in the first embodiment is executed.

上記で説明した本実施の形態によれば、ドップラー速度を用いて捕捉領域から一部の点(セル)を除外することによって、異なる物体から反射される反射強度が1つの捕捉領域に含まれてしまうことを避けることをできる。   According to the present embodiment described above, the reflection intensity reflected from different objects is included in one capture region by excluding some points (cells) from the capture region using the Doppler velocity. Can be avoided.

なお、本実施の形態では、捕捉領域算出部152は、電力プロファイル情報およびドップラープロファイル情報に基づいて捕捉領域を算出するとしたが、ドップラープロファイル情報に基づいて捕捉領域を算出してもよい。   In the present embodiment, the capture region calculation unit 152 calculates the capture region based on the power profile information and the Doppler profile information. However, the capture region calculation unit 152 may calculate the capture region based on the Doppler profile information.

(実施の形態3)
図16は、本開示の実施の形態3に係る物体検出装置160の主要構成を示すブロック図である。図16において、図3と共通する構成には、図3と同一の符号を付しその詳しい説明を省略する。図16に示す物体検出装置160は、図3に示す物体検出装置30のグループ化処理部37と物体確定部38の間に規範枠確定部161が挿入される構成を有する。
(Embodiment 3)
FIG. 16 is a block diagram illustrating a main configuration of the object detection device 160 according to the third embodiment of the present disclosure. In FIG. 16, the same components as those in FIG. 3 are denoted by the same reference numerals as those in FIG. An object detection device 160 illustrated in FIG. 16 has a configuration in which a reference frame determination unit 161 is inserted between the grouping processing unit 37 and the object determination unit 38 of the object detection device 30 illustrated in FIG.

規範枠確定部161は、グループ化処理部37におけるグルーピングの結果である対象物体領域をカバーする規範枠を求める。規範枠は、対象物体の形状を反映した枠であり、例えば、矩形の枠である。   The normative frame determination unit 161 obtains a normative frame that covers the target object region as a result of grouping in the grouping processing unit 37. The reference frame is a frame reflecting the shape of the target object, and is, for example, a rectangular frame.

規範枠確定部161は、求めた規範枠で対象物体領域を囲い、グループ化処理部37においてグルーピングが困難であった対象物体領域のグルーピングを補間する。   The normative frame determination unit 161 surrounds the target object region with the obtained normative frame, and interpolates the grouping of the target object region that has been difficult to group in the grouping processing unit 37.

上記で説明した本実施の形態によれば、規範枠を用いてグルーピングの補間を行うことによって、対象物体領域の形状をより物体の形状に近づけることができ、物体確定部38における物体の確定の精度を向上させることができる。   According to the present embodiment described above, by performing grouping interpolation using the reference frame, the shape of the target object region can be made closer to the shape of the object, and the object determination unit 38 can determine the object. Accuracy can be improved.

(実施の形態4)
図17は、本開示の実施の形態4に係る物体検出装置170の主要構成を示すブロック図である。図17において、図3と共通する構成には、図3と同一の符号を付しその詳しい説明を省略する。図17に示す物体検出装置170は、図3に示す物体検出装置30のグループ化処理部37と物体確定部38の間に領域追跡部171が挿入される構成を有する。
(Embodiment 4)
FIG. 17 is a block diagram illustrating a main configuration of an object detection device 170 according to Embodiment 4 of the present disclosure. In FIG. 17, the same components as those in FIG. 3 are denoted by the same reference numerals as those in FIG. An object detection apparatus 170 illustrated in FIG. 17 has a configuration in which an area tracking unit 171 is inserted between the grouping processing unit 37 and the object determination unit 38 of the object detection apparatus 30 illustrated in FIG.

領域追跡部171は、異なる時刻間で、グループ化処理部37のグルーピングの結果である対象物体領域の位置および形状を追跡する。   The area tracking unit 171 tracks the position and shape of the target object area as a result of grouping by the grouping processing unit 37 at different times.

具体的に、領域追跡部171は、ある検出タイミングt1における対象物体領域を保持する。領域追跡部171は、次の検出タイミングt2における対象物体領域をグループ化処理部37から受け取り、検出タイミングt1における対象物体領域と検出タイミングt2における対象物体領域をリンクさせる。そして、領域追跡部171は、リンクさせた対象物体領域の形状の変化や位置の変化を追跡し、対象物体領域の動きを検出する。   Specifically, the area tracking unit 171 holds a target object area at a certain detection timing t1. The region tracking unit 171 receives the target object region at the next detection timing t2 from the grouping processing unit 37, and links the target object region at the detection timing t1 and the target object region at the detection timing t2. Then, the region tracking unit 171 tracks changes in the shape and position of the linked target object region, and detects the movement of the target object region.

領域追跡部171は、対象物体領域の動きに関する情報を物体確定部38へ出力する。物体確定部38は、対象物体領域から対象物体を判別する際に、対象物体領域の動きに関する情報を参照してもよい。また、物体確定部38は、対象物体を判別した後、対象物体の情報と共に当該対象物体の動きに関する情報を外部の表示部又はセキュリティシステム等に出力してもよい。   The area tracking unit 171 outputs information related to the movement of the target object area to the object determination unit 38. When determining the target object from the target object area, the object determination unit 38 may refer to information regarding the movement of the target object area. In addition, after determining the target object, the object determination unit 38 may output information on the movement of the target object together with information on the target object to an external display unit or a security system.

上記で説明した本実施の形態によれば、異なる検出タイミングにおける対象物体領域の位置および形状を追跡し、対象物体領域の動きを検出することによって、物体の判別の精度を向上させることができ、さらに、物体の動きに関する情報を得ることができる。   According to the present embodiment described above, by tracking the position and shape of the target object region at different detection timings and detecting the movement of the target object region, it is possible to improve the accuracy of object discrimination, Furthermore, information regarding the movement of the object can be obtained.

なお、上記で説明した各実施の形態は、適宜組み合わせてもよい。例えば、実施の形態4に係る物体検出装置171において、グループ化処理部37と領域追跡部171の間に実施の形態3にて説明した規範枠確定部161が挿入されてもよい。このような構成の場合、対象物体領域の形状をより物体の形状に近づけることができ、領域追跡部171による対象物体の動きの検出精度を向上させることができる。   Note that the embodiments described above may be combined as appropriate. For example, in the object detection device 171 according to the fourth embodiment, the normative frame determination unit 161 described in the third embodiment may be inserted between the grouping processing unit 37 and the area tracking unit 171. In such a configuration, the shape of the target object region can be made closer to the shape of the object, and the detection accuracy of the motion of the target object by the region tracking unit 171 can be improved.

なお、上記各実施の形態では、本開示をハードウェアで構成する場合を例にとって説明したが、本開示はソフトウェアで実現することも可能である。   Note that although cases have been described with the above embodiment as examples where the present disclosure is configured by hardware, the present disclosure can also be realized by software.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュアラブル・プロセッサを利用してもよい。   Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。   Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.

本開示に係る物体検出装置、および、物体検出方法は、車載用レーダ装置およびカメラ装置、ならびに、道路インフラシステム用レーダ装置およびカメラ装置、ならびに、施設監視システム用レーダ装置およびカメラ装置に用いるのに好適である。車載用レーダ装置およびカメラ装置に用いる場合、自車両周辺にいる歩行者、二輪車、他車両を検出し、自車両の運転手に警報したりまたは運転システムを制御したりし、衝突の危険を回避することを実現できる。また、インフラシステム用レーダ装置およびカメラ装置に用いる場合、道路および交差点にいる歩行者、二輪車、車両などを検出し、交通状況を監視すると共に、インフラシステムを制御したり車両運転者に情報伝達したりし、交通量の管理と交通事故の回避を行うことを実現できる。特定施設の監視システム用レーダ装置およびカメラ装置に用いる場合、空中からの飛行体や鳥、または地上からの各種車両や侵入者を検出し、セキュリティシステムに情報を伝達し、不審者の侵入を防止することができる。   An object detection device and an object detection method according to the present disclosure are used for an on-vehicle radar device and a camera device, a road infrastructure system radar device and a camera device, and a facility monitoring system radar device and a camera device. Is preferred. When used in in-vehicle radar devices and camera devices, it detects pedestrians, motorcycles, and other vehicles in the vicinity of the host vehicle and alerts the driver of the host vehicle or controls the driving system to avoid the risk of collision Can be realized. When used in infrastructure system radar devices and camera devices, it detects pedestrians, motorcycles, vehicles, etc. on roads and intersections, monitors traffic conditions, controls infrastructure systems, and transmits information to vehicle drivers. In other words, it is possible to manage traffic volume and avoid traffic accidents. When used for radar equipment and camera equipment for surveillance systems in specific facilities, it detects flying objects and birds from the air, or various vehicles and intruders from the ground, and transmits information to the security system to prevent intruders from entering. can do.

30、150、160、170 物体検出装置
31、151 情報生成部
32、152 捕捉領域算出部
33 カメラ画像取得部
34 エッジ算出部
35 マーカー算出部
36 コンポーネント領域算出部
37 グループ化処理部
38 物体確定部
161 規範枠確定部
171 領域追跡部
30, 150, 160, 170 Object detection device 31, 151 Information generation unit 32, 152 Capture region calculation unit 33 Camera image acquisition unit 34 Edge calculation unit 35 Marker calculation unit 36 Component region calculation unit 37 Grouping processing unit 38 Object determination unit 161 Reference frame determination unit 171 Area tracking unit

Claims (10)

レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成する情報生成部と、
前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出する捕捉領域算出部と、
カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出するエッジ抽出部と、
前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出するマーカー算出部と、
前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出するコンポーネント領域算出部と、
前記コンポーネント領域を対象物体領域としてグループ化するグループ化処理部と、
前記対象物体領域から前記1つ以上の物体を判定し、判定結果を出力する物体確定部と、
を具備する物体検出装置。
With respect to a plurality of cells obtained by dividing the distance from the radar device at predetermined intervals for each transmission direction of the radar signal transmitted by the radar device, the reflected signal obtained by reflecting the radar signal by one or more objects An information generation unit that calculates a reflection intensity that is a representative value of the power of the received signal received by the radar apparatus, and generates power profile information for each of the plurality of cells using the reflection intensity;
A cell indicating the maximum value of the reflection intensity from the power profile information of the plurality of cells is calculated as a capture point for capturing the one or more objects, and is one or more cells surrounding the capture point. A capture area calculation unit for calculating the capture area;
An edge extraction unit that extracts edges of the one or more objects included in the image acquired by the camera device;
Based on the measurement range of the radar device and the imaging range of the camera device, the capture region is converted into a partial region in the image, and the partial region is calculated as a marker that is a region of the image corresponding to the capture region. A marker calculation unit to perform,
A component area calculating unit that calculates a component area corresponding to a part of the one or more objects by extending the marker with the edge as a boundary;
A grouping processing unit that groups the component areas as target object areas;
An object determination unit that determines the one or more objects from the target object region and outputs a determination result;
An object detection apparatus comprising:
前記マーカー算出部は、前記1つ以上の物体の高さとして最大限可能な値を示す高さ情報を予め有し、前記高さ情報を前記1つ以上の物体の高さとして用いて前記捕捉領域を変換し、前記マーカーを算出する、
請求項1に記載の物体検出装置。
The marker calculation unit has height information indicating a maximum possible value as the height of the one or more objects in advance, and uses the height information as the height of the one or more objects. convert the area, it calculates the marker,
The object detection apparatus according to claim 1.
前記コンポーネント領域算出部は、前記マーカーを前記エッジと重畳し、前記マーカーを分割する、
請求項1または請求項2に記載の物体検出装置。
The component region calculation unit superimposes the marker on the edge and divides the marker.
The object detection apparatus according to claim 1 or 2.
前記情報生成部は、前記受信信号から前記レーダ装置が求めた遅延プロファイルに基づいて前記セル毎にドップラー速度を算出し、前記各セルの前記ドップラー速度を示すドップラープロファイル情報を生成し、
前記捕捉領域算出部は、前記捕捉領域に含まれる前記1つ以上のセルの前記ドップラー速度を比較し、前記ドップラープロファイル情報の値が一致しないセルを前記捕捉領域から除外する、
請求項1から請求項3のいずれか一項に記載の物体検出装置。
The information generation unit calculates a Doppler velocity for each cell based on a delay profile obtained by the radar device from the received signal, and generates Doppler profile information indicating the Doppler velocity of each cell,
The capture area calculation unit compares the Doppler velocities of the one or more cells included in the capture area, and excludes cells whose Doppler profile information values do not match from the capture area,
The object detection apparatus according to any one of claims 1 to 3.
前記対象物体領域を含む規範枠を設け、前記規範枠を用いて前記対象物体領域のグループ化の補間を行う規範枠確定部を更に具備する、
請求項1から請求項4のいずれか一項に記載の物体検出装置。
Providing a reference frame including the target object region, further comprising a reference frame determination unit that performs interpolation of grouping of the target object regions using the reference frame;
The object detection apparatus according to any one of claims 1 to 4.
時間経過に伴う前記対象物体領域の形状の変化を追跡し、前記対象物体領域の動きに関する情報を検出する領域追跡部を更に具備する、
請求項1から請求項5のいずれか一項に記載の物体検出装置。
Further comprising a region tracking unit that tracks a change in the shape of the target object region over time and detects information related to the movement of the target object region;
The object detection apparatus according to any one of claims 1 to 5.
請求項1から請求項6のいずれか一項に記載の物体検出装置と、
前記物体検出装置に接続されるレーダ装置と、
を有する車載レーダ装置。
The object detection device according to any one of claims 1 to 6,
A radar device connected to the object detection device;
An on-vehicle radar device.
請求項1から請求項6のいずれか一項に記載の物体検出装置と、
前記物体検出装置に接続されるレーダ装置と、
と有する道路インフラシステム用レーダ装置。
The object detection device according to any one of claims 1 to 6,
A radar device connected to the object detection device;
A radar device for road infrastructure systems.
請求項1から請求項6のいずれか一項に記載の物体検出装置と、
前記物体検出装置に接続されるレーダ装置と、
と有する監視システム用レーダ装置。
The object detection device according to any one of claims 1 to 6,
A radar device connected to the object detection device;
And a radar device for a monitoring system.
レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成し、
前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出し、
カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出し、
前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出し、
前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出し、
前記コンポーネント領域を対象物体領域としてグループ化し、
前記対象物体領域から前記1つ以上の物体を判定し、判定結果を出力する、
物体検出方法。
With respect to a plurality of cells obtained by dividing the distance from the radar device at predetermined intervals for each transmission direction of the radar signal transmitted by the radar device, the reflected signal obtained by reflecting the radar signal by one or more objects Calculating a reflection intensity that is a representative value of the power of the received signal received by the radar device, and generating power profile information for each of the plurality of cells using the reflection intensity;
A cell indicating the maximum value of the reflection intensity from the power profile information of the plurality of cells is calculated as a capture point for capturing the one or more objects, and is one or more cells surrounding the capture point. Calculate the capture area,
Extracting an edge of the one or more objects included in the image acquired by the camera device;
Based on the measurement range of the radar device and the imaging range of the camera device, the capture region is converted into a partial region in the image, and the partial region is calculated as a marker that is a region of the image corresponding to the capture region. And
Calculating a component region corresponding to a portion constituting the one or more objects by extending the marker with the edge as a boundary;
Grouping the component areas as target object areas,
Determining the one or more objects from the target object region and outputting a determination result;
Object detection method.
JP2015193173A 2015-02-16 2015-09-30 Object detection apparatus and object detection method Active JP6593588B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610008658.6A CN105893931A (en) 2015-02-16 2016-01-07 Object detection apparatus and method
US15/006,239 US10061023B2 (en) 2015-02-16 2016-01-26 Object detection apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015027514 2015-02-16
JP2015027514 2015-02-16

Publications (3)

Publication Number Publication Date
JP2016153775A JP2016153775A (en) 2016-08-25
JP2016153775A5 JP2016153775A5 (en) 2018-09-20
JP6593588B2 true JP6593588B2 (en) 2019-10-23

Family

ID=56761164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193173A Active JP6593588B2 (en) 2015-02-16 2015-09-30 Object detection apparatus and object detection method

Country Status (2)

Country Link
JP (1) JP6593588B2 (en)
CN (1) CN105893931A (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10989791B2 (en) 2016-12-05 2021-04-27 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
KR101752858B1 (en) * 2016-12-09 2017-07-19 메타빌드주식회사 Radar-based high-precision unexpected incident detecting system
JP6888950B2 (en) * 2016-12-16 2021-06-18 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device, external world recognition device
CN106908783B (en) * 2017-02-23 2019-10-01 苏州大学 Based on obstacle detection method combined of multi-sensor information
KR101881458B1 (en) * 2017-03-09 2018-07-25 건아정보기술 주식회사 The region of interest extraction system for moving object
JP7062878B2 (en) * 2017-03-27 2022-05-09 沖電気工業株式会社 Information processing method and information processing equipment
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
WO2018218680A1 (en) * 2017-06-02 2018-12-06 华为技术有限公司 Obstacle detection method and device
JP7103759B2 (en) * 2017-06-16 2022-07-20 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system, vehicle recognition program
WO2019187093A1 (en) 2018-03-30 2019-10-03 三菱電機株式会社 Object identification device
US11906612B2 (en) * 2018-05-14 2024-02-20 Mitsubishi Electric Corporation Object detection device and object detection method
CN110660186B (en) * 2018-06-29 2022-03-01 杭州海康威视数字技术股份有限公司 Method and device for identifying target object in video image based on radar signal
KR101972361B1 (en) * 2018-08-10 2019-04-25 (주)이젠정보통신 control system for lighting time of cross walk signal lamp
CN109118537B (en) * 2018-08-21 2021-11-02 加特兰微电子科技(上海)有限公司 Picture matching method, device, equipment and storage medium
US11009590B2 (en) * 2018-08-29 2021-05-18 Aptiv Technologies Limited Annotation of radar-profiles of objects
CN110874927A (en) 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 Intelligent road side unit
US11258987B2 (en) * 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
JP7020353B2 (en) * 2018-09-21 2022-02-16 トヨタ自動車株式会社 Object detector
JP7151449B2 (en) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 Information processing system, program, and information processing method
US10748032B1 (en) * 2019-01-31 2020-08-18 StradVision, Inc. Method for providing robust object distance estimation based on camera by performing pitch calibration of camera more precisely with fusion of information acquired through camera and information acquired through V2V communication and device using the same
JP7174252B2 (en) * 2019-04-25 2022-11-17 日本電信電話株式会社 Object information processing device, object information processing method, and object information processing program
CN113811788A (en) * 2019-05-14 2021-12-17 三菱电机株式会社 Vehicle-mounted object detection system
JP7259685B2 (en) 2019-09-30 2023-04-18 トヨタ自動車株式会社 Driving control device for automatic driving vehicle, stop target, driving control system
JP7461160B2 (en) * 2020-02-21 2024-04-03 Jrcモビリティ株式会社 Three-dimensional information estimation system, three-dimensional information estimation method, and computer-executable program
CN113740355B (en) * 2020-05-29 2023-06-20 清华大学 Boundary protection method and system for ray detection robot
JP7452333B2 (en) 2020-08-31 2024-03-19 株式会社デンソー LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device
US20220392322A1 (en) * 2021-06-02 2022-12-08 Arlo Technologies, Inc. Multisensor Security System with Aircraft Monitoring
CN113888871B (en) * 2021-10-20 2023-05-05 上海电科智能系统股份有限公司 Automatic handling linkage system and method for expressway traffic incidents

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134769A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2005090974A (en) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd Preceding car recognition device
US7899211B2 (en) * 2005-12-07 2011-03-01 Nissan Motor Co., Ltd. Object detecting system and object detecting method
JP2007255977A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
US7541943B2 (en) * 2006-05-05 2009-06-02 Eis Electronic Integrated Systems Inc. Traffic sensor incorporating a video camera and method of operating same
EP2242994A1 (en) * 2008-02-04 2010-10-27 Tele Atlas North America Inc. Method for map matching with sensor detected objects
JP4680294B2 (en) * 2008-12-26 2011-05-11 トヨタ自動車株式会社 Object detection apparatus and object detection method
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
FR2947657B1 (en) * 2009-07-06 2016-05-27 Valeo Vision METHOD FOR DETECTING AN OBSTACLE FOR A MOTOR VEHICLE
JP2011099683A (en) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd Body detector
CN101975951B (en) * 2010-06-09 2013-03-20 北京理工大学 Field environment barrier detection method fusing distance and image information
JP5673568B2 (en) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 Object detection device
JP5812064B2 (en) * 2012-11-22 2015-11-11 株式会社デンソー Target detection device
JP2014228943A (en) * 2013-05-20 2014-12-08 日本電産エレシス株式会社 Vehicular external environment sensing device, and axial shift correction program and method therefor

Also Published As

Publication number Publication date
JP2016153775A (en) 2016-08-25
CN105893931A (en) 2016-08-24

Similar Documents

Publication Publication Date Title
JP6593588B2 (en) Object detection apparatus and object detection method
US10061023B2 (en) Object detection apparatus and method
CN106019281B (en) Object detection device and object detection method
CN105785370B (en) Object detection device and object detection method
JP6650344B2 (en) Object detection device and object detection method
US9759812B2 (en) System and methods for intersection positioning
JP6659367B2 (en) Object detection device and object detection method
EP2282295B1 (en) Object recognizing device and object recognizing method
US20090240432A1 (en) Vehicle-installation obstacle detection apparatus
US20200234580A1 (en) Moving object and driving support system for moving object
JP2006184276A (en) All-weather obstacle collision preventing device by visual detection, and method therefor
JP6547785B2 (en) Target detection device
US11029150B2 (en) Object distance detection device
KR102472075B1 (en) System and method for supporting automatic detection service based on real-time road image and radar signal analysis results
CN109606258A (en) A kind of dumper for surface mine anti-collision system
JP2019083027A (en) Method and apparatus for determining detection range of traffic route
WO2022231879A1 (en) Data driven resolution function derivation
CN114415171A (en) Automobile travelable area detection method based on 4D millimeter wave radar
KR102163774B1 (en) Apparatus and method for image recognition
WO2017208601A1 (en) Image processing device and external recognition device
JP2008165610A (en) Road section line recognition device
JP6891082B2 (en) Object distance detector
JP2018005786A (en) Device and method for measuring radar traffic
JP3586938B2 (en) In-vehicle distance measuring device
WO2018021444A1 (en) Object detection apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180802

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190910

R150 Certificate of patent or registration of utility model

Ref document number: 6593588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150