JP2018163096A - Information processing method and information processing device - Google Patents

Information processing method and information processing device Download PDF

Info

Publication number
JP2018163096A
JP2018163096A JP2017061420A JP2017061420A JP2018163096A JP 2018163096 A JP2018163096 A JP 2018163096A JP 2017061420 A JP2017061420 A JP 2017061420A JP 2017061420 A JP2017061420 A JP 2017061420A JP 2018163096 A JP2018163096 A JP 2018163096A
Authority
JP
Japan
Prior art keywords
information processing
region
area
processing method
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017061420A
Other languages
Japanese (ja)
Other versions
JP7062878B2 (en
Inventor
素子 加賀谷
Motoko Kagaya
素子 加賀谷
前野 蔵人
Kurato Maeno
蔵人 前野
美智代 松井
Michiyo Matsui
美智代 松井
山本 康平
Kohei Yamamoto
康平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017061420A priority Critical patent/JP7062878B2/en
Publication of JP2018163096A publication Critical patent/JP2018163096A/en
Application granted granted Critical
Publication of JP7062878B2 publication Critical patent/JP7062878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To dynamically give correct data related to object identification to a reception signal of a radar.SOLUTION: An information processing method is provided. The information processing method includes: calculating the position of an object in a three-dimensional space on the basis of a distance image; specifying an object area in a first signal intensity map acquired from a radar reception signal on the basis of the position of the object in the three-dimensional space; and associating the type of the recognized object with the object area.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理方法および情報処理装置に関する。   The present invention relates to an information processing method and an information processing apparatus.

近年、技術の発展に伴い、物体の追跡や識別を行う種々の手法が開発されている。例えば、非特許文献1や非特許文献2には、LIDAR(Light Detection and Ranging、または、Laser Imaging Detection and Ranging)により収集された三次元情報に基づいて、動物体の追跡や識別を行う技術が開示されている。   In recent years, with the development of technology, various methods for tracking and identifying objects have been developed. For example, Non-Patent Document 1 and Non-Patent Document 2 include techniques for tracking and identifying moving objects based on three-dimensional information collected by LIDAR (Light Detection and Ranging, or Laser Imaging Detection and Ranging). It is disclosed.

また、非特許文献3〜5には、画像データに基づいて、当該画像データ上における物体の位置や種別を識別する技術が開示されている。   Non-Patent Documents 3 to 5 disclose techniques for identifying the position and type of an object on the image data based on the image data.

細尾 直孝、外2名、“角度ベース複数仮説を用いたLRFによる複数種類・複数個の移動体追跡手法”、計測自動制御学会論文集、計測自動制御学会、2015年5月、Vol.51、No.5、P297−308Naotaka Hosoo, two others, “Multiple types and multiple moving body tracking methods by LRF using angle-based multiple hypotheses”, Transactions of the Society of Instrument and Control Engineers, Society of Instrument and Control Engineers, May 2015, Vol. 51, no. 5, P297-308 城殿 清澄、外3名、“高解像度レーザデータによる歩行者識別”、日本ロボット学会誌、日本ロボット学会、2011年12月、Vol.29、No.10、P963−970Kiyosumi Shiroto, 3 others, “Pedestrian identification by high resolution laser data”, Journal of the Robotics Society of Japan, Robotics Society of Japan, December 2011, Vol. 29, no. 10, P963-970 Shaoqing Ren、外3名、“FasterR-CNN: Towards Real-Time Object Detection with Region Proposal Networks”、2015年6月4日、arXiv、[平成29年2月10日検索]、インターネット〈URL:http://tokkyo.shinsakijun.com/information/newtech.html〉Shaoqing Ren, 3 others, “FasterR-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, June 4, 2015, arXiv, [February 10, 2017 search], Internet <URL: http: //tokkyo.shinsakijun.com/information/newtech.html> Joseph Redmon、外3名、“YouOnly Look Once: Unified, Real-Time Object Detection”、2015年6月8日、arXiv、[平成29年2月10日検索]、インターネット〈URL:https://arxiv.org/pdf/1506.02640v1.pdf〉Joseph Redmon, 3 others, “YouOnly Look Once: Unified, Real-Time Object Detection”, June 8, 2015, arXiv, [Search February 10, 2017], Internet <URL: https: // arxiv .org / pdf / 1506.02640v1.pdf> Evan Shelhamer、外2名、“Fully Convolutional Networks for Semantic Segmentation”、Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference、IEEE、2015年6月7日、10.1109/CVPR.2015.7298965Evan Shelhamer, two others, “Fully Convolutional Networks for Semantic Segmentation”, Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference, IEEE, June 7, 2015, 10.1109 / CVPR. 2015.7298965 Manuel Dudek、外3名、“AMillimeter-Wave FMCW Radar System Simulatorfor Automotive Applications”、RadarConference (EuRAD), 2011 European、IEEE、2011年10月12日Manuel Dudek, 3 others, “AMillimeter-Wave FMCW Radar System Simulator for Automotive Applications”, RadarConference (EuRAD), 2011 European, IEEE, October 12, 2011 Manuel Dudek、外4名、“TheImpact of Antenna Characteristics on Target Detection in FMCW-Radar SystemSimulations for Automotive Applications”、Radio and WirelessSymposium (RWS), 2012 IEEE、IEEE、2012年1月15日、10.1109/RWS.2012.6175357Manuel Dudek, 4 others, “TheImpact of Antenna Characteristics on Target Detection in FMCW-Radar System Simulations for Automotive Applications”, Radio and Wireless Symposium (RWS), 2012 IEEE, IEEE, January 15, 2012, 10.1109 / RWS.2012.6175357

ところで、動物体の識別においては、レーダーにより取得される受信信号を用いることも期待される。しかし、上記の受信信号の強度を可視化した場合、データ上には識別の対象であるオブジェクトのほか偽像が現れることから、レーダーの受信信号のみを確認しながら、手動でオブジェクトに対する正解データを付与することは非常に困難である。また、レーダーの受信信号と画像データを照らし合わせることで、レーダーの受信信号からオブジェクトの反応や種別を手動で特定することも想定されるが、この場合、作業負荷が高く、大量の正解データを得るための手段としては現実的とはいえない。   By the way, in the identification of a moving object, it is expected to use a received signal acquired by a radar. However, when the intensity of the received signal is visualized, a false image appears in addition to the object to be identified on the data, so correct data for the object is manually assigned while checking only the received signal of the radar. It is very difficult to do. It is also possible to manually identify the reaction and type of the object from the radar received signal by comparing the radar received signal with the image data. In this case, however, the workload is high and a large amount of correct data is obtained. It is not practical as a means to obtain.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、レーダーの受信信号に物体識別に係る正解データを動的に付与することが可能な、新規かつ改良された情報処理方法および情報処理装置を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a novel and capable of dynamically assigning correct data related to object identification to a received signal of a radar. An object is to provide an improved information processing method and information processing apparatus.

上記課題を解決するために、本発明のある観点によれば、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出することと、前記三次元空間における前記オブジェクトの位置に基づいて、レーダー受信信号から取得される第1の信号強度マップにおけるオブジェクト領域を特定することと、認識された前記オブジェクトの種別と前記オブジェクト領域とを対応付けることと、を含む、情報処理方法が提供される。   In order to solve the above problems, according to an aspect of the present invention, a position of an object in a three-dimensional space is calculated based on a distance image, and a radar reception is performed based on the position of the object in the three-dimensional space. An information processing method is provided that includes specifying an object region in a first signal intensity map acquired from a signal and associating the recognized object type with the object region.

前記情報処理方法は、撮影された画像データに基づいて、前記画像データ上における前記オブジェクトの位置と前記オブジェクトの種別を認識すること、をさらに含み、前記対応付けることは、前記画像データ上における前記オブジェクトの位置を前記第1の信号強度マップに対応する座標に変換し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含んでもよい。   The information processing method further includes recognizing the position of the object on the image data and the type of the object based on the photographed image data, and the association is performed on the object on the image data. May be further converted to coordinates corresponding to the first signal intensity map, and the object type and the object region are associated with each other.

前記特定することは、前記第1の信号強度マップから第1のオブジェクト候補領域を抽出し、前記三次元空間におけるオブジェクトの位置に基づいて、前記第1のオブジェクト候補領域の中から前記オブジェクト領域を特定すること、をさらに含んでもよい。   The specifying includes extracting a first object candidate region from the first signal strength map, and determining the object region from the first object candidate region based on a position of the object in the three-dimensional space. Identifying may further be included.

前記特定することは、前記三次元空間におけるオブジェクトの位置の重心と、前記第1のオブジェクト候補領域の重心とを比較し、前記オブジェクト領域を特定すること、をさらに含んでもよい。   The specifying may further include specifying the object area by comparing the center of gravity of the position of the object in the three-dimensional space with the center of gravity of the first object candidate area.

前記情報処理方法は、前記三次元空間における前記オブジェクトの位置に基づくシミュレーションにより得られた第2の信号強度マップから第2のオブジェクト候補領域を抽出すること、をさらに含み、前記特定することは、前記第2のオブジェクト候補領域に基づいて、前記オブジェクト領域を特定すること、をさらに含んでもよい。   The information processing method further includes extracting a second object candidate region from a second signal intensity map obtained by a simulation based on the position of the object in the three-dimensional space, and the specifying The method may further include specifying the object area based on the second object candidate area.

前記特定することは、前記第1のオブジェクト候補領域と前記第2のオブジェクト候補領域の重なりを評価し、前記オブジェクト領域を特定すること、をさらに含んでもよい。   The specifying may further include evaluating an overlap between the first object candidate area and the second object candidate area and specifying the object area.

前記第1の信号強度マップは、前記オブジェクトの位置に基づくシミュレーションにより取得されてもよい。   The first signal intensity map may be obtained by simulation based on the position of the object.

前記情報処理方法は、電波を照射し前記レーダー受信信号を取得することと、前記レーダー受信信号に基づいて第1の信号強度マップを生成することと、をさらに含んでもよい。   The information processing method may further include radiating a radio wave to acquire the radar reception signal and generating a first signal intensity map based on the radar reception signal.

前記距離画像は、LIDARにより取得されてもよい。   The distance image may be acquired by LIDAR.

前記対応付けることは、前記画像データ上における前記オブジェクトの位置の重心に基づいて、前記オブジェクト領域での、前記画像データ上における前記オブジェクトの存在確率を算出し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含んでもよい。   The association calculates the existence probability of the object on the image data in the object area based on the center of gravity of the position of the object on the image data, and determines the type of the object and the object area. It may further include associating.

また、上記課題を解決するために、本発明の別の観点によれば、電波を照射しレーダー受信信号を取得するセンサ部と、前記レーダー受信信号に基づくオブジェクトの識別を行う識別部と、を備え、前記識別部は、前記レーダー受信信号から得られる信号強度マップにおけるオブジェクト領域と画像データから取得された前記オブジェクトの種別とを関連付けて学習された学習結果に基づいて、前記オブジェクトの識別を行う、情報処理装置が提供される。   In order to solve the above problem, according to another aspect of the present invention, a sensor unit that radiates radio waves and acquires a radar reception signal, and an identification unit that identifies an object based on the radar reception signal, And the identification unit identifies the object based on a learning result learned by associating an object region in a signal intensity map obtained from the radar reception signal and the type of the object acquired from image data. An information processing apparatus is provided.

以上説明したように本発明によれば、レーダーの受信信号に物体識別に係る正解データを動的に付与することが可能となる。   As described above, according to the present invention, it is possible to dynamically give correct data related to object identification to a received signal of a radar.

本発明の第1の実施形態に係る信号強度マップの一例を示す図である。It is a figure which shows an example of the signal strength map which concerns on the 1st Embodiment of this invention. 同実施形態に係る正解データの一例である。It is an example of correct data according to the embodiment. 同実施形態に係る情報処理装置の機能ブロック図の一例である。It is an example of a functional block diagram of the information processing apparatus according to the embodiment. 同実施形態に係る領域特定部により抽出されるオブジェクト候補領域の一例を示す図である。It is a figure which shows an example of the object candidate area | region extracted by the area | region specific part which concerns on the embodiment. 同実施形態に係るオブジェクトに係る点群とオブジェクト候補領域との突合について説明するための図である。It is a figure for demonstrating the collision with the point group which concerns on the object which concerns on the same embodiment, and an object candidate area | region. 同実施形態に係る識別部による画像上におけるオブジェクトの識別について説明するための図である。It is a figure for demonstrating the identification of the object on the image by the identification part which concerns on the embodiment. 同実施形態に係る統合部による座標の変換について説明するための図である。It is a figure for demonstrating the conversion of the coordinate by the integration part which concerns on the same embodiment. 同実施形態に係る情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the information processing apparatus which concerns on the same embodiment. 本発明の第2の実施形態に係る情報処理装置の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the information processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の一実施形態に係る情報処理装置のハードウェア構成例である。It is a hardware structural example of the information processing apparatus which concerns on one Embodiment of this invention. 画像認識に係る学習に用いられるデータセットの一例を示す図である。It is a figure which shows an example of the data set used for the learning which concerns on image recognition.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.背景>
まず、本技術思想の発想に至った背景について説明する。上述したとおり、近年では、物体(以下、オブジェクト、とも称する)の識別に関する様々な手法が開発されている。上記のような手法の一例としては、画像データ上におけるオブジェクトの種別などを識別する画像認識が挙げられる。
<1. Background>
First, the background that led to the idea of this technical idea will be described. As described above, in recent years, various methods for identifying an object (hereinafter also referred to as an object) have been developed. As an example of the above-described method, there is image recognition for identifying the type of object on the image data.

近年では、画像認識に係る研究が非常に盛んに行われており、画像認識の精度を競うコンペティションなども多く開催されている。また、画像認識に用いるデータセットを提供するデータベースも存在する。例えば、上記のデータベースの一つであるImageNetには、約1千4百万ものデータセットが公開されている。   In recent years, research related to image recognition has been very active, and many competitions have been held to compete for the accuracy of image recognition. There are also databases that provide data sets for use in image recognition. For example, about 14 million data sets are disclosed in ImageNet, which is one of the above databases.

図11は、画像認識に係る学習に用いられるデータセットの一例を示す図である。図11には、画像認識に用いられる画像データIM1と、画像データIM1上のオブジェクトに係る正解データCLが示されている。ここで、正解データCLは、例えば、図示するように、オブジェクトのセグメンテーションに係る情報やオブジェクトの種別に係る情報が含まれてもよい。図11に示す一例の場合、正解データCLは、オブジェクトO1およびO2に係る情報を含み、オブジェクトO1およびO2がそれぞれ人および乗用車であることを示している。   FIG. 11 is a diagram illustrating an example of a data set used for learning related to image recognition. FIG. 11 shows image data IM1 used for image recognition and correct data CL relating to objects on the image data IM1. Here, the correct answer data CL may include, for example, information related to the segmentation of the object and information related to the type of the object, as illustrated. In the example shown in FIG. 11, the correct answer data CL includes information related to the objects O1 and O2, and indicates that the objects O1 and O2 are a person and a passenger car, respectively.

このようなデータセットは、通常、人手を介して生成され、データベースに登録される。画像認識分野においては、このような大量のデータセットを物体認識に係る学習に用いることで、精度の高い認識器を構築することが可能である。   Such a data set is usually generated manually and registered in a database. In the field of image recognition, it is possible to construct a highly accurate recognizer by using such a large data set for learning related to object recognition.

一方、上述したように、動物体の識別においては、レーダーにより取得される受信信号を用いることも期待される。しかし、レーダーの受信信号については、上記のような既存のデータセットの数が乏しく、学習に用いることが可能なデータセットを容易に収集することができない、という現状がある。   On the other hand, as described above, it is expected that a received signal acquired by a radar is used for identifying a moving object. However, with regard to the received signals of the radar, there is a current situation that the number of existing data sets as described above is limited, and data sets that can be used for learning cannot be easily collected.

これは、人がレーダーの受信信号を可視化した情報のみを確認して、オブジェクトの反応に起因する信号領域を特定することが困難であることから、画像認識のようなデータセットを容易に生成できないためである。   This is because it is difficult for a person to confirm only the information that visualizes the received signal of the radar, and to identify the signal area resulting from the reaction of the object, so a data set such as image recognition cannot be generated easily. Because.

例えば、受信素子が多素子のFMCW(Frequency Modulated Continuous Wave)レーダーを用いた場合、受信信号に基づいて、物体に係る角度、距離、および速度を算出することが可能である。この際、例えば、上記の角度および距離を2軸にとり、信号強度を可視化したデータ(以下、信号強度マップ、と称する)を得ることができる。   For example, when a multi-element FMCW (Frequency Modulated Continuous Wave) radar is used, it is possible to calculate an angle, a distance, and a speed related to an object based on the received signal. In this case, for example, data (hereinafter referred to as a signal intensity map) in which the above-mentioned angle and distance are taken as two axes and the signal intensity is visualized can be obtained.

図1は、本実施形態に係る信号強度マップの一例を示す図である。一方、図2は、本実施形態に係る正解データの一例である。ここで、上記の正解データとは、信号強度マップにおいて特定されるオブジェクト領域とオブジェクトの種別とを含むデータであってよい。また、上記のオブジェクト領域とは、オブジェクトに起因する反応を示す信号領域を示す。なお、本実施形態に係る正解データにおいて、オブジェクトの種別は、オブジェクト領域の色分けやメタデータの付加などにより示されてもよい。例えば、図2に示すオブジェクト領域OC1は、乗用車に起因する反応を示す信号領域であってもよい。   FIG. 1 is a diagram illustrating an example of a signal intensity map according to the present embodiment. On the other hand, FIG. 2 is an example of correct data according to the present embodiment. Here, the correct answer data may be data including an object region and an object type specified in the signal strength map. The object area is a signal area indicating a reaction caused by the object. In the correct answer data according to the present embodiment, the type of the object may be indicated by color coding of the object area, addition of metadata, or the like. For example, the object area OC1 shown in FIG. 2 may be a signal area indicating a reaction caused by a passenger car.

ここで、図1における信号強度マップを参照すると、レーダーの受信信号から得られる信号強度マップには、識別対象であるオブジェクトに起因する反応のほか、オブジェクトが存在しない位置においても強い信号強度が検出されていることがわかる。これは、フーリエ変換のサイドローブなどにより偽像が発生するためである。   Here, referring to the signal strength map in FIG. 1, in the signal strength map obtained from the radar received signal, in addition to the reaction caused by the object to be identified, a strong signal strength is detected even at a position where the object does not exist. You can see that This is because a false image is generated due to a Fourier transform side lobe or the like.

このため、図2に示すような正解データを作成するためには、信号強度マップにおいて、偽像を排除してオブジェクト領域を定義し、さらに、受信信号が取得された時間と位置情報を基に撮像された画像データなどからオブジェクトの種別を特定したうえで、上記のオブジェクト領域とオブジェクトの種別とを対応付ける必要がある。しかし、上記のような工程を人手で行うには、作業負担が大きいことから、より簡易またより正確に正解データを生成する手法が望まれていた。   Therefore, in order to create correct answer data as shown in FIG. 2, in the signal intensity map, an object region is defined by eliminating a false image, and further, based on the time and position information at which the received signal is acquired. It is necessary to identify the object type from the captured image data and associate the object area with the object type. However, in order to perform the above-described processes manually, since the work load is large, a method for generating correct data more easily and more accurately has been desired.

本技術思想は、上記の点に着目して発想されたものであり、レーダーの受信信号から得られる信号強度マップに係る正解データを自動的に生成することを可能とする。このために、本発明の一実施形態に係る情報処理方法および情報処理装置は、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出し、当該三次元空間におけるオブジェクトの位置に基づいて、レーダー受信信号から取得される信号強度マップにおけるオブジェクト領域を自動的に特定すること、を特徴の一つとする。また、本発明の一実施形態に係る情報処理方法および情報処理装置は、特定した上記のオブジェクト領域と認識されたオブジェクトの種別とを自動的に対応付けることを特徴の一つとする。   The present technical idea has been conceived by paying attention to the above points, and makes it possible to automatically generate correct data relating to a signal intensity map obtained from a received signal of a radar. Therefore, an information processing method and an information processing apparatus according to an embodiment of the present invention calculate a position of an object in a three-dimensional space based on a distance image, and perform radar based on the position of the object in the three-dimensional space. One of the features is that the object region in the signal intensity map acquired from the received signal is automatically specified. In addition, an information processing method and an information processing apparatus according to an embodiment of the present invention are characterized by automatically associating the identified object area with the recognized object type.

本発明の一実施形態に係る情報処理方法および情報処理装置が有する上記の特徴によれば、レーダーにより得られる信号強度マップに係る正解データを大量に生成することができ、例えば、ディープニューラルネットワークなどによる学習を行うことで、レーダーの受信信号による精度の高いオブジェクトの識別を行うことが可能となる。   According to the above feature of the information processing method and information processing apparatus according to an embodiment of the present invention, it is possible to generate a large amount of correct data related to a signal intensity map obtained by a radar, such as a deep neural network. By performing learning according to, it becomes possible to identify an object with high accuracy based on a radar reception signal.

<2.第1の実施形態>
<<2.1.情報処理装置10の機能構成例>>
次に、本発明の第1の実施形態に係る情報処理方法を実現する情報処理装置10の機能構成例について説明する。図3は、本実施形態に係る情報処理装置10の機能ブロック図の一例である。図1を参照すると、本実施形態に係る情報処理装置10は、センサ部110、データ収集部120、位置算出部130、領域特定部140、識別部150、および統合部160を備える。
<2. First Embodiment>
<< 2.1. Functional configuration example of information processing apparatus 10 >>
Next, a functional configuration example of the information processing apparatus 10 that realizes the information processing method according to the first embodiment of the present invention will be described. FIG. 3 is an example of a functional block diagram of the information processing apparatus 10 according to the present embodiment. Referring to FIG. 1, the information processing apparatus 10 according to the present embodiment includes a sensor unit 110, a data collection unit 120, a position calculation unit 130, an area specifying unit 140, an identification unit 150, and an integration unit 160.

(センサ部110)
本実施形態に係るセンサ部110は、オブジェクトに係る信号を受信するレーダー112、LIDAR114、およびカメラ116などのセンサを備える。この際、レーダー112、LIDAR114、およびカメラ116は、互いにキャリブレーションを行うものとする。
(Sensor unit 110)
The sensor unit 110 according to the present embodiment includes sensors such as a radar 112, a LIDAR 114, and a camera 116 that receive a signal related to an object. At this time, the radar 112, the LIDAR 114, and the camera 116 are calibrated with each other.

この際、レーダー112およびLIDAR114は、共にオブジェクトまでの距離および角度が取得可能であるため、互いの設置関係に基づくキャリブレーションを行うことが可能である。また、カメラ116とレーダー112またはLIDAR114間のキャリブレーションについては、カメラ116が有する撮影特性と互いの設置関係に基づくキャリブレーションを行うことが可能である。具体的には、カメラ116により撮影される画像データに係る二次元座標と対象空間に係る三次元座標とを対応付ける変換式に基づく算出を行うことができる。なお、以降の説明において用いる座標は、例えば、レーダー112などいずれかのセンサを基準とした実空間における座標とする。   At this time, since both the radar 112 and the LIDAR 114 can acquire the distance and the angle to the object, it is possible to perform calibration based on the mutual installation relationship. As for the calibration between the camera 116 and the radar 112 or the LIDAR 114, it is possible to perform calibration based on the photographing characteristics of the camera 116 and the mutual installation relationship. Specifically, calculation based on a conversion formula that associates two-dimensional coordinates related to image data captured by the camera 116 with three-dimensional coordinates related to the target space can be performed. Note that the coordinates used in the following description are, for example, coordinates in real space with reference to any sensor such as the radar 112.

(データ収集部120)
本実施形態に係るデータ収集部120は、センサ部110のレーダー112、LIDAR114、およびカメラ116が受信する信号を収集する機能を有する。
(Data collection unit 120)
The data collection unit 120 according to the present embodiment has a function of collecting signals received by the radar 112, the LIDAR 114, and the camera 116 of the sensor unit 110.

(位置算出部130)
本実施形態に係る位置算出部130は、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出する機能を有する。上記の距離画像は、三次元空間における座標情報を有するデータであってよく、例えば、データ収集部120により取得されるLIDAR114のデータであってよい。本実施形態に係る位置算出部130は、例えば、車、自転車、人など予め設定された所定のオブジェクトの座標を算出する。
(Position calculation unit 130)
The position calculation unit 130 according to the present embodiment has a function of calculating the position of the object in the three-dimensional space based on the distance image. The distance image may be data having coordinate information in a three-dimensional space, and may be data of LIDAR 114 acquired by the data collection unit 120, for example. The position calculation unit 130 according to the present embodiment calculates the coordinates of a predetermined object set in advance, such as a car, a bicycle, or a person.

この際、LIDAR114により得られる距離画像には、一定の角度間隔で照射されるレーザーの向きに対する反射物体(オブジェクト)までの距離が点群により現れる。このため、位置算出部130は、上記の点群をオブジェクトごとに分類し、各オブジェクトの位置を算出する処理を行う。この際、位置算出部130は、例えば、非特許文献1に記載されるようなパーティクルフィルタを用いて上記の処理を行ってもよい。また、例えば、位置算出部130は、非特許文献2に記載されるような手法を用いて上記の処理を行うことも可能である。このように、本実施形態に係る位置算出部130は、種々の手法を用いて、距離画像からオブジェクトに起因する点群のみを取得し、オブジェクトごとに分類する。   At this time, in the distance image obtained by the LIDAR 114, the distance to the reflecting object (object) with respect to the direction of the laser irradiated at a constant angular interval appears as a point cloud. For this reason, the position calculation unit 130 performs processing for classifying the above point cloud for each object and calculating the position of each object. At this time, the position calculation unit 130 may perform the above processing using, for example, a particle filter as described in Non-Patent Document 1. In addition, for example, the position calculation unit 130 can perform the above-described processing using a technique as described in Non-Patent Document 2. As described above, the position calculation unit 130 according to the present embodiment uses only various methods to acquire only the point group caused by the object from the distance image, and classifies it for each object.

(領域特定部140)
本実施形態に係る領域特定部140は、位置算出部130により算出された三次元空間におけるオブジェクトの位置に基づいて、レーダー受信信号から取得される信号強度マップにおけるオブジェクト領域を特定する機能を有する。より具体的には、領域特定部140は、まず、上記の信号強度マップからオブジェクト候補領域を抽出し、三次元空間におけるオブジェクトの位置に基づいて、オブジェクト候補領域の中から実際にオブジェクトに起因する反応を示す信号領域であるオブジェクト領域を特定する。
(Area specifying unit 140)
The area specifying unit 140 according to the present embodiment has a function of specifying an object area in the signal intensity map acquired from the radar reception signal based on the position of the object in the three-dimensional space calculated by the position calculating unit 130. More specifically, the area specifying unit 140 first extracts an object candidate area from the signal intensity map, and based on the position of the object in the three-dimensional space, the area specifying unit 140 actually originates from the object candidate area. An object area which is a signal area indicating a reaction is specified.

この際、領域特定部140は、例えば、データ収集部120が収集したレーダーの受信信号から算出される角度および距離を2軸とした信号強度マップを生成する。なお、領域特定部140が生成する信号強度マップは、上記の例に限定されず、距離および速度の2軸をとるものであってもよいし、距離、角度、および速度の3軸をとるものであってもよい。また、距離rおよび角度θから、x=rcosθ、y=rsinθ、により実空間の二次元座標に変換されてもよい。   At this time, for example, the region specifying unit 140 generates a signal intensity map having two axes of an angle and a distance calculated from a radar reception signal collected by the data collecting unit 120. The signal intensity map generated by the region specifying unit 140 is not limited to the above example, and may take two axes of distance and speed, or may take three axes of distance, angle, and speed. It may be. Further, the distance r and the angle θ may be converted into two-dimensional coordinates in the real space by x = r cos θ and y = rsin θ.

例えば、レーダー112が多素子FMCWレーダーである場合、領域特定部140は、受信信号に二次元FFT(Fast Fourier Transform:高速フーリエ変換)をかけることで、距離および角度を2軸とした信号強度マップを得ることができる。すなわち、領域特定部140は、周波数掃引1回分の受信信号に対してFFTを施すことで距離を算出し、得られた結果をさらに素子(受信アンテナ)方向に並べてFFTをかけることによって角度を算出することができる。上記のような手法により、領域特定部140は、図1に示したような信号強度マップを生成する。   For example, when the radar 112 is a multi-element FMCW radar, the region specifying unit 140 applies a two-dimensional FFT (Fast Fourier Transform) to the received signal, and thereby a signal intensity map with the distance and the angle as two axes. Can be obtained. That is, the region specifying unit 140 calculates the distance by performing FFT on the received signal for one frequency sweep, and calculates the angle by arranging the obtained results in the element (receiving antenna) direction and applying the FFT. can do. The region specifying unit 140 generates a signal intensity map as shown in FIG.

次に、領域特定部140は、図1に示したような信号強度マップからオブジェクト候補領域を抽出する。この際、領域特定部140は、信号強度マップにおいて信号強度が閾値以上である領域を抽出してよい。なお、抽出するオブジェクト候補領域の数を抑えるために、上記の閾値を高く設定することは望ましくない。これは、後段の処理において、位置算出部130が算出したオブジェクトの位置に基づくオブジェクト候補領域の絞りを行うことから、抽出されるオブジェクト候補領域が多いことは大きな問題とはならないためである。   Next, the area specifying unit 140 extracts an object candidate area from the signal intensity map as shown in FIG. At this time, the region specifying unit 140 may extract a region where the signal strength is equal to or greater than a threshold in the signal strength map. Note that it is not desirable to set the threshold value high in order to reduce the number of object candidate areas to be extracted. This is because, in the subsequent process, the object candidate areas are narrowed down based on the position of the object calculated by the position calculation unit 130, and therefore it is not a big problem that there are many extracted object candidate areas.

また、領域特定部140は、一定の閾値を用いてオブジェクト候補領域の抽出を行ってもよいが、下記の数式(1)に示すレーダー方程式によれば、信号強度は距離の2乗に反比例することから、距離に応じて閾値を変化させてもよい。例えば、領域特定部140は、下記の数式(2)を用いることで、閾値Th(d)を距離dが遠くなるほど小さな値とすることができる。ただし、下記の数式(1)におけるPは送信電力[w]を、Gはアンテナのゲインを、σは反射断面積[m]をそれぞれ示し、数式(2)におけるαは定数であってよい。 In addition, the area specifying unit 140 may extract object candidate areas using a certain threshold, but according to the radar equation shown in the following formula (1), the signal strength is inversely proportional to the square of the distance. Therefore, the threshold value may be changed according to the distance. For example, the region specifying unit 140 can set the threshold value Th (d) to a smaller value as the distance d increases by using the following formula (2). However, P in the following formula (1) represents transmission power [w], G represents antenna gain, σ 0 represents reflection cross section [m 2 ], and α in formula (2) is a constant. Good.

Figure 2018163096
Figure 2018163096

図4は、本実施形態に係る領域特定部140により抽出されるオブジェクト候補領域の一例を示す図である。図4には、信号強度マップにおいて領域特定部140が抽出したオブジェクト候補領域OC1〜OC4が示されている。この際、領域特定部140が抽出するオブジェクト候補領域OC1〜OC4には、レーダーの多重反射による偽像やフーリエ変換によるサイドローブなどが含まれ得る。このため、本実施形態に係る領域特定部140は、位置算出部130により取得されたオブジェクトに係る点群とオブジェクト候補領域とを突合することで、偽像などを除去し、オブジェクト領域を特定することができる。   FIG. 4 is a diagram illustrating an example of the object candidate area extracted by the area specifying unit 140 according to the present embodiment. FIG. 4 shows object candidate areas OC1 to OC4 extracted by the area specifying unit 140 in the signal intensity map. At this time, the object candidate areas OC1 to OC4 extracted by the area specifying unit 140 may include false images due to multiple reflection of radar, side lobes due to Fourier transform, and the like. For this reason, the area specifying unit 140 according to the present embodiment removes false images and the like by specifying the object candidate area by matching the point cloud related to the object acquired by the position calculating unit 130 and specifies the object area. be able to.

図5は、本実施形態に係るオブジェクトに係る点群とオブジェクト候補領域との突合について説明するための図である。図5には、信号強度マップにおいて抽出されたオブジェクト候補領域OC1〜OC4と、信号強度マップに投影されたオブジェクトに係る点群LPとが示されている。   FIG. 5 is a diagram for explaining a match between a point group related to an object and an object candidate area according to the present embodiment. FIG. 5 shows the object candidate regions OC1 to OC4 extracted in the signal intensity map and the point group LP related to the object projected on the signal intensity map.

この際、領域特定部140は、各オブジェクト候補領域OC1〜OC4の重心座標Cと、各オブジェクトに係る点群LPの重心座標Cとをそれぞれ算出する。また、領域特定部140は、各オブジェクトに係る点群LPの集合をQとし、このうちn番目のオブジェクトの重心座標をC(n)n∈Qとする。続いて、領域特定部140は、すべてのQについて、C(n)n∈Qと最も近い重心座標Cを有するオブジェクト候補領域を選択することで、n番目のオブジェクトに係るオブジェクト領域を特定することができる。例えば、図5に示す一例の場合、領域特定部140は、オブジェクト候補領域OC1をオブジェクト領域として特定し、図2に示すように偽像などに相当するオブジェクト領域OC2〜OC4を排除した信号強度マップを得てよい。 At this time, the area specifying unit 140 calculates the center of gravity coordinates C r of the object candidate region OC1~OC4, the center of gravity coordinates C l a point cloud LP according to each object, respectively. Further, the region specifying unit 140 sets a set of point groups LP related to each object as Q, and sets the center-of-gravity coordinates of the nth object as C l (n) nεQ . Subsequently, the region specifying unit 140 specifies an object region related to the nth object by selecting an object candidate region having a centroid coordinate C r closest to C l (n) nεQ for all Qs. can do. For example, in the example shown in FIG. 5, the area specifying unit 140 specifies the object candidate area OC1 as an object area, and excludes the object areas OC2 to OC4 corresponding to false images as shown in FIG. You may get

(識別部150)
本実施形態に係る識別部150は、オブジェクトの種別を識別する機能を有する。具体的には、本実施形態に係る識別部150は、カメラ116が撮像した画像データに基づいて、当該画像データ上におけるオブジェクトの位置とオブジェクトの種別とを識別する。
(Identification unit 150)
The identification unit 150 according to the present embodiment has a function of identifying the type of object. Specifically, the identification unit 150 according to the present embodiment identifies the position of the object and the type of the object on the image data based on the image data captured by the camera 116.

図6は、識別部150による画像上におけるオブジェクトの識別について説明するための図である。図6の一例には、カメラ116が撮像した画像データIM2と、画像データIM2上において識別部150が識別したオブジェクトO1とが示されている。このように、本実施形態に係る識別部150は、画像データ上のオブジェクトを識別し、当該オブジェクトの位置および種別を矩形領域により示してもよい。   FIG. 6 is a diagram for explaining identification of an object on an image by the identification unit 150. In the example of FIG. 6, image data IM2 captured by the camera 116 and an object O1 identified by the identifying unit 150 on the image data IM2 are illustrated. As described above, the identification unit 150 according to the present embodiment may identify an object on the image data and indicate the position and type of the object by a rectangular area.

この際、識別部150は、例えば、非特許文献3や非特許文献4に記載されるような深層学習(ディープラーニング)を用いた手法によりオブジェクトの識別を行ってもよい。また、識別部150は、例えば、非特許文献5に記載されるような深層学習手法を用いてピクセル単位でオブジェクトの識別を行うことも可能である。なお、上記の手法はあくまで一例であり、本実施形態に係る識別部150は、画像認識分野で用いられる種々の手法を用いて画像データ上におけるオブジェクトの位置および種別を識別してよい。   At this time, the identification unit 150 may identify the object by a technique using deep learning as described in Non-Patent Document 3 and Non-Patent Document 4, for example. The identifying unit 150 can also identify an object in pixel units using a deep learning method as described in Non-Patent Document 5, for example. Note that the above method is merely an example, and the identification unit 150 according to the present embodiment may identify the position and type of the object on the image data using various methods used in the image recognition field.

また、本実施形態に係る識別部150は、レーダー112の受信信号と、正解データを用いた学習により生成された認識器により、オブジェクトの種別を識別する機能を有してよい。すなわち、識別部150は、レーダー受信信号から得られる信号強度マップにおけるオブジェクト領域と画像データから取得された前記オブジェクトの種別とを関連付けて学習された学習結果に基づいて、オブジェクトの種別を識別する。識別部150が有する上記の機能によれば、レーダーの受信信号のみを用いてオブジェクトの識別が可能となり、ロバスト性の高いオブジェクト識別を実現することができる。   In addition, the identification unit 150 according to the present embodiment may have a function of identifying the type of an object by a recognizer generated by learning using the received signal of the radar 112 and correct data. That is, the identification unit 150 identifies the type of the object based on a learning result learned by associating the object region in the signal intensity map obtained from the radar reception signal with the type of the object acquired from the image data. According to the above-described function of the identification unit 150, it is possible to identify an object using only a radar reception signal, and it is possible to realize highly robust object identification.

(統合部160)
本実施形態に係る統合部160は、識別部150が認識したオブジェクトの種別(以下、ラベル、とも称する)と領域特定部140が特定したオブジェクト領域とを対応付ける機能を有する。この際、本実施形態に係る統合部160は、識別部150が認識した画像データ上におけるオブジェクトの位置を信号強度マップに対応する座標に変換することで、オブジェクトの種別と信号強度マップにおけるオブジェクト領域とを対応付ける。
(Integration unit 160)
The integration unit 160 according to the present embodiment has a function of associating the object type recognized by the identification unit 150 (hereinafter also referred to as a label) with the object region specified by the region specifying unit 140. At this time, the integration unit 160 according to the present embodiment converts the object position on the image data recognized by the identification unit 150 into coordinates corresponding to the signal intensity map, so that the object type and the object area in the signal intensity map are converted. Is associated with.

図7は、本実施形態に係る統合部160による座標の変換について説明するための図である。図7の左側には、オブジェクトの一例である歩行者P1およびP2、乗用車V1およびV2が撮影された画像データIM3が示されている。この際、本実施形態に係る統合部160は、図右側に示すように、画像データIM3に係る二次元座標と対象空間に係る三次元座標とを対応付ける変換式に基づいて、歩行者P1およびP2、乗用車V1およびV2の座標を、角度および距離の2軸による座標に変換することができる。   FIG. 7 is a diagram for explaining coordinate conversion by the integration unit 160 according to the present embodiment. On the left side of FIG. 7, image data IM3 in which pedestrians P1 and P2, which are examples of objects, and passenger cars V1 and V2 are photographed are shown. At this time, as shown on the right side of the drawing, the integration unit 160 according to the present embodiment, based on a conversion formula that associates the two-dimensional coordinates related to the image data IM3 with the three-dimensional coordinates related to the target space, pedestrians P1 and P2 The coordinates of the passenger cars V1 and V2 can be converted into coordinates with two axes of angle and distance.

続いて、統合部160は、領域特定部140が特定したオブジェクト領域と、識別部150が識別したオブジェクトの種別との対応付けを行う。この際、カメラ116による位置の計測精度は、レーダー112やLIDAR114と比較して低く、また、カメラ116による位置計測は、レーダー112やLIDAR114によるオブジェクトの反射面からの反応に基づく位置計測とは性質が異なる。   Subsequently, the integration unit 160 associates the object region specified by the region specification unit 140 with the type of object identified by the identification unit 150. At this time, the measurement accuracy of the position by the camera 116 is lower than that of the radar 112 and the LIDAR 114, and the position measurement by the camera 116 is a property of the position measurement based on the reaction from the reflection surface of the object by the radar 112 and the LIDAR 114. Is different.

このため、本実施形態に係る統合部160は、例えば、識別部150が識別した画像データ上のオブジェクトの集合をCとし、Q(∈C)の重心座標を(θ,r)とし、(θ,r)を中心とした分散σの二次元ガウス分布を当てはめることにより、オブジェクトOの各座標での存在確率PQi(θ,r)を求める。続いて、統合部160は、領域特定部140が特定したj番目のオブジェクト領域Rに対応付けるオブジェクトの種別(labelRj)を下記の数式(3)により決定する。ただし、下記の数式(3)において、PRj(θ,r)は、(θ,r)がオブジェクト領域R内の座標である場合に1、それ以外の場合には0であるものとする。また、Label(O)は、オブジェクトOのオブジェクト種別を表す。 Therefore, for example, the integration unit 160 according to the present embodiment sets C as the set of objects on the image data identified by the identification unit 150 and (θ C , r c ) as the barycentric coordinates of Q i (εC). By applying a two-dimensional Gaussian distribution with variance σ C centered at (θ C , r c ), the existence probability P Qi (θ, r) at each coordinate of the object O i is obtained. Subsequently, the integration unit 160 determines an object type (label Rj ) associated with the j-th object region R j specified by the region specification unit 140 using the following mathematical formula (3). However, in the following mathematical formula (3), P Rj (θ, r) is 1 when (θ, r) is a coordinate in the object region R j , and 0 otherwise. . Label (O) represents the object type of the object O.

Figure 2018163096
Figure 2018163096

統合部160による上記の演算によれば、領域特定部140が特定したオブジェクト領域において、画像データから得られたオブジェクトの存在確率が最も高いラベルを選択することが可能となる。   According to the above calculation by the integration unit 160, it is possible to select a label having the highest object existence probability obtained from the image data in the object region specified by the region specification unit 140.

<<2.2.情報処理装置10の動作の流れ>>
次に、本実施形態に係る情報処理装置10の動作の流れについて説明する。図8は、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。
<< 2.2. Flow of operation of information processing apparatus 10 >>
Next, an operation flow of the information processing apparatus 10 according to the present embodiment will be described. FIG. 8 is a flowchart showing an operation flow of the information processing apparatus 10 according to the present embodiment.

図8を参照すると、まず、データ収集部120がセンサ部110からセンサ情報を収集する(S1101)。ここで、上記のセンサ情報には、レーダー112による受信信号、LIDAR114による距離画像、およびカメラ116による画像データが含まれる。   Referring to FIG. 8, first, the data collection unit 120 collects sensor information from the sensor unit 110 (S1101). Here, the sensor information includes a reception signal by the radar 112, a distance image by the LIDAR 114, and image data by the camera 116.

次に、位置算出部130は、ステップS1101において収集された距離画像に基づいて、三次元空間におけるオブジェクトの位置を算出する(S1102)。   Next, the position calculation unit 130 calculates the position of the object in the three-dimensional space based on the distance image collected in step S1101 (S1102).

次に、領域特定部140は、生成した信号強度マップにおいて信号強度が閾値以上の領域をオブジェクト候補領域として抽出する(S1103)。   Next, the area specifying unit 140 extracts an area having a signal intensity equal to or higher than a threshold in the generated signal intensity map as an object candidate area (S1103).

続いて、領域特定部140は、ステップS1102において算出されたオブジェクトの位置に基づいて、ステップS1103において抽出したオブジェクト領域の中からオブジェクト領域を特定する(S1104)。   Subsequently, the area specifying unit 140 specifies an object area from the object areas extracted in step S1103 based on the position of the object calculated in step S1102 (S1104).

次に、識別部150は、画像データ上におけるオブジェクトの位置と種別を識別する(S1105)。   Next, the identification unit 150 identifies the position and type of the object on the image data (S1105).

次に、統合部160は、ステップS1105において識別された画像データ上におけるオブジェクトの位置を信号強度マップに対応する座標に変換し、オブジェクトの種別とオブジェクト領域とを対応付ける(S1106)。   Next, the integration unit 160 converts the position of the object on the image data identified in step S1105 into coordinates corresponding to the signal intensity map, and associates the object type with the object area (S1106).

以上、本実施形態に係る情報処理装置10の動作の流れについて詳細に説明した。上述したように、本実施形態に係る情報処理装置10によれば、オブジェクトに起因する信号領域(オブジェクト領域)にオブジェクトの種別を示すラベルを付与した正解データを自動的に生成することが可能となる。   The operation flow of the information processing apparatus 10 according to the present embodiment has been described in detail above. As described above, according to the information processing apparatus 10 according to the present embodiment, it is possible to automatically generate correct data in which a label indicating the type of an object is assigned to a signal area (object area) caused by the object. Become.

<3.第2の実施形態>
<<3.1.第2の実施形態の概要>>
次に、本発明の第2の実施形態について説明する。上記の第1の実施形態では、オブジェクト領域の特定において、LIDAR114により得られた点群とオブジェクト候補領域とを突合する際、それぞれの重心座標が最も近いものを対応付ける場合について説明した。しかし、当該手法では、複数のオブジェクトが近い場所に存在する場合には、誤った対応付けが行われる可能性も否定できない。
<3. Second Embodiment>
<< 3.1. Outline of Second Embodiment >>
Next, a second embodiment of the present invention will be described. In the first embodiment described above, when specifying the object area, the point cloud obtained by the LIDAR 114 and the object candidate area are matched with each other, and the closest coordinates of the center of gravity are associated with each other. However, in this method, when a plurality of objects are present in the vicinity, the possibility of incorrect association cannot be denied.

そこで、本発明の第2の実施形態では、LIDAR114により得られた点群とオブジェクト候補領域とを突合する際、上記点群にレーダーを照射した際のシミュレーション結果から得られた信号強度マップにさらに基づいて、オブジェクト領域の特定を行ってよい。   Therefore, in the second embodiment of the present invention, when the point cloud obtained by the LIDAR 114 and the object candidate region are matched, the signal intensity map obtained from the simulation result when the point cloud is irradiated with radar is further added. Based on this, the object area may be specified.

レーダー112により取得される実際の受信信号は、LIDAR114により取得されるデータよりも、シミュレーションにより取得されるデータにより近い性質を持つ。このため、レーダーに係るシミュレーション結果を用いる第2の実施形態では、LIDAR114により取得される点群を直接利用する第1の実施形態と比較して、偽像などを抑制する精度が高まることが期待される。   The actual received signal acquired by the radar 112 is closer to the data acquired by the simulation than the data acquired by the LIDAR 114. For this reason, in 2nd Embodiment using the simulation result which concerns on a radar, compared with 1st Embodiment which directly utilizes the point cloud acquired by LIDAR114, it is anticipated that the precision which suppresses a false image etc. increases. Is done.

なお、以下の説明においては、第1の実施形態との差異について中心に述べ、第1の実施形態と共通する構成、機能、効果などについては、詳細な説明を省略する。   In the following description, differences from the first embodiment will be mainly described, and detailed description of configurations, functions, effects, and the like common to the first embodiment will be omitted.

<<3.2.シミュレーション結果に基づくオブジェクト領域の特定>>
上述したように、本実施形態では、レーダーに係るシミュレーション結果に基づいてオブジェクト領域の特定が行われる。この際、本実施形態に係る領域特定部140は、例えば、非特許文献6や非特許文献7に記載されるような手法に基づいて、上記のシミュレーション結果を得ることができる。
<< 3.2. Identifying object areas based on simulation results >>
As described above, in the present embodiment, the object region is specified based on the simulation result relating to the radar. At this time, the region specifying unit 140 according to the present embodiment can obtain the above simulation result based on a technique described in Non-Patent Document 6 or Non-Patent Document 7, for example.

具体的には、領域特定部140は、レーダーによる送信波、オブジェクトへの入射波、オブジェクトからの反射波、および反射波の増幅に係るパラメータ設定を行い、算出されたエコーを信号処理することで、オブジェクトの距離を得ることができる。   Specifically, the region specifying unit 140 performs parameter setting related to the transmission wave by the radar, the incident wave to the object, the reflected wave from the object, and the amplification of the reflected wave, and performs signal processing on the calculated echo. , You can get the distance of the object.

まず、領域特定部140は、例えば、下記の数式(4)を用いて送信波x(t)の算出を行う。ここで、下記の数式(4)における、X(t)はFMCW方式によって生成された原信号を、Pはピーク電力[W]を、Gは送信器の利得[dB]を、Lは送信器の損失[dB]をそれぞれ示す。領域特定部140は、上記のような各パラメータを設定することで、送信波の設計を行うことができる。なお、FMCWに係るパラメータとしては、例えば、周波数の掃引幅や掃引時間などが挙げられる。 First, the region specifying unit 140 calculates the transmission wave x (t) using, for example, the following mathematical formula (4). Here, in the following equation (4), X (t) is the original signal generated by the FMCW method, P is the peak power [W], G s is the transmitter gain [dB], and L s is The transmitter loss [dB] is shown respectively. The area specifying unit 140 can design a transmission wave by setting each parameter as described above. Examples of parameters related to FMCW include a frequency sweep width and a sweep time.

Figure 2018163096
Figure 2018163096

次に、領域特定部140は、オブジェクトへの入射波の算出を行う。この際、領域特定部140は、アンテナ間の伝搬には自由空間伝搬モデルを採用してもよいし、伝搬距離の設定には往復モデルを採用してもよい。領域特定部140は、例えば、下記の数式(5)〜(7)によりオブジェクトへの入射波y(t)を算出する。ここで、下記の数式(5)におけるτrtは、地点時間[sec]を示し、下記の数式(7)におけるPおよびPは、それぞれレーダーの位置[m]およびオブジェクトの位置[m]を示す。領域特定部140は、PおよびPなどのパラメータを設定することで、入射波の設計を行うことができる。 Next, the region specifying unit 140 calculates an incident wave on the object. At this time, the region specifying unit 140 may adopt a free space propagation model for propagation between antennas, and may adopt a round-trip model for setting the propagation distance. For example, the area specifying unit 140 calculates the incident wave y (t) to the object by the following mathematical formulas (5) to (7). Here, τ rt in the following equation (5) indicates a point time [sec], and P r and P c in the following equation (7) are the radar position [m] and the object position [m], respectively. Indicates. The region specifying unit 140 can design the incident wave by setting parameters such as Pr and Pc .

Figure 2018163096
Figure 2018163096

次に、領域特定部140は、オブジェクトからの反射波の算出を行う。この際、領域特定部140は、例えば、下記の数式(8)および(9)によりオブジェクトからの反射波Sig(t)を算出することができる。ここで、下記の数式(8)におけるRCSは、オブジェクトの反射特性を示すパラメータである。領域特定部140は、画像データに基づいて識別されたオブジェクトの種別に基づいてRCSを設定することも可能である。   Next, the area specifying unit 140 calculates a reflected wave from the object. At this time, the region specifying unit 140 can calculate the reflected wave Sig (t) from the object by, for example, the following formulas (8) and (9). Here, RCS in Equation (8) below is a parameter indicating the reflection characteristics of the object. The area specifying unit 140 can also set the RCS based on the type of the object identified based on the image data.

Figure 2018163096
Figure 2018163096

次に、領域特定部140は、反射波に基づくエコーの算出を行う。この際、領域特定部140は、例えば、下記の数式(10)および(11)によりエコーEcho(t)を算出することができる。ここで、下記の数式(10)におけるwは単一分散ノイズを、Gは受信器の利得[dB]を、Lは、受信器の損失[dB]をそれぞれ示し、下記の数式(11)におけるkはボルツマン定数を、Bはサンプリングレートを、Tは基準温度を、Fはノイズ強度をそれぞれ示す。領域特定部140は、G、L、B、T、およびFなどのパラメータを設定することで、エコーの設計を行うことができる。 Next, the area specifying unit 140 calculates an echo based on the reflected wave. At this time, the area specifying unit 140 can calculate the echo Echo (t) using, for example, the following formulas (10) and (11). In the following equation (10), w represents single dispersion noise, G r represents receiver gain [dB], and L r represents receiver loss [dB]. KB in B ) represents a Boltzmann constant, B represents a sampling rate, T represents a reference temperature, and F represents noise intensity. The region specifying unit 140 can design an echo by setting parameters such as G r , L r , B, T, and F.

Figure 2018163096
Figure 2018163096

次に、領域特定部140は、上記で得たエコーEcho(t)に基づいて、下記の数式(12)〜(15)によりオブジェクトの距離Rng[m]を算出する。ただし、下記の数式(15)におけるBは周波数の掃引幅[dB]を示し、Tは周波数の掃引時間[sec]を示す。   Next, based on the echo Echo (t) obtained above, the region specifying unit 140 calculates the object distance Rng [m] using the following mathematical formulas (12) to (15). In Equation (15) below, B represents a frequency sweep width [dB], and T represents a frequency sweep time [sec].

Figure 2018163096
Figure 2018163096

領域特定部140は、上記のように算出した距離Rngをさらに素子(受信アンテナ)方向に並べてFFTをかけることによって角度を算出し、シミュレーションに基づく信号強度マップを得ることができる。以下、実際の受信信号により得られる信号強度マップを第1の信号強度マップ、シミュレーションにより得られる信号強度マップを第2の信号強度マップとも称する。   The area specifying unit 140 can calculate the angle by further arranging the distance Rng calculated as described above in the element (receiving antenna) direction and applying FFT, and obtain a signal intensity map based on the simulation. Hereinafter, a signal strength map obtained from an actual received signal is also referred to as a first signal strength map, and a signal strength map obtained through simulation is also referred to as a second signal strength map.

この際、シミュレーションに基づく第2の信号強度マップについてもフーリエ変換のサイドローブなどに起因する偽像が生じ得ることから、領域特定部140は、位置算出部130により得られたオブジェクトの点群との突合を行うことで偽像を排除し、第2の信号強度マップに係るオブジェクト候補領域(以下、第2のオブジェクト候補領域、とも称する)を抽出する。   At this time, since the false image resulting from the side lobe of the Fourier transform or the like may occur in the second signal intensity map based on the simulation, the region specifying unit 140 determines the object point group obtained by the position calculating unit 130 and Are extracted, and an object candidate area (hereinafter also referred to as a second object candidate area) related to the second signal intensity map is extracted.

次に、領域特定部140は、第2のオブジェクト候補領域Rに基づいて、実際の受信信号に基づく第1の信号強度マップに係るオブジェクト候補領域R(以下、第1のオブジェクト候補領域、とも称する)から、オブジェクト領域RRsを特定する。この際、領域特定部140は、下記の数式(16)によりオブジェクト領域RRsを特定することができる。ただし、下記の数式(16)におけるNRrは第1のオブジェクト候補領域Rの面積、NRsは第2のオブジェクト候補領域Rの面積、NRr,Rsは第1のオブジェクト候補領域Rと第2のオブジェクト候補領域Rとが重なる面積をそれぞれ示す。 Next, the area specifying unit 140, based on the second object candidate area R s , object candidate area R r (hereinafter referred to as the first object candidate area, the first signal intensity map based on the actual received signal). Also, the object region RRs is specified. At this time, the area specifying unit 140 can specify the object area R Rs by the following mathematical formula (16). In the following equation (16), N Rr is the area of the first object candidate region R r , N Rs is the area of the second object candidate region R s , and N Rr and Rs are the first object candidate region R r. And the area where the second object candidate region R s overlaps.

Figure 2018163096
Figure 2018163096

すなわち、本実施形態に係る領域特定部140は、それぞれの第2のオブジェクト候補領域Rにおいて、すべての第1のオブジェクト候補領域RとのIoU(Intersection of Unit)を算出し、当該値が最大となる第1のオブジェクト候補領域Rを抽出することで、偽像などを排除し、オブジェクト領域RRsとを特定することができる。 That is, the area specifying unit 140 according to the present embodiment calculates IoU (Intersection of Unit) with all the first object candidate areas R r in each second object candidate area R s , and the value is By extracting the maximum first object candidate region R r , it is possible to eliminate the false image and specify the object region R Rs .

<<3.3.情報処理装置10の動作の流れ>>
次に、本実施形態に係る情報処理装置10の動作の流れについて説明する。図9は、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。なお、図9におけるステップS2101〜S2103、S2107、S2108における処理は、図8に示したステップS1101〜S1103、S1105、S1106における処理と実質的に同一であってよいため、説明を省略する。
<< 3.3. Flow of operation of information processing apparatus 10 >>
Next, an operation flow of the information processing apparatus 10 according to the present embodiment will be described. FIG. 9 is a flowchart showing an operation flow of the information processing apparatus 10 according to the present embodiment. Note that the processing in steps S2101 to S2103, S2107, and S2108 in FIG. 9 may be substantially the same as the processing in steps S1101 to S1103, S1105, and S1106 shown in FIG.

図9を参照すると、領域特定部140は、ステップS2103において、第1の信号強度マップから第1のオブジェクト候補領域を抽出したのち、レーダーの受信信号に係るシミュレーションを行う(S2104)。   Referring to FIG. 9, in step S2103, the area specifying unit 140 extracts a first object candidate area from the first signal intensity map, and then performs a simulation related to a radar reception signal (S2104).

続いて、領域特定部140は、ステップS2104におけるシミュレーション結果から得た第2の信号強度マップから第2のオブジェクト候補領域を抽出する(S2105)。   Subsequently, the region specifying unit 140 extracts a second object candidate region from the second signal intensity map obtained from the simulation result in step S2104 (S2105).

続いて、領域特定部140は、第2のオブジェクト候補領域に基づいて第1の候補領域からオブジェクト領域を特定する(S2106)。   Subsequently, the area specifying unit 140 specifies an object area from the first candidate area based on the second object candidate area (S2106).

以上、本実施形態に係る情報処理装置10の動作の流れについて説明した。本実施形態に係る情報処理装置10によれば、実際の受信信号に基づく第1の候補領域とシミュレーション結果に基づく第2の候補領域の重なりを評価することで、第1の候補領域から偽像などをより効果的に排除すること可能となる。   The operation flow of the information processing apparatus 10 according to the present embodiment has been described above. According to the information processing apparatus 10 according to the present embodiment, by evaluating the overlap between the first candidate area based on the actual received signal and the second candidate area based on the simulation result, the false image from the first candidate area. Etc. can be eliminated more effectively.

<4.第3の実施形態>
次に、本発明の第3の実施形態について説明する。上記の第2の実施形態では、シミュレーション結果に基づく第2の信号強度マップから抽出した第2のオブジェクト候補領域に基づいて、実際の受信信号に基づく第1の候補領域からオブジェクト領域を特定する場合について説明した。
<4. Third Embodiment>
Next, a third embodiment of the present invention will be described. In the second embodiment, the object region is specified from the first candidate region based on the actual received signal based on the second object candidate region extracted from the second signal intensity map based on the simulation result. Explained.

一方、本発明の第3の実施形態では、レーダーの受信信号に係るシミュレーション結果のみに基づいて、正解データの生成を行ってよい。すなわち、本実施形態に係る情報処理装置10は、LIDAR114などにより得られた距離画像に基づくレーダー受信信号のシミュレーション結果からオブジェクト領域を特定し、当該オブジェクト領域に識別されたオブジェクトの種別を対応付けることで正解データを生成することが可能である。   On the other hand, in the third embodiment of the present invention, correct data may be generated based only on the simulation result related to the received signal of the radar. That is, the information processing apparatus 10 according to the present embodiment specifies an object area from a simulation result of a radar reception signal based on a distance image obtained by the LIDAR 114, and associates the identified object type with the object type. It is possible to generate correct answer data.

この際、上記のシミュレーション結果には、第2の実施形態の場合と同様にフーリエ変換のサイドローブなどに起因する偽像が発生し得るが、これらは、第1の実施形態に示した処理を行うことにより排除が可能である。   At this time, in the above simulation result, a false image due to a side lobe of Fourier transform or the like may be generated as in the case of the second embodiment, but these are the same as the processing shown in the first embodiment. This can be eliminated.

また、本実施形態に係るレーダー受信信号のシミュレーションに用いられる距離画像は、LIDAR114により取得されるデータのほか、例えば、オブジェクトに係る3Dモデルなどであってもよい。さらに、当該3Dモデルに予めオブジェクトの種別に係る情報が付与されている場合には、統合部160は、上記の情報に基づいて、オブジェクト領域とオブジェクト種別とを対応付けることも可能である。   In addition to the data acquired by the LIDAR 114, the distance image used for the simulation of the radar reception signal according to the present embodiment may be, for example, a 3D model related to the object. Furthermore, when information related to the type of object is given in advance to the 3D model, the integration unit 160 can also associate the object region with the object type based on the above information.

<5.ハードウェア構成例>
次に、本発明の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図10は、本発明に係る情報処理装置10のハードウェア構成例を示すブロック図である。図10を参照すると、情報処理装置10は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
<5. Hardware configuration example>
Next, a hardware configuration example of the information processing apparatus 10 according to an embodiment of the present invention will be described. FIG. 10 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10 according to the present invention. Referring to FIG. 10, the information processing apparatus 10 includes, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input unit 878, and an output unit 879. A storage unit 880, a drive 881, a connection port 882, and a communication unit 883. Note that the hardware configuration shown here is an example, and some of the components may be omitted. Moreover, you may further include components other than the component shown here.

(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU 871)
The CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls all or part of the operation of each component based on various programs recorded in the ROM 872, RAM 873, storage unit 880, or removable recording medium 901. .

(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM 872, RAM 873)
The ROM 872 is a means for storing programs read by the CPU 871, data used for calculations, and the like. In the RAM 873, for example, a program read by the CPU 871, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.

(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(Host bus 874, bridge 875, external bus 876, interface 877)
The CPU 871, the ROM 872, and the RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission. On the other hand, the host bus 874 is connected to an external bus 876 having a relatively low data transmission speed via a bridge 875, for example. The external bus 876 is connected to various components via an interface 877.

(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、マイク、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力部878は、撮像素子や、レーダーやLIDARに係る受信素子を含む。
(Input unit 878)
For the input unit 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a microphone, a lever, and the like are used. Furthermore, as the input unit 878, a remote controller (hereinafter referred to as a remote controller) that can transmit a control signal using infrared rays or other radio waves may be used. The input unit 878 includes an image sensor and a receiver element related to radar or LIDAR.

(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置(表示装置)、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、出力部879は、上述したような各種のレーダー、LIDARなどを含んでよい。
(Output unit 879)
The output unit 879 includes acquired information such as a display device (display device) such as a CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or headphones, a printer, a mobile phone, or a facsimile. Is a device capable of visually or audibly notifying a user. The output unit 879 may include various types of radar, LIDAR, and the like as described above.

(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage unit 880)
The storage unit 880 is a device for storing various data. As the storage unit 880, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.

(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(Drive 881)
The drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 901.

(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable recording medium 901)
The removable recording medium 901 is, for example, a DVD medium, a Blu-ray (registered trademark) medium, an HD DVD medium, or various semiconductor storage media. Of course, the removable recording medium 901 may be, for example, an IC card on which a non-contact IC chip is mounted, an electronic device, or the like.

(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 882)
The connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.

(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(External connection device 902)
The external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.

(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、内線電話網や携帯電話事業者網等の電話網に接続してもよい。
(Communication unit 883)
The communication unit 883 is a communication device for connecting to the network 903. For example, a communication card for wired or wireless LAN, Bluetooth (registered trademark), or WUSB (Wireless USB), a router for optical communication, ADSL (Asymmetric) A digital subscriber line) or a modem for various types of communication. Moreover, you may connect to telephone networks, such as an extension telephone network and a mobile telephone provider network.

<6.まとめ>
以上説明したように、本発明の一実施形態に係る情報処理方法および情報処理装置は、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出し、当該三次元空間におけるオブジェクトの位置に基づいて、レーダー受信信号から取得される信号強度マップにおけるオブジェクト領域を自動的に特定すること、を特徴の一つとする。また、本発明の一実施形態に係る情報処理方法および情報処理装置は、特定した上記のオブジェクト領域と認識されたオブジェクトの種別とを自動的に対応付けることを特徴の一つとする。係る構成によれば、レーダーの受信信号に物体識別に係る正解データを動的に付与することが可能となる。
<6. Summary>
As described above, an information processing method and an information processing apparatus according to an embodiment of the present invention calculate the position of an object in a three-dimensional space based on a distance image, and based on the position of the object in the three-dimensional space. One of the features is that the object region in the signal intensity map acquired from the radar reception signal is automatically specified. In addition, an information processing method and an information processing apparatus according to an embodiment of the present invention are characterized by automatically associating the identified object area with the recognized object type. According to such a configuration, it is possible to dynamically give correct data related to object identification to a radar reception signal.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は係る例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

また、本発明の一実施形態に係る情報処理装置10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理装置10の処理に係る各ステップは、フローチャートに記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   In addition, each step related to processing of the information processing apparatus 10 according to the embodiment of the present invention does not necessarily have to be processed in time series in the order described in the flowchart. For example, each step related to the processing of the information processing apparatus 10 may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

10 情報処理装置
110 センサ部
112 レーダー
114 LIDAR
116 カメラ
120 データ収集部
130 位置算出部
140 領域特定部
150 識別部
160 統合部
10 Information processing device 110 Sensor unit 112 Radar 114 LIDAR
116 camera 120 data collection unit 130 position calculation unit 140 region identification unit 150 identification unit 160 integration unit

Claims (11)

距離画像に基づいて三次元空間におけるオブジェクトの位置を算出することと、
前記三次元空間における前記オブジェクトの位置に基づいて、レーダー受信信号から取得される第1の信号強度マップにおけるオブジェクト領域を特定することと、
認識された前記オブジェクトの種別と前記オブジェクト領域とを対応付けることと、
を含む、
情報処理方法。
Calculating the position of the object in the three-dimensional space based on the distance image;
Identifying an object region in a first signal intensity map obtained from a radar received signal based on the position of the object in the three-dimensional space;
Associating the recognized object type with the object area;
including,
Information processing method.
撮影された画像データに基づいて、前記画像データ上における前記オブジェクトの位置と前記オブジェクトの種別を認識すること、
をさらに含み、
前記対応付けることは、前記画像データ上における前記オブジェクトの位置を前記第1の信号強度マップに対応する座標に変換し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含む、
請求項1に記載の情報処理方法。
Recognizing the position of the object on the image data and the type of the object based on the captured image data;
Further including
The associating further includes converting the position of the object on the image data into coordinates corresponding to the first signal intensity map, and associating the object type with the object region,
The information processing method according to claim 1.
前記特定することは、前記第1の信号強度マップから第1のオブジェクト候補領域を抽出し、前記三次元空間におけるオブジェクトの位置に基づいて、前記第1のオブジェクト候補領域の中から前記オブジェクト領域を特定すること、をさらに含む、
請求項1または2に記載の情報処理方法。
The specifying includes extracting a first object candidate region from the first signal strength map, and determining the object region from the first object candidate region based on a position of the object in the three-dimensional space. Further including,
The information processing method according to claim 1 or 2.
前記特定することは、前記三次元空間におけるオブジェクトの位置の重心と、前記第1のオブジェクト候補領域の重心とを比較し、前記オブジェクト領域を特定すること、をさらに含む、
請求項3に記載の情報処理方法。
The specifying further includes comparing the center of gravity of the position of the object in the three-dimensional space with the center of gravity of the first object candidate region, and specifying the object region.
The information processing method according to claim 3.
前記三次元空間における前記オブジェクトの位置に基づくシミュレーションにより得られた第2の信号強度マップから第2のオブジェクト候補領域を抽出すること、
をさらに含み、
前記特定することは、前記第2のオブジェクト候補領域に基づいて、前記オブジェクト領域を特定すること、をさらに含む、
請求項3または4に記載の情報処理方法。
Extracting a second object candidate region from a second signal intensity map obtained by simulation based on the position of the object in the three-dimensional space;
Further including
The specifying further includes specifying the object region based on the second object candidate region;
The information processing method according to claim 3 or 4.
前記特定することは、前記第1のオブジェクト候補領域と前記第2のオブジェクト候補領域の重なりを評価し、前記オブジェクト領域を特定すること、をさらに含む、
請求項5に記載の情報処理方法。
The specifying further includes evaluating an overlap between the first object candidate area and the second object candidate area, and specifying the object area.
The information processing method according to claim 5.
前記第1の信号強度マップは、前記オブジェクトの位置に基づくシミュレーションにより取得される、
請求項1〜4のいずれかに記載の情報処理方法。
The first signal strength map is obtained by simulation based on the position of the object.
The information processing method according to claim 1.
電波を照射し前記レーダー受信信号を取得することと、
前記レーダー受信信号に基づいて第1の信号強度マップを生成することと、
をさらに含む、
請求項1〜6のいずれかに記載の情報処理方法。
Irradiating radio waves to obtain the radar reception signal;
Generating a first signal strength map based on the radar received signal;
Further including
The information processing method according to claim 1.
前記距離画像は、LIDARにより取得される、
請求項1〜8のいずれかに記載の情報処理方法。
The distance image is acquired by LIDAR.
The information processing method according to claim 1.
前記対応付けることは、前記画像データ上における前記オブジェクトの位置の重心に基づいて、前記オブジェクト領域での、前記画像データ上における前記オブジェクトの存在確率を算出し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含む、
請求項2に記載の情報処理方法。
The association calculates the existence probability of the object on the image data in the object area based on the center of gravity of the position of the object on the image data, and determines the type of the object and the object area. Further comprising:
The information processing method according to claim 2.
電波を照射しレーダー受信信号を取得するセンサ部と、
前記レーダー受信信号に基づくオブジェクトの識別を行う識別部と、
を備え、
前記識別部は、前記レーダー受信信号から得られる信号強度マップにおけるオブジェクト領域と画像データから取得された前記オブジェクトの種別とを関連付けて学習された学習結果に基づいて、前記オブジェクトの識別を行う、
情報処理装置。
A sensor unit that radiates radio waves and acquires radar reception signals;
An identification unit for identifying an object based on the radar reception signal;
With
The identification unit identifies the object based on a learning result learned by associating an object region in a signal intensity map obtained from the radar reception signal and the type of the object acquired from image data.
Information processing device.
JP2017061420A 2017-03-27 2017-03-27 Information processing method and information processing equipment Active JP7062878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017061420A JP7062878B2 (en) 2017-03-27 2017-03-27 Information processing method and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017061420A JP7062878B2 (en) 2017-03-27 2017-03-27 Information processing method and information processing equipment

Publications (2)

Publication Number Publication Date
JP2018163096A true JP2018163096A (en) 2018-10-18
JP7062878B2 JP7062878B2 (en) 2022-05-09

Family

ID=63860552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017061420A Active JP7062878B2 (en) 2017-03-27 2017-03-27 Information processing method and information processing equipment

Country Status (1)

Country Link
JP (1) JP7062878B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116036A1 (en) * 2018-12-06 2020-06-11 パナソニックIpマネジメント株式会社 Object recognition device, object recognition method, and program
JP2020135679A (en) * 2019-02-25 2020-08-31 富士通株式会社 Data set creation method, data set creation device, and data set creation program
JP2020160734A (en) * 2019-03-26 2020-10-01 沖電気工業株式会社 Work step learning method, work step identification method, work step learning device, and work step identification device
JP6775697B1 (en) * 2019-06-20 2020-10-28 三菱電機株式会社 Learning data generator, learning data generation method, learning data generation program, learning device, learning method, learning program, inference device, inference method, inference program, learning system, and inference system
CN112306086A (en) * 2019-07-30 2021-02-02 广州极飞科技有限公司 Method and device for determining landing area of unmanned aerial vehicle, unmanned aerial vehicle and storage medium
CN112308879A (en) * 2019-07-30 2021-02-02 佳能株式会社 Image processing apparatus, method of tracking target object, and storage medium
JP2021015089A (en) * 2019-07-16 2021-02-12 シャープ株式会社 Distance measuring sensor
JP2021034878A (en) * 2019-08-23 2021-03-01 日本電信電話株式会社 Wireless object detection apparatus and wireless object detection method
CN112652005A (en) * 2019-10-12 2021-04-13 宅妆股份有限公司 Method and system for generating three-dimensional pattern
JP2022505772A (en) * 2018-11-01 2022-01-14 ウェイモ エルエルシー Time-of-flight sensor with structured light illumination
CN113935425A (en) * 2021-10-21 2022-01-14 中国船舶重工集团公司第七一一研究所 Object identification method, device, terminal and storage medium
WO2022259362A1 (en) * 2021-06-08 2022-12-15 Nec Corporation Training data generation apparatus, training data generation system, training data generation method, and program
WO2023047616A1 (en) * 2021-09-27 2023-03-30 日立Astemo株式会社 Host vehicle blind spot monitoring system and host vehicle blind spot monitoring method
JP2023515704A (en) * 2020-04-21 2023-04-13 プラトー システムズ インコーポレイテッド Method and apparatus for camera calibration
JP7456616B2 (en) 2020-08-04 2024-03-27 公立大学法人岩手県立大学 Training data generation system, estimation system, training data generation method, estimation method, and program

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (en) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd Obstacle recognition device
JP2006003348A (en) * 2004-05-20 2006-01-05 Mitsubishi Electric Corp Radar installation
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2007333385A (en) * 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc Immobile object position recording device
JP2009236623A (en) * 2008-03-26 2009-10-15 Fujitsu Ten Ltd Object detector, periphery monitoring apparatus, driving support system, and object detection method
JP2012154731A (en) * 2011-01-25 2012-08-16 Panasonic Corp Positioning information formation device, detector, and positioning information formation method
JP2012189445A (en) * 2011-03-10 2012-10-04 Panasonic Corp Object detection device and object detection method
JP2012255657A (en) * 2011-06-07 2012-12-27 Mitsubishi Electric Corp Radar image processing device and radar image processing method
JP2013104733A (en) * 2011-11-11 2013-05-30 Mitsubishi Electric Corp Radar image processor
JP2014006075A (en) * 2012-06-21 2014-01-16 Denso Corp Pedestrian detection device
US20140035775A1 (en) * 2012-08-01 2014-02-06 GM Global Technology Operations LLC Fusion of obstacle detection using radar and camera
JP2014122873A (en) * 2012-11-22 2014-07-03 Denso Corp Target detection device
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
WO2015125478A1 (en) * 2014-02-24 2015-08-27 日本電気株式会社 Object detection device, pos terminal device, object detection method, program, and program recording medium
JP2016153775A (en) * 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2016170076A (en) * 2015-03-13 2016-09-23 オムロン株式会社 Object detector, method for detecting object, and object detection program
JP2016205884A (en) * 2015-04-17 2016-12-08 三菱電機株式会社 Laser radar device
WO2017002195A1 (en) * 2015-06-30 2017-01-05 三菱電機株式会社 Vehicle-surroundings monitoring device and driving support system

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (en) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd Obstacle recognition device
JP2006003348A (en) * 2004-05-20 2006-01-05 Mitsubishi Electric Corp Radar installation
JP2007288460A (en) * 2006-04-17 2007-11-01 Nissan Motor Co Ltd Object detecting method and object detecting device
JP2007333385A (en) * 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc Immobile object position recording device
JP2009236623A (en) * 2008-03-26 2009-10-15 Fujitsu Ten Ltd Object detector, periphery monitoring apparatus, driving support system, and object detection method
JP2012154731A (en) * 2011-01-25 2012-08-16 Panasonic Corp Positioning information formation device, detector, and positioning information formation method
JP2012189445A (en) * 2011-03-10 2012-10-04 Panasonic Corp Object detection device and object detection method
JP2012255657A (en) * 2011-06-07 2012-12-27 Mitsubishi Electric Corp Radar image processing device and radar image processing method
JP2013104733A (en) * 2011-11-11 2013-05-30 Mitsubishi Electric Corp Radar image processor
JP2014006075A (en) * 2012-06-21 2014-01-16 Denso Corp Pedestrian detection device
US20140035775A1 (en) * 2012-08-01 2014-02-06 GM Global Technology Operations LLC Fusion of obstacle detection using radar and camera
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
JP2014122873A (en) * 2012-11-22 2014-07-03 Denso Corp Target detection device
WO2015125478A1 (en) * 2014-02-24 2015-08-27 日本電気株式会社 Object detection device, pos terminal device, object detection method, program, and program recording medium
JP2016153775A (en) * 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2016170076A (en) * 2015-03-13 2016-09-23 オムロン株式会社 Object detector, method for detecting object, and object detection program
JP2016205884A (en) * 2015-04-17 2016-12-08 三菱電機株式会社 Laser radar device
WO2017002195A1 (en) * 2015-06-30 2017-01-05 三菱電機株式会社 Vehicle-surroundings monitoring device and driving support system

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505772A (en) * 2018-11-01 2022-01-14 ウェイモ エルエルシー Time-of-flight sensor with structured light illumination
JP7203217B2 (en) 2018-11-01 2023-01-12 ウェイモ エルエルシー Time-of-flight sensor with structured light illumination
WO2020116036A1 (en) * 2018-12-06 2020-06-11 パナソニックIpマネジメント株式会社 Object recognition device, object recognition method, and program
JP2020135679A (en) * 2019-02-25 2020-08-31 富士通株式会社 Data set creation method, data set creation device, and data set creation program
JP7201909B2 (en) 2019-02-25 2023-01-11 富士通株式会社 DATASET CREATION METHOD, DATASET CREATION DEVICE, AND DATASET CREATION PROGRAM
JP2020160734A (en) * 2019-03-26 2020-10-01 沖電気工業株式会社 Work step learning method, work step identification method, work step learning device, and work step identification device
JP6775697B1 (en) * 2019-06-20 2020-10-28 三菱電機株式会社 Learning data generator, learning data generation method, learning data generation program, learning device, learning method, learning program, inference device, inference method, inference program, learning system, and inference system
JP7389578B2 (en) 2019-07-16 2023-11-30 シャープ株式会社 Distance sensor
JP2021015089A (en) * 2019-07-16 2021-02-12 シャープ株式会社 Distance measuring sensor
CN112308879A (en) * 2019-07-30 2021-02-02 佳能株式会社 Image processing apparatus, method of tracking target object, and storage medium
CN112306086B (en) * 2019-07-30 2023-09-01 广州极飞科技股份有限公司 Unmanned aerial vehicle landing area determining method and device, unmanned aerial vehicle and storage medium
JP7438684B2 (en) 2019-07-30 2024-02-27 キヤノン株式会社 Image processing device, image processing method, and program
CN112306086A (en) * 2019-07-30 2021-02-02 广州极飞科技有限公司 Method and device for determining landing area of unmanned aerial vehicle, unmanned aerial vehicle and storage medium
JP2021022315A (en) * 2019-07-30 2021-02-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2021034878A (en) * 2019-08-23 2021-03-01 日本電信電話株式会社 Wireless object detection apparatus and wireless object detection method
JP7209296B2 (en) 2019-08-23 2023-01-20 日本電信電話株式会社 Wireless object detection device and wireless object detection method
CN112652005A (en) * 2019-10-12 2021-04-13 宅妆股份有限公司 Method and system for generating three-dimensional pattern
JP7382043B2 (en) 2020-04-21 2023-11-16 プラトー システムズ インコーポレイテッド Method and apparatus for camera calibration
JP2023515704A (en) * 2020-04-21 2023-04-13 プラトー システムズ インコーポレイテッド Method and apparatus for camera calibration
JP7456616B2 (en) 2020-08-04 2024-03-27 公立大学法人岩手県立大学 Training data generation system, estimation system, training data generation method, estimation method, and program
WO2022259362A1 (en) * 2021-06-08 2022-12-15 Nec Corporation Training data generation apparatus, training data generation system, training data generation method, and program
WO2023047616A1 (en) * 2021-09-27 2023-03-30 日立Astemo株式会社 Host vehicle blind spot monitoring system and host vehicle blind spot monitoring method
CN113935425A (en) * 2021-10-21 2022-01-14 中国船舶重工集团公司第七一一研究所 Object identification method, device, terminal and storage medium

Also Published As

Publication number Publication date
JP7062878B2 (en) 2022-05-09

Similar Documents

Publication Publication Date Title
JP7062878B2 (en) Information processing method and information processing equipment
US11100260B2 (en) Method and apparatus for interacting with a tag in a wireless communication area
CN107392965B (en) Range finding method based on combination of deep learning and binocular stereo vision
CN111340864A (en) Monocular estimation-based three-dimensional scene fusion method and device
US11468209B2 (en) Method and apparatus for display of digital content associated with a location in a wireless communications area
CN110390706B (en) Object detection method and device
CN103679167A (en) Method for processing CCD images
CN114089329A (en) Target detection method based on fusion of long and short focus cameras and millimeter wave radar
CN116027324A (en) Fall detection method and device based on millimeter wave radar and millimeter wave radar equipment
JP2019074478A (en) Identification device, identification method and program
CN110007764B (en) Gesture skeleton recognition method, device and system and storage medium
CN111856445B (en) Target detection method, device, equipment and system
JP7224592B2 (en) Information processing device, information processing method, and program
CN114417908A (en) Multi-mode fusion-based unmanned aerial vehicle detection system and method
CN107578036A (en) A kind of depth image tumble recognizer based on wavelet moment
CN113918004A (en) Gesture recognition method, device, medium, and system thereof
CN115131756A (en) Target detection method and device
CN113532424B (en) Integrated equipment for acquiring multidimensional information and cooperative measurement method
CN113514796B (en) Passive positioning method, system and medium
CN115205806A (en) Method and device for generating target detection model and automatic driving vehicle
WO2020019345A1 (en) Coherent light-based obstacle avoidance device and method
WO2020124091A1 (en) Automatic fine-grained radio map construction and adaptation
TWI843116B (en) Moving object detection method, device, electronic device and storage medium
Rasyidy et al. A Framework for Road Boundary Detection based on Camera-LIDAR Fusion in World Coordinate System and Its Performance Evaluation Using Carla Simulator
WO2021235126A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7062878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150