JP7062878B2 - 情報処理方法および情報処理装置 - Google Patents

情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP7062878B2
JP7062878B2 JP2017061420A JP2017061420A JP7062878B2 JP 7062878 B2 JP7062878 B2 JP 7062878B2 JP 2017061420 A JP2017061420 A JP 2017061420A JP 2017061420 A JP2017061420 A JP 2017061420A JP 7062878 B2 JP7062878 B2 JP 7062878B2
Authority
JP
Japan
Prior art keywords
area
information processing
unit
radar
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017061420A
Other languages
English (en)
Other versions
JP2018163096A (ja
Inventor
素子 加賀谷
蔵人 前野
美智代 松井
康平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017061420A priority Critical patent/JP7062878B2/ja
Publication of JP2018163096A publication Critical patent/JP2018163096A/ja
Application granted granted Critical
Publication of JP7062878B2 publication Critical patent/JP7062878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理方法および情報処理装置に関する。
近年、技術の発展に伴い、物体の追跡や識別を行う種々の手法が開発されている。例えば、非特許文献1や非特許文献2には、LIDAR(Light Detection and Ranging、または、Laser Imaging Detection and Ranging)により収集された三次元情報に基づいて、動物体の追跡や識別を行う技術が開示されている。
また、非特許文献3~5には、画像データに基づいて、当該画像データ上における物体の位置や種別を識別する技術が開示されている。
細尾 直孝、外2名、"角度ベース複数仮説を用いたLRFによる複数種類・複数個の移動体追跡手法"、計測自動制御学会論文集、計測自動制御学会、2015年5月、Vol.51、No.5、P297-308 城殿 清澄、外3名、"高解像度レーザデータによる歩行者識別"、日本ロボット学会誌、日本ロボット学会、2011年12月、Vol.29、No.10、P963-970 Shaoqing Ren、外3名、"FasterR-CNN: Towards Real-Time Object Detection with Region Proposal Networks"、2015年6月4日、arXiv、[平成29年2月10日検索]、インターネット〈URL:http://tokkyo.shinsakijun.com/information/newtech.html〉 Joseph Redmon、外3名、"YouOnly Look Once: Unified, Real-Time Object Detection"、2015年6月8日、arXiv、[平成29年2月10日検索]、インターネット〈URL:https://arxiv.org/pdf/1506.02640v1.pdf〉 Evan Shelhamer、外2名、"Fully Convolutional Networks for Semantic Segmentation"、Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference、IEEE、2015年6月7日、10.1109/CVPR.2015.7298965 Manuel Dudek、外3名、"AMillimeter-Wave FMCW Radar System Simulatorfor Automotive Applications"、RadarConference (EuRAD), 2011 European、IEEE、2011年10月12日 Manuel Dudek、外4名、"TheImpact of Antenna Characteristics on Target Detection in FMCW-Radar SystemSimulations for Automotive Applications"、Radio and WirelessSymposium (RWS), 2012 IEEE、IEEE、2012年1月15日、10.1109/RWS.2012.6175357
ところで、動物体の識別においては、レーダーにより取得される受信信号を用いることも期待される。しかし、上記の受信信号の強度を可視化した場合、データ上には識別の対象であるオブジェクトのほか偽像が現れることから、レーダーの受信信号のみを確認しながら、手動でオブジェクトに対する正解データを付与することは非常に困難である。また、レーダーの受信信号と画像データを照らし合わせることで、レーダーの受信信号からオブジェクトの反応や種別を手動で特定することも想定されるが、この場合、作業負荷が高く、大量の正解データを得るための手段としては現実的とはいえない。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、レーダーの受信信号に物体識別に係る正解データを動的に付与することが可能な、新規かつ改良された情報処理方法および情報処理装置を提供することにある。
上記課題を解決するために、本発明のある観点によれば、LIDARにより取得された距離画像に基づいて三次元空間におけるオブジェクトの位置を算出することと、前記三次元空間における前記オブジェクトの位置に基づいて、レーダーにより取得される第1の信号強度マップから偽像に相当する領域を排除し、かつオブジェクト領域を特定することと、画像認識された前記オブジェクトの種別と前記オブジェクト領域とを対応付けることと、を含む、情報処理方法が提供される。
前記情報処理方法は、カメラにより撮影された画像データに基づいて、前記画像データ上における前記オブジェクトの位置と前記オブジェクトの種別を認識すること、をさらに含み、前記対応付けることは、前記画像データ上における前記オブジェクトの位置を前記第1の信号強度マップに対応する座標に変換し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含んでもよい。
前記特定することは、前記第1の信号強度マップから第1のオブジェクト候補領域を抽出し、前記三次元空間におけるオブジェクトの位置に基づいて、前記第1のオブジェクト候補領域の中から前記オブジェクト領域を特定すること、をさらに含んでもよい。
前記特定することは、前記三次元空間におけるオブジェクトの位置の重心と、前記第1のオブジェクト候補領域の重心とを比較し、前記オブジェクト領域を特定すること、をさらに含んでもよい。
前記情報処理方法は、前記三次元空間における前記オブジェクトの位置に基づくシミュレーションにより得られた第2の信号強度マップから第2のオブジェクト候補領域を抽出すること、をさらに含み、前記特定することは、前記第2のオブジェクト候補領域に基づいて、前記オブジェクト領域を特定すること、をさらに含んでもよい。
前記特定することは、前記第1のオブジェクト候補領域と前記第2のオブジェクト候補領域の重なりを評価し、前記オブジェクト領域を特定すること、をさらに含んでもよい。
前記対応付けることは、前記画像データ上における前記オブジェクトの位置の重心に基づいて、前記オブジェクト領域での、前記画像データ上における前記オブジェクトの存在確率を算出し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含んでもよい。
以上説明したように本発明によれば、レーダーの受信信号に物体識別に係る正解データを動的に付与することが可能となる。
本発明の第1の実施形態に係る信号強度マップの一例を示す図である。 同実施形態に係る正解データの一例である。 同実施形態に係る情報処理装置の機能ブロック図の一例である。 同実施形態に係る領域特定部により抽出されるオブジェクト候補領域の一例を示す図である。 同実施形態に係るオブジェクトに係る点群とオブジェクト候補領域との突合について説明するための図である。 同実施形態に係る識別部による画像上におけるオブジェクトの識別について説明するための図である。 同実施形態に係る統合部による座標の変換について説明するための図である。 同実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 本発明の一実施形態に係る情報処理装置のハードウェア構成例である。 画像認識に係る学習に用いられるデータセットの一例を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.背景>
まず、本技術思想の発想に至った背景について説明する。上述したとおり、近年では、物体(以下、オブジェクト、とも称する)の識別に関する様々な手法が開発されている。上記のような手法の一例としては、画像データ上におけるオブジェクトの種別などを識別する画像認識が挙げられる。
近年では、画像認識に係る研究が非常に盛んに行われており、画像認識の精度を競うコンペティションなども多く開催されている。また、画像認識に用いるデータセットを提供するデータベースも存在する。例えば、上記のデータベースの一つであるImageNetには、約1千4百万ものデータセットが公開されている。
図11は、画像認識に係る学習に用いられるデータセットの一例を示す図である。図11には、画像認識に用いられる画像データIM1と、画像データIM1上のオブジェクトに係る正解データCLが示されている。ここで、正解データCLは、例えば、図示するように、オブジェクトのセグメンテーションに係る情報やオブジェクトの種別に係る情報が含まれてもよい。図11に示す一例の場合、正解データCLは、オブジェクトO1およびO2に係る情報を含み、オブジェクトO1およびO2がそれぞれ人および乗用車であることを示している。
このようなデータセットは、通常、人手を介して生成され、データベースに登録される。画像認識分野においては、このような大量のデータセットを物体認識に係る学習に用いることで、精度の高い認識器を構築することが可能である。
一方、上述したように、動物体の識別においては、レーダーにより取得される受信信号を用いることも期待される。しかし、レーダーの受信信号については、上記のような既存のデータセットの数が乏しく、学習に用いることが可能なデータセットを容易に収集することができない、という現状がある。
これは、人がレーダーの受信信号を可視化した情報のみを確認して、オブジェクトの反応に起因する信号領域を特定することが困難であることから、画像認識のようなデータセットを容易に生成できないためである。
例えば、受信素子が多素子のFMCW(Frequency Modulated Continuous Wave)レーダーを用いた場合、受信信号に基づいて、物体に係る角度、距離、および速度を算出することが可能である。この際、例えば、上記の角度および距離を2軸にとり、信号強度を可視化したデータ(以下、信号強度マップ、と称する)を得ることができる。
図1は、本実施形態に係る信号強度マップの一例を示す図である。一方、図2は、本実施形態に係る正解データの一例である。ここで、上記の正解データとは、信号強度マップにおいて特定されるオブジェクト領域とオブジェクトの種別とを含むデータであってよい。また、上記のオブジェクト領域とは、オブジェクトに起因する反応を示す信号領域を示す。なお、本実施形態に係る正解データにおいて、オブジェクトの種別は、オブジェクト領域の色分けやメタデータの付加などにより示されてもよい。例えば、図2に示すオブジェクト領域OC1は、乗用車に起因する反応を示す信号領域であってもよい。
ここで、図1における信号強度マップを参照すると、レーダーの受信信号から得られる信号強度マップには、識別対象であるオブジェクトに起因する反応のほか、オブジェクトが存在しない位置においても強い信号強度が検出されていることがわかる。これは、フーリエ変換のサイドローブなどにより偽像が発生するためである。
このため、図2に示すような正解データを作成するためには、信号強度マップにおいて、偽像を排除してオブジェクト領域を定義し、さらに、受信信号が取得された時間と位置情報を基に撮像された画像データなどからオブジェクトの種別を特定したうえで、上記のオブジェクト領域とオブジェクトの種別とを対応付ける必要がある。しかし、上記のような工程を人手で行うには、作業負担が大きいことから、より簡易またより正確に正解データを生成する手法が望まれていた。
本技術思想は、上記の点に着目して発想されたものであり、レーダーの受信信号から得られる信号強度マップに係る正解データを自動的に生成することを可能とする。このために、本発明の一実施形態に係る情報処理方法および情報処理装置は、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出し、当該三次元空間におけるオブジェクトの位置に基づいて、レーダー受信信号から取得される信号強度マップにおけるオブジェクト領域を自動的に特定すること、を特徴の一つとする。また、本発明の一実施形態に係る情報処理方法および情報処理装置は、特定した上記のオブジェクト領域と認識されたオブジェクトの種別とを自動的に対応付けることを特徴の一つとする。
本発明の一実施形態に係る情報処理方法および情報処理装置が有する上記の特徴によれば、レーダーにより得られる信号強度マップに係る正解データを大量に生成することができ、例えば、ディープニューラルネットワークなどによる学習を行うことで、レーダーの受信信号による精度の高いオブジェクトの識別を行うことが可能となる。
<2.第1の実施形態>
<<2.1.情報処理装置10の機能構成例>>
次に、本発明の第1の実施形態に係る情報処理方法を実現する情報処理装置10の機能構成例について説明する。図3は、本実施形態に係る情報処理装置10の機能ブロック図の一例である。図1を参照すると、本実施形態に係る情報処理装置10は、センサ部110、データ収集部120、位置算出部130、領域特定部140、識別部150、および統合部160を備える。
(センサ部110)
本実施形態に係るセンサ部110は、オブジェクトに係る信号を受信するレーダー112、LIDAR114、およびカメラ116などのセンサを備える。この際、レーダー112、LIDAR114、およびカメラ116は、互いにキャリブレーションを行うものとする。
この際、レーダー112およびLIDAR114は、共にオブジェクトまでの距離および角度が取得可能であるため、互いの設置関係に基づくキャリブレーションを行うことが可能である。また、カメラ116とレーダー112またはLIDAR114間のキャリブレーションについては、カメラ116が有する撮影特性と互いの設置関係に基づくキャリブレーションを行うことが可能である。具体的には、カメラ116により撮影される画像データに係る二次元座標と対象空間に係る三次元座標とを対応付ける変換式に基づく算出を行うことができる。なお、以降の説明において用いる座標は、例えば、レーダー112などいずれかのセンサを基準とした実空間における座標とする。
(データ収集部120)
本実施形態に係るデータ収集部120は、センサ部110のレーダー112、LIDAR114、およびカメラ116が受信する信号を収集する機能を有する。
(位置算出部130)
本実施形態に係る位置算出部130は、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出する機能を有する。上記の距離画像は、三次元空間における座標情報を有するデータであってよく、例えば、データ収集部120により取得されるLIDAR114のデータであってよい。本実施形態に係る位置算出部130は、例えば、車、自転車、人など予め設定された所定のオブジェクトの座標を算出する。
この際、LIDAR114により得られる距離画像には、一定の角度間隔で照射されるレーザーの向きに対する反射物体(オブジェクト)までの距離が点群により現れる。このため、位置算出部130は、上記の点群をオブジェクトごとに分類し、各オブジェクトの位置を算出する処理を行う。この際、位置算出部130は、例えば、非特許文献1に記載されるようなパーティクルフィルタを用いて上記の処理を行ってもよい。また、例えば、位置算出部130は、非特許文献2に記載されるような手法を用いて上記の処理を行うことも可能である。このように、本実施形態に係る位置算出部130は、種々の手法を用いて、距離画像からオブジェクトに起因する点群のみを取得し、オブジェクトごとに分類する。
(領域特定部140)
本実施形態に係る領域特定部140は、位置算出部130により算出された三次元空間におけるオブジェクトの位置に基づいて、レーダー受信信号から取得される信号強度マップにおけるオブジェクト領域を特定する機能を有する。より具体的には、領域特定部140は、まず、上記の信号強度マップからオブジェクト候補領域を抽出し、三次元空間におけるオブジェクトの位置に基づいて、オブジェクト候補領域の中から実際にオブジェクトに起因する反応を示す信号領域であるオブジェクト領域を特定する。
この際、領域特定部140は、例えば、データ収集部120が収集したレーダーの受信信号から算出される角度および距離を2軸とした信号強度マップを生成する。なお、領域特定部140が生成する信号強度マップは、上記の例に限定されず、距離および速度の2軸をとるものであってもよいし、距離、角度、および速度の3軸をとるものであってもよい。また、距離rおよび角度θから、x=rcosθ、y=rsinθ、により実空間の二次元座標に変換されてもよい。
例えば、レーダー112が多素子FMCWレーダーである場合、領域特定部140は、受信信号に二次元FFT(Fast Fourier Transform:高速フーリエ変換)をかけることで、距離および角度を2軸とした信号強度マップを得ることができる。すなわち、領域特定部140は、周波数掃引1回分の受信信号に対してFFTを施すことで距離を算出し、得られた結果をさらに素子(受信アンテナ)方向に並べてFFTをかけることによって角度を算出することができる。上記のような手法により、領域特定部140は、図1に示したような信号強度マップを生成する。
次に、領域特定部140は、図1に示したような信号強度マップからオブジェクト候補領域を抽出する。この際、領域特定部140は、信号強度マップにおいて信号強度が閾値以上である領域を抽出してよい。なお、抽出するオブジェクト候補領域の数を抑えるために、上記の閾値を高く設定することは望ましくない。これは、後段の処理において、位置算出部130が算出したオブジェクトの位置に基づくオブジェクト候補領域の絞りを行うことから、抽出されるオブジェクト候補領域が多いことは大きな問題とはならないためである。
また、領域特定部140は、一定の閾値を用いてオブジェクト候補領域の抽出を行ってもよいが、下記の数式(1)に示すレーダー方程式によれば、信号強度は距離の2乗に反比例することから、距離に応じて閾値を変化させてもよい。例えば、領域特定部140は、下記の数式(2)を用いることで、閾値Th(d)を距離dが遠くなるほど小さな値とすることができる。ただし、下記の数式(1)におけるPは送信電力[w]を、Gはアンテナのゲインを、σは反射断面積[m]をそれぞれ示し、数式(2)におけるαは定数であってよい。
Figure 0007062878000001
図4は、本実施形態に係る領域特定部140により抽出されるオブジェクト候補領域の一例を示す図である。図4には、信号強度マップにおいて領域特定部140が抽出したオブジェクト候補領域OC1~OC4が示されている。この際、領域特定部140が抽出するオブジェクト候補領域OC1~OC4には、レーダーの多重反射による偽像やフーリエ変換によるサイドローブなどが含まれ得る。このため、本実施形態に係る領域特定部140は、位置算出部130により取得されたオブジェクトに係る点群とオブジェクト候補領域とを突合することで、偽像などを除去し、オブジェクト領域を特定することができる。
図5は、本実施形態に係るオブジェクトに係る点群とオブジェクト候補領域との突合について説明するための図である。図5には、信号強度マップにおいて抽出されたオブジェクト候補領域OC1~OC4と、信号強度マップに投影されたオブジェクトに係る点群LPとが示されている。
この際、領域特定部140は、各オブジェクト候補領域OC1~OC4の重心座標Cと、各オブジェクトに係る点群LPの重心座標Cとをそれぞれ算出する。また、領域特定部140は、各オブジェクトに係る点群LPの集合をQとし、このうちn番目のオブジェクトの重心座標をC(n)n∈Qとする。続いて、領域特定部140は、すべてのQについて、C(n)n∈Qと最も近い重心座標Cを有するオブジェクト候補領域を選択することで、n番目のオブジェクトに係るオブジェクト領域を特定することができる。例えば、図5に示す一例の場合、領域特定部140は、オブジェクト候補領域OC1をオブジェクト領域として特定し、図2に示すように偽像などに相当するオブジェクト領域OC2~OC4を排除した信号強度マップを得てよい。
(識別部150)
本実施形態に係る識別部150は、オブジェクトの種別を識別する機能を有する。具体的には、本実施形態に係る識別部150は、カメラ116が撮像した画像データに基づいて、当該画像データ上におけるオブジェクトの位置とオブジェクトの種別とを識別する。
図6は、識別部150による画像上におけるオブジェクトの識別について説明するための図である。図6の一例には、カメラ116が撮像した画像データIM2と、画像データIM2上において識別部150が識別したオブジェクトO1とが示されている。このように、本実施形態に係る識別部150は、画像データ上のオブジェクトを識別し、当該オブジェクトの位置および種別を矩形領域により示してもよい。
この際、識別部150は、例えば、非特許文献3や非特許文献4に記載されるような深層学習(ディープラーニング)を用いた手法によりオブジェクトの識別を行ってもよい。また、識別部150は、例えば、非特許文献5に記載されるような深層学習手法を用いてピクセル単位でオブジェクトの識別を行うことも可能である。なお、上記の手法はあくまで一例であり、本実施形態に係る識別部150は、画像認識分野で用いられる種々の手法を用いて画像データ上におけるオブジェクトの位置および種別を識別してよい。
また、本実施形態に係る識別部150は、レーダー112の受信信号と、正解データを用いた学習により生成された認識器により、オブジェクトの種別を識別する機能を有してよい。すなわち、識別部150は、レーダー受信信号から得られる信号強度マップにおけるオブジェクト領域と画像データから取得された前記オブジェクトの種別とを関連付けて学習された学習結果に基づいて、オブジェクトの種別を識別する。識別部150が有する上記の機能によれば、レーダーの受信信号のみを用いてオブジェクトの識別が可能となり、ロバスト性の高いオブジェクト識別を実現することができる。
(統合部160)
本実施形態に係る統合部160は、識別部150が認識したオブジェクトの種別(以下、ラベル、とも称する)と領域特定部140が特定したオブジェクト領域とを対応付ける機能を有する。この際、本実施形態に係る統合部160は、識別部150が認識した画像データ上におけるオブジェクトの位置を信号強度マップに対応する座標に変換することで、オブジェクトの種別と信号強度マップにおけるオブジェクト領域とを対応付ける。
図7は、本実施形態に係る統合部160による座標の変換について説明するための図である。図7の左側には、オブジェクトの一例である歩行者P1およびP2、乗用車V1およびV2が撮影された画像データIM3が示されている。この際、本実施形態に係る統合部160は、図右側に示すように、画像データIM3に係る二次元座標と対象空間に係る三次元座標とを対応付ける変換式に基づいて、歩行者P1およびP2、乗用車V1およびV2の座標を、角度および距離の2軸による座標に変換することができる。
続いて、統合部160は、領域特定部140が特定したオブジェクト領域と、識別部150が識別したオブジェクトの種別との対応付けを行う。この際、カメラ116による位置の計測精度は、レーダー112やLIDAR114と比較して低く、また、カメラ116による位置計測は、レーダー112やLIDAR114によるオブジェクトの反射面からの反応に基づく位置計測とは性質が異なる。
このため、本実施形態に係る統合部160は、例えば、識別部150が識別した画像データ上のオブジェクトの集合をCとし、Q(∈C)の重心座標を(θ,r)とし、(θ,r)を中心とした分散σの二次元ガウス分布を当てはめることにより、オブジェクトOの各座標での存在確率PQi(θ,r)を求める。続いて、統合部160は、領域特定部140が特定したj番目のオブジェクト領域Rに対応付けるオブジェクトの種別(labelRj)を下記の数式(3)により決定する。ただし、下記の数式(3)において、PRj(θ,r)は、(θ,r)がオブジェクト領域R内の座標である場合に1、それ以外の場合には0であるものとする。また、Label(O)は、オブジェクトOのオブジェクト種別を表す。
Figure 0007062878000002
統合部160による上記の演算によれば、領域特定部140が特定したオブジェクト領域において、画像データから得られたオブジェクトの存在確率が最も高いラベルを選択することが可能となる。
<<2.2.情報処理装置10の動作の流れ>>
次に、本実施形態に係る情報処理装置10の動作の流れについて説明する。図8は、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。
図8を参照すると、まず、データ収集部120がセンサ部110からセンサ情報を収集する(S1101)。ここで、上記のセンサ情報には、レーダー112による受信信号、LIDAR114による距離画像、およびカメラ116による画像データが含まれる。
次に、位置算出部130は、ステップS1101において収集された距離画像に基づいて、三次元空間におけるオブジェクトの位置を算出する(S1102)。
次に、領域特定部140は、生成した信号強度マップにおいて信号強度が閾値以上の領域をオブジェクト候補領域として抽出する(S1103)。
続いて、領域特定部140は、ステップS1102において算出されたオブジェクトの位置に基づいて、ステップS1103において抽出したオブジェクト領域の中からオブジェクト領域を特定する(S1104)。
次に、識別部150は、画像データ上におけるオブジェクトの位置と種別を識別する(S1105)。
次に、統合部160は、ステップS1105において識別された画像データ上におけるオブジェクトの位置を信号強度マップに対応する座標に変換し、オブジェクトの種別とオブジェクト領域とを対応付ける(S1106)。
以上、本実施形態に係る情報処理装置10の動作の流れについて詳細に説明した。上述したように、本実施形態に係る情報処理装置10によれば、オブジェクトに起因する信号領域(オブジェクト領域)にオブジェクトの種別を示すラベルを付与した正解データを自動的に生成することが可能となる。
<3.第2の実施形態>
<<3.1.第2の実施形態の概要>>
次に、本発明の第2の実施形態について説明する。上記の第1の実施形態では、オブジェクト領域の特定において、LIDAR114により得られた点群とオブジェクト候補領域とを突合する際、それぞれの重心座標が最も近いものを対応付ける場合について説明した。しかし、当該手法では、複数のオブジェクトが近い場所に存在する場合には、誤った対応付けが行われる可能性も否定できない。
そこで、本発明の第2の実施形態では、LIDAR114により得られた点群とオブジェクト候補領域とを突合する際、上記点群にレーダーを照射した際のシミュレーション結果から得られた信号強度マップにさらに基づいて、オブジェクト領域の特定を行ってよい。
レーダー112により取得される実際の受信信号は、LIDAR114により取得されるデータよりも、シミュレーションにより取得されるデータにより近い性質を持つ。このため、レーダーに係るシミュレーション結果を用いる第2の実施形態では、LIDAR114により取得される点群を直接利用する第1の実施形態と比較して、偽像などを抑制する精度が高まることが期待される。
なお、以下の説明においては、第1の実施形態との差異について中心に述べ、第1の実施形態と共通する構成、機能、効果などについては、詳細な説明を省略する。
<<3.2.シミュレーション結果に基づくオブジェクト領域の特定>>
上述したように、本実施形態では、レーダーに係るシミュレーション結果に基づいてオブジェクト領域の特定が行われる。この際、本実施形態に係る領域特定部140は、例えば、非特許文献6や非特許文献7に記載されるような手法に基づいて、上記のシミュレーション結果を得ることができる。
具体的には、領域特定部140は、レーダーによる送信波、オブジェクトへの入射波、オブジェクトからの反射波、および反射波の増幅に係るパラメータ設定を行い、算出されたエコーを信号処理することで、オブジェクトの距離を得ることができる。
まず、領域特定部140は、例えば、下記の数式(4)を用いて送信波x(t)の算出を行う。ここで、下記の数式(4)における、X(t)はFMCW方式によって生成された原信号を、Pはピーク電力[W]を、Gは送信器の利得[dB]を、Lは送信器の損失[dB]をそれぞれ示す。領域特定部140は、上記のような各パラメータを設定することで、送信波の設計を行うことができる。なお、FMCWに係るパラメータとしては、例えば、周波数の掃引幅や掃引時間などが挙げられる。
Figure 0007062878000003
次に、領域特定部140は、オブジェクトへの入射波の算出を行う。この際、領域特定部140は、アンテナ間の伝搬には自由空間伝搬モデルを採用してもよいし、伝搬距離の設定には往復モデルを採用してもよい。領域特定部140は、例えば、下記の数式(5)~(7)によりオブジェクトへの入射波y(t)を算出する。ここで、下記の数式(5)におけるτrtは、地点時間[sec]を示し、下記の数式(7)におけるPおよびPは、それぞれレーダーの位置[m]およびオブジェクトの位置[m]を示す。領域特定部140は、PおよびPなどのパラメータを設定することで、入射波の設計を行うことができる。
Figure 0007062878000004
次に、領域特定部140は、オブジェクトからの反射波の算出を行う。この際、領域特定部140は、例えば、下記の数式(8)および(9)によりオブジェクトからの反射波Sig(t)を算出することができる。ここで、下記の数式(8)におけるRCSは、オブジェクトの反射特性を示すパラメータである。領域特定部140は、画像データに基づいて識別されたオブジェクトの種別に基づいてRCSを設定することも可能である。
Figure 0007062878000005
次に、領域特定部140は、反射波に基づくエコーの算出を行う。この際、領域特定部140は、例えば、下記の数式(10)および(11)によりエコーEcho(t)を算出することができる。ここで、下記の数式(10)におけるwは単一分散ノイズを、Gは受信器の利得[dB]を、Lは、受信器の損失[dB]をそれぞれ示し、下記の数式(11)におけるkはボルツマン定数を、Bはサンプリングレートを、Tは基準温度を、Fはノイズ強度をそれぞれ示す。領域特定部140は、G、L、B、T、およびFなどのパラメータを設定することで、エコーの設計を行うことができる。
Figure 0007062878000006
次に、領域特定部140は、上記で得たエコーEcho(t)に基づいて、下記の数式(12)~(15)によりオブジェクトの距離Rng[m]を算出する。ただし、下記の数式(15)におけるBは周波数の掃引幅[dB]を示し、Tは周波数の掃引時間[sec]を示す。
Figure 0007062878000007
領域特定部140は、上記のように算出した距離Rngをさらに素子(受信アンテナ)方向に並べてFFTをかけることによって角度を算出し、シミュレーションに基づく信号強度マップを得ることができる。以下、実際の受信信号により得られる信号強度マップを第1の信号強度マップ、シミュレーションにより得られる信号強度マップを第2の信号強度マップとも称する。
この際、シミュレーションに基づく第2の信号強度マップについてもフーリエ変換のサイドローブなどに起因する偽像が生じ得ることから、領域特定部140は、位置算出部130により得られたオブジェクトの点群との突合を行うことで偽像を排除し、第2の信号強度マップに係るオブジェクト候補領域(以下、第2のオブジェクト候補領域、とも称する)を抽出する。
次に、領域特定部140は、第2のオブジェクト候補領域Rに基づいて、実際の受信信号に基づく第1の信号強度マップに係るオブジェクト候補領域R(以下、第1のオブジェクト候補領域、とも称する)から、オブジェクト領域RRsを特定する。この際、領域特定部140は、下記の数式(16)によりオブジェクト領域RRsを特定することができる。ただし、下記の数式(16)におけるNRrは第1のオブジェクト候補領域Rの面積、NRsは第2のオブジェクト候補領域Rの面積、NRr,Rsは第1のオブジェクト候補領域Rと第2のオブジェクト候補領域Rとが重なる面積をそれぞれ示す。
Figure 0007062878000008
すなわち、本実施形態に係る領域特定部140は、それぞれの第2のオブジェクト候補領域Rにおいて、すべての第1のオブジェクト候補領域RとのIoU(Intersection of Unit)を算出し、当該値が最大となる第1のオブジェクト候補領域Rを抽出することで、偽像などを排除し、オブジェクト領域RRsとを特定することができる。
<<3.3.情報処理装置10の動作の流れ>>
次に、本実施形態に係る情報処理装置10の動作の流れについて説明する。図9は、本実施形態に係る情報処理装置10の動作の流れを示すフローチャートである。なお、図9におけるステップS2101~S2103、S2107、S2108における処理は、図8に示したステップS1101~S1103、S1105、S1106における処理と実質的に同一であってよいため、説明を省略する。
図9を参照すると、領域特定部140は、ステップS2103において、第1の信号強度マップから第1のオブジェクト候補領域を抽出したのち、レーダーの受信信号に係るシミュレーションを行う(S2104)。
続いて、領域特定部140は、ステップS2104におけるシミュレーション結果から得た第2の信号強度マップから第2のオブジェクト候補領域を抽出する(S2105)。
続いて、領域特定部140は、第2のオブジェクト候補領域に基づいて第1の候補領域からオブジェクト領域を特定する(S2106)。
以上、本実施形態に係る情報処理装置10の動作の流れについて説明した。本実施形態に係る情報処理装置10によれば、実際の受信信号に基づく第1の候補領域とシミュレーション結果に基づく第2の候補領域の重なりを評価することで、第1の候補領域から偽像などをより効果的に排除すること可能となる。
<4.第3の実施形態>
次に、本発明の第3の実施形態について説明する。上記の第2の実施形態では、シミュレーション結果に基づく第2の信号強度マップから抽出した第2のオブジェクト候補領域に基づいて、実際の受信信号に基づく第1の候補領域からオブジェクト領域を特定する場合について説明した。
一方、本発明の第3の実施形態では、レーダーの受信信号に係るシミュレーション結果のみに基づいて、正解データの生成を行ってよい。すなわち、本実施形態に係る情報処理装置10は、LIDAR114などにより得られた距離画像に基づくレーダー受信信号のシミュレーション結果からオブジェクト領域を特定し、当該オブジェクト領域に識別されたオブジェクトの種別を対応付けることで正解データを生成することが可能である。
この際、上記のシミュレーション結果には、第2の実施形態の場合と同様にフーリエ変換のサイドローブなどに起因する偽像が発生し得るが、これらは、第1の実施形態に示した処理を行うことにより排除が可能である。
また、本実施形態に係るレーダー受信信号のシミュレーションに用いられる距離画像は、LIDAR114により取得されるデータのほか、例えば、オブジェクトに係る3Dモデルなどであってもよい。さらに、当該3Dモデルに予めオブジェクトの種別に係る情報が付与されている場合には、統合部160は、上記の情報に基づいて、オブジェクト領域とオブジェクト種別とを対応付けることも可能である。
<5.ハードウェア構成例>
次に、本発明の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図10は、本発明に係る情報処理装置10のハードウェア構成例を示すブロック図である。図10を参照すると、情報処理装置10は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力部878と、出力部879と、記憶部880と、ドライブ881と、接続ポート882と、通信部883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、記憶部880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力部878)
入力部878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、マイク、及びレバー等が用いられる。さらに、入力部878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力部878は、撮像素子や、レーダーやLIDARに係る受信素子を含む。
(出力部879)
出力部879には、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置(表示装置)、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、出力部879は、上述したような各種のレーダー、LIDARなどを含んでよい。
(記憶部880)
記憶部880は、各種のデータを格納するための装置である。記憶部880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信部883)
通信部883は、ネットワーク903に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。また、内線電話網や携帯電話事業者網等の電話網に接続してもよい。
<6.まとめ>
以上説明したように、本発明の一実施形態に係る情報処理方法および情報処理装置は、距離画像に基づいて三次元空間におけるオブジェクトの位置を算出し、当該三次元空間におけるオブジェクトの位置に基づいて、レーダー受信信号から取得される信号強度マップにおけるオブジェクト領域を自動的に特定すること、を特徴の一つとする。また、本発明の一実施形態に係る情報処理方法および情報処理装置は、特定した上記のオブジェクト領域と認識されたオブジェクトの種別とを自動的に対応付けることを特徴の一つとする。係る構成によれば、レーダーの受信信号に物体識別に係る正解データを動的に付与することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は係る例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
また、本発明の一実施形態に係る情報処理装置10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理装置10の処理に係る各ステップは、フローチャートに記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
10 情報処理装置
110 センサ部
112 レーダー
114 LIDAR
116 カメラ
120 データ収集部
130 位置算出部
140 領域特定部
150 識別部
160 統合部

Claims (7)

  1. LIDARにより取得された距離画像に基づいて三次元空間におけるオブジェクトの位置を算出することと、
    前記三次元空間における前記オブジェクトの位置に基づいて、レーダーにより取得される第1の信号強度マップから偽像に相当する領域を排除し、かつオブジェクト領域を特定することと、
    画像認識された前記オブジェクトの種別と前記オブジェクト領域とを対応付けることと、
    を含む、
    情報処理方法。
  2. カメラにより撮影された画像データに基づいて、前記画像データ上における前記オブジェクトの位置と前記オブジェクトの種別を認識すること、
    をさらに含み、
    前記対応付けることは、前記画像データ上における前記オブジェクトの位置を前記第1の信号強度マップに対応する座標に変換し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含む、
    請求項1に記載の情報処理方法。
  3. 前記特定することは、前記第1の信号強度マップから第1のオブジェクト候補領域を抽出し、前記三次元空間におけるオブジェクトの位置に基づいて、前記第1のオブジェクト候補領域の中から前記オブジェクト領域を特定すること、をさらに含む、
    請求項1または2に記載の情報処理方法。
  4. 前記特定することは、前記三次元空間におけるオブジェクトの位置の重心と、前記第1のオブジェクト候補領域の重心とを比較し、前記オブジェクト領域を特定すること、をさらに含む、
    請求項3に記載の情報処理方法。
  5. 前記三次元空間における前記オブジェクトの位置に基づくシミュレーションにより得られた第2の信号強度マップから第2のオブジェクト候補領域を抽出すること、
    をさらに含み、
    前記特定することは、前記第2のオブジェクト候補領域に基づいて、前記オブジェクト領域を特定すること、をさらに含む、
    請求項3または4に記載の情報処理方法。
  6. 前記特定することは、前記第1のオブジェクト候補領域と前記第2のオブジェクト候補領域の重なりを評価し、前記オブジェクト領域を特定すること、をさらに含む、
    請求項5に記載の情報処理方法。
  7. 前記対応付けることは、前記画像データ上における前記オブジェクトの位置の重心に基づいて、前記オブジェクト領域での、前記画像データ上における前記オブジェクトの存在確率を算出し、前記オブジェクトの種別と前記オブジェクト領域とを対応付けること、をさらに含む、
    請求項2に記載の情報処理方法。
JP2017061420A 2017-03-27 2017-03-27 情報処理方法および情報処理装置 Active JP7062878B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017061420A JP7062878B2 (ja) 2017-03-27 2017-03-27 情報処理方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017061420A JP7062878B2 (ja) 2017-03-27 2017-03-27 情報処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2018163096A JP2018163096A (ja) 2018-10-18
JP7062878B2 true JP7062878B2 (ja) 2022-05-09

Family

ID=63860552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017061420A Active JP7062878B2 (ja) 2017-03-27 2017-03-27 情報処理方法および情報処理装置

Country Status (1)

Country Link
JP (1) JP7062878B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
JP2022020871A (ja) * 2018-12-06 2022-02-02 パナソニックIpマネジメント株式会社 物体認識装置、物体認識方法、およびプログラム
JP7201909B2 (ja) * 2019-02-25 2023-01-11 富士通株式会社 データセット作成方法、データセット作成装置、及びデータセット作成プログラム
JP2020160734A (ja) * 2019-03-26 2020-10-01 沖電気工業株式会社 作業工程学習方法、作業工程識別方法、作業工程学習装置、および、作業工程識別装置
WO2020255326A1 (ja) * 2019-06-20 2020-12-24 三菱電機株式会社 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、学習装置、学習方法、学習プログラム、推論装置、推論方法、推論プログラム、学習システム、及び推論システム
JP7389578B2 (ja) * 2019-07-16 2023-11-30 シャープ株式会社 測距センサ
JP7438684B2 (ja) * 2019-07-30 2024-02-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN112306086B (zh) * 2019-07-30 2023-09-01 广州极飞科技股份有限公司 无人机降落区域的确定方法、装置、无人机和存储介质
JP7209296B2 (ja) * 2019-08-23 2023-01-20 日本電信電話株式会社 無線物体検知装置および無線物体検知方法
CN112652005A (zh) * 2019-10-12 2021-04-13 宅妆股份有限公司 立体格局图产生方法与系统
US11418773B2 (en) * 2020-04-21 2022-08-16 Plato Systems, Inc. Method and apparatus for camera calibration
JP7456616B2 (ja) 2020-08-04 2024-03-27 公立大学法人岩手県立大学 学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム
WO2022259362A1 (en) * 2021-06-08 2022-12-15 Nec Corporation Training data generation apparatus, training data generation system, training data generation method, and program
CN117859075A (zh) * 2021-09-27 2024-04-09 日立安斯泰莫株式会社 自身车辆死角监视系统以及自身车辆死角监视方法
CN113935425B (zh) * 2021-10-21 2024-08-16 中国船舶集团有限公司第七一一研究所 物体识别方法、装置、终端和存储介质

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (ja) 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2006003348A (ja) 2004-05-20 2006-01-05 Mitsubishi Electric Corp レーダ装置
JP2007288460A (ja) 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2007333385A (ja) 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc 不動物位置記録装置
JP2009236623A (ja) 2008-03-26 2009-10-15 Fujitsu Ten Ltd 物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法
JP2012154731A (ja) 2011-01-25 2012-08-16 Panasonic Corp 測位情報形成装置、検出装置、及び測位情報形成方法
JP2012189445A (ja) 2011-03-10 2012-10-04 Panasonic Corp 物体検出装置及び物体検出方法
JP2012255657A (ja) 2011-06-07 2012-12-27 Mitsubishi Electric Corp レーダ画像処理装置及びレーダ画像処理方法
JP2013104733A (ja) 2011-11-11 2013-05-30 Mitsubishi Electric Corp レーダ画像処理装置
JP2014006075A (ja) 2012-06-21 2014-01-16 Denso Corp 歩行者検知装置
US20140035775A1 (en) 2012-08-01 2014-02-06 GM Global Technology Operations LLC Fusion of obstacle detection using radar and camera
JP2014122873A (ja) 2012-11-22 2014-07-03 Denso Corp 物標検出装置
WO2015125478A1 (ja) 2014-02-24 2015-08-27 日本電気株式会社 物体検出装置、pos端末装置、物体検出方法、プログラム及びプログラム記録媒体
JP2016153775A (ja) 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法
JP2016170076A (ja) 2015-03-13 2016-09-23 オムロン株式会社 オブジェクト検知装置、オブジェクト検知方法、およびオブジェクト検知プログラム
JP2016205884A (ja) 2015-04-17 2016-12-08 三菱電機株式会社 レーザレーダ装置
WO2017002195A1 (ja) 2015-06-30 2017-01-05 三菱電機株式会社 車両周辺監視装置及び運転支援システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (ja) 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2006003348A (ja) 2004-05-20 2006-01-05 Mitsubishi Electric Corp レーダ装置
JP2007288460A (ja) 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2007333385A (ja) 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc 不動物位置記録装置
JP2009236623A (ja) 2008-03-26 2009-10-15 Fujitsu Ten Ltd 物体検知装置、周辺監視装置、運転支援システムおよび物体検知方法
JP2012154731A (ja) 2011-01-25 2012-08-16 Panasonic Corp 測位情報形成装置、検出装置、及び測位情報形成方法
JP2012189445A (ja) 2011-03-10 2012-10-04 Panasonic Corp 物体検出装置及び物体検出方法
JP2012255657A (ja) 2011-06-07 2012-12-27 Mitsubishi Electric Corp レーダ画像処理装置及びレーダ画像処理方法
JP2013104733A (ja) 2011-11-11 2013-05-30 Mitsubishi Electric Corp レーダ画像処理装置
JP2014006075A (ja) 2012-06-21 2014-01-16 Denso Corp 歩行者検知装置
US20140035775A1 (en) 2012-08-01 2014-02-06 GM Global Technology Operations LLC Fusion of obstacle detection using radar and camera
JP2014122873A (ja) 2012-11-22 2014-07-03 Denso Corp 物標検出装置
WO2015125478A1 (ja) 2014-02-24 2015-08-27 日本電気株式会社 物体検出装置、pos端末装置、物体検出方法、プログラム及びプログラム記録媒体
JP2016153775A (ja) 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法
JP2016170076A (ja) 2015-03-13 2016-09-23 オムロン株式会社 オブジェクト検知装置、オブジェクト検知方法、およびオブジェクト検知プログラム
JP2016205884A (ja) 2015-04-17 2016-12-08 三菱電機株式会社 レーザレーダ装置
WO2017002195A1 (ja) 2015-06-30 2017-01-05 三菱電機株式会社 車両周辺監視装置及び運転支援システム

Also Published As

Publication number Publication date
JP2018163096A (ja) 2018-10-18

Similar Documents

Publication Publication Date Title
JP7062878B2 (ja) 情報処理方法および情報処理装置
US20200075012A1 (en) Methods, apparatuses, systems, devices, and computer-readable storage media for processing speech signals
CN111340864A (zh) 基于单目估计的三维场景融合方法及装置
CN107392965B (zh) 一种基于深度学习和双目立体视觉相结合的测距方法
WO2018120027A1 (zh) 一种障碍物检测方法及装置
CN111368635A (zh) 一种基于毫米波的多人步态识别方法及装置
US20230333209A1 (en) Gesture recognition method and apparatus
CN111856445B (zh) 一种目标检测方法、装置、设备及系统
CN112801061A (zh) 一种体态识别方法及系统
CN106934351A (zh) 手势识别方法、装置及电子设备
JP2019074478A (ja) 識別装置、識別方法およびプログラム
CN112712129A (zh) 多传感器融合方法、装置、设备及存储介质
Tang et al. Sonar image mosaic based on a new feature matching method
CN113918004A (zh) 手势识别方法及其装置、介质和系统
US11481916B2 (en) Method, system and computer program product for emulating depth data of a three-dimensional camera device
JP7072765B2 (ja) 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム
CN115973144A (zh) 一种自动泊车识别障碍物的方法、装置、电子设备及介质
CN115061113A (zh) 用于雷达的目标检测模型训练方法、装置及存储介质
CN114417908A (zh) 一种基于多模态融合的无人机探测系统和方法
CN117113284B (zh) 多传感器融合的数据处理方法、装置与多传感器融合方法
CN110502978A (zh) 一种基于bp神经网络模型的激光雷达波形信号分类方法
CN115131756A (zh) 一种目标检测方法及装置
WO2018143278A1 (ja) 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム
CN115909253A (zh) 一种目标检测、模型训练方法、装置、设备及存储介质
CN115205806A (zh) 生成目标检测模型的方法、装置和自动驾驶车辆

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7062878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150