JP7392221B2 - 物体認識システム - Google Patents

物体認識システム Download PDF

Info

Publication number
JP7392221B2
JP7392221B2 JP2022053711A JP2022053711A JP7392221B2 JP 7392221 B2 JP7392221 B2 JP 7392221B2 JP 2022053711 A JP2022053711 A JP 2022053711A JP 2022053711 A JP2022053711 A JP 2022053711A JP 7392221 B2 JP7392221 B2 JP 7392221B2
Authority
JP
Japan
Prior art keywords
object recognition
bird
dimensional point
vehicle
moving means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022053711A
Other languages
English (en)
Other versions
JP2023146505A (ja
Inventor
康祐 重松
司 西野
貴光 國方
行規 布施
渓太 田窪
Original Assignee
防衛装備庁長官
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 防衛装備庁長官 filed Critical 防衛装備庁長官
Priority to JP2022053711A priority Critical patent/JP7392221B2/ja
Publication of JP2023146505A publication Critical patent/JP2023146505A/ja
Priority to JP2023184423A priority patent/JP2023178490A/ja
Application granted granted Critical
Publication of JP7392221B2 publication Critical patent/JP7392221B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、車両等の移動手段を移動させつつ、登載した3次元計測手段によって周囲の3次元点群を取得し、これを用いて周囲にある物体の認識処理を行なう高精度の物体認識システムに係り、特に、自ら取得した3次元点群を画像処理して得た鳥瞰画像と、他の移動手段から通信により入手した鳥瞰画像とを統合して統合鳥瞰画像を生成し、これに物体認識処理を行なう物認識システムに関するものである。
自動運転等で必要不可欠な、人・車両などの障害物の認識には、自車両に搭載したLiDAR(Light Detection and Ranging)等のような周囲の3次元形状を計測する3次元計測センサが用いられている。しかしながら、自車に搭載したセンサのみで3次元点群を取得しただけでは、センサの計測距離や範囲の制限により、自車近傍の狭い範囲でしか計測データを得ることができない。また、物体の一部の面しか計測できず、物体の全体形状を把握することができない。さらに、周辺環境によってはセンサの死角となる領域が生じてしまう。
非特許文献1では、LiDAR により取得した3次元点群を複数台車両間で共有及び統合し、統合した3次元点群を使用することにより、周囲の車両等の物体位置姿勢の推定を行う物体認識システムの発明が開示されている。
非特許文献2には、車両に搭載したLiDAR から得られた現時刻の計測データを用いて物体認識処理を行う発明が開示されている。
Qi Chen et al., "Cooper: Cooperative Perception for Connected Autonomous Vehicles based on 3D Point Clouds," 2019 IEEE 39th International Conference on Distributed Computing Systems(ICDCS), 2019, pp. 514-524 Alejandro Barrera et al., "BirdNet+: End-to-End 3D Object Detection in LiDAR Bird’s Eye View, " 2020 IEEE 23rd International Conference on Intelligent Transportation System(ITSC), 2020, pp. 1-6
複数車両がそれぞれ取得した3次元点群を統合するためには、各車両間の相対位置に関するデータが必要になる。非特許文献1に開示された発明では、複数の車両の相対位置に関して高精度のデータが与えられることを所与の条件としている。すなわち、この発明では、複数の車両の位置が予め定められており、各車両が移動しながらデータの送受信をリアルタイムで行う現実的な状況とはかけ離れた理想的な状況が前提となっている。従って、複数の車両が移動しながら、それぞれ取得した3次元点群を統合する場合、車両間の相対位置のデータに誤差が含まれていれば、物体認識精度が大きく低下することは避けられない。また、データ量が膨大である3次元点群を複数の車両の間で送受信して共有するには大容量の通信回線が必要であるとともに、通信状況が良好な場合にのみ可能であるという問題もあった。
また、非特許文献2に開示された発明では、現時刻の3次元点群のみを用いており、搭載するセンサによっては疎な3次元点群しか得られず、物体の認識精度が不充分であるという問題があった。
本発明は、以上説明した従来の技術に鑑みてなされたものであり、車両に登載した3次元計測手段を用いて移動しながら周囲の3次元点群を取得し、3次元点群から生成した画像について物体認識処理を行なう物体認識システムにおいて、一の移動手段が生成した画像と、他の移動手段が生成した画像を統合して物体認識処理を行なう場合において高い物体認識精度を実現することを第1の目的としており、大容量の通信回線を用いなくても、移動手段と移動手段の通信を可能とすることを第2の目的としている。
請求項1に記載された物体認識システムは、
複数の移動手段と、
前記移動手段に登載されて周囲を計測することにより3次元点群を取得する3次元計測手段と、
前記移動手段に登載されて他の前記移動手段と通信を行なう通信手段と、
前記移動手段に登載されて前記3次元点群を用いた物体認識処理に基づき周囲の物体認識を行なう制御手段と、
を備えた物体認識システムであって、
前記制御手段は、
自ら取得した前記3次元点群からデータ量を低減した鳥瞰画像を生成する画像化処理を行い、生成した前記鳥瞰画像を、3次元点群を送受信する場合に必要な容量の通信回線よりも狭帯域の通信回線を有する前記通信手段により他の前記移動手段に送信し、
自ら生成した前記鳥瞰画像と、前記通信手段により受信した他の前記移動手段の前記鳥瞰画像を用い、他の前記移動手段の前記鳥瞰画像を、自ら生成した前記鳥瞰画像の座標系のデータに変換し、これを自ら生成した前記鳥瞰画像と統合するデータ統合処理によって連続した一の画像データである統合鳥瞰画像を生成し、これに前記物体認識処理を施して統合鳥瞰画像を構成するピクセル毎の物体種別を推定する物体認識を行なうことを特徴としている。
請求項2に記載された物体認識システムは、請求項1記載の物体認識システムにおいて、
前記移動手段の位置と姿勢を検出する位置・姿勢センサを有しており、前記制御手段は、前記移動手段の位置と姿勢及び他の前記移動手段の位置と姿勢に基づいて前記データ統合処理を行なうことを特徴としている。
請求項3に記載された物体認識システムは、請求項1記載の物体認識システムにおいて、
前記制御手段は、前記移動手段の位置を推定する自己位置推定処理と、他の前記移動手段との相対位置を推定する相対位置推定処理に基づいて前記データ統合処理を行なうことを特徴としている。
請求項4に記載された物体認識システムは、請求項1乃至3の何れかに記載の物体認識システムにおいて、
前記制御手段は、前記3次元点群が得られた時刻での前記移動手段の位置と、現時刻での前記移動手段の位置に基づき、得られた前記3次元点群を現時刻の前記移動手段の座標系に変換することで、過去から現在までの計測により取得された前記3次元点群を蓄積する点群蓄積処理により得られた、現時刻に得られる前記3次元点群のみよりも密である蓄積3次元点群から前記鳥瞰画像を生成することを特徴としている。
請求項に記載された物体認識システムは、請求項1乃至4の何れかに記載の物体認識システムにおいて、
前記制御手段は、前記統合鳥瞰画像又は前記鳥瞰画像に前記物体認識処理を施した結果を、前記3次元点群と紐付けることにより、物体情報付き3次元点群を生成する物体情報付き3次元点群生成処理を行なうことを特徴としている。
請求項1に記載された物体認識システムによれば、一の移動手段において3次元点群から生成した鳥瞰画像と、当該一の移動手段に対して他の移動手段から送信された鳥瞰画像を統合して統合鳥瞰画像を生成し、これを物体認識処理することによって物体認識を行なうことができる。すなわち、各移動手段は、移動しながらリアルタイムで他の移動手段とデータの送受信を行うことにより、高精度の物体認識を実現することができる。また、一の移動手段が他の移動手段に送信するのは、データ量の大きな3次元点群ではなく、3次元点群から生成した鳥瞰画像であるため、移動手段同士の通信に大容量の通信回線は必要ない。
請求項2に記載された物体認識システムによれば、一の移動手段が、他の移動手段から送信された鳥瞰画像と自らの鳥瞰画像を統合して統合鳥瞰画像を生成する際には、一の移動手段と他の移動手段の間の相対的な位置・姿勢に関するデータが必要になるが、係る相対的な位置・姿勢に関するデータは、各移動手段に登載された位置・姿勢センサによって得られる各移動手段の位置・姿勢に関する高精度のデータから推定により取得することができる。
請求項3に記載された物体認識システムによれば、一の移動手段が、他の移動手段から送信された鳥瞰画像と自らの鳥瞰画像を統合して統合鳥瞰画像を生成する際には、一の移動手段と他の移動手段の間の相対的な位置・姿勢に関するデータが必要になるが、係る相対的な位置・姿勢に関するデータは、各移動手段に登載された制御手段が、自己位置推定処理と、他の移動手段との相対位置を推定する相対位置推定処理によって、位置・姿勢センサを利用することなく取得することができる。
請求項4に記載された物体認識システムによれば、制御手段は、点群蓄積処理により、過去から現在までに得られた3次元点群を蓄積することで、現時刻で得られる3次元点群のみよりも、より密な3次元点群を得ることができ、物体認識精度の向上を図ることができる。
請求項に記載された物体認識システムによれば、統合鳥瞰画像又は鳥瞰画像に物体認識処理を施した結果を3次元点群と紐付けることにより、物体情報付き3次元点群を生成することができる。
第1実施形態に係る物体認識システムの全体構成図である。 第1実施形態に係る物体認識システムの機能ブロック図である。 第1実施形態に係る物体認識システムにおいて自車が計測した3次元点群と他車が計測した3次元点群から、統合鳥瞰画像を生成する手順を示す説明図である。 第2実施形態に係る物体認識システムの全体構成図である。 第2実施形態に係る物体認識システムの機能ブロック図である。 第3実施形態に係る物体認識システムの機能ブロック図である。 第4実施形態に係る物体認識システムの機能ブロック図である。 第5実施形態に係る物体認識システムの機能ブロック図である。
本発明の第1実施形態を図1~図3を参照して説明する。
図1に示すように、第1実施形態の物体認識システム1aは、移動手段である複数の車両2,2を走行させながら、各車両2の周囲にある物体を計測して3次元点群を取得し、矢印で示すように車両間でデータを無線により送受信し、各車両2においてデータの統合処理を行うとともに、統合したデータに物体認識処理を施して各車両2の周囲にある物体をカテゴリ分類することができる。具体的には、統合したデータである統合鳥瞰画像中の各部分について、例えば車、人、建物等、事前に定義した同一と見なされるカテゴリごとに区分して色分け等により表示することができる。なお、図1においては、2台の車両2,2が示されているが、3台以上でもよい。以下の説明においては、図示した2台の車両2,2のうち、一方の車両を自車2aと称し、他方の車両を他車2bと称するものとする。
図1に示すように、各車両2には、位置・姿勢に関するデータ(以下、単に「位置・姿勢」とも称する。)を取得する位置・姿勢センサ3と、周囲を計測することにより3次元点群データ(以下、単に「3次元点群」とも称する。)を取得する3次元計測手段としての3次元計測センサ4が登載されている。
位置・姿勢センサ3としては、受信機と複数の衛星との距離から受信機の位置を算出するシステムの総称であるGNSS(Global Navigation Satellite System(全球衛星測位システム)の略)を利用することができる。GNSSの具体例としてはGPS 、GLONASS 、Galileo 等がある。
3次元計測センサ4としては、一例としてLiDAR (Light Detection And Ranging (光検出と測距)の略)を用いることができる。LiDAR は、センサからレーザを照射し、物体に反射して戻ってくるまでの時間を計測することで物体までの距離を測ることができる。3次元LiDAR では、回転により360 °走査可能なレーザ照射部を垂直に複数積むことで3次元点群([x, y, z] 座標の集合)を得ることができる。
位置・姿勢センサ3と3次元計測センサ4は、その機能を最も有効に発揮できるように、車両2の屋根の上の所定の位置に配置されている。また、車両2の内部には、位置・姿勢センサ3と3次元計測センサ4により取得したデータを処理して物体認識を行う制御手段としてのデータ処理部5aが設けられている。データ処理部5aとしては、後述するデータ処理を実行するアプリケーションを実装したパーソナルコンピュータ等を利用できる。また、車両2の内部には通信手段としての無線通信機6が設けられている。無線通信機6は、データ処理部5aで処理されたデータを他の車両2に向けて送信する送信部7と、他の車両2から送信されたデータを受信してデータ処理部5aに送る受信部8と、車両2の屋根の上に設けられて送信部7と受信部8に接続されたアンテナ9を有している。
図2に示すように、データ処理部5aは3次元点群処理部10aを有している。3次元点群処理部10aには、位置・姿勢センサ3と3次元計測センサ4が接続されており、位置・姿勢センサ3が取得した自車の位置・姿勢と、3次元計測センサ4が取得した自車の3次元点群が入力される。また、3次元点群処理部10aは画像化処理部11を備えている。画像化処理部11は、3次元計測センサ4が取得した3次元点群を、車両2の上方から真下に向けて見た鳥瞰画像に変換する。
図3(a)に示すように、車両2(自車2a)に登載した3次元計測センサ4である3次元LiDAR は、レーザを照射しながら回転することにより自車の全周囲(360 °)を走査し、3次元点群([x, y, z] 座標の集合)を取得して画像化処理部11(図2参照)に送る。図3(a)の例では、高さ方向[z] の所定位置における[x, y]座標の集合点群を表示しているが、実際には高さ方向[z] の値も含めた3次元点群が取得されており、この3次元点群によって自車2aの周囲に存在する種々の物体Sの立体的形状を把握することができる。また、図3(b)に示すように、自車2aの近傍にある他車2bにおいても同様の計測が行われて3次元点群が取得されている。なお、図3は、自車2aの計測範囲と、自車2aの近傍にある他車2bの計測範囲が一部重なっている場合を示しており、この場合には、後に説明するように自車2aで得たデータと他車2bで得たデータを統合することにより、図3(e)に示すように一つの連続した領域を表す統合鳥瞰画像を生成することができる。
自車2aの3次元点群処理部10aでは、画像化処理部11が、3次元計測センサ4から入力された図3(a)に示す3次元点群を、2次元データである図3(c)に示す鳥瞰画像に変換する。その際には、鳥瞰画像を構成するピクセルの各々が、位置データだけでなく、高さ、反射強度及び密度を示す規格化されたデータが含まれるようにデータ処理を行い、平面的な鳥瞰画像中に把握されるピクセルの特定の集合が、特定種類の物体S(例えば車、人、建物等)であることを識別できるようにしている。また、自車2aの近傍にある他車2bにおいても、自車2aと同様に、図3(b)に示す他車が取得した3次元点群の画像化処理が行われており、図3(d)に示すような鳥瞰画像が取得されている。
図2に示すように、自車2aの3次元点群処理部10aは、画像化処理部11が生成した自車2aの鳥瞰画像と、位置・姿勢センサ3から入力された自車2aの位置・姿勢を無線通信機6に送り、送信部7及びアンテナ9によって他車2bに送信する。3次元点群はデータ容量が大きく、通信回線の通信容量によってはリアルタイムでの送受信が困難である場合もあるが、この実施形態では、他車2bに送るのは3次元点群を画像化処理したデータ量が小さい鳥瞰画像であるため、通信量を削減でき、車両間通信により共有することが容易である。また、自車2aの3次元点群処理部10aは、位置・姿勢センサ3から入力された自車2aの位置・姿勢と、自車2aの3次元点群を、相対位置推定処理部12に送る。また、自車2aの3次元点群処理部10aは、画像化処理部11が生成した自車2aの鳥瞰画像を、後述するデータ統合処理部13に送る。
図2に示すように、データ処理部5aは相対位置推定処理部12を備えている。相対位置推定処理部12は、3次元点群処理部10aから自車2aの3次元点群と自車2aの位置・姿勢を入力され、また無線通信機6の受信部8が受信した他車2bの鳥瞰画像と他車2bの位置・姿勢を入力され、自車2aと他車2bの間の相対的な位置関係及び姿勢を示すデータである車両間相対位置・姿勢を算出してデータ統合処理部13に送る。本実施形態における相対位置推定処理はGNSSにより得られた座標データから算出する方法であるため正確であり、処理も速い。なお、無線通信機6の受信部8が受信した他車2bの鳥瞰画像は、相対位置推定処理部12を経て、そのままデータ統合処理部13に送られる。
図2に示すように、データ処理部5aはデータ統合処理部13を備えている。データ統合処理部13は、相対位置推定処理部12から送られた車両間相対位置・姿勢に基づき、相対位置推定処理部12を経て送られた図3(d)に示す他車2bの鳥瞰画像を、3次元点群処理部10aから送られた図3(c)に示す自車2aの鳥瞰画像の座標系のデータに変換し、自車2aの鳥瞰画像と統合して連続した一の画像データである図3(e)に示すような統合鳥瞰画像を生成する。
図2に示すように、データ処理部5aは物体認識処理部14を備えている。物体認識処理部14は、データ統合処理部13が生成した統合鳥瞰画像に対し、例えばCNNを利用したセマンティックセグメンテーション処理を行い、鳥瞰画像を構成するピクセル毎の物体種別を推定する。
セマンティックセグメンテーションとは、認識データの最小単位(画像では1ピクセルごと、3次元点群について行う場合は1点ごと)に、例えば車、人、建物等、事前に定義した同一と見なされるカテゴリごとに分類を行うことであり、近年ではCNNを用いた手法が主流になっている。
CNNとは、Convolutional Neural Network(畳み込みニューラルネットワーク)の略語であり、入力する画像データに対して、3×3程度のサイズのフィルターを用いた畳み込みとダウンサンプリングを繰り返しながら、画像の特徴を抽出するアルゴリズムである。
この実施形態では、分類を行うカテゴリごとに異なる色彩を定めておく。そして、図3(e)に示す統合鳥瞰画像の1ピクセルごとに、当該ピクセルが属するカテゴリの色彩を付すことにより、統合鳥瞰画像中に認識される物体Sを着色し、車、人、建物等の区別が容易に理解できるような平面画像を得ることができる。なお、3次元点群に対してセマンティックセグメンテーション処理を行うことも可能ではあるが、本実施形態では3次元点群を変換したデータ量の小さい鳥瞰画像に対してセマンティックセグメンテーション処理を行うため、3次元点群に対して物体認識処理を行う場合よりも処理が高速化する。
図4及び図5を参照して第1実施形態と異なる点を中心に第2実施形態を説明する。
第2実施形態の構成において、第1実施形態と同一の部分については、第1実施形態と同一の符号を図面に付し、第1実施形態の説明を援用するものとする。
図4に示すように、第2実施形態の物体認識システム1bは、複数の車両2,2を走行させながら、車両間でデータを送受信することにより各車両2で統合鳥瞰画像を生成し、これに物体認識処理を施して周囲の物体Sのカテゴリ分類を行う。図4及び機能ブロック図である図5に示すように、各車両2には、自車2aの位置・姿勢を取得する位置・姿勢センサ3は登載されていないが、図5に示すように、データ処理部5bの3次元点群処理部10bは、第1実施形態にはない自己位置推定処理部15を備えている。
すなわち、第1実施形態では、各車両2、例えば自車2aは、登載した位置・姿勢センサ3によって自車2aの位置・姿勢を取得していたが、第実施形態では、自己位置推定処理部15が自車2aの位置を推定し、その結果を自車2aの位置・姿勢としてデータ処理に使用している。
自己位置推定処理部15が行う自己位置推定処理の方法としては、まずSLAMを挙げることができる。SLAMとは、Simultaneous Localization And Mapping (自己位置推定と地図作成を同時に行う処理)の略語であり、ある時刻においてセンサで計測したデータを1時刻前の計測データと比較することで自己位置を推定し、推定した自己位置に基づいて計測データを配置して地図の作成を行う手法である。
自己位置推定処理の他の方法としては、複数の車両2で得られた複数の3次元点群の間で、ICPをはじめとするスキャンマッチングを行うことにより、計測データを位置合わせすることで自己位置を推定する手法も採用できる。ICPとは、Iterative Closest Point (反復最近傍点)の略語であり、異なる点群データの重ね合わせを行うことにより、各点から最も近い点のマッチングと距離の総和の最小化を交互に行い、点群データの最適な位置合わせを行う手法である。また、スキャンマッチングとは、現在の点群データと地図の点群データが最も重なる位置を探すことで自己位置を推定する手法である。
統合鳥瞰画像を生成する際には、自車2aと他車2bの車両間相対位置・姿勢に関するデータが必要になるが、第2実施形態によれば、このようなデータは、位置・姿勢センサ3を利用することなく自己位置推定処理によって取得することができるため、第1実施形態では必要であった位置・姿勢センサ3の費用を削減することができる。
図6を参照して第2実施形態と異なる点を中心に第3実施形態を説明する。
第3実施形態の構成において、第1~第2実施形態と同一の部分については、第1~第2実施形態と同一の符号を図面に付し、第1~第2実施形態の説明を援用するものとする。
図6に示す第3実施形態の3次元点群処理部10cが、図5に示す第2実施形態の3次元点群処理部10bと異なる点は、点群蓄積処理部16を有する点である。点群蓄積処理部16は、過去から現在までに3次元計測センサ4から入力された3次元点群を蓄積する点群蓄積処理により、現時刻に得られる3次元点群のみよりも、密な3次元点群を得るデータ処理方法であり、より具体的には、3次元点群が得られた時刻での自車2aの位置と、現時刻での自車2aの位置に基づき、3次元点群を現時刻の車両2の座標系に変換することで3次元点群を蓄積するものである。第3実施形態によれば、点群蓄積処理部16により得られた密な3次元点群を元にした統合鳥瞰画像が得られるため、物体認識精度の向上を図ることができる。
図7を参照して第3実施形態と異なる点を中心に第4実施形態を説明する。
第4実施形態の構成において、第1~第3実施形態と同一の部分については、第1~第3実施形態と同一の符号を図面に付し、第1~第3実施形態の説明を援用するものとする。
図7に示す第4実施形態のデータ処理部5dが、図6に示す第3実施形態のデータ処理部5cと異なる点は、物体情報付き3次元点群生成処理部17を有する点である。物体情報付き3次元点群生成処理部17は、3次元計測センサ4が取得した自車2aの3次元点群に対し、物体認識処理部14におけるセマンティックセグメンテーション結果、すなわちピクセル毎に物体種別が特定された統合鳥瞰画像を紐付ける処理を行い、3次元点群の1点ごとに、当該点が分類されたカテゴリの色彩を付すことにより、3次元点群中に認識される物体Sを着色して車、人、建物等の区別が容易に理解できるような物体情報を含む3次元点群を得ることができる。
以上説明したように、第1~第4実施形態によれば、他車2bと共有した計測データに基づき相対位置を推定し、複数台の車両2の計測データを統合しているので、各車両2を走行させながら各車両2においてリアルタイムで高精度な物体認識を行うことが可能となった。特に、3次元計測データを鳥瞰画像にしてデータ量を低減しているため、狭帯域の通信回線によって他車2bとデータ共有することが可能となる。さらに、第3及び第4実施形態によれば、過去の3次元点群を蓄積し、物体認識処理を行うことで、死角の低減や物体認識精度を向上させることができる。さらに、第4実施形態によれば、物体情報付き3次元点群を得ることができる。
図8を参照して第5実施形態を説明する。
第5実施形態の構成において、他の実施形態と同一の部分については、それら実施形態と同一の符号を図面に付し、同実施形態の説明を援用するものとする。
第1~第4実施形態では、複数の車両2を使用して車両間で計測データを共有し、各車両2において統合鳥瞰画像を生成して物体認識処理を行っていた。これとは異なり、第5実施形態では、3次元計測センサ4を登載した単一の車両2を用い、自車2aが取得した鳥瞰画像に物体認識処理を行い、さらにその認識結果を、自車2aの3次元点群に紐付けて物体情報付き3次元点群を生成する。従って、無線通信機6、相対位置推定処理部12及びデータ統合処理部13は持たない。
第5実施形態の物体認識システム1eは、第1乃至第4実施形態(図2、5、6、7)の物体認識システム1a,1b,1c,1dが有するのと同一の3次元計測センサ4を有し、第3及び第4実施形態(図6、7)の物体認識システム1c,1dが有するのと同一の3次元点群処理部10cを有する。また、第5実施形態の物体認識システム1eは、3次元点群処理部10cから送られた自車2aの鳥瞰画像に対して物体認識処理を行う物体認識処理部14eと、物体認識処理部14eから送られた物体認識処理された自車2aの鳥瞰画像を、自車2aの3次元点群に紐付けて物体情報付き3次元点群を生成する物体情報付き3次元点群生成処理部17eを有する。
第5実施形態によれば、車両2を単独で走行させながらリアルタイムで物体情報付き3次元点群を得るという高精度な物体認識を行うことが可能となった。特に、過去の3次元点群を蓄積して物体認識処理を行うことで、死角の低減や物体認識精度を向上させることができる。
以上説明した実施形態では、自車2aにおいては、他車2bの位置・姿勢を他車2bからの無線通信により取得して、自車2aと他車2bの間の車両間相対位置・姿勢を算出している。しかしながら、他車2bとの距離等について条件が整えば、自車2aに登載した3次元LiDAR 等の3次元計測手段4を用いて他車2bの位置・姿勢を直接計測し、自車2aにおける車両間相対位置・姿勢の算出に使用してもよい。
1a,1b,1c,1d,1e…物体認識システム
2…移動手段としての車両
2a…車両である自車
2b…車両である他車
3…位置・姿勢センサ
4…3次元計測手段としての3次元計測センサ
5a,5b,5c,5d,5e…制御手段としてのデータ処理部
6…通信手段としての無線通信機
10a,10b,10c…3次元点群処理部
11…画像化処理部
12…相対位置推定処理部
13…データ統合処理部
14,14e…物体認識処理部
15…自己位置推定処理部
16…点群蓄積処理部
17,17e…物体情報付き3次元点群生成処理部
S…物体

Claims (5)

  1. 複数の移動手段と、
    前記移動手段に登載されて周囲を計測することにより3次元点群を取得する3次元計測手段と、
    前記移動手段に登載されて他の前記移動手段と通信を行なう通信手段と、
    前記移動手段に登載されて前記3次元点群を用いた物体認識処理に基づき周囲の物体認識を行なう制御手段と、
    を備えた物体認識システムであって、
    前記制御手段は、
    自ら取得した前記3次元点群からデータ量を低減した鳥瞰画像を生成する画像化処理を行い、生成した前記鳥瞰画像を、3次元点群を送受信する場合に必要な容量の通信回線よりも狭帯域の通信回線を有する前記通信手段により他の前記移動手段に送信し、
    自ら生成した前記鳥瞰画像と、前記通信手段により受信した他の前記移動手段の前記鳥瞰画像を用い、他の前記移動手段の前記鳥瞰画像を、自ら生成した前記鳥瞰画像の座標系のデータに変換し、これを自ら生成した前記鳥瞰画像と統合するデータ統合処理によって連続した一の画像データである統合鳥瞰画像を生成し、これに前記物体認識処理を施して統合鳥瞰画像を構成するピクセル毎の物体種別を推定する物体認識を行なうことを特徴とする物体認識システム。
  2. 前記移動手段の位置と姿勢を検出する位置・姿勢センサを有しており、前記制御手段は、前記移動手段の位置と姿勢及び他の前記移動手段の位置と姿勢に基づいて前記データ統合処理を行なうことを特徴とする請求項1記載の物体認識システム。
  3. 前記制御手段は、前記移動手段の位置を推定する自己位置推定処理と、他の前記移動手段との相対位置を推定する相対位置推定処理に基づいて前記データ統合処理を行なうことを特徴とする請求項1記載の物体認識システム。
  4. 前記制御手段は、前記3次元点群が得られた時刻での前記移動手段の位置と、現時刻での前記移動手段の位置に基づき、得られた前記3次元点群を現時刻の前記移動手段の座標系に変換することで、過去から現在までの計測により取得された前記3次元点群を蓄積する点群蓄積処理により得られた、現時刻に得られる前記3次元点群のみよりも密である蓄積3次元点群から前記鳥瞰画像を生成することを特徴とする請求項1乃至3の何れかに記載の物体認識システム。
  5. 前記制御手段は、前記統合鳥瞰画像に前記物体認識処理を施した結果を、前記3次元点群と紐付けることにより、物体情報付き3次元点群を生成する物体情報付き3次元点群生成処理を行なうことを特徴とする請求項1乃至4の何れかに記載の物体認識システム。
JP2022053711A 2022-03-29 2022-03-29 物体認識システム Active JP7392221B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022053711A JP7392221B2 (ja) 2022-03-29 2022-03-29 物体認識システム
JP2023184423A JP2023178490A (ja) 2022-03-29 2023-10-27 物体認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022053711A JP7392221B2 (ja) 2022-03-29 2022-03-29 物体認識システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023184423A Division JP2023178490A (ja) 2022-03-29 2023-10-27 物体認識システム

Publications (2)

Publication Number Publication Date
JP2023146505A JP2023146505A (ja) 2023-10-12
JP7392221B2 true JP7392221B2 (ja) 2023-12-06

Family

ID=88286584

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022053711A Active JP7392221B2 (ja) 2022-03-29 2022-03-29 物体認識システム
JP2023184423A Pending JP2023178490A (ja) 2022-03-29 2023-10-27 物体認識システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023184423A Pending JP2023178490A (ja) 2022-03-29 2023-10-27 物体認識システム

Country Status (1)

Country Link
JP (2) JP7392221B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166846A (ja) 2016-03-14 2017-09-21 株式会社デンソー 物体認識装置
JP2017187422A (ja) 2016-04-07 2017-10-12 トヨタ自動車株式会社 周辺物体検出装置
JP2019028861A (ja) 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
WO2019044500A1 (ja) 2017-09-04 2019-03-07 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
JP2019117501A (ja) 2017-12-27 2019-07-18 パイオニア株式会社 判定装置、判定方法及び判定用プログラム
US20210118183A1 (en) 2019-10-16 2021-04-22 Automotive Research & Testing Center Method and system for generating dynamic map information capable of providing environment information
WO2021106207A1 (ja) 2019-11-29 2021-06-03 日本電気株式会社 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体
JP2022015113A (ja) 2020-07-08 2022-01-21 三菱重工業株式会社 表示情報作成装置、表示システム、及び表示情報作成方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166846A (ja) 2016-03-14 2017-09-21 株式会社デンソー 物体認識装置
JP2017187422A (ja) 2016-04-07 2017-10-12 トヨタ自動車株式会社 周辺物体検出装置
JP2019028861A (ja) 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
WO2019044500A1 (ja) 2017-09-04 2019-03-07 日本電産株式会社 位置推定システム、および当該位置推定システムを備える移動体
JP2019117501A (ja) 2017-12-27 2019-07-18 パイオニア株式会社 判定装置、判定方法及び判定用プログラム
US20210118183A1 (en) 2019-10-16 2021-04-22 Automotive Research & Testing Center Method and system for generating dynamic map information capable of providing environment information
WO2021106207A1 (ja) 2019-11-29 2021-06-03 日本電気株式会社 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体
JP2022015113A (ja) 2020-07-08 2022-01-21 三菱重工業株式会社 表示情報作成装置、表示システム、及び表示情報作成方法

Also Published As

Publication number Publication date
JP2023146505A (ja) 2023-10-12
JP2023178490A (ja) 2023-12-14

Similar Documents

Publication Publication Date Title
CN108572663B (zh) 目标跟踪
CN108693876B (zh) 用于具有控制部件的车辆的目标跟踪系统及方法
JP7297017B2 (ja) オンボードセンサの外部パラメータを較正する方法及び装置、並びに関連する車両
US11527084B2 (en) Method and system for generating a bird's eye view bounding box associated with an object
JP7090597B2 (ja) 位置特定基準データを生成及び使用する方法及びシステム
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
US10909395B2 (en) Object detection apparatus
CN110873570B (zh) 用于位置信息的定源、生成并且更新表示位置的地图的方法和装置
US20150142248A1 (en) Apparatus and method for providing location and heading information of autonomous driving vehicle on road within housing complex
CN110926474A (zh) 卫星/视觉/激光组合的城市峡谷环境uav定位导航方法
上條俊介 et al. Autonomous vehicle technologies: Localization and mapping
KR20200001471A (ko) 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
CN112292582A (zh) 用于生成高清晰度地图的方法和系统
CN112740225B (zh) 一种路面要素确定方法及装置
US20200341150A1 (en) Systems and methods for constructing a high-definition map based on landmarks
KR102604821B1 (ko) 차량의 위치 추정 장치 및 방법
US11377125B2 (en) Vehicle rideshare localization and passenger identification for autonomous vehicles
US20200401819A1 (en) Image based locationing
JP7392221B2 (ja) 物体認識システム
Gu et al. SLAM with 3dimensional-GNSS
Dehbi et al. Improving gps trajectories using 3d city models and kinematic point clouds
CN114459467B (zh) 一种未知救援环境中基于vi-slam的目标定位方法
CN116189138A (zh) 一种基于车路协同的视野盲区行人检测算法
WO2022083529A1 (zh) 一种数据处理方法及装置
Wei Multi-sources fusion based vehicle localization in urban environments under a loosely coupled probabilistic framework

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

R150 Certificate of patent or registration of utility model

Ref document number: 7392221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150