JP7069927B2 - 物体認識装置、及び物体認識方法 - Google Patents
物体認識装置、及び物体認識方法 Download PDFInfo
- Publication number
- JP7069927B2 JP7069927B2 JP2018058279A JP2018058279A JP7069927B2 JP 7069927 B2 JP7069927 B2 JP 7069927B2 JP 2018058279 A JP2018058279 A JP 2018058279A JP 2018058279 A JP2018058279 A JP 2018058279A JP 7069927 B2 JP7069927 B2 JP 7069927B2
- Authority
- JP
- Japan
- Prior art keywords
- patch
- resolution
- point cloud
- low
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 140
- 238000012545 processing Methods 0.000 claims description 175
- 230000008569 process Effects 0.000 claims description 103
- 238000000605 extraction Methods 0.000 claims description 46
- 238000004891 communication Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 35
- 238000005259 measurement Methods 0.000 claims description 22
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 12
- 230000001678 irradiating effect Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 238000009499 grossing Methods 0.000 claims description 4
- 238000012986 modification Methods 0.000 description 34
- 230000004048 modification Effects 0.000 description 34
- 238000004364 calculation method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 230000005484 gravity Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 12
- 230000008859 change Effects 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000023077 detection of light stimulus Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
車載システム1の概略的な構成について説明する。車載システム1は、例えば乗用車等の車両に搭載されており、図2に示すように、車載LIDAR11、通信装置12、及び物体認識ECU13を備える。物体認識ECU13は、車載LIDAR11及び通信装置12と車両内に構築されている通信ネットワーク10を介して相互通信可能に接続されている。なお、車載LIDAR11や通信装置12は、専用線によって物体認識ECU13と相互通信可能に接続されていても良い。以降では、車載システム1が搭載されている車両を自車両とも記載する。
次に、センタ2の構成について述べる。センタ2は、図5に示すように通信装置21、高解像点群DB22、パッチペアDB23、及びサーバ24を備える。サーバ24は、通信装置21、高解像点群DB22、及びパッチペアDB23のそれぞれと相互通信可能に接続されている。
次に、図7に示すフローチャートを用いて、更新処理部G2が実施するパッチペアDB更新処理について説明する。図7に示すフローチャートは、高解像点群DB22に新たな高解像点群データが追加された場合に、当該高解像データを対象として開始されればよい。もちろん、パッチペアDB更新処理の実行タイミングについては適宜設計されればよい。パッチペアデータの生成がまだ実施されていない(つまり未処理の)高解像点群データが高解像点群DB22に存在する場合に、当該未処理の高解像点群データを対象として実行されればよい。なお、高解像点群DB22に保存されている高解像点群データには、当該データを用いたパッチペアデータの生成処理が実施済みであるか否かを示す管理データ(例えばフラグ)が付与されており、当該管理データによって、処理済みであるか否かが識別されれば良い。
次に、車載システム1の演算部132が備える種々の機能及びその作用について説明する。演算部132は、前述の通り機能ブロックとして図4に示す車載DB更新部F0、点群データ取得部F1、クラスタリング部F2、超解像処理部F3、及び識別処理部F4を備える。
次に、図16に示すフローチャートを用いて、演算部132が実施する物体認識処理について説明する。図16に示すフローチャートは、例えば車載LIDAR11の動作間隔に対応する周期で定期的に実行されれば良い。
以上の構成では、クラスタリング部F2が車載LIDAR11から提供された測距点群データからクラスタ点群を抽出し、パッチ抽出部F32が処理の対象とするクラスタ点群から複数の対象パッチを抽出する。そして、パッチ探索部F33が対象クラスタから抽出した対象パッチと、車載パッチペアDB133内で最も類似する低解像パッチを探索すし、パッチ合成部F34が対象パッチの抽出元領域に、当該対象パッチと類似度が高い(換言すれば最も類似している)低解像パッチと対応付けられている高解像パッチを当てはめる。
上述した実施形態では、例えば自車両が走行しているか否かといった車両の走行状態に関わらずに、車載LIDAR11から測距点群データが提供される度に、当該測距点群データの超解像処理としてのステップS221~S224を行うものとした。つまり、車両の走行状態に関わらずに、逐次、超解像処理を施した測距点群データを用いて物体の識別処理を実施する態様を開示したが、これに限らない。
物体認識ECU13は、歩行者の進入が原則的に禁止されている道路(以降、自動車用道路)走行中であると判定されている場合には、測距点群データに対する超解像処理を実施しないように構成されていても良い。なお、ここでの自動車用道路とは、例えば高速道路等の有料道路である。また、自動車用道路には、自動車以外の交通が禁止されている一般道路(いわゆる自動車専用道路)も含めることができる。
上述した実施形態では1フレームとしての測距点群データに含まれる全てのクラスタに対して超解像処理を施す態様を開示したが、これに限らない。例えば車載LIDAR11から10m以内となるエリアなど、車載LIDAR11から相対的に近いエリアに存在する物体からは、相対的に測距点を高密度に得ることが期待できる。また、相対的に大きい物体については、小さい物体よりも多数の測距点が得られることが見込まれる。1つのクラスタを構成する測距点が多いほど当該クラスタについての情報は多くなり、識別の精度も上がる。つまり、クラスタとの距離やサイズによっては、超解像処理を施さなくても物体の識別に必要十分な量の情報(実態的には測距点)を得られる場合がある。加えて、超解像処理には相応の演算負荷がかかるため、全てのクラスタに対して超解像処理を実施すると、物体認識処理に要する時間が増大することが懸念される。
上記の変形例3に関連し、物体認識ECU13は図24に示すように、クラスタリング部F2によって抽出されているクラスタ点群に対して、超解像処理を施すべきか否かを判定する対象選定部F8を備えていてもよい。対象選定部F8は、クラスタ毎の代表距離、サイズ、点群密度、及び測距点の数といった種々の指標の少なくとも何れか1つに基づいて、超解像処理を施すべきクラスタであるか否かを判別する構成である。クラスタの代表距離、サイズ、点群密度、及び測距点の数は、クラスタ点群との距離を表現する指標に相当する。
物体認識ECU13は、所定の物体追跡手法を用いて前フレームで検出したクラスタと、新たに取得した最新のフレームから抽出したクラスタとの対応付けを行い、前フレームにて既に超解像処理を施しているクラスタに対しては、前回使用した高解像パッチを流用するように構成されていても良い。そのような構成によれば、パッチ探索処理を省略でき、物体認識ECU13の演算負荷を低減することができる。
更新処理部G2は、パッチペアDB23にパッチペアデータを登録する際、図26に例示するように元クラスタにおけるパッチペアデータの内部位置情報を付加して保存しておく。そして、パッチ探索部F33は対象パッチに対応する低解像パッチを探索する際に、対象クラスタ内における対象パッチの内部位置を検索条件の1つとして最近傍パッチを探索するように構成されていても良い。
更新処理部G2は、パッチペアDB23にパッチペアデータを登録する際、元クラスタにおける他のパッチペアデータとの相対位置情報を付加して保存しておき、パッチ探索部F33は対象パッチに対応する低解像パッチを探索する際に、相対位置情報を用いて探索範囲に制限をかけても良い。
複数の連続フレームのそれぞれに対して超解像処理を実施している状況において、同一クラスタ内の同一領域に対して選定しているパッチペアデータが不安定である(例えば毎回異なる)場合には、K次元ユークリッド空間において、選定された複数の低解像パッチの平均位置から最も近い位置に存在する低解像パッチと対応付けられている高解像パッチを置換用パッチとして採用しても良い。そのような構成によれば、高解像パッチのばらつきを抑制することができる。また、パッチ探索処理において探索鍵として使用するK次元ベクトルは、クラスタ内の同一領域に対して抽出した直近複数回分のK次元ベクトルの平均ベクトルであっても良い。
以上で述べた構成に、特許文献1に開示されている複数フレームを用いた超解像処理を組み合わせて実施しても良い。すなわち、過去のフレームから抽出した同一クラスタの点群情報を統合してなるクラスタ点群に対して、上述した実施形態の超解像処理(ステップS222~S224)を実施することで、最終的なクラスタ点群を生成しても良い。このような構成は、1次的な超解像処理(以降、1次超解像処理)として複数フレームでのクラスタ点群を統合し、さらに、2次的な超解像処理(以降、2次超解像処理)として、パッチ合成を行う構成に相当する。
車載LIDAR11がマルチエコーを検出可能に構成されている場合には、当該マルチエコーによって取得される複数の測距点に対してクラスタリングを行い、パッチ単位での超解像処理を実施するように構成されていても良い。なお、ここでのマルチエコーを検出可能なLIDARとは、1つのレーザ光から複数の物体の距離情報を取得可能なLIDARである。このような構成によれば、或る物体の奥に隠れた物体の超解像も可能となる。
上述した実施形態では車載システム1内で、超解像処理が完結するように構成されている態様を開示したがこれに限らない。車載システム1が備えていた機能の一部はサーバ24に設けられてあって、サーバ24と車載システム1が協働(換言すれば連携)することによって超解像処理が完結するように構成されていても良い。
以上では、1フレームの測距点群データからクラスタ点群を抽出し、クラスタ毎に超解像処理を実施する態様を開示したがこれに限らない。図29に示すようにクラスタリングを行わずに、1フレームの測距点群データそのままの状態で(換言すれば距離画像の状態で)パッチ抽出を行い、超解像処理を実施するように構成されていても良い。
以上では、車両に搭載されているLIDARが生成した測距点群データに対して超解像処理を実行する態様を開示したが、本開示の構成は、車両に搭載されていないLIDARが生成した測距点群データにも適用可能である。例えば、施設の出入り口付近を検出範囲とするように当該出入り口付近に設置されているLIDARが、生成した測距点群データにも適用可能である。
Claims (20)
- レーザ光を照射するとともに、当該レーザ光が物体で反射されて返ってくる反射光を受光することで、前記レーザ光を反射した物体表面上の点である測距点の位置を示す測距点群データを生成する3次元距離センサを用いて、前記レーザ光の照射範囲内に存在する物体を認識する物体認識装置であって、
前記3次元距離センサである第1距離センサから、当該第1距離センサが生成した前記測距点群データである低解像点群データを取得する点群データ取得部(F1)と、
前記第1距離センサとは別の3次元距離センサであって、前記第1距離センサよりも高い解像度を備える第2距離センサが生成した前記測距点群データである高解像点群データから抽出した局所領域のデータである高解像パッチと、当該高解像パッチの解像度を所定量低下させた低解像パッチとを対応付けて記憶しているパッチペア記憶部(133、23)と、
前記パッチペア記憶部が備えている前記低解像パッチ及び前記高解像パッチを用いて、前記点群データ取得部が取得した前記低解像点群データに対して超解像処理を実行する超解像処理部(F3)と、を備え、
前記超解像処理部は、
前記点群データ取得部が取得した前記低解像点群データから、所定の抽出単位の大きさを有する局所領域を対象パッチとして抽出するパッチ抽出部(F32)と、
前記パッチペア記憶部が記憶している前記低解像パッチの中から、前記パッチ抽出部が抽出した前記対象パッチと類似している前記低解像パッチを探索するとともに、探索結果として発見された前記低解像パッチと対応付けられている前記高解像パッチを置換用パッチとして取得するパッチ探索部(F33、G4)と、
前記低解像点群データにおいて前記対象パッチとして抽出した領域である抽出元領域に、前記置換用パッチを配置するパッチ合成部(F34)と、
を備える物体認識装置。 - 請求項1に記載の物体認識装置であって、
前記測距点群データは、前記測距点毎の位置情報と、前記反射光の受光強度を示す反射強度情報とを備えるデータとして構成されており、
前記低解像パッチ及び前記対象パッチのそれぞれにも、前記測距点毎の反射強度情報が含まれており、
前記パッチ探索部は、前記対象パッチと類似している前記低解像パッチを探索する際に、それぞれが備える前記測距点毎の前記反射強度情報を用いて、前記対象パッチと前記低解像パッチとの類似度を算出する
ように構成されている物体認識装置。 - 請求項2に記載の物体認識装置であって、
前記パッチペア記憶部に保存されている前記低解像パッチが備える前記測距点毎の前記反射強度情報は、反射強度の検出値に前記第2距離センサから前記測距点までの距離に基づいて正規化されており、
前記パッチ探索部は、
前記対象パッチが備える前記測距点毎の前記反射強度情報を、反射強度の検出値に前記第1距離センサから前記測距点までの距離に応じた値を乗算することで正規化し、
前記対象パッチと類似している前記低解像パッチを探索する際に、正規化された前記測距点毎の前記反射強度情報を用いて、前記対象パッチと前記低解像パッチとの類似度を算出する
ように構成されている物体認識装置。 - 請求項2又は3に記載の物体認識装置であって、
前記パッチペア記憶部に保存されている前記低解像パッチが備える前記測距点毎の前記反射強度情報は、平滑化処理が施されていること
を特徴とする物体認識装置。 - 請求項2から4の何れか1項に記載の物体認識装置であって、
前記パッチ探索部は、前記対象パッチが備える前記測距点毎の前記反射強度情報を平滑化した状態で、前記測距点毎の前記反射強度情報を用いて、前記対象パッチと前記低解像パッチとの類似度を算出する
ように構成されている物体認識装置。 - 請求項1から5の何れか1項に記載の物体認識装置であって、
前記パッチペア記憶部に保存されている前記低解像パッチには、予め定められている複数種類の特徴量を示すデータが付与されており、
前記パッチ探索部は、前記対象パッチに対して前記複数種類の特徴量を算出し、その算出した前記対象パッチについての前記複数種類の特徴量を用いて、前記対象パッチと最も類似している前記低解像パッチである最近傍パッチを探索する
ように構成されている物体認識装置。 - 請求項6に記載の物体認識装置であって、
前記パッチ探索部は、前記最近傍パッチと前記対象パッチとの類似度が所定の採用条件を充足していない場合には、前記対象パッチに対応する前記抽出元領域に当てはめるべき前記置換用パッチは存在しないと判定し、
前記パッチ合成部は、前記パッチ探索部によって前記置換用パッチが発見されなかった前記対象パッチに対応する前記抽出元領域には、前記高解像パッチを配置する処理を実行しない
ように構成されている物体認識装置。 - 請求項7に記載の物体認識装置であって、
前記パッチ探索部は、前記対象パッチに対して前記複数種類の特徴量を算出し、前記対象パッチについての前記複数種類の特徴量を用いて、前記対象パッチとの2番目に類似している前記低解像パッチである準近傍パッチを抽出し、
前記最近傍パッチと前記対象パッチとの類似度である第1類似度と、前記準近傍パッチと前記対象パッチとの類似度である第2類似度との差が、所定のギャップ閾値未満である場合には、前記対象パッチに対応する前記抽出元領域に当てはめるべき前記置換用パッチは存在しないと判定する
ように構成されている物体認識装置。 - 請求項1から8の何れか1項に記載の物体認識装置であって、
前記パッチペア記憶部が記憶している前記高解像パッチは、前記高解像点群データが備える複数の前記測距点をクラスタリングしてなるクラスタ点群から抽出したものであり、
前記低解像パッチは、前記クラスタ点群の解像度を低下させてなる低解像クラスタ点群において前記高解像パッチと対応する位置に存在する局所領域を抽出したもの、または前記高解像パッチの解像度を低下させたものであり、
前記低解像点群データが備える複数の前記測距点をクラスタリングし、前記クラスタ点群を抽出するクラスタリング部(F2)を備え、
前記超解像処理は、前記クラスタリング部が前記低解像点群データから抽出した前記クラスタ点群毎に前記超解像処理を実施する
ように構成されている物体認識装置。 - 請求項9に記載の物体認識装置であって、
前記クラスタ点群との距離を表現する指標を用いて、前記クラスタリング部によって抽出された前記クラスタ点群毎に、前記超解像処理を施すための優先度を決定する優先度決定部(F7)を備え、
前記超解像処理部は、前記優先度決定部によって決定された前記優先度が高い前記クラスタ点群に対して優先的に演算リソースを割り当てて前記超解像処理を施す
ように構成されている物体認識装置。 - 請求項9又は10に記載の物体認識装置であって、
前記クラスタ点群との距離を表現する指標を用いて、前記クラスタリング部によって抽出された前記クラスタ点群に前記超解像処理を施すべきであるか否かを判定する対象選定部(F8)を備え、
前記超解像処理部は、前記対象選定部によって前記超解像処理を施すと判定されなかった前記クラスタ点群に対しては前記超解像処理を実施しない
ように構成されている物体認識装置。 - 請求項9から11の何れか1項に記載の物体認識装置であって、
前記第1距離センサは前記測距点群データを逐次生成するとともに、前記点群データ取得部は前記第1距離センサが生成した前記測距点群データを前記低解像点群データとして逐次取得し、
前記超解像処理部は、前記点群データ取得部が前記低解像点群データを取得する度に、その新たに取得した前記低解像点群データに含まれる前記クラスタ点群に対して前記超解像処理を実施するように構成されており、
前回取得した前記低解像点群データから前記クラスタリング部によって抽出された前記クラスタ点群である前フレームクラスタ点群と、新たに取得した前記低解像点群データから前記クラスタリング部によって抽出された前記クラスタ点群である現フレームクラスタ点群との対応付けを行う追跡処理部(F9)と、
前記クラスタ点群の特徴量を用いて当該クラスタ点群が示す物体が静止物であるか否かを識別する識別処理部(F4)と、を備え、
前記パッチ探索部は、前記超解像処理を前回施しており且つ前記識別処理部によって前記静止物を示すものであると判定されている前記クラスタ点群に対しては、前回使用した前記高解像パッチを流用する
ように構成されている物体認識装置。 - 請求項12に記載の物体認識装置であって、
前記パッチ探索部は、前記超解像処理を前回施しており且つ前記識別処理部によって前記静止物を示すものであると判定されている前記クラスタ点群であっても、前記現フレームクラスタ点群を構成する前記測距点の数が、前記前フレームクラスタ点群を構成する前記測距点の数に比べて増加している場合には、前回使用した前記高解像パッチは流用せずに、新たに前記高解像パッチの探索を行う
ように構成されている物体認識装置。 - 請求項9から13の何れか1項に記載の物体認識装置であって、
前記パッチペア記憶部に保存されている前記低解像パッチには、当該低解像パッチの抽出元に相当する前記クラスタ点群内での位置を示す内部位置情報が対応付けて保存されており、
前記パッチ探索部は、前記対象パッチの抽出元に相当する前記クラスタ点群内での位置を示す前記内部位置情報と、前記低解像パッチに対応付けられている前記内部位置情報とを用いて、前記高解像パッチを探索する
ように構成されている物体認識装置。 - 請求項9から11の何れか1項に記載の物体認識装置であって、
前記第1距離センサは前記測距点群データを逐次生成するとともに、前記点群データ取得部は前記第1距離センサが生成した前記測距点群データを前記低解像点群データとして逐次取得し、
前記超解像処理部は、前記点群データ取得部が前記低解像点群データを取得する度に、その新たに取得した前記低解像点群データに含まれる前記クラスタ点群に対して前記超解像処理を実施するように構成されており、
前回取得した前記低解像点群データから前記クラスタリング部によって抽出された前記クラスタ点群である前フレームクラスタ点群と、新たに取得した前記低解像点群データから前記クラスタリング部によって抽出された前記クラスタ点群である現フレームクラスタ点群との対応付けを行う追跡処理部(F9)と、
前記前フレームクラスタ点群と前記現フレームクラスタ点群とを統合してなる統合クラスタ点群を生成する統合処理部(F10)と、を備え、
前記超解像処理部は、前記統合処理部が生成した前記統合クラスタ点群に対して前記超解像処理を実施する
ように構成されている物体認識装置。 - 請求項1から15の何れか1項に記載の物体認識装置は、車両に搭載されて使用されるものであって、
前記第1距離センサは前記車両の周辺の所定範囲を検出範囲とするように前記車両の所定位置に搭載されている
物体認識装置。 - 請求項16に記載の物体認識装置であって、
前記車両の走行状態を示す状態量を検出するセンサ(14)の検出結果に基づいて、前記車両の走行状態を判定する走行状態判定部(F5)を備え、
前記超解像処理部は、前記走行状態判定部が前記車両は停車していると判定している場合には前記超解像処理を実行しない一方、前記車両は走行していると判定している場合には前記超解像処理を実行する
ように構成されている物体認識装置。 - 請求項16又は17に記載の物体認識装置であって、
前記車両の現在位置と地図データとに基づいて前記車両の走行路を特定し、前記車両の前記走行路が、歩行者の進入が原則的に禁止されている道路である自動車用道路に該当するか否かを判定する走行路特定部(F6)を備え、
前記超解像処理部は、前記走行路特定部が前記走行路は前記自動車用道路であると判定している場合には前記超解像処理を実行しない一方、前記走行路は前記自動車用道路ではないと判定している場合には前記超解像処理を実行する
ように構成されている物体認識装置。 - 請求項16から18の何れか1項に記載の物体認識装置であって、
前記車両に搭載されている無線通信装置を介して前記車両の外部に設けられているセンタと相互に通信可能に構成されており、
前記パッチペア記憶部は前記センタに設けられているとともに、前記センタは前記パッチ探索部としての機能を備えるサーバ(24)を備え、
前記超解像処理部は前記サーバと協働して前記超解像処理を実施する
ように構成されている物体認識装置。 - レーザ光を照射するとともに、当該レーザ光が物体で反射されて返ってくる反射光を受光することによって3次元距離センサが生成する、前記レーザ光を反射した物体表面上の点である測距点の位置を示す測距点群データを用いて、前記レーザ光の照射範囲内に存在する物体を認識する物体認識方法であって、
前記3次元距離センサである第1距離センサから、当該第1距離センサが生成した前記測距点群データを低解像点群データとして取得する点群データ取得ステップ(S200)と、
前記第1距離センサとは別の3次元距離センサであって、前記第1距離センサよりも高い解像度を備える第2距離センサが生成した前記測距点群データである高解像点群データから抽出した局所領域のデータである高解像パッチと、当該高解像パッチの解像度を所定量低下させた低解像パッチとを対応付けて記憶しているパッチペア記憶部に保存されている前記低解像パッチ及び前記高解像パッチを用いて、前記点群データ取得ステップで取得した前記低解像点群データに対して超解像処理を実行する超解像ステップ(S220)と、を備え、
前記超解像ステップは、
前記点群データ取得ステップで取得された前記低解像点群データから、所定の抽出単位の大きさを有する局所領域を対象パッチとして抽出するステップ(S222)と、
前記パッチペア記憶部が記憶している前記低解像パッチの中から、前記対象パッチと類似している前記低解像パッチを探索するとともに、探索結果として発見された前記低解像パッチと対応付けられている前記高解像パッチを置換用パッチとして取得するステップ(S223)と、
前記低解像点群データにおいて前記対象パッチとして抽出した領域である抽出元領域に、前記置換用パッチを配置するステップ(S224)と、
を備える物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018058279A JP7069927B2 (ja) | 2018-03-26 | 2018-03-26 | 物体認識装置、及び物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018058279A JP7069927B2 (ja) | 2018-03-26 | 2018-03-26 | 物体認識装置、及び物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019168417A JP2019168417A (ja) | 2019-10-03 |
JP7069927B2 true JP7069927B2 (ja) | 2022-05-18 |
Family
ID=68107235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018058279A Active JP7069927B2 (ja) | 2018-03-26 | 2018-03-26 | 物体認識装置、及び物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7069927B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210286078A1 (en) * | 2020-03-11 | 2021-09-16 | Hyundai Motor Company | Apparatus for tracking object based on lidar sensor and method therefor |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765487B (zh) * | 2018-06-04 | 2022-07-22 | 百度在线网络技术(北京)有限公司 | 重建三维场景的方法、装置、设备和计算机可读存储介质 |
CN110689721A (zh) * | 2019-10-14 | 2020-01-14 | 广州珠江黄埔大桥建设有限公司 | 基于物理地址生成的交通群体记录管理系统 |
CN111414888A (zh) * | 2020-03-31 | 2020-07-14 | 杭州博雅鸿图视频技术有限公司 | 低分辨率人脸识别方法、系统、装置及存储介质 |
JP7413935B2 (ja) * | 2020-06-16 | 2024-01-16 | トヨタ自動車株式会社 | 車載センサシステム |
JP7163342B2 (ja) * | 2020-06-29 | 2022-10-31 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
JP7247413B2 (ja) * | 2020-06-29 | 2023-03-28 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
JPWO2022009602A1 (ja) * | 2020-07-08 | 2022-01-13 | ||
US20220091266A1 (en) * | 2020-09-18 | 2022-03-24 | Denso International America, Inc. | Systems and methods for enhancing outputs of a lidar |
US20220178718A1 (en) * | 2020-12-04 | 2022-06-09 | Mitsubishi Electric Automotive America, Inc. | Sensor fusion for dynamic mapping |
EP4303628A1 (en) * | 2021-03-01 | 2024-01-10 | Pioneer Corporation | Information processing device, control method, program, and storage medium |
US20240303823A1 (en) * | 2021-07-06 | 2024-09-12 | Nippon Telegraph And Telephone Corporation | Subject extraction device, subject extraction method, and program |
JP7513939B2 (ja) | 2021-07-06 | 2024-07-10 | 日本電信電話株式会社 | 被写体抽出装置、被写体抽出方法及びプログラム |
US20230135965A1 (en) * | 2021-11-01 | 2023-05-04 | GM Global Technology Operations LLC | Virtual beams for identification of edge and planar points in lidar point cloud obtained with vehicle lidar system |
WO2023194761A1 (ja) * | 2022-04-08 | 2023-10-12 | 日産自動車株式会社 | 情報処理方法及び情報処理装置 |
JP7466023B2 (ja) * | 2022-10-19 | 2024-04-11 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
CN117148315B (zh) * | 2023-10-31 | 2024-01-26 | 上海伯镭智能科技有限公司 | 一种无人驾驶汽车运行检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005149395A (ja) | 2003-11-19 | 2005-06-09 | Mitsubishi Heavy Ind Ltd | 文字認識装置、ナンバープレート認識システム |
JP2010218246A (ja) | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | 物体識別装置 |
JP2016161340A (ja) | 2015-02-27 | 2016-09-05 | 株式会社デンソー | ノイズ除去方法および物体認識装置 |
JP2016206026A (ja) | 2015-04-23 | 2016-12-08 | 株式会社デンソー | 物体認識装置 |
WO2017110836A1 (en) | 2015-12-22 | 2017-06-29 | Mitsubishi Electric Corporation | Method and system for fusing sensed measurements |
-
2018
- 2018-03-26 JP JP2018058279A patent/JP7069927B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005149395A (ja) | 2003-11-19 | 2005-06-09 | Mitsubishi Heavy Ind Ltd | 文字認識装置、ナンバープレート認識システム |
JP2010218246A (ja) | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | 物体識別装置 |
JP2016161340A (ja) | 2015-02-27 | 2016-09-05 | 株式会社デンソー | ノイズ除去方法および物体認識装置 |
JP2016206026A (ja) | 2015-04-23 | 2016-12-08 | 株式会社デンソー | 物体認識装置 |
WO2017110836A1 (en) | 2015-12-22 | 2017-06-29 | Mitsubishi Electric Corporation | Method and system for fusing sensed measurements |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210286078A1 (en) * | 2020-03-11 | 2021-09-16 | Hyundai Motor Company | Apparatus for tracking object based on lidar sensor and method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2019168417A (ja) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7069927B2 (ja) | 物体認識装置、及び物体認識方法 | |
US10445928B2 (en) | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types | |
US8620032B2 (en) | System and method for traffic signal detection | |
US9298992B2 (en) | Geographic feature-based localization with feature weighting | |
Negru et al. | Image based fog detection and visibility estimation for driving assistance systems | |
US9140792B2 (en) | System and method for sensor based environmental model construction | |
CN110785719A (zh) | 在自动驾驶车辆中用于经由交叉时态验证的即时物体标记的方法和系统 | |
WO2019007263A1 (zh) | 车载传感器的外部参数标定的方法和设备 | |
CN110753953A (zh) | 用于自动驾驶车辆中经由交叉模态验证的以物体为中心的立体视觉的方法和系统 | |
CN110869559A (zh) | 用于自动驾驶车辆中的集成的全局式与分布式学习的方法和系统 | |
CN112740225B (zh) | 一种路面要素确定方法及装置 | |
Wang et al. | Automatic road extraction from mobile laser scanning data | |
JP2024023319A (ja) | 緊急車両の検出 | |
JP6520740B2 (ja) | 物体検出方法、物体検出装置、およびプログラム | |
JPWO2007083494A1 (ja) | 図形認識装置、図形認識方法および図形認識プログラム | |
CN112789208B (zh) | 用于估计交通工具位置的设备和方法 | |
JP2008065087A (ja) | 静止物地図生成装置 | |
WO2024012211A1 (zh) | 自动驾驶环境感知方法、介质及车辆 | |
CN113743171A (zh) | 目标检测方法及装置 | |
CN114323035A (zh) | 定位方法、装置和系统 | |
CN117470258A (zh) | 一种地图构建方法、装置、设备及介质 | |
CN112286178B (zh) | 识别系统、车辆控制系统、识别方法及存储介质 | |
US11138448B2 (en) | Identifying a curb based on 3-D sensor data | |
WO2021056185A1 (en) | Systems and methods for partially updating high-definition map based on sensor data matching | |
CN111479217B (zh) | 隧道内无人驾驶车辆的定位方法、系统和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220418 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7069927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |