JP7279848B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents
画像処理装置、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7279848B2 JP7279848B2 JP2022505680A JP2022505680A JP7279848B2 JP 7279848 B2 JP7279848 B2 JP 7279848B2 JP 2022505680 A JP2022505680 A JP 2022505680A JP 2022505680 A JP2022505680 A JP 2022505680A JP 7279848 B2 JP7279848 B2 JP 7279848B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- dimensional
- unit
- point
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Description
物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する三次元点群分割部と、
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するクラスタ写像部と、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記クラスタ写像部にて写像された写像点群の各点に対してラベルを付与するラベル照合部と、
前記ラベル照合部によって付与された写像点群の各点のラベルに対して投票する照合結果投票部と、
前記照合結果投票部による投票結果に基づいて、前記写像点群の各点のラベルを決定するラベル決定部と、
を備える画像処理装置
である。
上記目的を達成するための一態様は、
物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割するステップと
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するステップと、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与するステップと、
前記付与された写像点群の各点のラベルに対して投票するステップと、
前記投票結果に基づいて、前記写像点群の各点のラベルを決定するステップと、
を含む画像処理方法
であってもよい。
上記目的を達成するための一態様は、
物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する処理と
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成する処理と、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与する処理と、
前記付与された写像点群の各点のラベルに対して投票する処理と、
前記投票結果に基づいて、前記写像点群の各点のラベルを決定する処理と、
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体
であってもよい。
本発明を実施するための形態について、図面を参照して詳細に説明する。図1は、本実施形態1に係る画像処理装置の概略的なシステム構成を示すブロック図である。本実施形態に係る画像処理装置1は、図1に示すように、三次元点群取得部10と、カメラ情報取得部11と、二次元ラベル取得部12と、コンピュータ20と、点群ラベル出力部31と、を備えている。
・三次元点群の各点を区別するための添え字;j
・三次元点群の世界座標系における各点の座標:(Xj、Yj、Zj)
・カメラ座標系における各点の座標:(xj、yj)
・物体ラベル:Bk
・各物体を区別するための添え字:k
・オブジェクトや属性を区別するためのラベル:q
・位置情報:Dk
・クラスタリングパラメータ:Lt
・クラスタリングパラメータを区別するための添え字:t
・世界座標系における分割された各クラスタを区別するための変数:Pt
・カメラ座標における分割された各クラスタを区別するための変数:Ct
・j番目の点群、t番目のクラスタリングパラメータに割り当てられた物体ラベル:Qjt
・各点jにおけるq番目の物体ラベルにおける投票数(信頼度):Sjq
・点群のj番目の点の物体ラベル:Gj
三次元点群取得部10は、三次元点群取得装置などにより物体の三次元点群の情報を取得する。三次元点群取得部10は、具体的に、LiDAR(Light Detection And Ranging、Laser Imaging Detection and Ranging)など距離を計測する装置を用いて、空間上の三次元点の座標を取得する。三次元点群取得部10は、空間上の三次元点の座標の集合を三次元点群として取得する。
カメラ情報取得部(情報取得部)11は、三次元点群の座標と二次元画像の画素の座標との対応関係を含むカメラ情報を取得する。より具体的には、カメラ情報取得部11は、三次元点群の座標の位置(すなわち世界座標における三次元座標)と、二次元画像のある画素の座標(すなわちカメラ座標から投影して得られる二次元座標)と、の間の変換に必要なパラメータ(以下、変換パラメータ)を含むカメラ情報を取得する。
二次元ラベル取得部12は、二次元画像の対象となる物体のラベルと、その二次元画像上の位置情報と、を取得する。物体のラベルは、例えば人、車,犬、自転車のようなオブジェクトの種類に関するラベルである。物体のラベルは、赤い服、青い鞄、年齢、性別などの属性情報に関するラベルであってもよい。上記二次元画像上の位置情報は、例えば、対象となっている物体の矩形の4点の座標やそれに類似する情報である。二次元画像上の位置情報は、物体の中心座標であってもよく、或いは物体上が存在する座標上の幾つかの点であってもよい。
コンピュータ20は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサと、RAM(Random Access Memory)やROM(Read Only Memory)などの内部メモリと、HDD(Hard Disk Drive)やSDD(Solid State Drive)などのストレージデバイスと、ディスプレイなどの周辺機器を接続するための入出力I/Fと、装置外部の機器と通信を行う通信I/Fと、を備えた通常のコンピュータのハードウェア構成を有する。
三次元点群分割部201は、三次元点群取得部10により取得された三次元点群を、複数のクラスタリングパラメータを用いて、点間の距離が小さいほど同じクラスタにクラスタリングされるように分割する。
クラスタ写像部202は、カメラ情報取得部11により取得されたカメラ情報と、三次元点群分割部201により分割されたクラスタリング結果と、に基づいて、三次元点群の分割クラスタPtを、図4に示すように、二次元ラベルが定義されたカメラ座標へ写像する。上記カメラ情報は、例えば、内部パラメータ、外部パラメータなどの変換パラメータを含む。上記クラスタリング結果は、例えば、分割クラスタPt及び三次元点群座標(Xj,Yj,Zj)を含む。
ラベル照合部203は、図4に示すように、クラスタ写像部202により写像された写像点群の各点に対して、二次元ラベル取得部12により取得された位置情報Dkと、物体のラベルBkと、に基づいてラベルを付与する。
照合結果投票部204は、ラベル照合部203によってクラスタリングパラメータ毎に得られた写像点群の各点のラベルQjtを、投票により統合する。
ラベル決定部205は、照合結果投票部204による投票結果に基づいて、写像点群の各点のラベルを決定する。例えば、ラベル決定部205は、照合結果投票部204により算出された信頼度Sjqを用いて、点群の点j毎に、最大のqをとる値をその点jにおけるラベルであるとして決定する。より具体的には、ラベル決定部205は、以下の式を用いて算出される値Gjを点群のj番目の点のラベルとする。
点群ラベル出力部31は、後述のラベル決定部205により決定された点群のj番目の点のラベルを出力する。なお、点群ラベル出力部31は、出力結果をディスプレイに表示してもよいし、メモリなどの記録装置にその値を出力してもよい。
図7は、本実施形態2に係る画像処理装置の概略的なシステム構成を示すブロック図である。本実施形態2に係る画像処理装置100は、図7に示すように、上記実施形態1に係る構成に加えて、画像取得部13と、セグメンテーションラベル出力部32と、を更に備えている。また、本実施形態2に係るコンピュータは、上記実施形態1に係る構成に加えて、セグメンテーションラベル生成部206と、セグメンテーションラベル修正部207と、を更に有している。
画像取得部13は、三次元点群取得部10により三次元点群が取得されたシーンと同一時刻同一場所の画像を取得する。例えば、画像取得部101は、カメラや測定用のセンサなどにより、一枚以上の二次元画像や測定値を取得する。二次元画像或いは測定値は、可視画像に限定されず、例えば、その他のセンサから取得された画像であってもよい。二次元画像或いは測定値は、温度画像や深度画像などであってもよい。画像取得部13は、取得した二次元画像或いは測定値を、メモリ(図示せず)等に記録する。
Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Accurate joint geometric camera calibration of visible and far-infrared cameras." Electronic Imaging 2017.11 (2017): 7-13.
(非特許文献4)
Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Unified Image Fusion Framework With Learning-Based Application-Adaptive Importance Measure." IEEE Transactions on Computational Imaging 5.1 (2018): 82-96.
セグメンテーションラベル生成部206は、画像取得部13により取得された画像に基づいて、セグメンテーションラベルを生成する。セグメンテーションラベル生成部206は、例えば、物体の種類ごとに領域分割するセマンティックセグメンテーションなどを用いて、セグメンテーションラベルを生成する。セマンティックセグメンテーションの方法は、例えば、下記非特許文献5に開示されており、これを援用できるものとする。
Long, Jonathan, Evan Shelhamer, and Trevor Darrell. "Fully convolutional networks for semantic segmentation." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015.
セグメンテーションラベル修正部207は、ラベル決定部205により決定された物体ラベルと、セグメンテーションラベル生成部206により生成されたセグメンテーションラベルと、を比較し、両者のラベルに相違がある場合、そのセグメンテーションラベルをラベル決定部205によるラベルに修正する。
セグメンテーションラベル出力部32は、セグメンテーションラベル修正部207により修正されたセグメンテーションラベルを出力する。セグメンテーションラベル出力部32は、出力結果をディスプレイに表示してもよいし、メモリなどの記録装置にその値を出力してもよい。
10 三次元点群取得部
11 カメラ情報取得部
12 二次元ラベル取得部
13 画像取得部
20 コンピュータ
31 点群ラベル出力部
32 セグメンテーションラベル出力部
100 画像処理装置
201 三次元点群分割部
202 クラスタ写像部
203 ラベル照合部
204 照合結果投票部
205 ラベル決定部
206 セグメンテーションラベル生成部
207 セグメンテーションラベル修正部
Claims (8)
- 物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する三次元点群分割部と、
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するクラスタ写像部と、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記クラスタ写像部にて写像された写像点群の各点に対してラベルを付与するラベル照合部と、
前記ラベル照合部によって付与された写像点群の各点のラベルに対して投票する照合結果投票部と、
前記照合結果投票部による投票結果に基づいて、前記写像点群の各点のラベルを決定するラベル決定部と、
を備える画像処理装置。 - 請求項1記載の画像処理装置であって、
前記物体の三次元点群を取得する三次元点群取得部と、
前記三次元点群の座標と二次元画像の画素の座標との対応関係を取得する情報取得部と、
前記二次元画像の対象となるラベルと、該二次元画像上の位置情報と、を取得する二次元ラベル取得部と、
前記ラベル決定部により決定された写像点群の各点のラベルを出力する点群ラベル出力部と、
を更に備える画像処理装置。 - 請求項1又は2記載の画像処理装置であって、
前記三次元点群が取得されたシーンと同一時刻同一場所の画像を取得することを特徴とする画像取得部と、
前記画像取得部により取得された画像から、セマンティックセグメンテーションを用いて、セグメンテーションラベルを生成するセグメンテーションラベル生成部と、
前記ラベル決定部により決定されたラベルと、前記セグメンテーションラベル生成部により生成されたセグメンテーションラベルと、を比較し、前記ラベル決定部によるラベルと、前記セグメンテーションラベル生成部によるセグメンテーションラベルと、が相違している場合、前記セグメンテーションラベル生成部によるセグメンテーションラベルを前記ラベル決定部によるラベルに修正するセグメンテーションラベル修正部と、
前記セグメンテーションラベル修正部により修正されたラベルを出力するセグメンテーションラベル出力部と、
更に備える画像処理装置。 - 請求項1乃至3のうちいずれか1項記載の画像処理装置であって、
前記ラベル決定部は、前記照合結果投票部による投票結果に基づいて前記写像点群の各点のラベルを決定する際に、前記ラベルに対する信頼度の全てが第1所定値より低い場合、人手により前記写像点群の各点にラベルを割り当てる方法に決定する、
画像処理装置。 - 請求項4項記載の画像処理装置であって、
前記ラベル決定部は、前記人手によるラベルの割当て方法として、前記ラベルに対する信頼度の全てが第1所定値より低い場合、前記信頼度が前記第1所定値よりも低い第2所定値よりも高い複数のラベルを表示し、人が該表示されたラベルを選択する方法に決定する、
画像処理装置。 - 請求項1乃至5のうちのいずれか1項記載の画像処理装置であって、
前記照合結果投票部は、前記ラベル照合部によって付与された写像点群の各点のラベルおよび、該各点の周囲の点群のラベルに対しても投票を行う、
画像処理装置。 - 物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割するステップと
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するステップと、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与するステップと、
前記付与された写像点群の各点のラベルに対して投票するステップと、
前記投票結果に基づいて、前記写像点群の各点のラベルを決定するステップと、
を含む画像処理方法。 - 物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する処理と
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成する処理と、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与する処理と、
前記付与された写像点群の各点のラベルに対して投票する処理と、
前記投票結果に基づいて、前記写像点群の各点のラベルを決定する処理と、
をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/011021 WO2021181647A1 (ja) | 2020-03-13 | 2020-03-13 | 画像処理装置、画像処理方法、およびコンピュータ可読媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021181647A1 JPWO2021181647A1 (ja) | 2021-09-16 |
JPWO2021181647A5 JPWO2021181647A5 (ja) | 2022-09-29 |
JP7279848B2 true JP7279848B2 (ja) | 2023-05-23 |
Family
ID=77671063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022505680A Active JP7279848B2 (ja) | 2020-03-13 | 2020-03-13 | 画像処理装置、画像処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230162371A1 (ja) |
JP (1) | JP7279848B2 (ja) |
WO (1) | WO2021181647A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114442101B (zh) * | 2022-01-28 | 2023-11-14 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
WO2023188179A1 (ja) * | 2022-03-30 | 2023-10-05 | 日本電信電話株式会社 | 三次元点群セグメンテーション装置、三次元点群セグメンテーション方法、及び三次元点群セグメンテーションプログラム |
WO2023218855A1 (ja) * | 2022-05-12 | 2023-11-16 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法及び情報生成方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123234A (ja) | 2002-07-30 | 2009-06-04 | Fujifilm Corp | オブジェクト識別方法および装置ならびにプログラム |
JP2014186567A (ja) | 2013-03-25 | 2014-10-02 | Geo Technical Laboratory Co Ltd | 3次元点群解析方法 |
JP2018173707A (ja) | 2017-03-31 | 2018-11-08 | 株式会社国際電気通信基礎技術研究所 | 人推定システムおよび推定プログラム |
US20190286915A1 (en) | 2018-03-13 | 2019-09-19 | Honda Motor Co., Ltd. | Robust simultaneous localization and mapping via removal of dynamic traffic participants |
-
2020
- 2020-03-13 US US17/801,559 patent/US20230162371A1/en active Pending
- 2020-03-13 WO PCT/JP2020/011021 patent/WO2021181647A1/ja active Application Filing
- 2020-03-13 JP JP2022505680A patent/JP7279848B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123234A (ja) | 2002-07-30 | 2009-06-04 | Fujifilm Corp | オブジェクト識別方法および装置ならびにプログラム |
JP2014186567A (ja) | 2013-03-25 | 2014-10-02 | Geo Technical Laboratory Co Ltd | 3次元点群解析方法 |
JP2018173707A (ja) | 2017-03-31 | 2018-11-08 | 株式会社国際電気通信基礎技術研究所 | 人推定システムおよび推定プログラム |
US20190286915A1 (en) | 2018-03-13 | 2019-09-19 | Honda Motor Co., Ltd. | Robust simultaneous localization and mapping via removal of dynamic traffic participants |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021181647A1 (ja) | 2021-09-16 |
US20230162371A1 (en) | 2023-05-25 |
WO2021181647A1 (ja) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7190842B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
CA3028653C (en) | Methods and systems for color point cloud generation | |
CN109829398B (zh) | 一种基于三维卷积网络的视频中的目标检测方法 | |
JP7279848B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN110226186B (zh) | 表示地图元素的方法和装置以及定位的方法和装置 | |
JP2023523243A (ja) | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム | |
CN110568447A (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN106560835B (zh) | 一种路牌识别方法及装置 | |
US20220139094A1 (en) | Image processing device, image processing method, and recording medium | |
CN113936198B (zh) | 低线束激光雷达与相机融合方法、存储介质及装置 | |
JPWO2020090428A1 (ja) | 地物検出装置、地物検出方法および地物検出プログラム | |
KR102167835B1 (ko) | 영상 처리 방법 및 장치 | |
CN111815707A (zh) | 点云确定方法、点云筛选方法、装置、计算机设备 | |
WO2021114776A1 (en) | Object detection method, object detection device, terminal device, and medium | |
US20220301277A1 (en) | Target detection method, terminal device, and medium | |
CN110544268B (zh) | 一种基于结构光及SiamMask网络的多目标跟踪方法 | |
WO2022054422A1 (ja) | 障害物検知装置、障害物検知システム及び障害物検知方法 | |
CN115147333A (zh) | 一种目标检测方法及装置 | |
Cui et al. | Dense depth-map estimation based on fusion of event camera and sparse LiDAR | |
CN115100741A (zh) | 一种点云行人距离风险检测方法、系统、设备和介质 | |
US20220276046A1 (en) | System and method for providing improved geocoded reference data to a 3d map representation | |
WO2021114775A1 (en) | Object detection method, object detection device, terminal device, and medium | |
EP4078087A1 (en) | Method and mobile entity for detecting feature points in an image | |
US20230334819A1 (en) | Illuminant estimation method and apparatus for electronic device | |
WO2024018726A1 (ja) | プログラム、方法、システム、道路マップ、および道路マップの作成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230424 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7279848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |