JP6892157B2 - V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 - Google Patents
V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 Download PDFInfo
- Publication number
- JP6892157B2 JP6892157B2 JP2020009527A JP2020009527A JP6892157B2 JP 6892157 B2 JP6892157 B2 JP 6892157B2 JP 2020009527 A JP2020009527 A JP 2020009527A JP 2020009527 A JP2020009527 A JP 2020009527A JP 6892157 B2 JP6892157 B2 JP 6892157B2
- Authority
- JP
- Japan
- Prior art keywords
- test
- learning
- nth
- coordinate
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 281
- 238000000034 method Methods 0.000 title claims description 106
- 238000005516 engineering process Methods 0.000 title description 8
- 230000004927 fusion Effects 0.000 title description 4
- 238000013528 artificial neural network Methods 0.000 claims description 141
- 239000011159 matrix material Substances 0.000 claims description 140
- 210000002569 neuron Anatomy 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000007796 conventional method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3691—Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/416—Exact reconstruction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Atmospheric Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Description
Claims (30)
- 多数の車両によって取得された情報のうち、HDマップ(High Definition Map)をアップデートするために利用される特定情報を選択する学習方法において、
(a)学習装置が、ターゲット領域内で検出された第1クラウドポイントないし第Nクラウドポイントに対応する第1座標ないし第N座標に対する情報を含む少なくとも一つの座標マトリックスが取得されると、座標ニューラルネットワークをもって、前記座標マトリックスに少なくとも一つの座標ニューラルネットワーク演算を適用して、少なくとも一つのローカル特徴マップ及び少なくとも一つのグローバル特徴ベクトルを生成するようにする段階;
(b)前記学習装置が、(i)前記ローカル特徴マップと、(ii)前記グローバル特徴ベクトルと、(iii)前記第1クラウドポイントないし前記第Nクラウドポイントに対応する第1クラス情報ないし第Nクラス情報に対する情報を含む少なくとも一つのクラスマトリックスとを統合して生成された少なくとも一つの統合特徴マップが取得されると、判断ニューラルネットワークをもって、前記統合特徴マップに少なくとも一つの判断ニューラルネットワーク演算を適用して、それぞれの前記第1クラウドポイントないし前記第Nクラウドポイントに対する情報が前記HDマップのアップデートに利用される確率それぞれを示す第1予測適合度スコアないし第N予測適合度スコアを生成するようにする段階;及び
(c)前記学習装置が、ロスレイヤをもって、(i)前記第1予測適合度スコアないし前記第N予測適合度スコアと(ii)第1GT(Ground−Truth)適合度スコアないし第NのGT適合度スコアとを参照してロスを生成するようにし、前記ロスを利用したバックプロパゲーション(backpropagation)を遂行することにより、前記判断ニューラルネットワーク及び前記座標ニューラルネットワークのパラメータのうちの少なくとも一部を学習するようにする段階;
を含むことを特徴とする方法。 - 前記(a)段階で、
前記学習装置が、前記座標ニューラルネットワークの少なくとも一つの座標コンボリューションレイヤに含まれている一つ以上の座標コンボリューションニューロンそれぞれをもって、前記座標ニューラルネットワークのパラメータを用いて少なくとも一つの座標コンボリューションニューロン演算を入力された値に適用した後、出力された値をそれぞれ次の座標コンボリューションニューロンに伝達させることにより、前記座標ニューラルネットワーク演算のうちの少なくとも一部である少なくとも一つの座標コンボリューション演算を前記座標マトリックスに適用することにより、前記ローカル特徴マップを生成するようにすることを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記学習装置が、前記座標ニューラルネットワークのグローバル特徴レイヤをもって、前記座標ニューラルネットワーク演算のうちの少なくとも一部である少なくとも一つのグローバル特徴演算を前記ローカル特徴マップに適用して前記グローバル特徴ベクトルを生成するようにすることを特徴とする請求項2に記載の方法。 - 前記(b)段階で、
前記統合特徴マップは、(i)特定の順序で整列された前記第1クラス情報ないし前記第Nクラス情報を成分として含む前記クラスマトリックス、(ii)前記特定の順序で整列された、前記第1クラウドポイントないし前記第Nクラウドポイントそれぞれに対応するそれぞれの特徴値を成分として含む前記ローカル特徴マップ、及び(iii)前記グローバル特徴ベクトルをN回複製して生成されたグローバル特徴マップを、チャネル方向にコンカチネーティング(Channel−wise Concatenating)して生成されることを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記学習装置が、(i)前記判断ニューラルネットワークの少なくとも一つの判断コンボリューションレイヤに含まれた一つ以上の判断コンボリューションニューロンそれぞれをもって、前記判断ニューラルネットワークのパラメータを用いて、少なくとも一つの判断コンボリューションニューロン演算を入力された値に適用した後、出力された値をそれぞれ次の判断コンボリューションニューロンに伝達させることにより、前記判断ニューラルネットワーク演算のうちの少なくとも一部である少なくとも一つの判断コンボリューション演算を前記判断マトリックスに適用するようにし、判断特徴マップを生成するようにした後、(ii)前記判断ニューラルネットワークの判断出力レイヤをもって、前記判断特徴マップを参照して前記第1クラウドポイントないし前記第Nクラウドポイントに前記判断ニューラルネットワーク演算の一部である分類(classification)演算を適用して、前記第1予測適合度スコアないし前記第N予測適合度スコアを生成するようにすることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記学習装置が、前記ロスレイヤをもって、最急下降法(gradient descent)を利用して、前記バックプロパゲーションを遂行することにより、前記バックプロパゲーションによって調整された前記パラメータを利用して生成される後続第1予測適合度スコアないし後続第N予測適合度スコアが前記後続第1予測適合度スコアないし前記後続第N予測適合度スコアそれぞれに対応する後続第1GT適合度スコアないし後続第NのGT適合度スコアと相対的にさらに類似するようにさせることを特徴とする請求項1に記載の方法。 - 一つ以上のデータ取得車両と連動するサーバが、(i)それぞれの前記データ取得車両によって取得した地図データを、それぞれの前記地図データが取得された位置に対するそれぞれの位置情報を参照にして分類し、(ii)前記分類された地図データ内の前記ターゲット領域に対するターゲット情報を利用して前記座標マトリックス及び前記クラスマトリックスを生成し、(iii)前記座標マトリックス及び前記クラスマトリックスを前記学習装置に伝達することを特徴とする請求項1に記載の方法。
- 前記地図データのうちの、第1特定地図データ及び第2特定地図データが同一の特定領域に対応する場合、前記サーバが、前記第1特定地図データ及び前記第2特定地図データに少なくとも一つの統合演算を適用して前記第1特定地図データ及び前記第2特定地図データを統合することを特徴とする請求項8に記載の方法。
- 前記データ取得車両それぞれは、(i)少なくとも一つのカメラ及び少なくとも一つの深さセンサのうちの少なくとも一部と、(ii)前記少なくとも一つのカメラ及び前記少なくとも一つの深さセンサのうちの少なくとも一部に対応する演算モジュールとを利用して、前記データ取得車両それぞれから距離閾値以下に位置する一つ以上の物体に対するクラウドポイント情報及びクラス情報を取得することにより、前記地図データのうち少なくとも一部を取得し、前記地図データのうち少なくとも一部を前記サーバに伝達することを特徴とする請求項8に記載の方法。
- 前記サーバは、(i)前記地図データに含まれている、前記ターゲット領域に対応する特定クラウドポイント情報を用いて前記座標マトリックスを生成するプロセス、及び(ii)前記地図データに含まれている、前記ターゲット領域に対応する特定クラス情報を用いて前記クラスマトリックスを生成するプロセスを遂行することを特徴とする請求項10に記載の方法。
- 多数の車両によって取得された情報のうち、HDマップをアップデートするために利用される特定情報を選択するテスティング方法において、
(a)(1)学習装置が、学習用ターゲット領域内で検出された第1学習用クラウドポイントないし第N学習用クラウドポイントに対応する第1学習用座標ないし第N学習用座標に対する情報を含む少なくとも一つの学習用座標マトリックスが取得されると、座標ニューラルネットワークをもって、前記学習用座標マトリックスに少なくとも一つの座標ニューラルネットワーク演算を適用して、少なくとも一つの学習用ローカル特徴マップ及び少なくとも一つの学習用グローバル特徴ベクトルを生成するようにし、(2)前記学習装置が、(i)前記学習用ローカル特徴マップと、(ii)前記学習用グローバル特徴ベクトルと、(iii)前記第1学習用クラウドポイントないし前記第N学習用クラウドポイントに対応する第1学習用クラス情報ないし第N学習用クラス情報に対する情報を含む少なくとも一つの学習用クラスマトリックスとを統合して生成された少なくとも一つの学習用統合特徴マップが取得されると、判断ニューラルネットワークをもって、前記学習用統合特徴マップに少なくとも一つの判断ニューラルネットワーク演算を適用して、それぞれの前記第1学習用クラウドポイントないし前記第N学習用クラウドポイントに対する情報が前記学習用HDマップのアップデートに利用される確率それぞれを示す第1学習用予測適合度スコアないし第N学習用予測適合度スコアを生成するようにし、(3)前記学習装置が、ロスレイヤをもって、(i)前記第1学習用予測適合度スコアないし前記第N学習用予測適合度スコアと、(ii)第1GT適合度スコアないし第NのGT適合度スコアとを参照してロスを生成するようにし、前記ロスを利用したバックプロパゲーションを遂行することにより、前記判断ニューラルネットワーク及び前記座標ニューラルネットワークのパラメータのうちの少なくとも一部を学習するようにした状態で、テスティング装置が、テスト用ターゲット領域内で検出された第1テスト用クラウドポイントないし第Nテスト用クラウドポイントに対応する第1テスト用座標ないし第Nテスト用座標に対する情報を含む少なくとも一つのテスト用座標マトリックスが取得されると、前記座標ニューラルネットワークをもって、前記テスト用座標マトリックスに前記座標ニューラルネットワーク演算を適用して、少なくとも一つのテスト用ローカル特徴マップ及び少なくとも一つのテスト用グローバル特徴ベクトルを生成するようにする段階;及び
(b)前記テスティング装置が、(i)前記テスト用ローカル特徴マップと、(ii)前記テスト用グローバル特徴ベクトルと、(iii)前記第1テスト用クラウドポイントないし前記第Nテスト用クラウドポイントに対応する第1テスト用クラス情報ないし第Nテスト用クラス情報に対する情報を含む少なくとも一つのテスト用クラスマトリックスとを統合して生成された少なくとも一つのテスト用統合特徴マップが取得されると、前記判断ニューラルネットワークをもって、前記テスト用統合特徴マップに前記判断ニューラルネットワーク演算を適用して、それぞれの前記第1テスト用クラウドポイントないし前記第Nテスト用クラウドポイントに対する情報が前記テスト用HDマップのアップデートに利用される確率それぞれを示す第1テスト用予測適合度スコアないし第Nテスト用予測適合度スコアを生成するようにする段階;
を含むことを特徴とするテスティング方法。 - (c)前記テスティング装置が、アップデートモジュールをもって、前記第1テスト用予測適合度スコアないし前記第Nテスト用予測適合度スコアそれぞれが閾値以上であるか否かを判断するようにし、前記閾値以上の特定予測適合度スコアを有する一つ以上の特定クラウドポイントに対する特定情報を利用して前記テスト用HDマップをアップデートするようにする段階;
をさらに含むことを特徴とする請求項12に記載のテスティング方法。 - 一つ以上のテスト用データ取得車両と連動するテスト用サーバが、(i)それぞれの前記テスト用データ取得車両によって取得されたテスト用地図データそれぞれを、前記テスト用地図データが取得されたそれぞれの位置に対するそれぞれのテスト用位置情報を参照にして分類し、(ii)分類された前記テスト用地図データに含まれた、前記テスト用ターゲット領域に対するテスト用ターゲット情報を利用して前記テスト用座標マトリックス及び前記テスト用クラスマトリックスを生成し、(iii)前記テスト用座標マトリックス及び前記テスト用クラスマトリックスを前記テスト用学習装置に伝達することを特徴とする請求項12に記載のテスティング方法。
- 前記テスト用サーバは、(i)前記テスト用地図データに含まれている、前記テスト用ターゲット領域に対応するテスト用特定クラウドポイント情報を用いて前記テスト用座標マトリックスを生成するプロセス、及び(ii)前記テスト用地図データに含まれている、前記テスト用ターゲット領域に対応するテスト用特定クラス情報を用いて前記テスト用クラスマトリックスを生成するプロセスを遂行することを特徴とする請求項12に記載のテスティング方法。
- 多数の車両によって取得された情報のうち、HDマップをアップデートするために利用される特定情報を選択する学習装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)ターゲット領域内で検出された第1クラウドポイントないし第Nクラウドポイントに対応する第1座標ないし第N座標に対する情報を含む少なくとも一つの座標マトリックスが取得されると、座標ニューラルネットワークをもって、前記座標マトリックスに少なくとも一つの座標ニューラルネットワーク演算を適用して、少なくとも一つのローカル特徴マップ及び少なくとも一つのグローバル特徴ベクトルを生成するようにするプロセス、(II)(i)前記ローカル特徴マップと、(ii)前記グローバル特徴ベクトルと、(iii)前記第1クラウドポイントないし前記第Nクラウドポイントに対応する第1クラス情報ないし第Nクラス情報に対する情報を含む少なくとも一つのクラスマトリックスとを統合して生成された少なくとも一つの統合特徴マップが取得されると、判断ニューラルネットワークをもって、前記統合特徴マップに少なくとも一つの判断ニューラルネットワーク演算を適用して、それぞれの前記第1クラウドポイントないし前記第Nクラウドポイントに対する情報が前記HDマップのアップデートに利用される確率それぞれを示す第1予測適合度スコアないし第N予測適合度スコアを生成するようにするプロセス、及び(III)ロスレイヤをもって、(i)前記第1予測適合度スコアないし前記第N予測適合度スコアと(ii)第1GT(Ground−Truth)適合度スコアないし第NのGT適合度スコアとを参照してロスを生成するようにし、前記ロスを利用したバックプロパゲーション(backpropagation)を遂行することにより、前記判断ニューラルネットワーク及び前記座標ニューラルネットワークのパラメータのうちの少なくとも一部を学習するようにするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とする学習装置。 - 前記(I)プロセスで、
前記プロセッサが、前記座標ニューラルネットワークの少なくとも一つの座標コンボリューションレイヤに含まれている一つ以上の座標コンボリューションニューロンそれぞれをもって、前記座標ニューラルネットワークのパラメータを用いて少なくとも一つの座標コンボリューションニューロン演算を入力された値に適用した後、出力された値をそれぞれ次の座標コンボリューションニューロンに伝達させることにより、前記座標ニューラルネットワーク演算のうちの少なくとも一部である少なくとも一つの座標コンボリューション演算を前記座標マトリックスに適用することにより、前記ローカル特徴マップを生成するようにすることを特徴とする請求項16に記載の学習装置。 - 前記(I)プロセスで、
前記プロセッサが、前記座標ニューラルネットワークのグローバル特徴レイヤをもって、前記座標ニューラルネットワーク演算のうちの少なくとも一部である少なくとも一つのグローバル特徴演算を前記ローカル特徴マップに適用して前記グローバル特徴ベクトルを生成するようにすることを特徴とする請求項17に記載の学習装置。 - 前記(II)プロセスで、
前記統合特徴マップは、(i)特定の順序で整列された前記第1クラス情報ないし前記第Nクラス情報を成分として含む前記クラスマトリックス、(ii)前記特定の順序で整列された、前記第1クラウドポイントないし前記第Nクラウドポイントそれぞれに対応するそれぞれの特徴値を成分として含む前記ローカル特徴マップ、及び(iii)前記グローバル特徴ベクトルをN回複製して生成されたグローバル特徴マップを、チャネル方向にコンカチネーティングして生成されることを特徴とする請求項16に記載の学習装置。 - 前記(II)プロセスで、
前記プロセッサが、(i)前記判断ニューラルネットワークの少なくとも一つの判断コンボリューションレイヤに含まれた一つ以上の判断コンボリューションニューロンそれぞれをもって、前記判断ニューラルネットワークのパラメータを用いて、少なくとも一つの判断コンボリューションニューロン演算を入力された値に適用した後、出力された値をそれぞれ次の判断コンボリューションニューロンに伝達させることにより、前記判断ニューラルネットワーク演算のうちの少なくとも一部である少なくとも一つの判断コンボリューション演算を前記判断マトリックスに適用するようにし、判断特徴マップを生成するようにし、(ii)前記判断ニューラルネットワークの判断出力レイヤをもって、前記判断特徴マップを参照して前記第1クラウドポイントないし前記第Nクラウドポイントに前記判断ニューラルネットワーク演算の一部である分類演算を適用して、前記第1予測適合度スコアないし前記第N予測適合度スコアを生成するようにすることを特徴とする請求項16に記載の学習装置。 - 前記(III)プロセスで、
前記プロセッサが、前記ロスレイヤをもって、最急下降法(gradient descent)を利用して、前記バックプロパゲーションを遂行することにより、前記バックプロパゲーションによって調整された前記パラメータを利用して生成される後続第1予測適合度スコアないし後続第N予測適合度スコアが前記後続第1予測適合度スコアないし前記後続第N予測適合度スコアそれぞれに対応する後続第1GT適合度スコアないし後続第NのGT適合度スコアと相対的にさらに類似するようにさせることを特徴とする請求項16に記載の学習装置。 - 一つ以上のデータ取得車両と連動するサーバが、(i)それぞれの前記データ取得車両によって取得した地図データを、それぞれの前記地図データが取得された位置に対するそれぞれの位置情報を参照にして分類し、(ii)前記分類された地図データ内の前記ターゲット領域に対するターゲット情報を利用して前記座標マトリックス及び前記クラスマトリックスを生成し、(iii)前記座標マトリックス及び前記クラスマトリックスを前記学習装置に伝達することを特徴とする請求項16に記載の学習装置。
- 前記地図データのうちの、第1特定地図データ及び第2特定地図データが同一の特定領域に対応する場合、前記サーバが、前記第1特定地図データ及び前記第2特定地図データに少なくとも一つの統合演算を適用して前記第1特定地図データ及び前記第2特定地図データを統合することを特徴とする請求項23に記載の学習装置。
- 前記データ取得車両それぞれは、(i)少なくとも一つのカメラ及び少なくとも一つの深さセンサのうちの少なくとも一部と、(ii)前記少なくとも一つのカメラ及び前記少なくとも一つの深さセンサのうちの少なくとも一部に対応する演算モジュールとを利用して、前記データ取得車両それぞれから距離閾値以下に位置する一つ以上の物体に対するクラウドポイント情報及びクラス情報を取得することにより、前記地図データのうち少なくとも一部を取得し、前記地図データのうち少なくとも一部を前記サーバに伝達することを特徴とする請求項23に記載の学習装置。
- 前記サーバは、(i)前記地図データに含まれている、前記ターゲット領域に対応する特定クラウドポイント情報を用いて前記座標マトリックスを生成するプロセス、及び(ii)前記地図データに含まれている、前記ターゲット領域に対応する特定クラス情報を用いて前記クラスマトリックスを生成するプロセスを遂行することを特徴とする請求項25に記載の学習装置。
- 多数の車両によって取得された情報のうち、HDマップをアップデートするために利用される特定情報を選択するテスティング装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)(1)学習装置が、学習用ターゲット領域内で検出された第1学習用クラウドポイントないし第N学習用クラウドポイントに対応する第1学習用座標ないし第N学習用座標に対する情報を含む少なくとも一つの学習用座標マトリックスが取得されると、座標ニューラルネットワークをもって、前記学習用座標マトリックスに少なくとも一つの座標ニューラルネットワーク演算を適用して、少なくとも一つの学習用ローカル特徴マップ及び少なくとも一つの学習用グローバル特徴ベクトルを生成するようにし、(2)前記学習装置が、(i)前記学習用ローカル特徴マップと、(ii)前記学習用グローバル特徴ベクトルと、(iii)前記第1学習用クラウドポイントないし前記第N学習用クラウドポイントに対応する第1学習用クラス情報ないし第N学習用クラス情報に対する情報を含む少なくとも一つの学習用クラスマトリックスとを統合して生成された少なくとも一つの学習用統合特徴マップが取得されると、判断ニューラルネットワークをもって、前記学習用統合特徴マップに少なくとも一つの判断ニューラルネットワーク演算を適用して、それぞれの前記第1学習用クラウドポイントないし前記第N学習用クラウドポイントに対する情報が前記学習用HDマップのアップデートに利用される確率それぞれを示す第1学習用予測適合度スコアないし第N学習用予測適合度スコアを生成するようにし、(3)前記学習装置が、ロスレイヤをもって、(i)前記第1学習用予測適合度スコアないし前記第N学習用予測適合度スコアと、(ii)第1GT適合度スコアないし第NのGT適合度スコアとを参照してロスを生成するようにし、前記ロスを利用したバックプロパゲーションを遂行することにより、前記判断ニューラルネットワーク及び前記座標ニューラルネットワークのパラメータのうちの少なくとも一部を学習するようにした状態で、テスト用ターゲット領域内で検出された第1テスト用クラウドポイントないし第Nテスト用クラウドポイントに対応する第1テスト用座標ないし第Nテスト用座標に対する情報を含む少なくとも一つのテスト用座標マトリックスが取得されると、前記座標ニューラルネットワークをもって、前記テスト用座標マトリックスに前記座標ニューラルネットワーク演算を適用して、少なくとも一つのテスト用ローカル特徴マップ及び少なくとも一つのテスト用グローバル特徴ベクトルを生成するようにするプロセス、及び(II)(i)前記テスト用ローカル特徴マップと、(ii)前記テスト用グローバル特徴ベクトルと、(iii)前記第1テスト用クラウドポイントないし前記第Nテスト用クラウドポイントに対応する第1テスト用クラス情報ないし第Nテスト用クラス情報に対する情報を含む少なくとも一つのテスト用クラスマトリックスとを統合して生成された少なくとも一つのテスト用統合特徴マップが取得されると、前記判断ニューラルネットワークをもって、前記テスト用統合特徴マップに前記判断ニューラルネットワーク演算を適用して、それぞれの前記第1テスト用クラウドポイントないし前記第Nテスト用クラウドポイントに対する情報が前記テスト用HDマップのアップデートに利用される確率それぞれを示す第1テスト用予測適合度スコアないし第Nテスト用予測適合度スコアを生成するようにするプロセスを遂行するための、前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするテスティング装置。 - 前記プロセッサが、(III)アップデートモジュールをもって、前記第1テスト用予測適合度スコアないし前記第Nテスト用予測適合度スコアそれぞれが閾値以上であるか否かを判断するようにし、前記閾値以上の特定予測適合度スコアを有する一つ以上の特定クラウドポイントに対する特定情報を利用して前記テスト用HDマップをアップデートするようにするプロセスをさらに遂行することを特徴とする請求項27に記載のテスティング装置。
- 一つ以上のテスト用データ取得車両と連動するテスト用サーバが、(i)それぞれの前記テスト用データ取得車両によって取得されたテスト用地図データそれぞれを、前記テスト用地図データが取得されたそれぞれの位置に対するそれぞれのテスト用位置情報を参照にして分類し、(ii)分類された前記テスト用地図データに含まれた、前記テスト用ターゲット領域に対するテスト用ターゲット情報を利用して前記テスト用座標マトリックス及び前記テスト用クラスマトリックスを生成し、(iii)前記テスト用座標マトリックス及び前記テスト用クラスマトリックスを前記テスティング装置に伝達することを特徴とする請求項27に記載のテスティング装置。
- 前記テスト用サーバは、(i)前記テスト用地図データに含まれている、前記テスト用ターゲット領域に対応するテスト用特定クラウドポイント情報を用いて前記テスト用座標マトリックスを生成するプロセス、及び(ii)前記テスト用地図データに含まれている、前記テスト用ターゲット領域に対応するテスト用特定クラス情報を用いて前記テスト用クラスマトリックスを生成するプロセスを遂行することを特徴とする請求項27に記載のテスティング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798656P | 2019-01-30 | 2019-01-30 | |
US62/798,656 | 2019-01-30 | ||
US16/724,994 US10733511B1 (en) | 2019-01-30 | 2019-12-23 | Learning method and learning device for updating HD map by reconstructing 3D space by using depth estimation information and class information on each object, which have been acquired through V2X information integration technique, and testing method and testing device using the same |
US16/724,994 | 2019-12-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123348A JP2020123348A (ja) | 2020-08-13 |
JP6892157B2 true JP6892157B2 (ja) | 2021-06-23 |
Family
ID=69190630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009527A Active JP6892157B2 (ja) | 2019-01-30 | 2020-01-23 | V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10733511B1 (ja) |
EP (1) | EP3690756B1 (ja) |
JP (1) | JP6892157B2 (ja) |
KR (1) | KR102373493B1 (ja) |
CN (1) | CN111508252B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220146277A1 (en) * | 2020-11-09 | 2022-05-12 | Argo AI, LLC | Architecture for map change detection in autonomous vehicles |
CN113064193B (zh) * | 2021-03-25 | 2022-12-16 | 上海智能新能源汽车科创功能平台有限公司 | 一种基于车路云协同的组合定位系统 |
WO2023085702A1 (ko) * | 2021-11-09 | 2023-05-19 | 엘지전자 주식회사 | 무선 통신 시스템에서 제1 장치가 제1 메시지를 전송하는 방법 및 이를 위한 장치 |
CN115762199B (zh) * | 2022-09-20 | 2023-09-29 | 东南大学 | 一种基于深度强化学习和逆强化学习的交通灯控制方法 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2014002197A (es) * | 2011-09-02 | 2014-05-30 | Koninkl Philips Nv | Formacion de imagenes de nubes de puntos densas rapidas que usan mapas voxel probabilisticos. |
GB201116959D0 (en) * | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Vehicle localisation with 2d laser scanner and 3d prior scans |
US10075656B2 (en) * | 2013-10-30 | 2018-09-11 | At&T Intellectual Property I, L.P. | Methods, systems, and products for telepresence visualizations |
US9292961B1 (en) * | 2014-08-26 | 2016-03-22 | The Boeing Company | System and method for detecting a structural opening in a three dimensional point cloud |
WO2016183074A1 (en) * | 2015-05-10 | 2016-11-17 | Mobileye Vision Technologies Ltd. | Road profile along a predicted path |
US9613423B2 (en) * | 2015-06-12 | 2017-04-04 | Google Inc. | Using a depth map of a monitored scene to identify floors, walls, and ceilings |
US10482196B2 (en) * | 2016-02-26 | 2019-11-19 | Nvidia Corporation | Modeling point cloud data using hierarchies of Gaussian mixture models |
CN106023210B (zh) * | 2016-05-24 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 无人车、无人车定位方法、装置和系统 |
CN106052697B (zh) * | 2016-05-24 | 2017-11-14 | 百度在线网络技术(北京)有限公司 | 无人车、无人车定位方法、装置和系统 |
US10838426B2 (en) * | 2016-07-21 | 2020-11-17 | Mobileye Vision Technologies Ltd. | Distributing a crowdsourced sparse map for autonomous vehicle navigation |
EP3324209A1 (en) * | 2016-11-18 | 2018-05-23 | Dibotics | Methods and systems for vehicle environment map generation and updating |
CN106776996B (zh) * | 2016-12-02 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于测试高精度地图的准确性的方法和装置 |
US10670416B2 (en) | 2016-12-30 | 2020-06-02 | DeepMap Inc. | Traffic sign feature creation for high definition maps used for navigating autonomous vehicles |
US10436595B2 (en) * | 2017-02-02 | 2019-10-08 | Baidu Usa Llc | Method and system for updating localization maps of autonomous driving vehicles |
US10380890B2 (en) * | 2017-02-08 | 2019-08-13 | Baidu Usa Llc | Autonomous vehicle localization based on walsh kernel projection technique |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US10078790B2 (en) * | 2017-02-16 | 2018-09-18 | Honda Motor Co., Ltd. | Systems for generating parking maps and methods thereof |
CN108732584B (zh) * | 2017-04-17 | 2020-06-30 | 百度在线网络技术(北京)有限公司 | 用于更新地图的方法和装置 |
CN108732582B (zh) * | 2017-04-20 | 2020-07-10 | 百度在线网络技术(北京)有限公司 | 车辆定位方法和装置 |
US10467756B2 (en) * | 2017-05-14 | 2019-11-05 | International Business Machines Corporation | Systems and methods for determining a camera pose of an image |
US11263526B2 (en) | 2017-05-31 | 2022-03-01 | Intel Corporation | Gradient-based training engine for quaternion-based machine-learning systems |
US10360686B2 (en) * | 2017-06-13 | 2019-07-23 | TuSimple | Sparse image point correspondences generation and correspondences refinement system for ground truth static scene sparse flow generation |
US10488521B2 (en) * | 2017-06-13 | 2019-11-26 | TuSimple | Sensor calibration and time method for ground truth static scene sparse flow generation |
US10481267B2 (en) * | 2017-06-13 | 2019-11-19 | TuSimple | Undistorted raw LiDAR scans and static point extractions method for ground truth static scene sparse flow generation |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
US10859682B2 (en) * | 2017-12-07 | 2020-12-08 | Ouster, Inc. | Telematics using a light ranging system |
US11127203B2 (en) * | 2018-05-16 | 2021-09-21 | Samsung Electronics Co., Ltd. | Leveraging crowdsourced data for localization and mapping within an environment |
CN109064506B (zh) * | 2018-07-04 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | 高精度地图生成方法、装置及存储介质 |
CN108847121A (zh) * | 2018-07-04 | 2018-11-20 | 深圳地平线机器人科技有限公司 | 构建高精度地图的方法和装置 |
US10282864B1 (en) * | 2018-09-17 | 2019-05-07 | StradVision, Inc. | Method and device for encoding image and testing method and testing device using the same |
US10528867B1 (en) * | 2018-10-08 | 2020-01-07 | StradVision, Inc. | Learning method and learning device for neural network at adaptive learning rate, and testing method and testing device using the same |
US10395140B1 (en) * | 2019-01-23 | 2019-08-27 | StradVision, Inc. | Learning method and learning device for object detector based on CNN using 1×1 convolution to be used for hardware optimization, and testing method and testing device using the same |
-
2019
- 2019-12-23 US US16/724,994 patent/US10733511B1/en active Active
-
2020
- 2020-01-06 KR KR1020200001730A patent/KR102373493B1/ko active IP Right Grant
- 2020-01-08 CN CN202010017082.6A patent/CN111508252B/zh active Active
- 2020-01-23 JP JP2020009527A patent/JP6892157B2/ja active Active
- 2020-01-23 EP EP20153262.9A patent/EP3690756B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR102373493B1 (ko) | 2022-03-14 |
EP3690756A1 (en) | 2020-08-05 |
US20200242478A1 (en) | 2020-07-30 |
EP3690756B1 (en) | 2023-09-27 |
CN111508252B (zh) | 2022-12-30 |
CN111508252A (zh) | 2020-08-07 |
JP2020123348A (ja) | 2020-08-13 |
EP3690756C0 (en) | 2023-09-27 |
US10733511B1 (en) | 2020-08-04 |
KR20200094644A (ko) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6892157B2 (ja) | V2x情報融合技術によって取得された、各物体に対する深さ予測情報及び各物体に対するクラス情報を利用して3d空間を再構築することによりhdマップをアップデートする学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
KR102296507B1 (ko) | 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
JP6855082B2 (ja) | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
JP6849898B2 (ja) | 生成ニューラルネットワークと、判別ニューラルネットワークとを含む敵対的生成ネットワークを利用して、合成可否判断不可の合成イメージを生成する方法、及び装置 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
JP2020123343A (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
CN110378483A (zh) | 部署在模拟平台上的用于训练机器学习模型的系统和方法 | |
JP6908944B2 (ja) | 多重カメラまたはサラウンドビューモニタリングに利用されるために、ターゲット物体統合ネットワーク及びターゲット物体予測ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に適用可能なcnn基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
JP6912835B2 (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP7092383B2 (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
US10402978B1 (en) | Method for detecting pseudo-3D bounding box based on CNN capable of converting modes according to poses of objects using instance segmentation and device using the same | |
JP6979228B2 (ja) | V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same} | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
EP3686776B1 (en) | Method for detecting pseudo-3d bounding box to be used for military purpose, smart phone or virtual driving based on cnn capable of converting modes according to conditions of objects | |
JP6853543B2 (ja) | 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置 | |
EP4050510A1 (en) | Object information calculation method and system | |
Vasić et al. | Deep semantic image segmentation for UAV-UGV cooperative path planning: A car park use case |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6892157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |