JP7355295B2 - データラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体 - Google Patents

データラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP7355295B2
JP7355295B2 JP2022066016A JP2022066016A JP7355295B2 JP 7355295 B2 JP7355295 B2 JP 7355295B2 JP 2022066016 A JP2022066016 A JP 2022066016A JP 2022066016 A JP2022066016 A JP 2022066016A JP 7355295 B2 JP7355295 B2 JP 7355295B2
Authority
JP
Japan
Prior art keywords
detection
obstacle
data
round
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022066016A
Other languages
English (en)
Other versions
JP2022165925A (ja
Inventor
ジャン、イエ
ワン、ジュン
ワン、ハオ
マ、ユ
ワン、リアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022165925A publication Critical patent/JP2022165925A/ja
Application granted granted Critical
Publication of JP7355295B2 publication Critical patent/JP7355295B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • G06N5/047Pattern matching networks; Rete networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は人工知能技術の分野に関し、特に、深層学習、コンピュータビジョン、及び自動運転などの分野のデータラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体に関する。
実際の応用では、多くの障害物検出タスクは、レーザレーダ点群データに基づいて行われる障害物検出など、すべて教師あり学習モデルによって実現されるため、一定数の点群ラベリングデータを予め取得して、モデルのトレーニングを行う必要がある。
現在、主に、人工的なラベリング方式に依存して点群ラベリングデータを取得するが、このような方式は多くの人件費と時間コストなどを必要とする。
本開示は、データラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体を提供する。
データラベリング方法であって、
検出モデルを取得するステップであって、前記検出モデルは、人工的にラベリングされた開始データとするセンサデータを使用してトレーニングして取得されるステップと、
前記検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行うステップであって、前記開始データと前記ラベリング対象のセンサデータは、同じタイプのセンサデータであるステップと、
検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得するステップと、
前記障害物軌跡情報に基づいて前記検出結果を補正し、補正後の検出結果を所望のラベリング結果とするステップと、を含む。
データラベリング装置であって、取得モジュール、検出モジュール、追跡モジュール、及び補正モジュールを含み、
前記取得モジュールは、検出モデルを取得するために用いられ、前記検出モデルは、人工的にラベリングされた開始データとするセンサデータを使用してトレーニングして取得され、
前記検出モジュールは、前記検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行うために用いられ、前記開始データと前記ラベリング対象のセンサデータは、同じタイプのセンサデータであり、
前記追跡モジュールは、検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得するために用いられ、
前記補正モジュールは、前記障害物軌跡情報に基づいて前記検出結果を補正し、補正後の検出結果を所望のラベリング結果とするために用いられる。
電子機器は、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが上記の方法を実行する。
コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体は、前記コンピュータ命令は、前記コンピュータに上記の方法を実行させる。
コンピュータプログラム製品は、コンピュータプログラムを含み、前記コンピュータプログラムがプロセッサによって実行される時に上記の方法を実現する。
上記の開示された実施例は、以下のような利点または有益な効果を備え、取得された検出モデルに基づいて、その後、ラベリング対象のセンサデータのラベリングを自動的に完了し、人件費と時間コストを節約し、ラベリング効率などを向上させることができる。
本明細書で説明された内容は、本開示の実施例のキーまたは重要な特徴を特定することを意図しておらず、本開示の範囲を制限するためにも使用されないことを理解されたい。本開示の他の特徴は、以下の明細書を通じて容易に理解できる。
図面は、本開示をより良く理解するためのものであり、本開示を限定しない。
本開示のデータラベリング方法の実施例のフローチャートである。 本開示のデータラベリング方法の全体的な実現プロセスの概略図である。 本開示の前記データラベリング装置の実施例300の構成構造の概略図である。 本開示の実施例を実施するために使用することができる例示的な電子機器400の概略ブロック図を示す。
以下、図面に基づいて、本開示の例示な実施例を説明する。理解を容易にするために、本開示の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び補正を行うことができることを認識できるはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
また、本明細書の用語「及び/又は」は、関連対象の関連関係のみを説明するものであり、3種類の関係が存在可能であることを表し、例えば、A及び/又はBは、Aのみが存在するか、A及びBが同時に存在するか、Bのみが存在するという3つの場合を表すことができる。符号「/」は、一般的に前後の関連対象が「又は」の関係であることを表すことを理解されたい。
図1は本開示のデータラベリング方法の実施例のフローチャートである。図1に示すように、以下の具体的な実現方式を含む。
ステップ101では、検出モデルを取得し、前記検出モデルは、人工的にラベリングされた開始データとするセンサデータを使用してトレーニングして取得する。
ステップ102では、検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行い、開始データとラベリング対象のセンサデータは、同じタイプのセンサデータである。
ステップ103では、検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得する。
ステップ104では、取得された障害物軌跡情報に基づいて検出結果を補正し、補正後の検出結果を所望のラベリング結果とする。
分かることができる、上記の方法の実施例に記載の解決策では、少量の人工的にラベリングされたセンサデータを開始データとして取得するだけで、その後、ラベリング対象のセンサデータのラベリングを自動的に完了することができ、人件費と時間コストを節約し、ラベリング効率などを向上させる。
好ましくは、上記のセンサデータはレーザレーダセンサに対応する点群データであってもよく、上記の方式により、大量の高品質な点群ラベリングデータを迅速に取得することができる。以下は点群データを例として、本開示に記載された解決策をさらに説明する。
開始データとする点群データの具体的な数は実際のニーズに応じて決定でき、ラベリング対象の点群データと比較すると、開始データとする点群データの数が非常に少ない。
例えば、50万個の点群データが存在し、いずれもラベリングされず、時系列順次で点群データ1-点群データ500000とそれぞれ番号付けると仮定すると、通常、これらの点群データは、時間的に連続しており、すなわち連続的に収集された50万フレームの点群データであり、そうすると、その中の点群データ1-点群データ5000に対して人工的にラベリングを行って、開始データとし、残りの点群データ5001-点群データ500000をラベリング対象の点群データとする。
任意の点群データについて、人工的にラベリングされたラベリング結果は、当該点群データ内の障害物の位置、サイズ、向き、及びカテゴリ(例えば、人、車両など)などを含むことができる。
その後、開始データを使用して検出モデルをトレーニングして取得することができる。好ましくは、開始データを使用してM個の検出モデルをそれぞれトレーニングして取得することができ、Mは1より大きい正の整数であり、具体的な値は、実際のニーズに応じて決定でき、通常は3-5である。例えば、開始データを使用して4つの検出モデルをそれぞれトレーニングして取得し、すなわち基礎モデルグループのトレーニングを完了することができる。
本開示に記載された解決策がオフライン処理であり、計算性能の制約が小さいため、表現力の強いモデルを使用することができ、例えば、時系列モデルまたは他のモデルなどを使用することができ、また、平面図、正面図などの異なる次元から、対応する検出モデルをそれぞれトレーニングすることができる。M個の検出モデルのそれぞれは、具体的には、何のモデルであるかは制限しない。
さらに、M個の検出モデルに対してモデル統合を行って、統合後のモデルを取得することもでき、統合後のモデル性能は、通常、任意の単一の検出モデルよりも優れているため、後続の検出効果などを向上させることができる。モデル統合をどのように行うかは、既存の統合方式を使用することができるなど、同様に限定しない。
統合後のモデルに基づいて、オフライン検出を行うことができ、すなわち統合後のモデルを使用してラベリング対象の点群データに対してオフライン検出を行うことができ、つまり、入力はラベリング対象の点群データであり、出力はオフライン検出結果(障害物検出結果)であり、オフライン検出結果に具体的に含まれる内容は、人工的にラベリングされたラベリング結果と同じであってもよい。
その後、オフライン追跡を行うことができ、すなわち検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得することができる。
好ましくは、ラベリング対象の点群データについて、検出結果に基づいて、時系列順次で第1ラウンドの障害物追跡マッチングを行い、時系列逆順で第2ラウンドの障害物追跡マッチングを行うことができ、さらに、2ラウンドの追跡マッチング結果を組み合わせて各障害物軌跡情報を決定することができる。
すなわち2ラウンドの障害物追跡マッチングを行うことができ、第1ラウンドの障害物追跡マッチングは時系列順次で行われる障害物追跡マッチングであり、第2ラウンドの障害物追跡マッチングは時系列逆順で行われる障害物追跡マッチングである。
障害物追跡マッチングを行うことは、すなわちフレームとフレームとの間の障害物のマッチングを行うことを指し、新の障害物の出現、古い障害物の消失、及び前のフレームと現在のフレーム内の障害物の識別(ID)のマッチングなどを含む。どのように障害物追跡マッチングを行うことは、限定せず、例えば、既存のハンガリーのマッチングアルゴリズムなどを使用することができる。
上記のように、2ラウンドの追跡マッチング結果を組み合わせて各障害物軌跡情報を決定することができる。好ましくは、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果を比較し、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分を保持することができ、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との異なる部分について、グリーディ法によって保持される必要がある部分を決定することができ、さらに、保持された部分に基づいて各障害物軌跡情報を決定することができる。
例えば、点群データ2と点群データ3は、時系列的に隣接する2つのフレーム点群データであり、点群データ2から2つの障害物を検出し、それぞれ障害物aと障害物bであり、点群データ3から3つの障害物を検出し、それぞれ障害物c、障害物d、及び障害物eであり、第1ラウンドの障害物追跡マッチング時、障害物aと障害物cを同一の障害物として決定し、障害物bと障害物dを同一の障害物として決定し、第2ラウンドの障害物追跡マッチング時、障害物cと障害物aを同一の障害物として決定するが、障害物eと障害物bを同一の障害物として決定し、そうすると、障害物aと障害物cは、すなわち第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分であり、障害物bと障害物d、及び障害物eと障害物bなどは、すなわち第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との異なる部分である。
同じ部分について、直接に保持することができ、すなわち第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分をロックすることができ、異なる部分について、各異なる部分と対応する追跡マッチングスコアを追跡キャッシュに一緒に保存し、障害物追跡マッチングを行うプロセスに、すなわち前記追跡マッチングスコアを取得することができる。さらに、キャッシュの各部分について、グリーディ法によって保持される必要がある部分を決定することができ、すなわちグリーディアルゴリズムを使用して処理することができ、具体的な実現は既存の技術であり、例えば、対応する追跡マッチングスコアの最も高い部分をロック(保持)し、それと衝突する部分を削除し、その後、キャッシュが空になるまで、当該プロセスを繰り返すことができる。
保持された部分に基づいて、各障害物軌跡情報を決定することができ、すなわち保持された追跡マッチング結果に基づいて各障害物軌跡情報を生成することができ、具体的な実現は既存の技術である。例えば、ある障害物が連続的な10フレームの点群データに同時に出現すると、これに対応して当該障害物に関する障害物軌跡情報を生成することができる。保持された部分は、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分と、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との異なる部分について、グリーディ法によって決定された保持される必要がある部分と、を含むことを分かることができる。
上記の処理方式では、オフライン処理の入力データが時系列的に完備する利点を使用して、障害物の追跡マッチング結果に対して時系列的なグローバル最適化を行うことによって、処理結果の精度などを向上させる。
各障害物軌跡情報を取得した後、さらに、前記障害物軌跡情報に基づいて検出結果を補正し、補正後の検出結果を所望のラベリング結果とすることができる。
好ましくは、予めトレーニングされたノイズ認識モデルをそれぞれ使用して各障害物軌跡情報に対してノイズ認識を行い、非ノイズとして認識された障害物軌跡情報に対応する検出結果を所望のラベリング結果とすることができる。
どのようにノイズ認識モデルをトレーニングして取得することは限定しない。例えば、人工的にラベリングされた開始データに基づいて、ノイズ認識モデルをトレーニングして取得することができる。例えば、開始データに基づいて各障害物軌跡情報を生成し、各障害物軌跡情報のノイズ特徴を抽出することができ、例えば、検出信頼度平均値、最小値、ライフサイクル、平均点数、最小点数、及び分類認識の分布などであり、さらに、前記ノイズ特徴と、ノイズであるか否かのラベリング結果などに基づいてノイズ認識モデルをトレーニングして取得することができる。
このように、オフライン検出とオフライン追跡とを行った後に取得された各障害物軌跡情報について、ノイズ認識モデルをそれぞれ使用してノイズ認識を行うことができ、すなわち入力は障害物軌跡情報であり、出力は当該障害物軌跡情報ノイズであるか否かの認識結果である。
これに対応して、非ノイズとして認識された障害物軌跡情報に対応する検出結果を所望のラベリング結果とすることができる。1万個の障害物軌跡情報が存在し、その中の500個の障害物軌跡情報がノイズに認識されると、残りの9500個の非ノイズとして認識された障害物軌跡情報に対応する検出結果を所望のラベリング結果とすることができる。
すなわち検出結果に対してノイズフィルタリングを行って、ノイズである検出結果をフィルタリングすることができ、さらに、取得された検出結果の精度などを向上させる。
上記の説明を要約すると、図2は本開示のデータラベリング方法の全体的な実現プロセスの概略図である。具体的な実現は前述の関連説明を参照し、ここでは説明を省略する。
要するに、本開示のデータラベリング方法を使用することによって、点群ラベリングデータなどの大量の高品質なセンサラベリングデータを迅速かつ効率的に取得することができ、関連モデルトレーニングのトレーニングデータの規模と多様性などを拡大することができる。
なお、前述の各方法の実施例について、簡単な説明のために、それをすべて一連の動作の組み合わせとして記載するが、本開示は、本開示に従って、いくつかのステップが他の順序を使用することができるか、または同時に行うことができるため、説明する動作順序によって制限されないことを当業者は認識すべきである。次に、本明細書に記載される実施例はいずれも好ましい実施例に属し、関連する動作およびモジュールは必ずしも本開示に必須ではない。ある実施例においては、詳細には記載されていないが、他の実施例の説明を参照することができる。
以上は、方法の実施例に関する説明であり、以下は、装置の実施例により、本開示に記載された解決策をさらに説明する。
図3は本開示の前記データラベリング装置の実施例300の構成構造の概略図である。図3に示すように、取得モジュール301、検出モジュール302、追跡モジュール303、及び補正モジュール304を含む。
取得モジュール301は、検出モデルを取得するために用いられ、前記検出モデルは、人工的にラベリングされた開始データとするセンサデータを使用してトレーニングして取得する。
検出モジュール302は、検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行うために用いられ、開始データとラベリング対象のセンサデータは、同じタイプのセンサデータである。
追跡モジュール303は、検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得するために用いられる。
補正モジュール304は、障害物軌跡情報に基づいて検出結果を補正し、補正後の検出結果を所望のラベリング結果とするために用いられる。
同様に、点群データを例とし、開始データとする点群データの具体的な数は実際のニーズに応じて決定でき、ラベリング対象の点群データと比較すると、開始データとする点群データの数が非常に少ない。
例えば、50万個の点群データが存在し、いずれもラベリングされず、時系列順次で点群データ1-点群データ500000とそれぞれ番号付けると仮定すると、通常、これらの点群データは、時間的に連続しており、すなわち連続的に収集された50万フレームの点群データであり、そうすると、その中の点群データ1-点群データ5000に対して人工的にラベリングを行って、開始データとし、残りの点群データ5001-点群データ500000をラベリング対象の点群データとする。
取得モジュール301は開始データを使用して検出モデルをトレーニングして取得することができる。好ましくは、開始データを使用してM個の検出モデルをそれぞれトレーニングして取得することができ、Mは1より大きい正の整数である。
これに対応して、検出モジュール302は、M個の検出モデルに対してモデル統合を行って、統合後のモデルを取得することもでき、統合後のモデル性能は、通常、任意の単一の検出モデルよりも優れているため、さらに、統合後のモデルを使用してラベリング対象の点群データに対して障害物検出を行うことができる。
その後、追跡モジュール303は、検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得することができる。好ましくは、ラベリング対象の点群データについて、検出結果に基づいて、時系列順次で第1ラウンドの障害物追跡マッチングを行い、時系列逆順で第2ラウンドの障害物追跡マッチングを行うことができ、さらに、2ラウンドの追跡マッチング結果を組み合わせて各障害物軌跡情報を決定することができる。
第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果を比較し、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分を保持することができ、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との異なる部分について、グリーディ法によって保持される必要がある部分を決定することができ、さらに、保持された部分に基づいて各障害物軌跡情報を決定することができる。
さらに、補正モジュール304は、取得された障害物軌跡情報に基づいて検出結果を補正し、補正後の検出結果を所望のラベリング結果とすることができる。好ましくは、予めトレーニングされたノイズ認識モデルをそれぞれ使用して各障害物軌跡情報に対してノイズ認識を行い、非ノイズとして認識された障害物軌跡情報に対応する検出結果を所望のラベリング結果とすることができる。
図3に示す装置の実施例の具体的なワークフローは、前述の方法の実施例の関連説明を参照し、ここでは説明を省略する。
要するに、本開示の装置の実施例に記載の解決策を使用すると、人件費と時間コストを節約し、ラベリング効率などを向上させることができる。
本開示に記載された解決策は、人工知能の分野に適用することができ、特に、深層学習、コンピュータビジョン、及び自動運転などの分野に関する。
人工知能は、人間のある思考プロセスと知能行為(たとえば、学習、推理、思考、計画など)をコンピュータでシミュレートすることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もあり、人工知能ハードウェア技術は、一般的に、たとえば、センサ、専用の人工知能チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理などの技術を含み、人工知能ソフトウェア技術は、主に、コンピュータビジョン技術、音声認識技術、自然言語処理技術および機械学習/ディープラーニング、ビッグデータ処理技術、知識グラフ技術などのいくつかの方向を含む。
本開示の実施例によれば、本開示は、さらに、電子機器、読み取り可能な記憶媒体、およびコンピュータプログラム製品を提供する。
図4は本開示の実施例を実施するための電子機器400の概略ブロック図を示す。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様の計算デバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図4に示すように、機器400は計算ユニット401を含み、計算ユニット401は、読み取り専用メモリ(ROM)402に記憶されているコンピュータプログラムまたは記憶ユニット408からランダムアクセスメモリ(RAM)403にロードされたコンピュータプログラムに基づいて、様々な適切な動作と処理を実行することができる。RAM403には、機器400が動作するに必要な様々なプログラムとデータも記憶することができる。計算ユニット401、ROM402、およびRAM403は、バス404を介してお互いに接続される。入出力(I/O)インターフェース405もバス404に接続される。
機器400内の複数のコンポーネントは、I/Oインターフェース405に接続されており、キーボード、マウスなどの入力ユニット406と、様々なタイプのディスプレイ、スピーカなどの出力ユニット407と、ディスク、光ディスクなどの記憶ユニット408と、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット409と、を含む。通信ユニット409は、機器400が、インターネットなどのコンピュータネットワーク、および/または様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
計算ユニット401は、様々な処理と計算能力を備える汎用および/または専用の処理コンポーネントである。計算ユニット401のいくつかの例は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット401は、本開示に記載された方法などの上記の様々な方法と処理を実行する。例えば、いくつかの実施例では、本開示に記載された方法は、記憶ユニット408などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。 いくつかの実施例では、コンピュータプログラムの一部または全部は、ROM402および/または通信ユニット409を介して機器400にロードおよび/またはインストールされる。コンピュータプログラムがRAM403にロードされて計算ユニット401によって実行される場合、上記の本開示に記載された方法の一つまたは複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット401は、他の任意の適切な方式(例えば、ファームウェアによって)を介して本開示に記載された方法を実行するように構成されることができる。
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
本開示の方法を実施するためのプログラムコードは、一つまたは複数のプログラミング言語の任意の組み合わせを使用して作成することができる。これらのプログラムコードは、プログラムコードがプロセッサまたはコントローラによって実行される時にフローチャートおよび/またはブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサまたはコントローラに提供することができる。プログラムコードは、完全に機械上で実行されたり、部分的に機械上で実行されたり、独立したソフトウェアパッケージとして部分的に機械上で実行され、部分的にリモート機械上実行されたり、または完全にリモート機械またはサーバ上で実行されたりすることができる。
本開示の文脈において、機械読み取り可能な媒体は、命令実行システム、装置、または機器の使用、または命令実行システム、装置または機器と組み合わせて使用するプログラムを含むか、または記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁気、赤外線、または半導体システム、装置または機器、または上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、一つまたは複数のワイヤに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM またはフラッシュメモリ(登録商標))、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記の内容の任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークと、を含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、クラウド計算またはクラウドホストとも呼ばれ、クラウド計算サービスシステムの中の一つのホスト製品であり、従来の物理ホストとVPSサーバ(VPS)に、存在する管理困難度が高く、業務拡張性が弱い欠陥を解決する。サーバは、分散システムのサーバであってもよく、またはブロックチェーンを組み合わせるサーバであってもよい。クラウドコンピューティングとは、ネットワークを介して柔軟で拡張可能な共有物理又は仮想リソースプールにアクセスし、リソースが、サーバ、操作システム、ネットワーク、ソフトウェア、アプリケーション及び記憶デバイスなどを含むことができ、必要に応じてセルフサービスの方式でリソースを配置及び管理できる技術体系を指す。クラウドコンピューティング技術によって、人工知能、ブロックチェーンなどの技術の適用、モデルトレーニングに効率的で強力なデータ処理能力を提供することができる。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記の具体的な実施方式は、本開示に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (9)

  1. コンピュータにより実行される、データラベリング方法であって、
    検出モデルを取得するステップであって、前記検出モデルは人工的にラベリングされた開始データとするセンサデータを使用してトレーニングして取得されるステップと、
    前記検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行うステップであって、前記開始データと前記ラベリング対象のセンサデータは、同じタイプのセンサデータであるステップと、
    検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得するステップと、
    前記障害物軌跡情報に基づいて前記検出結果を補正し、補正後の検出結果を所望のラベリング結果とするステップと、を含
    検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得するステップは、
    前記ラベリング対象のセンサデータについて、前記検出結果に基づいて、時系列順次で第1ラウンドの障害物追跡マッチングを行い、時系列逆順で第2ラウンドの障害物追跡マッチングを行い、2つのラウンドの追跡マッチング結果を組み合わせて各障害物軌跡情報を決定するステップを含み、
    2つのラウンドの追跡マッチング結果を組み合わせて各障害物軌跡情報を決定するステップは、
    第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果を比較し、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分を保持するステップと、
    第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との異なる部分について、グリーディ法により、保持される必要がある部分を決定するステップと、
    保持された部分に基づいて各障害物軌跡情報を決定するステップと、を含む、
    データラベリング方法。
  2. 前記検出モデルの数はM個であり、Mは1より大きい正の整数であり、
    前記検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行うステップは、M個の検出モデルに対してモデル統合を行い、統合後のモデルを使用して前記ラベリング対象のセンサデータに対して障害物検出を行うステップを含む、
    請求項1に記載のデータラベリング方法。
  3. 前記障害物軌跡情報に基づいて前記検出結果を補正し、補正後の検出結果を所望のラベリング結果とするステップは、
    予めトレーニングされたノイズ認識モデルをそれぞれ使用して各障害物軌跡情報に対してノイズ認識を行い、非ノイズとして認識された障害物軌跡情報に対応する検出結果を前記ラベリング結果とするステップと、を含む、
    請求項1に記載のデータラベリング方法。
  4. データラベリング装置であって、
    取得モジュール、検出モジュール、追跡モジュール、及び補正モジュールを含み、
    前記取得モジュールは、検出モデルを取得するために用いられ、前記検出モデルは、人工的にラベリングされた開始データとするセンサデータを使用してトレーニングして取得され、
    前記検出モジュールは、前記検出モデルを使用してラベリング対象のセンサデータに対して障害物検出を行うために用いられ、前記開始データと前記ラベリング対象のセンサデータは、同じタイプのセンサデータであり、
    前記追跡モジュールは、検出結果に基づいて障害物追跡マッチングを行い、各障害物軌跡情報を取得するために用いられ、
    前記補正モジュールは、前記障害物軌跡情報に基づいて前記検出結果を補正し、補正後の検出結果を所望のラベリング結果とするために用いられ、
    前記追跡モジュールは、前記ラベリング対象のセンサデータについて、前記検出結果に基づいて、時系列順次で第1ラウンドの障害物追跡マッチングを行い、時系列逆順で第2ラウンドの障害物追跡マッチングを行い、2つのラウンドの追跡マッチング結果を組み合わせて各障害物軌跡情報を決定し、
    前記追跡モジュールは、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果を比較し、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との同じ部分を保持し、第1ラウンドの追跡マッチング結果と第2ラウンドの追跡マッチング結果との異なる部分について、グリーディ法により、保持される必要がある部分を決定し、保持された部分に基づいて各障害物軌跡情報を決定する、
    データラベリング装置。
  5. 前記検出モデルの数はM個であり、Mは1より大きい正の整数であり、
    前記検出モジュールは、さらに、M個の検出モデルに対してモデル統合を行い、統合後のモデルを使用して前記ラベリング対象のセンサデータに対して障害物検出を行うために用いられる、
    請求項に記載のデータラベリング装置。
  6. 前記補正モジュールは、予めトレーニングされたノイズ認識モデルをそれぞれ使用して各障害物軌跡情報に対してノイズ認識を行い、非ノイズとして認識された障害物軌跡情報に対応する検出結果を前記ラベリング結果とする、
    請求項4又は5に記載のデータラベリング装置。
  7. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
    前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが請求項1からのいずれかの一つに記載のデータラベリング方法を実行する、
    電子機器。
  8. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1からのいずれかの一つに記載のデータラベリング方法を実行させる、
    コンピュータ読み取り可能な記憶媒体。
  9. プロセッサによって実行される時に請求項1からのいずれかの一つに記載のデータラベリング方法を実現する、
    コンピュータプログラム。
JP2022066016A 2021-04-20 2022-04-13 データラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体 Active JP7355295B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110425364.4A CN113205119B (zh) 2021-04-20 2021-04-20 数据标注方法、装置、电子设备及可读存储介质
CN202110425364.4 2021-04-20

Publications (2)

Publication Number Publication Date
JP2022165925A JP2022165925A (ja) 2022-11-01
JP7355295B2 true JP7355295B2 (ja) 2023-10-03

Family

ID=77027359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022066016A Active JP7355295B2 (ja) 2021-04-20 2022-04-13 データラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体

Country Status (5)

Country Link
US (1) US20220335316A1 (ja)
EP (1) EP4083875A1 (ja)
JP (1) JP7355295B2 (ja)
KR (1) KR20220144776A (ja)
CN (1) CN113205119B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807184B (zh) * 2021-08-17 2024-06-21 北京百度网讯科技有限公司 障碍物检测方法、装置、电子设备及自动驾驶车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040335A (ja) 2017-08-24 2019-03-14 三菱電機インフォメーションシステムズ株式会社 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム
US20210027103A1 (en) 2019-07-24 2021-01-28 Nvidia Corporation Automatic generation of ground truth data for training or retraining machine learning models
JP2021012586A (ja) 2019-07-08 2021-02-04 株式会社日立製作所 データ生成装置、データ生成システムおよびデータ生成方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533325B (zh) * 2016-03-16 2020-01-21 三菱电机株式会社 机械运动轨迹测定装置
CN107945198B (zh) * 2016-10-13 2021-02-23 北京百度网讯科技有限公司 用于标注点云数据的方法和装置
US11966838B2 (en) * 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
CN109544598B (zh) * 2018-11-21 2021-09-24 电子科技大学 目标跟踪方法、装置及可读存储介质
CN110991489B (zh) * 2019-11-11 2023-10-10 苏州智加科技有限公司 一种驾驶数据的标注方法、装置及系统
CN110865421B (zh) * 2019-11-18 2022-04-15 北京百度网讯科技有限公司 自动驾驶业务模型训练方法、检测方法、装置和电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040335A (ja) 2017-08-24 2019-03-14 三菱電機インフォメーションシステムズ株式会社 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム
JP2021012586A (ja) 2019-07-08 2021-02-04 株式会社日立製作所 データ生成装置、データ生成システムおよびデータ生成方法
US20210027103A1 (en) 2019-07-24 2021-01-28 Nvidia Corporation Automatic generation of ground truth data for training or retraining machine learning models

Also Published As

Publication number Publication date
CN113205119A (zh) 2021-08-03
US20220335316A1 (en) 2022-10-20
KR20220144776A (ko) 2022-10-27
EP4083875A1 (en) 2022-11-02
CN113205119B (zh) 2023-10-31
JP2022165925A (ja) 2022-11-01

Similar Documents

Publication Publication Date Title
CN113205037B (zh) 事件检测的方法、装置、电子设备以及可读存储介质
CN113313053B (zh) 图像处理方法、装置、设备、介质及程序产品
CN113033622A (zh) 跨模态检索模型的训练方法、装置、设备和存储介质
CN112949433B (zh) 视频分类模型的生成方法、装置、设备和存储介质
CN115457329B (zh) 图像分类模型的训练方法、图像分类方法和装置
CN112580666A (zh) 图像特征的提取方法、训练方法、装置、电子设备及介质
CN113344089A (zh) 模型训练方法、装置及电子设备
JP7355295B2 (ja) データラベリング方法、装置、電子機器、及び読み取り可能な記憶媒体
CN114511743B (zh) 检测模型训练、目标检测方法、装置、设备、介质及产品
CN114220163B (zh) 人体姿态估计方法、装置、电子设备及存储介质
US11610396B2 (en) Logo picture processing method, apparatus, device and medium
CN114581732A (zh) 一种图像处理及模型训练方法、装置、设备和存储介质
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
CN113205120B (zh) 数据标注方法、装置、电子设备及可读存储介质
CN114120180B (zh) 一种时序提名的生成方法、装置、设备及介质
CN116069967A (zh) 图片处理方法、装置、电子设备及存储介质
CN114973333A (zh) 人物交互检测方法、装置、设备以及存储介质
CN113947195A (zh) 模型确定方法、装置、电子设备和存储器
CN114119972A (zh) 模型获取及对象处理方法、装置、电子设备及存储介质
CN113935482A (zh) 一种行人再识别网络的训练方法及装置
CN113408592B (zh) 特征点匹配方法、装置、电子设备及计算机可读存储介质
CN115984619A (zh) 目标检测模型的训练方法、目标检测方法、装置和设备
CN116052188A (zh) 表格检测方法、装置、电子设备及存储介质
CN113836418A (zh) 数据的推送方法、装置、电子设备和存储介质
CN116935482A (zh) 交互检测模型的获取及交互检测方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230907

R150 Certificate of patent or registration of utility model

Ref document number: 7355295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150