JP7372488B2 - 機械学習モデルの精度を調べるためのグラウンドトゥルースを修正するための装置と方法 - Google Patents
機械学習モデルの精度を調べるためのグラウンドトゥルースを修正するための装置と方法 Download PDFInfo
- Publication number
- JP7372488B2 JP7372488B2 JP2023007371A JP2023007371A JP7372488B2 JP 7372488 B2 JP7372488 B2 JP 7372488B2 JP 2023007371 A JP2023007371 A JP 2023007371A JP 2023007371 A JP2023007371 A JP 2023007371A JP 7372488 B2 JP7372488 B2 JP 7372488B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- ground truth
- determining
- area
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000010801 machine learning Methods 0.000 title claims description 22
- 230000011218 segmentation Effects 0.000 claims description 27
- 238000012360 testing method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 7
- 238000009877 rendering Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
Claims (18)
- 対象物検出機械学習モデルの精度をテストするための画像データのグラウンドトゥルースを修正するための方法であって、
カメラ視点からの画像取り込み領域の画像データを取得することと、
前記画像取り込み領域における対象物に関するグラウンドトゥルースデータを取得することと、
前記取得した画像データに含まれている対象物の可視率を決定することと、
前記決定された可視率に基づいて、前記グラウンドトゥルースデータを修正することと、
を備えていることを特徴とする方法。 - 前記可視率を前記決定することは、
前記対象物の全体のサイズを決定することと、
前記取得した画像データにおける前記対象物の可視領域のサイズを計算することと、
前記可視率を取得するために、前記可視領域の前記サイズを前記対象物の前記全体のサイズで割ることと、
を備えていることを特徴とする請求項1に記載の方法。 - 前記対象物の前記全体のサイズを前記決定することは、
前記対象物を個々に完全に描画することと、
前記個々に描画された対象物の領域を計算することと、
を備えていることを特徴とする請求項2に記載の方法。 - 前記対象物の前記全体のサイズを前記決定することは、
前記画像取り込み領域の全シーンに対するグラウンドトゥルース対象物セグメンテーションを取得することと、
前記グラウンドトゥルース対象物セグメンテーションにおける前記対象物の領域を計算することと、
を備えていることを特徴とする請求項2に記載の方法。 - 前記取得した画像データにおける前記対象物の前記可視領域の前記サイズを前記計算することは、前記可視領域に含まれている画素の数を決定すること、または、前記可視領域の境界を形成する多角形の領域を決定することを備えていることを特徴とする請求項2に記載の方法。
- 前記画像取り込み領域の前記画像データを前記取得することは、自律運転シミュレータのカメラセンサモデルにより生成された前記画像データを取得することを備えていることを特徴とする請求項1~5のいずれか1項に記載の方法。
- 対象物検出機械学習モデルの精度をテストするための画像データのグラウンドトゥルースを修正するための装置であって、
命令を格納しているメモリと、
少なくとも1つのプロセッサを備え、前記少なくとも1つのプロセッサは、
カメラ視点からの画像取り込み領域の画像データを取得し、
前記画像取り込み領域における対象物に関するグラウンドトゥルースデータを取得し、
前記取得した画像データに含まれている対象物の可視率を決定し、
前記決定された可視率に基づいて、前記グラウンドトゥルースデータを修正する、
ために前記命令を実行するように構成されていることを特徴とする装置。 - 前記少なくとも1つのプロセッサは更に、
前記対象物の全体のサイズを決定し、
前記取得した画像データにおける前記対象物の可視領域のサイズを計算し、
前記可視率を取得するために、前記可視領域の前記サイズを前記対象物の前記全体のサイズで割る、
ために前記命令を実行するように構成されていることを特徴とする請求項7に記載の装置。 - 前記少なくとも1つのプロセッサは更に、
前記対象物を個々に完全に描画し、
前記対象物の前記全体のサイズとして、前記個々に描画された対象物の領域を計算する、
ために前記命令を実行するように構成されていることを特徴とする請求項8に記載の装置。 - 前記少なくとも1つのプロセッサは更に、
前記画像取り込み領域の全シーンに対するグラウンドトゥルース対象物セグメンテーションを取得し、
前記対象物の前記全体のサイズとして、前記グラウンドトゥルース対象物セグメンテーションにおける前記対象物の領域を計算する、
ために前記命令を実行するように構成されていることを特徴とする請求項8に記載の装置。 - 前記少なくとも1つのプロセッサは更に、前記可視領域に含まれている画素の数を決定することにより、または、前記可視領域の境界を形成する多角形の領域を決定することにより、前記取得した画像データにおける前記対象物の前記可視領域の前記サイズを計算するために前記命令を実行するように構成されていることを特徴とする請求項8に記載の装置。
- 前記少なくとも1つのプロセッサは更に、自律運転シミュレータのカメラセンサモデルにより生成された前記画像データを取得するために前記命令を実行するように構成されていることを特徴とする請求項7~11のいずれか1項に記載の装置。
- 命令を記録している非一時的コンピュータ読み取り可能記録媒体であって、前記命令は、対象物検出機械学習モデルの精度をテストするための画像データのグラウンドトゥルースを修正するための方法を実行するために少なくとも1つのプロセッサにより実行可能であり、前記方法は、
カメラ視点からの画像取り込み領域の画像データを取得することと、
前記画像取り込み領域における対象物に関するグラウンドトゥルースデータを取得することと、
前記取得した画像データに含まれている対象物の可視率を決定することと、
前記決定された可視率に基づいて、前記グラウンドトゥルースデータを修正することと、
を備えていることを特徴とする非一時的コンピュータ読み取り可能記録媒体。 - 前記可視率を前記決定することは、
前記対象物の全体のサイズを決定することと、
前記取得した画像データにおける前記対象物の可視領域のサイズを計算することと、
前記可視率を取得するために、前記可視領域の前記サイズを前記対象物の前記全体のサイズで割ることと、
を備えていることを特徴とする請求項13に記載の非一時的コンピュータ読み取り可能記録媒体。 - 前記対象物の前記全体のサイズを前記決定することは、
前記対象物を個々に完全に描画することと、
前記個々に描画された対象物の領域を計算することと、
を備えていることを特徴とする請求項14に記載の非一時的コンピュータ読み取り可能記録媒体。 - 前記対象物の前記全体のサイズを前記決定することは、
前記画像取り込み領域の全シーンに対するグラウンドトゥルース対象物セグメンテーションを取得することと、
前記グラウンドトゥルース対象物セグメンテーションにおける前記対象物の領域を計算することと、
を備えていることを特徴とする請求項14に記載の非一時的コンピュータ読み取り可能記録媒体。 - 前記取得した画像データにおける前記対象物の前記可視領域の前記サイズを前記計算することは、前記可視領域に含まれている画素の数を決定すること、または、前記可視領域の境界を形成する多角形の領域を決定することを備えていることを特徴とする請求項14に記載の非一時的コンピュータ読み取り可能記録媒体。
- 前記画像取り込み領域の前記画像データを前記取得することは、自律運転シミュレータのカメラセンサモデルにより生成された前記画像データを取得することを備えていることを特徴とする請求項13~17のいずれか1項に記載の非一時的コンピュータ読み取り可能記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/687,860 US20230282002A1 (en) | 2022-03-07 | 2022-03-07 | Apparatus and method for modifying ground truth for checking accuracy of machine learning model |
US17/687,860 | 2022-03-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023130300A JP2023130300A (ja) | 2023-09-20 |
JP7372488B2 true JP7372488B2 (ja) | 2023-10-31 |
Family
ID=87850865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023007371A Active JP7372488B2 (ja) | 2022-03-07 | 2023-01-20 | 機械学習モデルの精度を調べるためのグラウンドトゥルースを修正するための装置と方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230282002A1 (ja) |
JP (1) | JP7372488B2 (ja) |
CN (1) | CN116778283A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207365A1 (ja) | 2017-05-12 | 2018-11-15 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
JP2019003554A (ja) | 2017-06-19 | 2019-01-10 | コニカミノルタ株式会社 | 画像認識装置、画像認識方法、および画像認識装置用プログラム |
JP2019046095A (ja) | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9842274B2 (en) * | 2014-03-28 | 2017-12-12 | Xerox Corporation | Extending data-driven detection to the prediction of object part locations |
JP6782108B2 (ja) * | 2016-07-19 | 2020-11-11 | 大成建設株式会社 | 可視率算出装置 |
US10635844B1 (en) * | 2018-02-27 | 2020-04-28 | The Mathworks, Inc. | Methods and systems for simulating vision sensor detection at medium fidelity |
US11801861B2 (en) * | 2020-04-01 | 2023-10-31 | Nvidia Corporation | Using image augmentation with simulated objects for training machine learning models in autonomous driving applications |
GB202101254D0 (en) * | 2021-01-29 | 2021-03-17 | Five Ai Ltd | Performance testing for robotic systems |
-
2022
- 2022-03-07 US US17/687,860 patent/US20230282002A1/en active Pending
-
2023
- 2023-01-20 JP JP2023007371A patent/JP7372488B2/ja active Active
- 2023-03-06 CN CN202310208691.3A patent/CN116778283A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207365A1 (ja) | 2017-05-12 | 2018-11-15 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
JP2019003554A (ja) | 2017-06-19 | 2019-01-10 | コニカミノルタ株式会社 | 画像認識装置、画像認識方法、および画像認識装置用プログラム |
JP2019046095A (ja) | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN116778283A (zh) | 2023-09-19 |
US20230282002A1 (en) | 2023-09-07 |
JP2023130300A (ja) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102677044B1 (ko) | 이미지 처리 방법, 장치 및 디바이스, 및 저장 매체 | |
CN111161349B (zh) | 物体姿态估计方法、装置与设备 | |
EP3644277B1 (en) | Image processing system, image processing method, and program | |
US11341653B2 (en) | Apparatus and method for training model for image segmentation | |
CN111144242B (zh) | 一种三维目标检测方法、装置及终端 | |
US10679099B2 (en) | Method and apparatus for a manifold view of space | |
US10891795B2 (en) | Localization method and apparatus based on 3D color map | |
WO2019183087A1 (en) | Data augmentation using computer simulated objects for autonomous control systems | |
CN108121997A (zh) | 使用机器学习模型的图像数据中的对象分类 | |
CN109101690A (zh) | 用于渲染车辆自动驾驶模拟器中的场景的方法和装置 | |
US11748937B2 (en) | Sub-pixel data simulation system | |
CN108122239A (zh) | 使用深度分割的图像数据中的对象检测 | |
US10165168B2 (en) | Model-based classification of ambiguous depth image data | |
US11748998B1 (en) | Three-dimensional object estimation using two-dimensional annotations | |
GB2550037A (en) | Method and system for virtual sensor data generation with depth ground truth annotation | |
CN111091038A (zh) | 训练方法、计算机可读介质和检测消失点的方法及装置 | |
WO2022193604A1 (en) | Devices, systems, methods, and media for point cloud data augmentation using model injection | |
CN115362478A (zh) | 用于标记图像之间的空间关系的强化学习模型 | |
CN114830177A (zh) | 电子设备和用于控制该电子设备的方法 | |
US20230377160A1 (en) | Method and electronic device for achieving accurate point cloud segmentation | |
JP7372488B2 (ja) | 機械学習モデルの精度を調べるためのグラウンドトゥルースを修正するための装置と方法 | |
GB2605621A (en) | Monocular depth estimation | |
JP6481596B2 (ja) | 車両用ヘッドアップディスプレイの評価支援装置 | |
US20230186512A1 (en) | Electronic device and method for obtaining three-dimensional (3d) skeleton data of user's hand photographed using plurality of cameras | |
CN112926378B (zh) | 一种车辆侧边棱确定方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230120 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20230516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |