JP7226553B2 - 情報処理装置、データ生成方法、及びプログラム - Google Patents
情報処理装置、データ生成方法、及びプログラム Download PDFInfo
- Publication number
- JP7226553B2 JP7226553B2 JP2021533869A JP2021533869A JP7226553B2 JP 7226553 B2 JP7226553 B2 JP 7226553B2 JP 2021533869 A JP2021533869 A JP 2021533869A JP 2021533869 A JP2021533869 A JP 2021533869A JP 7226553 B2 JP7226553 B2 JP 7226553B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- estimation
- learning
- likelihood
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
以下、図面を参照して本発明の実施の形態について説明する。図1を用いて実施の形態1にかかる情報処理装置10の構成例について説明する。情報処理装置10は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。
続いて、図2を用いて実施の形態2にかかる情報処理装置20の構成例について説明する。情報処理装置20は、撮像センサ11、学習部12、推定部13、LIDARセンサ21、及び統合部22を有している。撮像センサ11、学習部12、及び推定部13は、図1の撮像センサ11、学習部12、及び推定部13と同様であり、詳細な説明を省略する。情報処理装置20を構成する構成要素は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、構成要素は、回路もしくはチップ等のハードウェアであってもよい。
続いて、図6を用いて実施の形態3にかかる学習処理について説明する。なお、実施の形態3においても、図2の情報処理装置20を用いた処理が実行される。図6においては、学習部12が、画像認識学習及び尤度推定学習を行うことが示されている。画像認識学習は、学習用撮像データと、学習用ラベル付きデータとを用いて、画像認識に用いられるモデル(以下、画像認識学習済モデル、とする)を生成することを示している。また、尤度推定学習は、学習用ラベル付きデータと、正解付き3次元点群データとを用いて、尤度推定に用いられるモデル(以下、尤度推定学習済モデル、とする)を生成することを示している。
続いて、実施の形態4における補正処理について説明する。実施の形態4においては、LIDARセンサ21の設置位置に応じて尤度推定結果が補正されることについて説明する。例えば、LIDARセンサ21から照射された光の地表に対する入射角度が小さいほど、反射光の強度が小さくなることが想定される。そのため、LIDARセンサ21から照射された光の地表に対する入射角度が小さくなるほど、距離の尤度を1とするための重み付けの値を小さくしてもよい。つまり、LIDARセンサ21から照射された光の地表に対する入射角度が小さくなるほど、尤度として0が設定される点が多くなる。LIDARセンサ21から照射された光の地表に対する入射角度は、LIDARセンサ21の取付角度が地表に対して上向きになるほど地表に対する入射角度が小さくなる。
(付記1)
撮像センサと、
学習用撮像データと、前記学習用撮像データに含まれる領域と実質的に同じ領域の正解付3次元点群データに含まれる点の距離の尤度とを学習データとして学習し、学習済みモデルを生成する学習部と、
前記学習済みモデルを用いて、前記撮像センサにおいて取得された推定用撮像データから、前記推定用撮影データに基づいて定まる推定用3次元点群データに含まれる点の距離の尤度を含む推定データを生成する推定部と、を備える情報処理装置。
(付記2)
前記学習部は、
前記正解付3次元点群データに含まれるそれぞれの点と、前記学習用撮像データの画素に対応する位置との対応関係を管理する、付記1に記載の情報処理装置。
(付記3)
前記正解付3次元点群データに含まれるそれぞれの点の距離の尤度は、周囲の点の距離と比較した結果に応じて定められる、付記1又は2に記載の情報処理装置。
(付記4)
LIDARセンサと、
前記推定データに含められるそれぞれの点の距離の尤度を、前記LIDARセンサにおいて取得された測定3次元点群データのそれぞれの点に付与する統合部と、をさらに備える、付記1乃至3のいずれか1項に記載の情報処理装置。
(付記5)
前記測定3次元点群データは、前記推定用撮像データに含まれる領域と実質的に同じ領域を含む、付記4に記載の情報処理装置。
(付記6)
前記学習部は、
前記学習用撮像データと学習用ラベル付きデータと、前記正解付3次元点群データに含まれる点の距離の尤度とを学習データとして用い、
前記推定部は、
前記推定用撮像データを画像処理することによって得られる推定用ラベル付きデータから前記推定データとして尤度推定画像データを生成する、付記1乃至5のいずれか1項に記載の情報処理装置。
(付記7)
前記推定部は、
前記画像処理として、セマンティックセグメンテーションを実行する、付記6に記載の情報処理装置。
(付記8)
前記推定部は、
前記LIDARセンサから照射されるレーザ光の地表への入射角度、及び、前記LIDARセンサの地表からの高さ、の少なくとも一方に応じて、前記推定用撮像データから生成されるそれぞれの点の距離の尤度を補正する、付記4乃至7のいずれか1項に記載の情報処理装置。
(付記9)
学習用撮像データと、前記学習用撮像データに含まれる領域と実質的に同じ領域の正解付3次元点群データに含まれる点の距離の尤度とを学習データとして学習し、学習済みモデルを生成し、
前記学習済みモデルを用いて、撮像センサにおいて取得された推定用撮像データから、前記推定用撮影データに基づいて定まる推定用3次元点群データに含まれる点の距離の尤度を含む推定データを生成する、データ生成方法。
(付記10)
学習用撮像データと、前記学習用撮像データに含まれる領域と実質的に同じ領域の正解付3次元点群データに含まれる点の距離の尤度とを学習データとして学習し、学習済みモデルを生成し、
前記学習済みモデルを用いて、撮像センサにおいて取得された推定用撮像データから、前記推定用撮影データに基づいて定まる推定用3次元点群データに含まれる点の距離の尤度を含む推定データを生成することをコンピュータに実行させるプログラム。
11 撮像センサ
12 学習部
13 推定部
20 情報処理装置
21 LIDARセンサ
22 統合部
Claims (9)
- 撮像センサと、
学習用撮像データと、前記学習用撮像データに含まれる領域と実質的に同じ領域の正解付3次元点群データに含まれる点の距離の尤度とを学習データとして学習し、学習済みモデルを生成する学習手段と、
前記学習済みモデルを用いて、前記撮像センサにおいて取得された推定用撮像データから、前記推定用撮像データに基づいて定まる推定用3次元点群データに含まれる点の距離の尤度を含む推定データを生成する推定手段と、を備え、
前記学習手段は、
前記学習用撮像データと学習用ラベル付きデータと、前記正解付3次元点群データに含まれる点の距離の尤度とを学習データとして用い、
前記推定手段は、
前記推定用撮像データを画像処理することによって得られる推定用ラベル付きデータから前記推定データとして尤度推定画像データを生成する、情報処理装置。 - 前記学習手段は、
前記正解付3次元点群データに含まれるそれぞれの点と、前記学習用撮像データの画素に対応する位置との対応関係を保存する、請求項1に記載の情報処理装置。 - 前記正解付3次元点群データに含まれるそれぞれの点の距離の尤度は、周囲の点の距離と比較した結果に応じて定められる、請求項1又は2に記載の情報処理装置。
- LIDARセンサと、
前記推定データに含められるそれぞれの点の距離の尤度を、前記LIDARセンサにおいて取得された測定3次元点群データのそれぞれの点に付与する統合手段と、をさらに備える、請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記測定3次元点群データは、前記推定用撮像データに含まれる領域と実質的に同じ領域を含む、請求項4に記載の情報処理装置。
- 前記推定手段は、
前記画像処理として、セマンティックセグメンテーションを実行する、請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記推定手段は、
LIDARセンサから照射されるレーザ光の地表への入射角度、及び、前記LIDARセンサの地表からの高さ、の少なくとも一方に応じて、前記推定用撮像データから生成されるそれぞれの点の距離の尤度を補正する、請求項4乃至6のいずれか1項に記載の情報処理装置。 - 学習用撮像データと、学習用ラベル付きデータと、前記学習用撮像データに含まれる領域と実質的に同じ領域の正解付3次元点群データに含まれる点の距離の尤度とを学習データとして学習し、学習済みモデルを生成し、
前記学習済みモデルを用いて、撮像センサにおいて取得された推定用撮像データを画像処理することによって得られる推定用ラベル付きデータから、前記推定用撮像データに基づいて定まる推定用3次元点群データに含まれる点の距離の尤度を含む推定データとして尤度推定画像データを生成する、データ生成方法。 - 学習用撮像データと、学習用ラベル付きデータと、前記学習用撮像データに含まれる領域と実質的に同じ領域の正解付3次元点群データに含まれる点の距離の尤度とを学習データとして学習し、学習済みモデルを生成し、
前記学習済みモデルを用いて、撮像センサにおいて取得された推定用撮像データを画像処理することによって得られる推定用ラベル付きデータから、前記推定用撮像データに基づいて定まる推定用3次元点群データに含まれる点の距離の尤度を含む推定データとして尤度推定画像データを生成することをコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134718 | 2019-07-22 | ||
JP2019134718 | 2019-07-22 | ||
PCT/JP2020/024062 WO2021014846A1 (ja) | 2019-07-22 | 2020-06-19 | 情報処理装置、データ生成方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021014846A1 JPWO2021014846A1 (ja) | 2021-01-28 |
JPWO2021014846A5 JPWO2021014846A5 (ja) | 2022-03-29 |
JP7226553B2 true JP7226553B2 (ja) | 2023-02-21 |
Family
ID=74193029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533869A Active JP7226553B2 (ja) | 2019-07-22 | 2020-06-19 | 情報処理装置、データ生成方法、及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220270282A1 (ja) |
EP (1) | EP4006829A4 (ja) |
JP (1) | JP7226553B2 (ja) |
AU (1) | AU2020317303B2 (ja) |
CA (1) | CA3148404A1 (ja) |
WO (1) | WO2021014846A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023021559A1 (ja) * | 2021-08-16 | 2023-02-23 | 日本電気株式会社 | 推定モデル訓練装置、推定モデル訓練方法、認識装置、認識方法、及び非一時的なコンピュータ可読媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013142991A (ja) | 2012-01-10 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | 物体領域検出装置、方法、及びプログラム |
WO2017057061A1 (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6833630B2 (ja) | 2017-06-22 | 2021-02-24 | 株式会社東芝 | 物体検出装置、物体検出方法およびプログラム |
-
2020
- 2020-06-19 EP EP20843522.2A patent/EP4006829A4/en active Pending
- 2020-06-19 US US17/628,750 patent/US20220270282A1/en active Pending
- 2020-06-19 WO PCT/JP2020/024062 patent/WO2021014846A1/ja unknown
- 2020-06-19 AU AU2020317303A patent/AU2020317303B2/en not_active Expired - Fee Related
- 2020-06-19 JP JP2021533869A patent/JP7226553B2/ja active Active
- 2020-06-19 CA CA3148404A patent/CA3148404A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013142991A (ja) | 2012-01-10 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | 物体領域検出装置、方法、及びプログラム |
WO2017057061A1 (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2020317303B2 (en) | 2023-12-07 |
EP4006829A1 (en) | 2022-06-01 |
WO2021014846A1 (ja) | 2021-01-28 |
AU2020317303A1 (en) | 2022-02-17 |
US20220270282A1 (en) | 2022-08-25 |
CA3148404A1 (en) | 2021-01-28 |
JPWO2021014846A1 (ja) | 2021-01-28 |
EP4006829A4 (en) | 2022-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Automated evaluation of semantic segmentation robustness for autonomous driving | |
JP7052663B2 (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
JP7204326B2 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム | |
JP6766844B2 (ja) | 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置 | |
US20190065637A1 (en) | Augmenting Real Sensor Recordings With Simulated Sensor Data | |
Held et al. | Precision tracking with sparse 3d and dense color 2d data | |
KR20200021626A (ko) | 객체 검출 모델 트레이닝 장치 및 방법 | |
CN111753609A (zh) | 一种目标识别的方法、装置及摄像机 | |
CN108332752B (zh) | 机器人室内定位的方法及装置 | |
KR102167835B1 (ko) | 영상 처리 방법 및 장치 | |
Maier et al. | Self-supervised obstacle detection for humanoid navigation using monocular vision and sparse laser data | |
Maier et al. | Vision-based humanoid navigation using self-supervised obstacle detection | |
WO2019136613A1 (zh) | 机器人室内定位的方法及装置 | |
JP2020061140A (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
CN108544494A (zh) | 一种基于惯性和视觉特征的定位装置、方法及机器人 | |
KR102323413B1 (ko) | 카메라 포즈 추정 방법 | |
JP2017181476A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
JP7226553B2 (ja) | 情報処理装置、データ生成方法、及びプログラム | |
JP6351917B2 (ja) | 移動物体検出装置 | |
US20220270327A1 (en) | Systems and methods for bounding box proposal generation | |
JP2020149186A (ja) | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 | |
US20230401748A1 (en) | Apparatus and methods to calibrate a stereo camera pair | |
JP2020061139A (ja) | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 | |
WO2022214821A2 (en) | Monocular depth estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7226553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |