JP7255709B2 - 推定方法、推定装置及びプログラム - Google Patents
推定方法、推定装置及びプログラム Download PDFInfo
- Publication number
- JP7255709B2 JP7255709B2 JP2021563480A JP2021563480A JP7255709B2 JP 7255709 B2 JP7255709 B2 JP 7255709B2 JP 2021563480 A JP2021563480 A JP 2021563480A JP 2021563480 A JP2021563480 A JP 2021563480A JP 7255709 B2 JP7255709 B2 JP 7255709B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- estimation
- images
- posture
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
まず、本実施形態に係る推定装置10の全体構成について、図1を参照しながら説明する。図1は、本実施形態に係る推定装置10の全体構成の一例を示す図である。
次に、本実施形態に係る推定装置10により物体の位置及び姿勢を推定する場合の処理の流れについて説明する。なお、以降では、或る時刻における3枚の画像GA~GC(つまり、撮影装置20A~20Cでそれぞれ撮影された画像)を用いて物体の位置及び姿勢を推定する場合について説明する。
以降では、各物体の3D位置を推定するための位置推定処理の流れについて、図6を参照しながら説明する。図6は、本実施形態に係る位置推定処理の流れの一例を示すフローチャートである。
以降では、各物体の姿勢を推定するための姿勢推定処理の流れについて、図7を参照しながら説明する。図7は、本実施形態に係る姿勢推定処理の流れの一例を示すフローチャートである。
以降では、本実施形態に係る推定装置10によって或る時刻における各物体の3D位置及び姿勢を推定した結果の評価について説明する。なお、この評価に使用した回帰モデルに含まれるニューラルネットワークとしては、図5に示すニューラルネットワークを用いた。また、このニューラルネットワークの学習では、損失関数には平均二乗誤差(MSE:Mean Squared Error)、最適化手法にはAdamを用いた。また、ミニバッチ数は90、エポック数は100とした。
最後に、本実施形態に係る推定装置10のハードウェア構成について、図10を参照しながら説明する。図10は、本実施形態に係る推定装置10のハードウェア構成の一例を示す図である。
101 位置推定部
102 特徴量抽出部
103 姿勢推定部
104 記憶部
201 入力装置
202 表示装置
203 外部I/F
203a 記録媒体
204 通信I/F
205 プロセッサ
206 メモリ装置
207 バス
Claims (8)
- 複数の物体が存在する三次元空間を複数の撮影装置でそれぞれ撮影した複数の画像を用いて、前記画像の画素領域の中で前記物体を表す画素領域の代表点を計算する計算手順と、
前記計算手順で計算された代表点から、前記三次元空間における前記物体の位置を推定する位置推定手順と、
前記物体を表す画像領域から所定の特徴量を抽出する抽出手順と、
前記位置推定手順で推定された位置と、前記抽出手順で抽出された特徴量とを用いて、予め学習された回帰モデルによって前記三次元空間における前記物体の姿勢を推定する姿勢推定手順と、
をコンピュータが実行することを特徴とする推定方法。 - 前記回帰モデルは、物体が存在する三次元空間を複数の撮影装置でそれぞれ撮影した複数の画像から抽出された所定の特徴量と前記三次元空間における前記物体の位置とを入力データ、前記物体の姿勢を表す姿勢行列を教師データとした第1の学習用データと、
2以上の物体間で前記画像領域が重なった場合の特徴量として所定の値を設定した特徴量と前記三次元空間における前記物体の位置とを入力データ、前記物体の姿勢を表す姿勢行列を教師データとした第2の学習用データと、を含むデータセットを用いて学習され、
前記抽出手順は、
2以上の物体間で前記物体を表す画像領域同士の少なくとも一部が重なっている場合、前記所定の値を前記特徴量とする、ことを特徴とする請求項1に記載の推定方法。 - 前記複数の物体は同種の互いに区別できない物体であり、
前記位置推定手順は、
前記複数の画像のうちの2つの画像間で、前記複数の物体のそれぞれを表す複数の画像領域の代表点の対応問題をエピ極拘束条件の下で解くことで、前記2つの画像で同一物体に対応する代表点の組を特定し、特定した代表点の組から前記物体の位置を推定する、ことを特徴とする請求項1又は2に記載の推定方法。 - 前記位置推定手順は、
前記2つの画像間でエピ極線との距離の合計が最小の代表点同士を、同一物体に対応する代表点の組と特定する、ことを特徴とする請求項3に記載の推定方法。 - 前記抽出手順は、
前記物体を表す画像領域が楕円領域に近似できる場合、前記楕円領域によって表される楕円の長軸の正の向きと前記画像の水平方向の正の向きとが成す第1の角度と、前記楕円の短軸の正の向きと前記画像の水平方向の正の向きとが成す第2の角度と、前記長軸の長さと前記短軸の長さとの比と、前記長軸の長さと前記短軸の長さとの積とを前記特徴量として抽出する、ことを特徴とする請求項1乃至4の何れか一項に記載の推定方法。 - 前記抽出手順は、
前記画像の画素領域の中で、前記物体の表面を分割する4つの領域の各々を表す画素領域の輝度の差を用いて、前記長軸の正の方向と前記短軸の正の方向とを決定する、ことを特徴とする請求項5に記載の推定方法。 - 複数の物体が存在する三次元空間を複数の撮影装置でそれぞれ撮影した複数の画像を用いて、前記画像の画素領域の中で前記物体を表す画素領域の代表点を計算する計算手段と、
前記計算手段で計算された代表点から、前記三次元空間における前記物体の位置を推定する位置推定手段と、
前記物体を表す画像領域から所定の特徴量を抽出する抽出手段と、
前記位置推定手段で推定された位置と、前記抽出手段で抽出された特徴量とを用いて、予め学習された回帰モデルによって前記三次元空間における前記物体の姿勢を推定する姿勢推定手段と、
を有することを特徴とする推定装置。 - コンピュータに、請求項1乃至6の何れか一項に記載の推定方法における各手順を実行させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/048228 WO2021117120A1 (ja) | 2019-12-10 | 2019-12-10 | 推定方法、推定装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021117120A1 JPWO2021117120A1 (ja) | 2021-06-17 |
JP7255709B2 true JP7255709B2 (ja) | 2023-04-11 |
Family
ID=76329919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021563480A Active JP7255709B2 (ja) | 2019-12-10 | 2019-12-10 | 推定方法、推定装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230005182A1 (ja) |
JP (1) | JP7255709B2 (ja) |
WO (1) | WO2021117120A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211746A (ja) | 2009-03-12 | 2010-09-24 | Omron Corp | 3次元認識結果の表示方法および3次元視覚センサ |
JP2015184743A (ja) | 2014-03-20 | 2015-10-22 | 日本ユニシス株式会社 | 画像処理装置および物体認識方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007066094A (ja) * | 2005-08-31 | 2007-03-15 | Matsushita Electric Ind Co Ltd | 姿勢推定装置および姿勢推定方法 |
JP5555207B2 (ja) * | 2011-07-14 | 2014-07-23 | 日本電信電話株式会社 | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
-
2019
- 2019-12-10 US US17/783,601 patent/US20230005182A1/en active Pending
- 2019-12-10 JP JP2021563480A patent/JP7255709B2/ja active Active
- 2019-12-10 WO PCT/JP2019/048228 patent/WO2021117120A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211746A (ja) | 2009-03-12 | 2010-09-24 | Omron Corp | 3次元認識結果の表示方法および3次元視覚センサ |
JP2015184743A (ja) | 2014-03-20 | 2015-10-22 | 日本ユニシス株式会社 | 画像処理装置および物体認識方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230005182A1 (en) | 2023-01-05 |
JPWO2021117120A1 (ja) | 2021-06-17 |
WO2021117120A1 (ja) | 2021-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238606B2 (en) | Method and system for performing simultaneous localization and mapping using convolutional image transformation | |
US10977818B2 (en) | Machine learning based model localization system | |
US10254845B2 (en) | Hand gesture recognition for cursor control | |
US11747898B2 (en) | Method and apparatus with gaze estimation | |
US20210012093A1 (en) | Method and apparatus for generating face rotation image | |
Chen et al. | Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing | |
CN109211277B (zh) | 视觉惯性里程计的状态确定方法、装置和电子设备 | |
US9551579B1 (en) | Automatic connection of images using visual features | |
JP7453470B2 (ja) | 3次元再構成及び関連インタラクション、測定方法及び関連装置、機器 | |
US20210049372A1 (en) | Method and system for generating depth information of street view image using 2d map | |
US10438405B2 (en) | Detection of planar surfaces for use in scene modeling of a captured scene | |
WO2023151251A1 (zh) | 地图构建方法、位姿确定方法、装置、设备及计算机程序产品 | |
WO2022237026A1 (zh) | 平面信息检测方法及系统 | |
CN111415420A (zh) | 空间信息确定方法、装置及电子设备 | |
WO2019012632A1 (ja) | 認識処理装置、認識処理方法及びプログラム | |
JP2024508024A (ja) | 画像データの処理方法及び装置 | |
WO2022247126A1 (zh) | 视觉定位方法、装置、设备、介质及程序 | |
JP7255709B2 (ja) | 推定方法、推定装置及びプログラム | |
JP2023056466A (ja) | グローバル測位装置及び方法 | |
Bajramovic et al. | Global Uncertainty-based Selection of Relative Poses for Multi Camera Calibration. | |
US20240013477A1 (en) | Point-based neural radiance field for three dimensional scene representation | |
JP2023065296A (ja) | 平面検出装置及び方法 | |
Li et al. | Absolute pose estimation using multiple forms of correspondences from RGB-D frames | |
Kim et al. | Cpo: Change robust panorama to point cloud localization | |
JP6384961B2 (ja) | カメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220525 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20220620 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7255709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |