JP6489552B2 - シーン内の寸法を求める方法 - Google Patents
シーン内の寸法を求める方法 Download PDFInfo
- Publication number
- JP6489552B2 JP6489552B2 JP2016056626A JP2016056626A JP6489552B2 JP 6489552 B2 JP6489552 B2 JP 6489552B2 JP 2016056626 A JP2016056626 A JP 2016056626A JP 2016056626 A JP2016056626 A JP 2016056626A JP 6489552 B2 JP6489552 B2 JP 6489552B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- planes
- scene
- depth image
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/231—Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/7625—Hierarchical techniques, i.e. dividing or merging patterns to obtain a tree-like representation; Dendograms
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Description
多くの屋内シーンは、平面に囲まれている。この前提に基づいて、幾何解析を行い、特定の基礎構造の寸法情報を取得する。効率的に平面を抽出するには、平面抽出プロシージャーが奥行き画像に適用される。例えば、Feng他「Fast plane extraction in organized point clouds using agglomerative hierarchical clustering」IEEE International Conference on Robotics and Automation (ICRA), pp. 6218-6225, 2014を参照されたい。
平行である:2つの平面の法線ベクトルが互いに平行である場合、その2つの平面は平行な平面である。
同一平面上にある:2つの平面が同じパラメーターを有する場合、その2つの平面は同一平面上の平面であり、かつ平行である。
交差する:2つの平面が互いに平行でない場合、その2つの平面は交差する平面である。
直角をなす:2つの平面の法線ベクトルが互いに直角をなす(互いに直交する)場合、その2つの平面は互いに直角をなす。
センサーからの測定値が全て正確な場合、シーンの形状表現に基づいて幾何寸法情報を直接求めることができる。しかしながら、センサーは完璧ではなく、測定値は不確定性を有する。正確な寸法情報を取得するには、最小二乗手順が用いられる。例えば、2つの平行な平面間の距離と、同一平面上の平面の境界間の距離とが対象となる。これらの2つの距離を求めるための2つの方法を用いて、正確な推定値を取得する。
平面を抽出した後、最小二乗手順により平面パラメーターが推定される。3D平面方程式は、ax+by+cz+d=0であり、ここで、a、b、c、及びdは平面パラメーターである。測定値をA=[x,y,z,1]とし、ここで、x、y、zが、この平面に割り当てられた3D点全てのX、Y、Z座標全てを含む列ベクトルであり、かつ平面パラメーターがP=[a,b,c,d]Tである場合、線形システムを以下のように構築することができる。
同一平面上の平面の境界の間の距離は、例えば、ドア枠の幅を推定するのに必要とされる。これに関連して、幅は、ドアの左方の壁と右方の壁(同一平面上の2つの平面)との境界間の距離である。この幅を求めるには、ドア枠の境界点が抽出され、次に、2本の線がこれらの境界点に基づいて当てはめられる。これらの2つの平行線の間の距離がドア枠の幅である。
本発明者らによるユーザーガイダンスシステムは、対象となるシーンの事前知識に基づく。ユーザーガイダンスシステムの目的は、シーンから寸法情報を取得するという観点から現在の枠データの品質を示すことである。高品質データは、対象となる基礎構造特性を支持する平面からのデータを十分に含む画像と定義する。
図3(A)は、2つの平行な平面の2つの組を有する形状として定義される箱形状を示す。2つの組は、互いに直角をなす。図3(A)に示すように、平面Aと平面Cとが互いに平行であり、平面Bと平面Dとが互いに平行である。さらに、平面Aは、平面Dに対して直角をなす。実線は、平面間の交線を示す。例として廊下シーンを用いる。
開口構造物は、第1の平面に対して別の支持平面、例えば床が存在する、平面における開口と定義される。壁における開口であるドア枠を例として用いる。図4(A)〜図4(D)に示すように、平面A及び平面Bは、垂直な壁であり、同じ平面上に存在し、すなわち、これらの壁の関係は同一平面上であり、平面Cは、平面Aと平面Bとに対して直角をなす床である。開口の正確な幅を取得するには、壁の再構築において制約をもたらすのに床が必要である。したがって、床がセンサーにより観測されることを保障するようにユーザーガイダンスが実施される。
Claims (13)
- シーン内の寸法を求める方法であって、
センサーにより取得された前記シーンの単一奥行き画像を取得するステップと、
前記単一奥行き画像から平面を抽出するステップと、
前記平面の位相関係を求めるステップと、
前記平面及び前記位相関係に基づいて前記寸法を求めるステップと、
シーンタイプを用いて、前記単一奥行き画像から取得された前記平面の前記寸法の品質を評価するステップであって、前記品質が十分な場合には前記寸法を出力し、そうでなければ、前記センサーを再位置決めするガイダンスを出力する、ステップと、
を備え、
前記ステップは、プロセッサにおいて行われる
方法。 - 前記シーンの赤、緑、及び青(RGB)画像と前記奥行き画像を組み合わせて、RGB−奥行き画像を形成する
請求項1に記載の方法。 - 前記ガイダンスは、ユーザーに出力される
請求項1に記載の方法。 - 前記ガイダンスは、前記センサーが載置されているロボットに出力される
請求項1に記載の方法。 - 前記抽出するステップは、
前記奥行き画像内の画素を群にセグメント化するステップと、
グラフにおいて前記群をノードとして表すステップであって、エッジは、隣接する群を表す、ステップと、
前記グラフに凝集型階層的クラスタリングを適用して、同一平面上のノードを結合するステップと、
を更に備えた請求項1に記載の方法。 - 前記位相関係は、
2つの平面の法線ベクトルが互いに平行である場合、平行な平面を含み、
2つの平面が同一のパラメーターを有する場合、同一平面上の平面を含み、
2つの平面が平行でない場合、交差する平面を含み、
2つの平面の前記法線ベクトルが互いに直角をなす場合、直角をなす平面を含む
請求項1に記載の方法。 - 前記平面を抽出するために最小二乗手順を用いるステップを更に備えた
請求項1に記載の方法。 - 前記シーンタイプは、所定の形状を画定する
請求項1に記載の方法。 - 前記所定の形状は、箱形状及び開口形状を含む
請求項8に記載の方法。 - 前記箱形状は、2つの平行な平面の2つの組を含み、
前記2つの組は、互いに直角をなす
請求項9に記載の方法。 - 前記開口形状は、
同一平面上の2つの平面と、
前記同一平面上の2つの平面と直角をなす平面と、
を含む請求項9に記載の方法。 - コンピューターにシーン内の寸法を求める処理を実行させる方法のステップを記憶した非一時的コンピューター可読記録媒体であって、
前記方法は、
センサーにより取得された前記シーンの単一奥行き画像を取得するステップと、
前記単一奥行き画像から平面を抽出するステップと、
前記平面の位相関係を求めるステップと、
前記平面及び前記位相関係に基づいて前記寸法を求めるステップと、
シーンタイプを用いて、前記単一奥行き画像から取得された前記平面の前記寸法の品質を評価するステップであって、前記品質が十分な場合には前記寸法を出力し、そうでなければ、前記センサーを再位置決めするガイダンスを出力する、ステップと、
を備えた非一時的コンピューター可読記録媒体。 - メモリと通信するプロセッサを含む、シーン内の寸法を求めるシステムであって、
前記システムは、前記シーンの単一奥行き画像を取得し、カラー画像とともに前記単一奥行き画像を送信するように構成された奥行きセンサーを備え、
前記メモリは、前記プロセッサにシーン内の寸法を求める処理を実行させる方法のステップを記憶するように構成され、
前記処理は、
センサーにより取得された前記シーンの前記単一奥行き画像を取得するステップと、
前記単一奥行き画像から平面を抽出するステップと、
前記平面の位相関係を求めるステップと、
前記平面及び前記位相関係に基づいて前記寸法を求めるステップと、
シーンタイプを用いて、前記単一奥行き画像から取得された前記平面の前記寸法の品質を評価するステップであって、前記品質が十分な場合には前記寸法を出力し、そうでなければ、前記センサーを再位置決めするガイダンスを出力する、ステップと、
を備えたシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/698,200 | 2015-04-28 | ||
| US14/698,200 US9761015B2 (en) | 2015-04-28 | 2015-04-28 | Method for determining dimensions in an indoor scene from a single depth image |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2016212086A JP2016212086A (ja) | 2016-12-15 |
| JP2016212086A5 JP2016212086A5 (ja) | 2019-01-24 |
| JP6489552B2 true JP6489552B2 (ja) | 2019-03-27 |
Family
ID=57205763
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016056626A Active JP6489552B2 (ja) | 2015-04-28 | 2016-03-22 | シーン内の寸法を求める方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US9761015B2 (ja) |
| JP (1) | JP6489552B2 (ja) |
| CN (1) | CN106091921B (ja) |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9858681B2 (en) * | 2014-10-27 | 2018-01-02 | Digimarc Corporation | Signal detection, recognition and tracking with feature vector transforms |
| US9807365B2 (en) * | 2015-12-08 | 2017-10-31 | Mitsubishi Electric Research Laboratories, Inc. | System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene |
| US10721451B2 (en) * | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
| US10445861B2 (en) * | 2017-02-14 | 2019-10-15 | Qualcomm Incorporated | Refinement of structured light depth maps using RGB color data |
| JP2018156617A (ja) * | 2017-03-15 | 2018-10-04 | 株式会社東芝 | 処理装置および処理システム |
| US10803663B2 (en) | 2017-08-02 | 2020-10-13 | Google Llc | Depth sensor aided estimation of virtual reality environment boundaries |
| WO2019032736A1 (en) | 2017-08-08 | 2019-02-14 | Smart Picture Technologies, Inc. | METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER |
| US10733762B2 (en) * | 2018-04-04 | 2020-08-04 | Motorola Mobility Llc | Dynamically calibrating a depth sensor |
| WO2019222255A1 (en) * | 2018-05-14 | 2019-11-21 | Sri International | Computer aided inspection system and methods |
| CN109000559B (zh) * | 2018-06-11 | 2020-09-11 | 广东工业大学 | 一种物体体积的测量方法、装置、系统和可读存储介质 |
| CA3027921C (en) * | 2018-06-25 | 2022-04-12 | Beijing Didi Infinity Technology And Development Co., Ltd. | Integrated sensor calibration in natural scenes |
| CN109682304A (zh) * | 2019-02-02 | 2019-04-26 | 北京理工大学 | 一种基于ccd相机对位装配系统的综合误差建模方法 |
| AU2020274025B2 (en) | 2019-05-10 | 2022-10-20 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
| CN110853080A (zh) * | 2019-09-30 | 2020-02-28 | 广西慧云信息技术有限公司 | 一种田间果实尺寸的测量方法 |
| CN111412842B (zh) * | 2020-04-09 | 2022-02-25 | 广东博智林机器人有限公司 | 墙面的截面尺寸的测量方法及装置、系统 |
| CN111914901A (zh) * | 2020-07-06 | 2020-11-10 | 周爱丽 | 座椅排列整齐度测量系统及方法 |
| CN113220018B (zh) * | 2021-04-23 | 2023-03-28 | 上海发电设备成套设计研究院有限责任公司 | 一种无人机路径规划方法、装置、存储介质及电子设备 |
| US11568614B1 (en) | 2021-08-02 | 2023-01-31 | Bank Of America Corporation | Adaptive augmented reality system for dynamic processing of spatial component parameters based on detecting accommodation factors in real time |
| JP7675605B2 (ja) | 2021-09-15 | 2025-05-13 | 株式会社東芝 | 壁検出装置、搬送車両、制御方法、プログラム及び演算装置 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3855812B2 (ja) * | 2002-03-15 | 2006-12-13 | ソニー株式会社 | 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置 |
| US8655052B2 (en) * | 2007-01-26 | 2014-02-18 | Intellectual Discovery Co., Ltd. | Methodology for 3D scene reconstruction from 2D image sequences |
| JP4535096B2 (ja) * | 2007-07-27 | 2010-09-01 | ソニー株式会社 | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 |
| US8908913B2 (en) * | 2011-12-19 | 2014-12-09 | Mitsubishi Electric Research Laboratories, Inc. | Voting-based pose estimation for 3D sensors |
| JP5838355B2 (ja) * | 2012-06-20 | 2016-01-06 | パナソニックIpマネジメント株式会社 | 空間情報検出装置、人位置検出装置 |
| US9230339B2 (en) * | 2013-01-07 | 2016-01-05 | Wexenergy Innovations Llc | System and method of measuring distances related to an object |
| CN103106688B (zh) * | 2013-02-20 | 2016-04-27 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
| US9984177B2 (en) * | 2013-05-31 | 2018-05-29 | Panasonic Intellectual Property Management Co., Ltd. | Modeling device, three-dimensional model generation device, modeling method, program and layout simulator |
| JP5799273B2 (ja) * | 2013-10-02 | 2015-10-21 | パナソニックIpマネジメント株式会社 | 寸法計測装置、寸法計測方法、寸法計測システム、プログラム |
-
2015
- 2015-04-28 US US14/698,200 patent/US9761015B2/en active Active
-
2016
- 2016-03-22 JP JP2016056626A patent/JP6489552B2/ja active Active
- 2016-04-28 CN CN201610273855.0A patent/CN106091921B/zh active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US20160321827A1 (en) | 2016-11-03 |
| JP2016212086A (ja) | 2016-12-15 |
| US9761015B2 (en) | 2017-09-12 |
| CN106091921A (zh) | 2016-11-09 |
| CN106091921B (zh) | 2019-06-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6489552B2 (ja) | シーン内の寸法を求める方法 | |
| Borrmann et al. | A mobile robot based system for fully automated thermal 3D mapping | |
| Hong et al. | Semi-automated approach to indoor mapping for 3D as-built building information modeling | |
| KR102447461B1 (ko) | 다방향 카메라를 이용한 밀폐 공간에 대한 치수 추정 | |
| Braun et al. | A concept for automated construction progress monitoring using bim-based geometric constraints and photogrammetric point clouds. | |
| US9984177B2 (en) | Modeling device, three-dimensional model generation device, modeling method, program and layout simulator | |
| JP6238183B2 (ja) | モデリング装置、3次元モデル生成装置、モデリング方法、プログラム | |
| Fernandez-Moral et al. | Extrinsic calibration of a set of range cameras in 5 seconds without pattern | |
| Ibrahim et al. | Metrics and methods for evaluating model‐driven reality capture plans | |
| Gong et al. | Extrinsic calibration of a 3D LIDAR and a camera using a trihedron | |
| Schaub et al. | Point cloud to BIM registration for robot localization and Augmented Reality | |
| Díaz-Vilariño et al. | Door recognition in cluttered building interiors using imagery and LiDAR data | |
| Braun et al. | Towards automated construction progress monitoring using BIM-based point cloud processing | |
| Muharom et al. | Real-Time 3D Modeling and Visualization Based on RGB-D Camera using RTAB-Map through Loop Closure | |
| Gu et al. | Truss member registration for implementing autonomous gripping in biped climbing robots | |
| Gallegos et al. | Appearance-based slam relying on a hybrid laser/omnidirectional sensor | |
| Shen et al. | Automatic Scan Planning and Construction Progress Monitoring in Unknown Building Scene | |
| Hu et al. | Image projection onto flat LiDAR point cloud surfaces to create dense and smooth 3D color maps | |
| Pargieła et al. | Application of mobile laser scanner to augment stationary collected point clouds | |
| Reich et al. | On-line compatible orientation of a micro-uav based on image triplets | |
| CN118823764B (zh) | 一种电力设备巡检盲区的识别方法及装置 | |
| Kotthäuser et al. | Automatic reconstruction of polygonal room models from 3d point clouds | |
| Zhao et al. | A Building Information Modeling (BIM)-Enabled Robotic System for Automated Indoor Construction Progress Monitoring | |
| US20250322600A1 (en) | Fit rooms | |
| Zheng et al. | An efficient and practical calibration method for roadside camera using two vanishing points |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181206 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181206 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181206 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190108 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190219 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6489552 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
