JP6489552B2 - シーン内の寸法を求める方法 - Google Patents

シーン内の寸法を求める方法 Download PDF

Info

Publication number
JP6489552B2
JP6489552B2 JP2016056626A JP2016056626A JP6489552B2 JP 6489552 B2 JP6489552 B2 JP 6489552B2 JP 2016056626 A JP2016056626 A JP 2016056626A JP 2016056626 A JP2016056626 A JP 2016056626A JP 6489552 B2 JP6489552 B2 JP 6489552B2
Authority
JP
Japan
Prior art keywords
plane
planes
scene
depth image
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016056626A
Other languages
English (en)
Other versions
JP2016212086A (ja
JP2016212086A5 (ja
Inventor
ヨン・シャオ
チェン・フェン
田口 裕一
裕一 田口
ビニート・アール・カマト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2016212086A publication Critical patent/JP2016212086A/ja
Publication of JP2016212086A5 publication Critical patent/JP2016212086A5/ja
Application granted granted Critical
Publication of JP6489552B2 publication Critical patent/JP6489552B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7625Hierarchical techniques, i.e. dividing or merging patterns to obtain a tree-like representation; Dendograms
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、包括的には、コンピュータービジョンに関し、より詳細には、屋内シーンの寸法を求めることに関する。
部屋及び廊下等の屋内シーンの寸法情報は、多種多様な用途において有益とすることができる。建物の建築中に、構造物を監視して、その構造物が仕様書及び図面の要件を満たすことを確実にするように寸法情報を用いることができる。建物の保守管理中に、寸法情報は、構造物が現行の建築基準法(building codes)に沿っているか否かを判断することができ、欠陥、例えばひび割れが存在する場合には、それらの欠陥を数量化することができる。加えて、建設自動化との関係では、寸法情報は、建設中にロボットが行う、窓の取り付け等の任意のタスクにおいて有益である。
窓取り付けロボットの場合、このロボットは、公差の不一致に起因して、窓枠の設計サイズではなく、建設された窓枠の実際のサイズを知る必要がある。ロボットは、この寸法情報を用いて、窓を正しく取り付けることができ、その窓が枠内に正確に収まることを確実にすることができる。加えて、自律ロボットが屋内環境を移動するためには、任意の開口の寸法が非常に重要である。例えば、ロボットは、ドアを通る際に、そのドアをそのまま通るか、又は別の方法を用いるかを自動的に判断することができるように、開口空間の寸法を検知する必要がある。
従来技術において、屋内シーンの3次元(3D)モデルを生成し、3Dモデル内の寸法を測定するのに、回転レーザーを使用する3Dセンサーが一般的に用いられてきた。それらのセンサーは、単一のロケーションから長距離及び360度カバレッジで3Dモデルを生成することができる。しかしながら、それらのセンサーは高価であり、長い走査時間を要する。この長い走査時間の間、それらのセンサーは定位置に置かれている必要がある。
近年、短距離及び狭視野カバレッジを有する3Dセンサーを容易に入手することができる。それらのセンサーは、単発のリアルタイム走査を可能にする。それらのセンサーを用いて大規模3Dモデルを生成する場合、1つの方法は、同時ローカリゼーション及びマッピング(SLAM:simultaneous localization and mapping:同時位置推定地図構築)技法を用いて、それらのセンサーにより取得された複数のフレームを位置合わせする。しかしながら、その方法は、位置合わせにおいてドリフトエラーを累積し、結果として寸法測定値の精度が低下する。
ユーザーインタラクションの観点から、1つの方法は、データに素早くアクセスするようにユーザーインタラクションを用いた建設品質(construction quality:施工品質)検査及び管理システムを提供する。インタラクティブシミュレーションモデリングの別の方法は、シミュレーションモデルを構築するための、ステップごとのガイダンスをユーザーに提供する。ユーザーガイダンスは、ユーザーの指導者としての役割を果たす。更に別の方法は、参照画像を所与として、参照画像が撮像された視点と同じ視点から画像を撮像するためのガイダンスをユーザーに提供する。
多くの土木工学タスクでは、人工構造物を含む屋内シーン等のシーンの寸法解析が、空間解析及び意思決定において重要である。竣工形状生成(as-built geometry generation)等のタスクは、様々な位置から収集されたデータに基づいて、散らかっている可能性のあるシーン内の特定のオブジェクト(例えば、パイプの直径、開口の幅)の限界寸法を効率的に解釈する必要がある。
したがって、本発明の1つの実施形態は、奥行きセンサーにより取得された単一奥行き画像から、屋内シーン内の寸法を求める方法を提供する。
奥行きセンサーは、シーンの奥行き画像を取得する3Dセンサーである。奥行き画像は、各画素が奥行き(又はセンサーからシーンまでの距離)を表す2次元画像である。センサーの内部パラメーターを用いて、各画素につきレイを逆投影し、測定された奥行きにおいて3D点を生成することにより、奥行き画像を3D点群に変換することができる。奥行き画像を輝度(intensity)又は色、例えば、赤、緑、及び青(RGB)の画像と組み合わせると、RGB−D画像(すなわち、3D色付き点群)を取得することができる。
次に、平面を抽出して幾何解析を行うことにより、単一奥行き画像から、シーン内の対象となる構造物の寸法を取得することができる。本方法は、寸法データ及び測定値の品質を評価し、例えばグラフィカルユーザーインターフェース(GUI)を用いて、異なる姿勢にセンサーを位置決めしてより高品質のデータを取得するためのインタラクティブガイダンスをもたらす。このより高品質のデータから、より正確な形状測定値を取得することができる。本明細書において規定されるように、姿勢は、3つの並進成分と、3つの回転成分との6次元(6D)を有する。
本発明は、奥行きセンサーから屋内シーンの寸法を取得することが可能なユーザー誘導型寸法解析手法を部分的に用いる。奥行きセンサーから取得された単一奥行き画像に対して寸法解析を行い、高い計算効率を達成し、SLAM技法を用いたマルチフレーム位置合わせにおけるエラー累積を回避する。
センサーの視野が限られていることに起因して、単一奥行き画像は、対象となる全ての寸法情報を求めることができることを保証することはできない。加えて、求められた寸法の品質は、センサーの内在精度によって制限される。
したがって、単一奥行き画像を用いることの不利点を克服するために、センサーをより良い姿勢に再位置決めするようにユーザー(又は、センサーが載置されているロボット)を誘導し、それにより寸法解析に適切な十分で高品質なデータが収集されるように、知識ベースのユーザーガイダンスシステムが開発される。高品質な単一画像データが収集された後、必要な寸法情報を取得するように幾何解析が行われる。
本方法は、奥行き画像のシーケンスに対してではなく、単一奥行き画像に対して直接行われるので、本発明者らによる手法は従来技術とは異なる。単一奥行き画像を用いることで、屋内シーンの寸法情報のリアルタイム推定が可能になる。これは、自動化及びロボット工学に焦点を置いた幾つかの用途にとって重要である。
さらに、従来技術の手法とは異なり、本発明者らによるユーザーガイダンスシステムは、現在の画像のデータ品質を評価し、次に、その用途にとってのより良い結果を取得するためにセンサーを再位置決めすることをユーザーに提案する。本システムは、シンプルなガイダンスにより、ユーザーが高品質データ、及びしたがって高品質な寸法測定値を取得するように導くことができる。ユーザーは、専門家である必要がない。
図1は、本発明の実施形態に係る屋内シーンの寸法を求める方法のブロック図である。 図2は、本発明の実施形態に係る同一平面上の平面(coplanar planes)の境界点を抽出するプロシージャーのブロック図である。 図3(A)、図3(B)、図3(C)及び図3(D)は、本発明の実施形態に係る屋内シーン内の平面により支持された箱形状の概略図および注釈付き画像である。 図4(A)、図4(B)、図4(C)及び図4(D)は、本発明の実施形態に係る屋内シーン内の平面により支持された開口の概略図および注釈付き画像である。
図1に示すように、本発明の実施形態は、単一奥行き画像101によって表される屋内シーン103内の寸法を求める方法を提供する。奥行き画像は、奥行きセンサー102により取得することができる。本発明の焦点は、平面を有する、屋内の基礎構造(infrastructure:インフラストラクチャー)の寸法解析に置かれている。シーンは、結合タイプ、例えば、部屋又は廊下を含むことができる。このタイプは、箱又は開口等の所定の形状を画定することができる。
幾つかの実施形態では、屋内シーンの3D点群を取得する奥行きセンサーとして、XboxセンサーのためのKinect(商標)が使用される。Kinectは、赤外線(IR)カメラ及びカラー(RGB)カメラを備えるので、シーンの奥行き画像及びカラー画像を取得することができる。したがって、全てではないが幾つかの実施形態では、センサー較正を用いることによって奥行き画像をカラー画像と位置合わせし(104)、RGB−D画像101を取得することができる。
前処理110が奥行き画像又はRGB−D画像101に行われる。前処理は、平面を抽出することと、これらの平面の位相関係111を求めることとを含む。これらの平面及びそれらの関係に基づいて、幾何解析120を行い、シーンの初期寸法121を求める。
シーンタイプ及び初期寸法測定値を用いて、画像及び初期寸法の品質131が評価される(130)。品質が十分であれば(140)、最終寸法105が出力される。そうでない場合、より良い寸法を取得するためにデータの品質を改善するようにガイダンス141が出力される。例えば、ガイダンスは、センサーにとってのより良い姿勢142を示すことができる。出力は、ユーザーにセンサーを手動で再位置決めさせるか、ロボットに自動的に再位置決めさせるものとすることができる。
本方法のステップは、プロセッサ100において行うことができる。プロセッサ100は、当技術分野で既知のバスにより、本方法が用いる画像及び他のデータストラクチャーを記憶するためのメモリ並びに入出力インターフェースに接続されている。本質的には、本方法は、現実世界のオブジェクト、例えば、屋内シーン内の構造物の奥行き画像をそれらのオブジェクトの寸法に変換する。
屋内シーン及び平面
多くの屋内シーンは、平面に囲まれている。この前提に基づいて、幾何解析を行い、特定の基礎構造の寸法情報を取得する。効率的に平面を抽出するには、平面抽出プロシージャーが奥行き画像に適用される。例えば、Feng他「Fast plane extraction in organized point clouds using agglomerative hierarchical clustering」IEEE International Conference on Robotics and Automation (ICRA), pp. 6218-6225, 2014を参照されたい。
奥行き画像内の画素は、グラフを構築するのに用いられる群にセグメント化される。これらの群はノードにより表され、エッジは隣接する群を表す。次に、このグラフに凝集型階層的クラスタリングを行い、同一平面上のノードを結合する。これらの平面は、画素単位の領域拡張により改良される。
カラー画像が奥行き画像とともに利用可能である場合、すなわち、RGB−D画像が使用される場合、色情報を用いて平面を更にセグメント化することができる。例えば、各平面に現れる色をクラスタリングすることができ、これらのクラスターに基づいて平面がセグメント化される。
奥行き画像から全ての平面を抽出した後、平面パラメーターに基づいて、これらの平面間の位相関係が推定される。4種類の位相平面関係が以下のように規定される。
平行である:2つの平面の法線ベクトルが互いに平行である場合、その2つの平面は平行な平面である。
同一平面上にある:2つの平面が同じパラメーターを有する場合、その2つの平面は同一平面上の平面であり、かつ平行である。
交差する:2つの平面が互いに平行でない場合、その2つの平面は交差する平面である。
直角をなす:2つの平面の法線ベクトルが互いに直角をなす(互いに直交する)場合、その2つの平面は互いに直角をなす。
センサー測定値における不確定性に起因して、これらの関係は近似的に求められることに留意すべきである。例えば、2つの平面の法線ベクトルの角度が5度未満ならば、それらの平面は、平行な平面であるとみなされる。
幾何解析
センサーからの測定値が全て正確な場合、シーンの形状表現に基づいて幾何寸法情報を直接求めることができる。しかしながら、センサーは完璧ではなく、測定値は不確定性を有する。正確な寸法情報を取得するには、最小二乗手順が用いられる。例えば、2つの平行な平面間の距離と、同一平面上の平面の境界間の距離とが対象となる。これらの2つの距離を求めるための2つの方法を用いて、正確な推定値を取得する。
平行な平面間の距離
平面を抽出した後、最小二乗手順により平面パラメーターが推定される。3D平面方程式は、ax+by+cz+d=0であり、ここで、a、b、c、及びdは平面パラメーターである。測定値をA=[x,y,z,1]とし、ここで、x、y、zが、この平面に割り当てられた3D点全てのX、Y、Z座標全てを含む列ベクトルであり、かつ平面パラメーターがP=[a,b,c,d]である場合、線形システムを以下のように構築することができる。
Figure 0006489552
最小二乗推定値を取得するには、1つの解決策は、行列Aに対して特異値分解(SVD)を行うことである。次に、SVDの結果から平面パラメーターPが抽出される。
複数組の平行な平面が存在するので、この事前情報を用いて平面パラメーター推定結果をより正確にすることができる。平面i及び平面jが互いに平行であると仮定する。ここで、これらの平面に割り当てられた点は、それぞれA及びAで表される。並列制約(parallel constraint)を行うには、平面i及び平面jは同じ法線ベクトルを共有し、以下のように定義される。
Figure 0006489552
次に、以下を用いて方程式(1)に類似した線形システムを構築することができる。
Figure 0006489552
したがって、SVDを用いることにより、双方の平面における全ての点を用いて平行な平面の平面パラメーターが求められる。
平行な平面パラメーターが取得された後、平面パラメーターに基づいて平行な平面間の距離が直接求められる。例えば、平面iと平面jとの間の距離は、
Figure 0006489552
である。
同一平面上の平面の境界間の距離
同一平面上の平面の境界の間の距離は、例えば、ドア枠の幅を推定するのに必要とされる。これに関連して、幅は、ドアの左方の壁と右方の壁(同一平面上の2つの平面)との境界間の距離である。この幅を求めるには、ドア枠の境界点が抽出され、次に、2本の線がこれらの境界点に基づいて当てはめられる。これらの2つの平行線の間の距離がドア枠の幅である。
ドア枠を自動的にロケーション特定するためには、抽出された平面間の位相関係が平面当てはめ結果に基づいて推定される。同一平面上の平面を検知した後、全ての同一平面上の平面が2D空間に回転される。
図2は、ドア枠境界点を抽出するための擬似コードのブロック図である。2つの平面の境界点、すなわちCP1及びCP2は、2Dアルファ形状アルゴリズムを用いて別々に抽出される。例えば、Bernardini他「Sampling and Reconstructing Manifolds Using Alpha-Shapes」Purdue e-Pubs, a Serv. Purdue Univ. Libr., pp. 1-11, 1997を参照されたい。
次に、第1の平面において、CP1の各点について、他の平面境界点CP2における最近点が探索される。第1の平面上の全ての点を反復した後、CP2における最近点として探索された点、すなわちBP2が第2の平面上のドア枠境界点である。第2の平面においてこのプロセスを繰り返すことにより、第1の平面上のドア枠境界点、すなわちBP1が得られる。ドア枠境界点BP1及びBP2が検知された後、境界点の2つの集合から2本の線がそれぞれ推定される。距離は、2本の線から推定される。
ユーザーガイダンス
本発明者らによるユーザーガイダンスシステムは、対象となるシーンの事前知識に基づく。ユーザーガイダンスシステムの目的は、シーンから寸法情報を取得するという観点から現在の枠データの品質を示すことである。高品質データは、対象となる基礎構造特性を支持する平面からのデータを十分に含む画像と定義する。
ユーザーガイダンスシステムは、センサー及びシーンの特徴に基づいて、取得されたデータの品質を評価する。ユーザーガイダンスシステムは、事前情報を十分に活用するように、平面の位相関係を可視化する。箱形状と開口との2つの一般的なケースを示す。
箱形状
図3(A)は、2つの平行な平面の2つの組を有する形状として定義される箱形状を示す。2つの組は、互いに直角をなす。図3(A)に示すように、平面Aと平面Cとが互いに平行であり、平面Bと平面Dとが互いに平行である。さらに、平面Aは、平面Dに対して直角をなす。実線は、平面間の交線を示す。例として廊下シーンを用いる。
この構造物の寸法、すなわち廊下の幅及び高さを取得するには、4つの平面全てがセンサーにより取得されなければならない。センサーが4つの平面全てから十分な点を高精度に得ることを確実にするようにユーザーガイダンスが設計される。
ユーザーガイダンスは、シーンから少なくとも3つの平面が検知されたと仮定する。この仮定は妥当である。なぜならば、センサーが2つの平面のみを観測した場合、センサーは4つの平面全てを取得することができない場合があるからである。これは、廊下が高すぎてセンサーが4つの平面全てを捕捉することが不可能であるときに発生する。データにおいて1つの平面が取得されない場合、部分データに基づいて幾何解析が行われる。ユーザーを誘導するように、シーンの事前情報及び捕捉されたデータに基づいて、可能性のある形状が再構築される。
例えば、図3(B)に示すように、平面D、すなわち床がデータから検知されない場合、廊下の高さが不明である。しかしながら、2つの壁に基づいて、廊下の幅を依然として求めることができる。天井及び2つの壁が検知されるので、天井とこれらの壁との間の交線を導出することができる。事前情報及び求められた交線に基づいて、可能性のある高さを推定し、図3(C)に示すような箱形状(白線)を構築することができる。したがって、ユーザーガイダンスシステムは、この状況に対して対応するガイダンスを提供し、図3(D)に示すような床を取得して最終的な寸法を取得するのにより良い姿勢にセンサーを再位置決めする(142)ことができる。
本方法は、平面Dからは点が存在しないことを検知するので、システムは、平面D、すなわち床から点を取得するように、ユーザーにセンサーを再位置決めすることを提案する。ガイダンスに従うことによって、センサーは下げられるか、又はその向きが下方に傾けられ、次に、画像、すなわち図3(D)が取得される。この画像において、奥行き画像から4つの平面A〜Dのうちの全てを抽出することができ、テンプレートに類似した箱形状が構築される。したがって、幾何解析により廊下の高さ及び幅の双方を求めることができる。
ユーザーガイダンスは、欠落した平面を取得するようにセンサーを再位置決めすることのほかに、データ品質に基づいて測定値の品質に関するコメントを提供することもできる。例えば、奥行きセンサーの不確定性は、シーンとセンサーとの間の距離が増加するにしたがって一般的に増加する。したがって、シーン要素がセンサーから離れている場合、このオブジェクトの点は高い不確定性を有し、それによって寸法測定値の正確性が影響される。
したがって、データから4つの平面のうちの全てが検知される場合、各平面につき、その重心とセンサーとの間の距離が求められる。センサーまでの距離が閾値よりも大きい、例えば、3.0mである場合、ユーザーガイダンスシステムは、測定の不確定性を最小化するように、その平面にセンサーを近づけるようにユーザーに提案する。
開口
開口構造物は、第1の平面に対して別の支持平面、例えば床が存在する、平面における開口と定義される。壁における開口であるドア枠を例として用いる。図4(A)〜図4(D)に示すように、平面A及び平面Bは、垂直な壁であり、同じ平面上に存在し、すなわち、これらの壁の関係は同一平面上であり、平面Cは、平面Aと平面Bとに対して直角をなす床である。開口の正確な幅を取得するには、壁の再構築において制約をもたらすのに床が必要である。したがって、床がセンサーにより観測されることを保障するようにユーザーガイダンスが実施される。
データにおいて平面C、すなわち床が測定されない場合、システムは、図4(B)における2本の実線を依然として再構築することができる。ここで、この2本の実線に基づいて幅が推定される。しかしながら、センサーの奥行き境界周辺の測定値の不正確性に起因して線推定は正確でなく、したがって幅が常に正確とは限らない。ユーザーガイダンスシステムは、図4(A)と図4(C)とを比較することにより、床のデータを取得することができるようにセンサーを下方に再位置決めすることをユーザーに指示する。このようにすることで、図4(D)において、より良い品質データを有する新しい画像が取得される。ドア幅の推定は、線は床に対して垂直であるという制約を加えることにより改良される。
加えて、通常ドアは壁に対して窪んでいるので、センサーの視認方向がドアに対して直角をなさない場合、壁がセンサーの視界を遮る可能性がある。したがって、ユーザーガイダンスシステムはこれも考慮する。この評価には、ドア表面の法線ベクトルが用いられる。センサーの視認方向がドア表面に対して垂直でない場合、視認方向はドア表面の法線ベクトルに対して平行ではない。したがって、ユーザーガイダンスシステムは、センサーの視認方向を調整することに関するフィードバックを提供することが可能である。

Claims (13)

  1. シーン内の寸法を求める方法であって、
    センサーにより取得された前記シーンの単一奥行き画像を取得するステップと、
    前記単一奥行き画像から平面を抽出するステップと、
    前記平面の位相関係を求めるステップと、
    前記平面及び前記位相関係に基づいて前記寸法を求めるステップと、
    シーンタイプを用いて、前記単一奥行き画像から取得された前記平面の前記寸法の品質を評価するステップであって、前記品質が十分な場合には前記寸法を出力し、そうでなければ、前記センサーを再位置決めするガイダンスを出力する、ステップと、
    を備え、
    前記ステップは、プロセッサにおいて行われる
    方法。
  2. 前記シーンの赤、緑、及び青(RGB)画像と前記奥行き画像を組み合わせて、RGB−奥行き画像を形成する
    請求項1に記載の方法。
  3. 前記ガイダンスは、ユーザーに出力される
    請求項1に記載の方法。
  4. 前記ガイダンスは、前記センサーが載置されているロボットに出力される
    請求項1に記載の方法。
  5. 前記抽出するステップは、
    前記奥行き画像内の画素を群にセグメント化するステップと、
    グラフにおいて前記群をノードとして表すステップであって、エッジは、隣接する群を表す、ステップと、
    前記グラフに凝集型階層的クラスタリングを適用して、同一平面上のノードを結合するステップと、
    を更に備えた請求項1に記載の方法。
  6. 前記位相関係は、
    2つの平面の法線ベクトルが互いに平行である場合、平行な平面を含み、
    2つの平面が同一のパラメーターを有する場合、同一平面上の平面を含み、
    2つの平面が平行でない場合、交差する平面を含み、
    2つの平面の前記法線ベクトルが互いに直角をなす場合、直角をなす平面を含む
    請求項1に記載の方法。
  7. 前記平面を抽出するために最小二乗手順を用いるステップを更に備えた
    請求項1に記載の方法。
  8. 前記シーンタイプは、所定の形状を画定する
    請求項1に記載の方法。
  9. 前記所定の形状は、箱形状及び開口形状を含む
    請求項8に記載の方法。
  10. 前記箱形状は、2つの平行な平面の2つの組を含み、
    前記2つの組は、互いに直角をなす
    請求項9に記載の方法。
  11. 前記開口形状は、
    同一平面上の2つの平面と、
    前記同一平面上の2つの平面と直角をなす平面と、
    を含む請求項9に記載の方法。
  12. コンピューターにシーン内の寸法を求める処理を実行させる方法のステップを記憶した非一時的コンピューター可読記録媒体であって、
    前記方法は、
    センサーにより取得された前記シーンの単一奥行き画像を取得するステップと、
    前記単一奥行き画像から平面を抽出するステップと、
    前記平面の位相関係を求めるステップと、
    前記平面及び前記位相関係に基づいて前記寸法を求めるステップと、
    シーンタイプを用いて、前記単一奥行き画像から取得された前記平面の前記寸法の品質を評価するステップであって、前記品質が十分な場合には前記寸法を出力し、そうでなければ、前記センサーを再位置決めするガイダンスを出力する、ステップと、
    を備えた非一時的コンピューター可読記録媒体。
  13. メモリと通信するプロセッサを含む、シーン内の寸法を求めるシステムであって、
    前記システムは、前記シーンの単一奥行き画像を取得し、カラー画像とともに前記単一奥行き画像を送信するように構成された奥行きセンサーを備え、
    前記メモリは、前記プロセッサにシーン内の寸法を求める処理を実行させる方法のステップを記憶するように構成され、
    前記処理は、
    センサーにより取得された前記シーンの前記単一奥行き画像を取得するステップと、
    前記単一奥行き画像から平面を抽出するステップと、
    前記平面の位相関係を求めるステップと、
    前記平面及び前記位相関係に基づいて前記寸法を求めるステップと、
    シーンタイプを用いて、前記単一奥行き画像から取得された前記平面の前記寸法の品質を評価するステップであって、前記品質が十分な場合には前記寸法を出力し、そうでなければ、前記センサーを再位置決めするガイダンスを出力する、ステップと、
    を備えたシステム。
JP2016056626A 2015-04-28 2016-03-22 シーン内の寸法を求める方法 Active JP6489552B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/698,200 2015-04-28
US14/698,200 US9761015B2 (en) 2015-04-28 2015-04-28 Method for determining dimensions in an indoor scene from a single depth image

Publications (3)

Publication Number Publication Date
JP2016212086A JP2016212086A (ja) 2016-12-15
JP2016212086A5 JP2016212086A5 (ja) 2019-01-24
JP6489552B2 true JP6489552B2 (ja) 2019-03-27

Family

ID=57205763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056626A Active JP6489552B2 (ja) 2015-04-28 2016-03-22 シーン内の寸法を求める方法

Country Status (3)

Country Link
US (1) US9761015B2 (ja)
JP (1) JP6489552B2 (ja)
CN (1) CN106091921B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858681B2 (en) * 2014-10-27 2018-01-02 Digimarc Corporation Signal detection, recognition and tracking with feature vector transforms
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
US10721451B2 (en) * 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
JP2018156617A (ja) * 2017-03-15 2018-10-04 株式会社東芝 処理装置および処理システム
US10803663B2 (en) 2017-08-02 2020-10-13 Google Llc Depth sensor aided estimation of virtual reality environment boundaries
WO2019032736A1 (en) 2017-08-08 2019-02-14 Smart Picture Technologies, Inc. METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER
US10733762B2 (en) * 2018-04-04 2020-08-04 Motorola Mobility Llc Dynamically calibrating a depth sensor
WO2019222255A1 (en) * 2018-05-14 2019-11-21 Sri International Computer aided inspection system and methods
CN109000559B (zh) * 2018-06-11 2020-09-11 广东工业大学 一种物体体积的测量方法、装置、系统和可读存储介质
CA3027921C (en) * 2018-06-25 2022-04-12 Beijing Didi Infinity Technology And Development Co., Ltd. Integrated sensor calibration in natural scenes
CN109682304A (zh) * 2019-02-02 2019-04-26 北京理工大学 一种基于ccd相机对位装配系统的综合误差建模方法
AU2020274025B2 (en) 2019-05-10 2022-10-20 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
CN110853080A (zh) * 2019-09-30 2020-02-28 广西慧云信息技术有限公司 一种田间果实尺寸的测量方法
CN111412842B (zh) * 2020-04-09 2022-02-25 广东博智林机器人有限公司 墙面的截面尺寸的测量方法及装置、系统
CN111914901A (zh) * 2020-07-06 2020-11-10 周爱丽 座椅排列整齐度测量系统及方法
CN113220018B (zh) * 2021-04-23 2023-03-28 上海发电设备成套设计研究院有限责任公司 一种无人机路径规划方法、装置、存储介质及电子设备
US11568614B1 (en) 2021-08-02 2023-01-31 Bank Of America Corporation Adaptive augmented reality system for dynamic processing of spatial component parameters based on detecting accommodation factors in real time
JP7675605B2 (ja) 2021-09-15 2025-05-13 株式会社東芝 壁検出装置、搬送車両、制御方法、プログラム及び演算装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855812B2 (ja) * 2002-03-15 2006-12-13 ソニー株式会社 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP4535096B2 (ja) * 2007-07-27 2010-09-01 ソニー株式会社 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
US8908913B2 (en) * 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
JP5838355B2 (ja) * 2012-06-20 2016-01-06 パナソニックIpマネジメント株式会社 空間情報検出装置、人位置検出装置
US9230339B2 (en) * 2013-01-07 2016-01-05 Wexenergy Innovations Llc System and method of measuring distances related to an object
CN103106688B (zh) * 2013-02-20 2016-04-27 北京工业大学 基于双层配准方法的室内三维场景重建方法
US9984177B2 (en) * 2013-05-31 2018-05-29 Panasonic Intellectual Property Management Co., Ltd. Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP5799273B2 (ja) * 2013-10-02 2015-10-21 パナソニックIpマネジメント株式会社 寸法計測装置、寸法計測方法、寸法計測システム、プログラム

Also Published As

Publication number Publication date
US20160321827A1 (en) 2016-11-03
JP2016212086A (ja) 2016-12-15
US9761015B2 (en) 2017-09-12
CN106091921A (zh) 2016-11-09
CN106091921B (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
JP6489552B2 (ja) シーン内の寸法を求める方法
Borrmann et al. A mobile robot based system for fully automated thermal 3D mapping
Hong et al. Semi-automated approach to indoor mapping for 3D as-built building information modeling
KR102447461B1 (ko) 다방향 카메라를 이용한 밀폐 공간에 대한 치수 추정
Braun et al. A concept for automated construction progress monitoring using bim-based geometric constraints and photogrammetric point clouds.
US9984177B2 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP6238183B2 (ja) モデリング装置、3次元モデル生成装置、モデリング方法、プログラム
Fernandez-Moral et al. Extrinsic calibration of a set of range cameras in 5 seconds without pattern
Ibrahim et al. Metrics and methods for evaluating model‐driven reality capture plans
Gong et al. Extrinsic calibration of a 3D LIDAR and a camera using a trihedron
Schaub et al. Point cloud to BIM registration for robot localization and Augmented Reality
Díaz-Vilariño et al. Door recognition in cluttered building interiors using imagery and LiDAR data
Braun et al. Towards automated construction progress monitoring using BIM-based point cloud processing
Muharom et al. Real-Time 3D Modeling and Visualization Based on RGB-D Camera using RTAB-Map through Loop Closure
Gu et al. Truss member registration for implementing autonomous gripping in biped climbing robots
Gallegos et al. Appearance-based slam relying on a hybrid laser/omnidirectional sensor
Shen et al. Automatic Scan Planning and Construction Progress Monitoring in Unknown Building Scene
Hu et al. Image projection onto flat LiDAR point cloud surfaces to create dense and smooth 3D color maps
Pargieła et al. Application of mobile laser scanner to augment stationary collected point clouds
Reich et al. On-line compatible orientation of a micro-uav based on image triplets
CN118823764B (zh) 一种电力设备巡检盲区的识别方法及装置
Kotthäuser et al. Automatic reconstruction of polygonal room models from 3d point clouds
Zhao et al. A Building Information Modeling (BIM)-Enabled Robotic System for Automated Indoor Construction Progress Monitoring
US20250322600A1 (en) Fit rooms
Zheng et al. An efficient and practical calibration method for roadside camera using two vanishing points

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R150 Certificate of patent or registration of utility model

Ref document number: 6489552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250