JP2016529584A - 深度カメラデータを用いた高性能面検出 - Google Patents
深度カメラデータを用いた高性能面検出 Download PDFInfo
- Publication number
- JP2016529584A JP2016529584A JP2016519565A JP2016519565A JP2016529584A JP 2016529584 A JP2016529584 A JP 2016529584A JP 2016519565 A JP2016519565 A JP 2016519565A JP 2016519565 A JP2016519565 A JP 2016519565A JP 2016529584 A JP2016529584 A JP 2016529584A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- depth
- pixels
- values
- strip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims abstract description 21
- 230000015572 biosynthetic process Effects 0.000 claims abstract 2
- 238000012545 processing Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 2
- 230000014759 maintenance of location Effects 0.000 claims 1
- 230000008901 benefit Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000002940 Newton-Raphson method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000011121 hardwood Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/393—Arrangements for updating the contents of the bit-mapped memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Measurement Of Levels Of Liquids Or Fluent Solid Materials (AREA)
Abstract
【課題】 面検出の性能を向上させることである。【解決手段】 主題の開示は、画素深度と、行高さと、2つの定数との間の関係に基づいて、シーン画像の深度データを使用してシーン中の面を検出することに関する。深度画像のサンプルを処理して、定数の値を面形成にフィットさせ、その結果、どのサンプルが面を示しているかを決定する。深度画像中の画素を処理して、画素の深度、位置、および関連するフィットされた値に基づいて、各画素の面との関係、例えば、面の下方、面上、または面の上方を決定することを用いて、基準面は、面を示すサンプルから決定することができる。【選択図】 図6
Description
[0001] 深度センサを使用して平坦面を検出するのは、コンピュータビジョンでは通常のタスクである。平坦面検出には、ロボット工学(例えば、ナビゲーションの間床と障害物を区別すること)からゲーミング(例えば、プレーヤの部屋の実世界の壁に拡張現実感画像を描写すること)まで及ぶ多くの実用的な使用法がある。
[0002] 面検出は、より一般的な表面抽出ファミリーのアルゴリズムの特別な場合と見なされ、任意の連続表面(限定はしないが、平坦表面を含む)がシーンで検出される。一般的な表面抽出は、RANSAC(ランダムサンプリングおよびコンセンサス)アルゴリズムの変形を使用して首尾よく実行されている。それらの手法では、3次元(3D)ポイントクラウドが構築され、3Dシーン空間はランダムにサンプリングされる。次に、サンプルは、同じ幾何形状構築物(例えば、壁または花瓶)への帰属について評価される。面検出も同様に実行されている。
[0003] 面検出にこれらの既存の方法を使用することの主な欠点のうちの1つは、不十分な性能である。3Dポイントクラウドはすべてのフレームから構築される必要があり、そうなって初めて、サンプリングは始まることができる。サンプリングされた後、ポイントは、3Dシーンの面への帰属についてさらに分析される必要がある。さらに、深度フレームの画素を面への帰属に分類するために、画素は、3Dポイントクラウドシーン中に配置され、次に、分析される必要がある。このプロセスは、計算およびメモリリソースの点から見ると高価である。
[0004] 実際に必要とされるものが比較的少数の簡単な面(例えば、床、棚など)を単に検出することである場合、3Dポイントクラウドを構築する必要性のため、かなりのアルゴリズムの複雑さが解決法に付け加えられることがある。単純な3D面フィッティング法を使用して、床、壁、または天井などの深度センサ視野中の簡単な面を検出し再構築するのは、カメラ様深度センサの性質を利用することができていない。
[0005] この発明の概要は、発明を実施するための形態において以下でさらに説明される代表的な概念の選択を、簡単化した形態で紹介するために提供される。この発明の概要は、特許請求の範囲の主題の重要な特徴または本質的な特徴を識別することは意図されておらず、特許請求の範囲の主題の範囲を限定するために使用されることもまた意図されていない。
[0006] 簡単には、本明細書で説明する主題の様々な態様のうちの1つまたは複数は、面を決定するために画像の深度データを処理することに関する。1つまたは複数の態様は、画素を含む複数のストリップを使用して、ストリップごとに、ストリップに対応する深度データ中の画素深度値および画素位置に基づいて、そのストリップの画素がどの程度面形成(plane formulation)にフィットしているかを示す値を見いだすことを説明する。値が面を示す誤差閾値を満たすかどうかに基づいて、面を示す少なくともいくつかのストリップに関する値が維持される。維持された値の組は、深度データ中の画素の組に関連づけられる。
[0007] 1つまたは複数の態様は、シーンに関する面データを生成するように構成された面抽出論理部を含む。面抽出論理部は、画素を含む深度データのフレームを入力し、ただし各画素が、深度値、列指標、および行指標を有し、画素との関連づけのための対の値を計算するためにフレームデータを処理する。画素ごとに、関連する対の計算値、深度値、および行または列指標は、その画素の基準面との関係を示す。
[0008] 1つまたは複数の態様は、ストリップごとに、ストリップの画素の行高さおよび深度データに基づいて面計算式にフィットするフィットされた値を見いだすことを含む、画素深度値のストリップを処理することに関する。平坦なストリップと平坦でないストリップを区別する閾値評価に基づいて、面に対応しない画素を有するストリップのフィットされた値が除去される。それらの除去されなかったストリップのうち、ストリップのどれが基準面上にあり得るかが決定される。基準面上にあり得るストリップのフィットされた値を使用して、1組のフィットされた値を画素の各列に関連づける。
[0009] 他の利点は、図面と併せて行われる以下の詳細な説明から明らかになる。
[0010] 本発明は、例として示されており、同様の参照番号が同様の要素を示す添付の図に限定されない。
[0018] 本明細書で説明する技術の様々な態様は、一般に、3Dポイントクラウドを構築する必要がなく、それによって、伝統的な方法と比べてかなり大きい計算上の節約を得る面検出に関する。同時に、この技術は、シーンからの高品質面抽出を達成する。高性能面検出は、ここでは、平坦表面が視野中にあるとき、深度センサ(例えば、Microsoft CorporationのKinect(商標)技術を使用するなど)が生成する特定の深度画像の性質を利用することによって達成されている。
[0019] 一般に、この技術は、シーン上の対象物から視野の面(すなわち、センサに直角に入る中心光線に垂直な面)までの距離の2D画素表示を生成する深度センサによって見られたとき、平坦表面のパッチがどのように見える「はずである」かを記述する解析関数を適用することに基づく。
[0020] 本明細書で説明するように、そのような深度センサから見られたときの平坦表面のパッチは、次の形態にフィットしなければならない。
深度(Depth)=B/(Rowlndex − A)
(またはD=B/(H−A)、ここで、Hは、例えば640×480深度画像の画素行の数値指標であり、指標は1から480まで動くことができる。)深度、すなわちDは、画素行(H)で測定された感知障害物までの距離であり、AおよびBは、観察された障害物を通り抜ける仮想面を記述する定数である。定数Aは、「水平線指標」としても知られている、センサが無限大を見ている最初の画素行指標として解釈することができる。Bは、「面からの距離」として解釈することができる。AおよびBを解釈する別の方法は、Aはセンサから見られたときの面の傾斜を定義しており、Bは、センサが見ている表面からセンサがどれくらい高いかを定義しており、床の場合、Bは床の上方のカメラ高さに対応することを述べているということである。
深度(Depth)=B/(Rowlndex − A)
(またはD=B/(H−A)、ここで、Hは、例えば640×480深度画像の画素行の数値指標であり、指標は1から480まで動くことができる。)深度、すなわちDは、画素行(H)で測定された感知障害物までの距離であり、AおよびBは、観察された障害物を通り抜ける仮想面を記述する定数である。定数Aは、「水平線指標」としても知られている、センサが無限大を見ている最初の画素行指標として解釈することができる。Bは、「面からの距離」として解釈することができる。AおよびBを解釈する別の方法は、Aはセンサから見られたときの面の傾斜を定義しており、Bは、センサが見ている表面からセンサがどれくらい高いかを定義しており、床の場合、Bは床の上方のカメラ高さに対応することを述べているということである。
[0021] 深度感知されたフレームの小さいパッチからAおよびB定数を見いだし、それにより、ポイントクラウド計算と比較して低い計算オーバヘッドで深度フレーム画素の残りを「面上に」、「面の下に」、または「面の上方に」あるとして分類することを可能にするアルゴリズムが、本明細書で説明される。上述の解析的表現は、Aおよび/またはB定数を操作することによって、既に検出されている面(例えば、床)に関して、新しい面(例えば、崖(cliff)または天井)を定義することができるという追加の利益を与える。例えば、AおよびB定数が、単にある一定の高さまたはより高い障害物を分類するために、移動ロボットから見られるように床に対して計算される場合、Bおよび/またはA定数の値は、所望の分類確度および精度を達成する量だけ変えることができる。
[0022] したがって、本明細書で説明する技術は、深度センサ中心の座標系で面を検出する。追加の面は、既に検出された表面のAおよび/またはBを修正することに基づくことができる。さらに、この技術は、Aおよび/またはB定数を、幅および/または高さに関して変更することによって、傾斜してかつ回転した面の検出を可能にする。
[0023] 本明細書の例のいずれも非限定であることを理解されたい。したがって、本発明は、本明細書で説明するいかなる特定の実施形態、態様、概念、構造、機能、または例にも限定されない。むしろ、本明細書で説明する実施形態、態様、概念、構造、機能、または例のいずれも非限定であり、本発明は、全体として面検出、深度感知、および画像処理における利益および利点をもたらす様々な方法で使用することができる。
[0024] 図1は、一般的な概念的ブロック図を例示しており、シーン102は、深度カメラ104によって深度データ106中の1つまたは複数の連続フレームで捕捉される。カメラ104は、赤外線および/または可視光(例えば、RGB)センサとすることができる単一のセンサまたは多数の(例えば、ステレオ)センサを含むことができる。深度データ106は飛行時間センシングおよび/またはステレオ画像マッチング技法によって得ることができる。深度データの捕捉は、投影光パターンがシーン102上に投影されるアクティブセンシングによって促進され得る。
[0025] 深度データ106は、画素(行と列の対によって指標づけされた)ごとの深度値をもつ、画素のアレイなどの画像深度マップの形態とすることができる。深度データ106は、同じデータ構造のRGBデータが伴っていてもよいし伴っていなくてもよいが、しかしながら、RGBデータが存在する場合、深度データ106は画素相関を介してRGBデータに関連づけられる。
[0026] 本明細書で説明するように、面抽出論理部108は、深度データ106を面データ110へと処理する。一般に、面データ110は、フレームごとに発生され、画像から抽出された少なくとも1つの基準面、例えば床などを示す。深度画像/マップの他の深さおよび/または他の面は、この基準面を基準とすることができる。
[0027] 面データ110は、アプリケーションプログラム112に入力することができる(オペレーティングシステムコンポーネント、サービス、ハードコード化論理などのような他のソフトウェアが同様に面データ110にアクセスすることができるが)。例えば、アプリケーションプログラム112は、深度データ106の所与の画素について、その画素が、基準面上に、基準面の上方に(例えば、障害物を示す)、または基準面の下方に(例えば、崖を示す)あるかどうかを決定することができる。
[0028] 本明細書の説明の目的で、特に記述しない限り、基準面は床として例示されることになる。容易に理解できるように、壁、天井、プラットフォームなどのような別の基準面を検出し、計算することができる。
[0029] 上述で記載され、図2に一般的に示されるように、Dは深度を表し、HはRowlndexを表し、水平に位置づけられた深度センサの視野面から床までの行指標ごとの距離は、本明細書では次の計算式を使用して記述される。
深度=B/(Rowlndex−A)
深度=B/(Rowlndex−A)
[0030] それが面である場合、感知された深度は、カメラを基準とした床の勾配を考慮して、面の上方のカメラの高さ(B)と、行指標(H)との関数であり、ここで、A定数は、床がどのように傾斜しているかを定義し、B定数は、床がZ方向にどのくらいシフトされているかを定義する(センサは地面からある高さ離して装着されていると仮定して)。深度データにおいて、D(したがって、行指標H)は、カメラセンサの距離ではなくカメラの画像面から計算されることに留意されたい。
[0031] 一般に、AおよびBは分かっていない。1つの実施態様では、動的床抽出法により、深度フレームの幅(画素列)にわたる小さいパッチ(ストリップと呼ばれる)が分析され、AおよびBを変更して、上述の計算式をそれらのストリップにフィットさせようと試みられる。パッチの概念が、図3に一般的に示されており、ここで、2次元画像330が示され、ストリップは、深度データの様々な2Dサンプルを含み、画像330の底部の近くおよびそれをわたって破線のボックスとして示され、ストリップは、所与の実施態様ではオーバーラップしてもよいし、オーバーラップしなくてもよい。実際は、深度画像データは、画像330におけるような部屋の中の目に見える対象物ではなく、むしろ画素ごとの数値の深度値であることに留意されたい。したがって、ストリップは、RGBデータでなくそれぞれの画素の深度値で満たされていることを理解されたい。さらに、例えば、移動ロボットからの床検出では、ストリップが図3におけるようにフレームの底部に配置されるが、しかしながら、テーブルの上面の抽出では、ストリップは、ランダムにフレーム全体にわたって散らばっていることに留意されたい。さらに、「画像」330に関する図示のストリップの形状、数、分布、サイズなどは、単に目に見える例のためのものであり、いかなる実際の値も示唆するものではないことに留意されたい。しかしながら、一般に、面検出は、ストリップを画像の幅をわたって拡大することから利益を得るが、各ストリップの画素の数は、サンプルが面の一部であるかどうかを検出しようと試みるのに十分である必要がある。容易に理解できるように、採取されるサンプルが多いほど多くの情報を利用することができるが、しかしながら、採取されるサンプルと、サンプルを処理するために必要とされる計算の量との間にトレードオフがある。
[0032] 一般に、ストリップは、任意の幅および高さを有することができる。ストリップの幅および高さを増加させると、入力深度データのノイズを平滑化する効果がある。実際には、比較的少数の大きいストリップは、床検出に適しており、比較的多くのより小さいストリップは、雑然としたシーンでテーブルの上面を検出するのにより適切である。例えば、10×48の16個のストリップは、床検出に使用することができ、一方、100個の2×24ストリップはテーブルの上面の検出に使用することができる。
[0033] 例として、ロボット障害物回避および水平深度プロファイル構築の情況での床抽出を考えよう。このシナリオでは、抽出プロセスは、フレームをわたるストリップごとにAおよびB係数を学習しようと試み、AおよびB値を用いて、予測される床よりわずかに高いカットオフ面を計算する。その面が分かると、次に、プロセスは、例えば、面データ110において、予測される床より下の画素を「床」として、およびそれより上のあらゆるものを障害物としてマークすることができる。ある閾値を超える「床」などより下のあらゆるものは、代替として、崖と見なすことができることに留意されたい。
[0034] 所与のストリップについて最もよくフィットするAおよびB定数値を計算するために、プロセスは、以下の計算式によって定義された、最小二乗近似を適用することができる。
[0035] プロセスは、AおよびBで微分する必要があり、以下を求める。
[0036] AおよびBで微分すると、以下が与えられる。
[0037] 定数Aは、いくつかの反復近似法で見いだすことができ、例えば、Newton−Raphson法は、以下を提示している。
[0038] これは、複雑なアルゴリズムを介して解決することができる。代替として、プロセスは、プロセスが所望の精度に達するまで連続的なより小さいステップで二乗誤差を計算し、各々の新しいAを選ぶことによるAのより簡単な(多分、それほど効率的ではないが)二分探索法を使用することができる。Aを探索する精度の制御は、アルゴリズムのこの学習フェーズの実行を微調整するための単純明快な方法である。
[0039] 実行時に、各深度フレームを用いて、AおよびBはすべてのストリップについて学習することができる。AおよびBを計算するのと一緒に、そのストリップにとってあり得る最良のAおよびBにストリップをフィットさせた二乗誤差結果を含む「フィットの良さ(goodness of fit)」の尺度が得られる。ストリップがこの例で床を見ていない場合、誤差は大きく、したがって、大きい誤差を示すストリップは廃棄される。しかしながら、良いストリップは保持される。「良さ」の尺度は、アルゴリズムへの入力とすることができ、発見的方法に基づくことができ、および/または任意の環境での動作を可能にするように調節することができ、例えば、カーペット、硬材、アスファルト、砂利、芝生などは、良さの閾値が適切である場合、面として検出され得る異なる表面である。
[0040] シーンにはいくつかの平坦表面があり得るので、フィットされたAおよびBに基づいてそのような表面を区別するタスクがある。これは、同じ面にフィットしているAおよびB定数が非常に近いということを考えれば、単純明快である。プロセスは、例えば分散による標準統計的手法を使用して、他の面を除去することができる。プロセスは、さらに、探索を狭めるのに役立つようにいくつかの発見的方法を利用することができる。例えば、面フィッティングのタスクが、所与の高さに固定深度センサを有するロボットによる床の検出である場合、プロセスは、B定数に上限および下限を容易に設定することができる。
[0041] 深度フレーム幅をわたるストリップが分析された後、プロセスは、深度フレームのすべての幅画素(列)について1対のAおよびB定数を生成する(例えば、線形補間を介して)。カメラのパン/傾斜/回転次第で、フレーム幅にわたって事実上一定のAおよびBであることがあり、またはAおよびB値がフレーム幅にわたって変化することがある。いずれにしても、画素のすべての列に対して、後で画素を分類するときに使用できる1対のAおよびB定数がある。
[0042] AおよびB対は、一般に、フレームごとに再計算されるが、シーンが非常に雑然となっているのでプロセスが十分な数のストリップを面にフィットさせることができない場合、以前のフレームからのAおよびB定数が現在のフレームのために再使用され得る。これは、シーンが非常に視界を遮られているので床を十分に見ることができない(および/またはカメラが移動した、例えば、フレームを越えて過度に回転/傾斜した)のでAおよびBを計算できないときを除き、少数のフレームに有効である。
[0043] 図4は、中央の実線が、カメラの前に本当の床面があるとき、深度センサからの行ごとの深度読取りがどのように現われるかを示すグラフ440を示す(X軸は、センサからの距離を示し、Y軸は画素行を示す)。破線(障害物および崖)は、A定数を変更することによって得られる。ラインが数学的に定義された後、グラフからのBおよびA定数値(またはルックアップ表などで見いだされる適切なAおよびB値)を用いてB/(X−A)を計算して、列Xについて画素の面類似性を分類するのは単純明快である。Aを変更すると、カメラを上下に傾斜させる効果があり、それは、動的に床を学習し抽出するために実行時に使用される性質であることに留意されたい。
[0044] 図5は、図4の画像440に関連する若干のカメラ回転(およびわずかな傾斜)を伴った画像表示550を示す。見て分かるように、床の勾配が変化し、したがって、A定数の値が画像の列にわたって変わる。A定数の値の差を使用して、例えば、回転の量を決定することができる。
[0045] プロセスは、フレームの小さいサンプリング領域のみを使用して床を見いだすことができ、プロセスは、深度フレーム幅全体のAおよびB定数を学習するのに多くの計算コストを必要としない。しかしながら、画素を床として/床でないとして分類するために、プロセスは、2つの整数数値計算(integer math calculation)および表索引を計算して各画素を検査しなければならない。これは、比較的高価な変換をもたらすが、適度に速い。
[0046] 床の決定に加えて、同じ抽出プロセスを使用して、崖を見いだすことができ、それは、追加の計算を必要とせず、Aおよび/またはBへの調節のみを必要とする。天井は、同様に、追加の計算を必要とせず、単にBに対する増加を必要とする。壁などの垂直面は、行の代わりに列に適用されることを除いて同じアルゴリズムを使用して、検出することができる。
[0047] 例えば、床と平行な、または床に対して任意に傾斜した/シフトした空間の追加のスライスを処理することもできる。これを使用して、追加の学習をする必要なしに、カメラの前の3D空間を事実上スライスすることができる。
[0048] その上、表面品質は、画素のストリップをフィットさせる間に得られたデータから決定できるので、追加コストなしに既に入手可能である。例えば、誤差が小さいほど、表面は平滑である。これは、ノイズモデルの違いのために、例えばセンサにわたって移すことができないことがある(表面欠陥が非常に大きくて、表面欠陥がセンサのノイズよりも著しく際立っていない限り)ことに留意されたい。
[0049] 図6は、抽出プロセスのいくつかの例示のステップを要約している流れ図であり、「良さ」の閾値、例えば、ストリップが十分に平坦であって面の一部であると見なされるかどうかを決定するために使用される値が受け取られるステップ602で始まる。いくつかの場合には、初期設定値を可変パラメータの代わりに使用することができる。
[0050] ステップ604は、次の深度フレームがカメラから利用可能になったとき、深度フレームを受け取ることを示す。ステップ606は、例えば、擬似ランダムに深度画像の幅をわたってサンプリングストリップを発生させる。
[0051] 次に、各ストリップは、本明細書で説明する面計算式にストリップデータをフィットさせる最良のAおよびB値を見いだすために選択され(ステップ608)、処理される。これらのステップのうちのいくつかは、可能な範囲で並列に、多分、GPU上で/GPUメモリ内で実行することができることに留意されたい。
[0052] ステップ610は、選択されたストリップに対するフィッティングプロセスを示す。ステップ612は、ストリップ画素が面を示しているかどうかを決定するために良さの閾値と比較して誤差を評価し(表面品質を明らかにするためにユーザによって変更され得る閾値が与えられたとして)、それによって、ストリップデータは保持される(ステップ614)。さもなければ、このストリップのデータは廃棄される(ステップ616)。ステップ618は、ストリップごとに完了するまで、フィッティングプロセスを繰り返す。
[0053] ステップ620は、どのストリップが基準面を示しているかを決定することを示す。より詳細には、上述のように、例えば、床を検出する場合、多くのストリップが床上にない面を示すことがあり、これらは、これらのフィットしたAおよびB定数値に基づいて区別することができ、これらのフィットしたAおよびB定数値は、床を捕捉したストリップに対応するAおよびB定数値の(可能性が高い)最も一般的な組と異なる(例えば統計的に)。
[0054] 残りのストリップの各々のAおよびB値を使用して、ステップ622、624、および626は、例えば補間などを介して、画素の列ごとのAおよびB値を決定する。垂直面が基準面である場合、ステップ622、624、および626は、列の代わりに画素行を扱うように変更されることに留意されたい。
[0055] ステップ628は、面データを出力することを示す。例えば、データがどのように使用されるかに応じて、面データは、列(または垂直基準面では行)ごとのA、B対の組の形態とすることができる。代替として、深度マップは、各画素の深度および画素行を、その画素に関連するAおよびB値とともに使用することによって、各画素が基準面を基準としてどこにあるかを示す別のデータ構造へと処理することができる。例えば、基準面が床である場合、画素は、その画素の列および画素行および計算された深度のAおよびB値に基づいて、近似的に、床上に、床の上方に、または床の下方にあり、フレームごとのこの情報を示すマップが発生され得る。
[0056] 上述のように、基準面のA、B値を決定するためにサンプリングするには、画像があまりに雑然とした表面のものであることがあり得る。図6には示されていないが、これは、例えば、結果に対して十分な信頼を有するために、ステップ620の後、ほとんどのストリップを残さないようにすることによって決定することができる。上記のように、これは、以前のフレームからのA、B値を使用することによって対処することができる。別の代替は、再サンプリングされたストリップを再度フィットさせ分析するのに十分な時間が残っているならば、多分、画像の異なる区域(例えば、雑然さは1つの包括的領域にあることがあるので、わずかに高い)で再サンプリングすることである。
[0057] 見て分かるように、本明細書で説明する技術は、いかなる3D(例えば、ポイントクラウド)処理も必要とすることなく、深度画像から面データを得る効率的な方法を提供する。この技術は、床およびその上の障害物(および/またはそれに関連する崖)を決定することなどの様々な用途で使用することができる。
例示の動作環境
例示の動作環境
[0058] 上述の実施態様およびその代替は、ゲーミングシステム、パーソナルコンピュータ、タブレット、DVR、セットトップボックス、スマートフォンなどを含む任意の好適なコンピューティングデバイスに実装できることが容易に理解されよう。そのようなデバイスの組合せは、多数のそのようなデバイスが一緒にリンクされる場合やはり利用可能である。説明のために、ゲーミング(メディアを含む)システムが、1つの例示的な動作環境として以下で説明される。
[0059] 図7は、例示のゲーミングおよびメディアシステム700の機能ブロック図であり、機能構成要素をより詳細に示している。コンソール701は、中央処理装置(CPU)702と、メモリコントローラ703とを有し、メモリコントローラ703は、フラッシュ読取り専用メモリ(ROM)704、ランダムアクセスメモリ(RAM)706、ハードディスクドライブ708、およびポータブルメディアドライブ709を含む様々なタイプのメモリへのプロセッサアクセスを容易にする。1つの実施態様では、CPU702は、データを一時的に記憶するためのレベル1キャッシュ710およびレベル2キャッシュ712を含み、その結果、ハードドライブになされるメモリアクセスサイクルの数を減少させ、それによって、処理速度およびスループットを改善する。
[0060] CPU702、メモリコントローラ703、および様々なメモリデバイスは、1つまたは複数のバス(図示せず)を介して相互接続される。この実施態様で使用されるバスの詳細は、本明細書で論じられている対象の主題を理解するのにさほど関連しない。しかしながら、そのようなバスは、様々なバスアーキテクチャのうちのいずれかを使用する、直列および並列バス、メモリバス、周辺バス、ならびにプロセッサまたはローカルバスのうちの1つまたは複数含むことができることを理解されよう。例として、そのようなアーキテクチャは、産業標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオエレクトロニクス標準組織(VESA)ローカルバス、およびメザニーンバスとしても知られている周辺機器コンポーネント相互接続(PCI)バスを含むことができる。
[0061] 1つの実施態様では、CPU702、メモリコントローラ703、ROM704、およびRAM706は、共通モジュール714上に集積される。この実施態様では、ROM704は、周辺機器コンポーネント相互接続(PCI)バスなどおよびROMバスなど(どちらも図示されていない)を介してメモリコントローラ703に接続されるフラッシュROMとして構成される。RAM706は、別個のバス(図示せず)を介してメモリコントローラ703によって独立に制御される多数の二重データレート同期式RAM(DDR SDRAM)モジュールとして構成することができる。ハードディスクドライブ708およびポータブルメディアドライブ709は、PCIバスおよびATアタッチメント(ATA)バス716を介してメモリコントローラ703に接続された状態で示されている。しかしながら、他の実施態様では、異なるタイプの専用データバス構造を、代替では適用することもできる。
[0062] 3次元グラフィックス処理ユニット720およびビデオエンコーダ722は、高速および高解像度(例えば、高精細)グラフィックス処理のためのビデオ処理パイプラインを形成する。データは、グラフィックス処理ユニット720からビデオエンコーダ722にデジタルビデオバス(図示せず)を介して搬送される。オーディオ処理ユニット724およびオーディオコーデック(コーダ/デコーダ)726は、様々なデジタルオーディオフォーマットのマルチチャネルオーディオ処理のために、対応するオーディオ処理パイプラインを形成する。オーディオデータは、オーディオ処理ユニット724とオーディオコーデック726との間を通信リンク(図示せず)を介して搬送される。ビデオおよびオーディオ処理パイプラインは、テレビジョンまたは他のディスプレイ/スピーカへの送信用のA/V(オーディオ/ビデオ)ポート728にデータを出力する。図示の実施態様では、ビデオおよびオーディオ処理構成要素720、722、724、726、および728は、モジュール714に装着される。
[0063] 図7は、USBホストコントローラ730と、有線および/または無線構成要素を含むことができるネットワークインタフェース(NW I/F)732とを含むモジュール714を示している。USBホストコントローラ730は、バス(例えばPCIバス)を介してCPU702およびメモリコントローラ703と連通している状態で示されており、周辺機器コントローラ734のホストとしての役割を果たす。ネットワークインタフェース732は、ネットワーク(例えば、インターネット、ホームネットワークなど)へのアクセスを可能にし、イーサネットカードまたはインタフェースモジュール、モデム、ブルートゥースモジュール、ケーブルモデムなどを含む多種多様の様々な有線または無線インタフェース構成要素のいずれとすることができる。
[0064] 図7に示された例示の実施態様では、コンソール701は、4つのゲームコントローラ741(1)〜741(4)をサポートするためのコントローラサポートサブアセンブリ740を含む。コントローラサポートサブアセンブリ740は、例えば、メディアおよびゲームコントローラなどの外部制御デバイスを用いて有線および/または無線動作をサポートするのに必要とされる任意のハードウェアおよびソフトウェア構成要素を含む。フロントパネルI/Oサブアセンブリ742は、コンソール701の外面に露出している電源ボタン743、イジェクトボタン744、ならびに任意の他のボタンおよび任意のLED(発光ダイオード)または他のインジケータの多数の機能をサポートする。サブアセンブリ740および742は、1つまたは複数のケーブルアセンブリ746などを介してモジュール714と連通している。他の実施態様では、コンソール701は、追加のコントローラサブアセンブリを含むことができる。図示の実施態様は、さらに、モジュール714と通信することができる信号(例えば、リモートコントロール749からの)を送信および受信するように構成された光I/Oインタフェース748を示している。
[0065] メモリユニット(MU)750(1)および750(2)は、それぞれ、MUポート「A」752(1)および「B」752(2)に接続可能であるように示されている。各MU750は、ゲーム、ゲームパラメータ、および他のデータを記憶することができる追加の記憶装置を提供する。いくつかの実施態様では、他のデータは、デジタルゲームコンポーネント、実行可能なゲームアプリケーション、ゲームアプリケーションを拡張するための命令セット、およびメディアファイルのうちの1つまたは複数を含むことができる。各MU750は、コンソール701に挿入されると、メモリコントローラ703によってアクセスされ得る。
[0066] システム電源モジュール754は、ゲーミングシステム700の構成要素に電力を供給する。ファン756は、コンソール701内の回路を冷却する。
[0067] 機械命令を含むアプリケーション760は、一般に、ハードディスクドライブ708に記憶される。コンソール701の電源が入れられると、アプリケーション760の様々な部分が、CPU702での実行のために、RAM706、および/またはキャッシュ710および712にロードされる。一般に、アプリケーション760は、様々なディスプレイ機能を実行する、例えば、ディスプレイ(例えば、高精細モニタ)での提示のためにダイアログ画面を制御する、ユーザ入力に基づいてトランザクションを制御する、コンソール701と外部に接続されたデバイスとの間のデータ送信および受信を制御するなどのための1つまたは複数のプログラムモジュールを含むことができる。
[0068] ゲーミングシステム700は、高精細モニタ、テレビジョン、ビデオプロジェクタ、または他のディスプレイデバイスにシステムを接続することによってスタンドアロンシステムとして動作することができる。このスタンドアロンのモードでは、ゲーミングシステム700により、一人または複数のプレーヤが、ゲームを行うか、または例えば映画を見るまたは音楽を聴くことによってデジタルメディアを楽しむことができるようになる。しかしながら、広帯域接続の統合がネットワークインタフェース732によって利用可能にされる状況では、ゲーミングシステム700は、より大きいネットワークゲーミングコミュニティまたはシステムにおける参加構成要素としてさらに動作することができる。
結言
結言
[0069] 本発明は様々な変更および代替構成の余地があるが、本発明のいくつかの例証の実施形態が図面で示され、上述で詳細に説明された。しかしながら、本発明を開示された特定の形態に限定する意図はなく、それどころか、意図は、本発明の趣旨および範囲内にあるすべての変更、代替構成、および均等物を包含することであることを理解されたい。
Claims (10)
- 面を決定するために画像の深度データを処理することを含み、前記深度データが、画素の指標づけされた行および列と、画素ごとの深度値とを含む、方法であって、
画素を含む複数のストリップを使用すること、
ストリップごとに、前記ストリップに対応する前記深度データ中の深度値および画素位置に基づいて、そのストリップの画素がどの程度面形成にフィットしているかを示す値を見いだすこと、
前記値が面を示す誤差閾値を満たすかどうかに基づいて、面を示す少なくともいくつかのストリップに関する前記値を維持すること、および、
前記維持された値の組を前記深度データ中の画素の組に関連づけること
を含む、方法。 - 前記画素の組が画素の列に対応し、前記維持された値の前記組を前記画素の組に関連づけることが、前記値の列ごとの組を画素の列に関連づけることを含む、請求項1に記載の方法。
- 前記深度データに深度値、列識別子、および行識別子を有する所与の画素について、a)前記深度値、前記画素の列に関連する前記値、および前記行識別子を使用して、その画素が、i)前記面の下方に、もしくは前記面の上方に、またはii)前記面上に、前記面の下方に、もしくは前記面の上方にあるかどうかを評価すること、またはb)カメラ回転の量を決定するために前記列にわたる前記値のうちの1つの変化を使用すること、またはc)a)およびb)の両方をさらに含む、請求項2に記載の方法。
- 前記値の組がフレームに対して決定され、後続のフレームで定数値を再使用することをさらに含む、請求項1に記載の方法。
- ストリップごとに前記値を見いだすことが、前記値のうちの少なくとも1つを反復近似によって決定すること、または二分探索法により前記定数のうちの1つを決定することによって前記値のうちの少なくとも1つを決定することを含む、請求項1に記載の方法。
- 面を決定するために画像の前記深度データを処理することが、床を決定することまたは実質的に垂直な面を決定することを含む、請求項1に記載の方法。
- 前記ストリップを使用することが、領域を前記複数のストリップでサンプリングすることを含む、請求項1に記載の方法。
- シーンに関する面データを生成するように構成された面抽出論理部を含むシステムであって、前記面抽出論理部が、画素を含む深度データのフレームを入力し、ただし各画素が、深度値、列指標、および行指標を有し、前記画素との関連づけのための対の値を計算するために前記フレームデータを処理するように構成され、画素ごとに、前記画素、前記画素の前記深度値、および前記画素の前記行または列指標に関する1対の値が、その画素の基準面との関係を示す、システム。
- 実行可能命令を有する1つまたは複数の機械可読記憶媒体または論理部であって、実行されると、
ストリップごとに、前記ストリップの画素の行高さおよび深度データに基づいて面計算式にフィットするフィットされた値を見いだすことを含む、画素深度値のストリップを処理すること、
平坦なストリップと平坦でないストリップを区別する閾値評価に基づいて、面に対応しない画素を有するストリップの前記フィットされた値を除去すること、
除去されなかったストリップから、前記除去されてなかったストリップのうちのどれが基準面上にあり得るかを決定すること、および、
前記基準面上にあり得る前記ストリップの前記フィットされた値を使用して、1組のフィットされた値を画素の各列に関連づけること
を含むことを実行する、1つまたは複数の機械可読記憶媒体または論理部。 - 少なくとも1つの画素について、前記画素の前記深度値、前記画素の行高さ、および前記画素の列に関連づけられた前記フィットされた値の組に基づいて、前記画素と前記基準面との間の関係を決定することを含むさらなる実行可能命令を有する、請求項9に記載の1つまたは複数の機械可読記憶媒体または論理部。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/915,618 | 2013-06-11 | ||
US13/915,618 US20140363073A1 (en) | 2013-06-11 | 2013-06-11 | High-performance plane detection with depth camera data |
PCT/US2014/041425 WO2014200869A1 (en) | 2013-06-11 | 2014-06-06 | High-performance plane detection with depth camera data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016529584A true JP2016529584A (ja) | 2016-09-23 |
Family
ID=51063843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016519565A Pending JP2016529584A (ja) | 2013-06-11 | 2014-06-06 | 深度カメラデータを用いた高性能面検出 |
Country Status (11)
Country | Link |
---|---|
US (1) | US20140363073A1 (ja) |
EP (1) | EP3008692A1 (ja) |
JP (1) | JP2016529584A (ja) |
KR (1) | KR20160019110A (ja) |
CN (1) | CN105359187A (ja) |
AU (1) | AU2014278452A1 (ja) |
BR (1) | BR112015030440A2 (ja) |
CA (1) | CA2913787A1 (ja) |
MX (1) | MX2015017154A (ja) |
RU (1) | RU2015153051A (ja) |
WO (1) | WO2014200869A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11428522B2 (en) | 2017-12-07 | 2022-08-30 | Fujitsu Limited | Distance measuring device, distance measuring method, and non-transitory computer-readable storage medium for storing program |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9934611B2 (en) | 2013-09-11 | 2018-04-03 | Qualcomm Incorporated | Structural modeling using depth sensors |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9858683B2 (en) | 2015-08-05 | 2018-01-02 | Intel Corporation | Method and system of planar surface detection objects in 3d space generated from captured images for image processing |
US20170171525A1 (en) | 2015-12-14 | 2017-06-15 | Sony Corporation | Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method |
US10030968B2 (en) * | 2016-02-08 | 2018-07-24 | Youspace, Inc. | Floor estimation for human computer interfaces |
US10591988B2 (en) * | 2016-06-28 | 2020-03-17 | Hiscene Information Technology Co., Ltd | Method for displaying user interface of head-mounted display device |
US10303417B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Interactive systems for depth-based input |
US10303259B2 (en) * | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US10089750B2 (en) | 2017-02-02 | 2018-10-02 | Intel Corporation | Method and system of automatic object dimension measurement by using image processing |
CN107610174B (zh) * | 2017-09-22 | 2021-02-05 | 深圳大学 | 一种鲁棒的基于深度信息的平面检测方法及系统 |
WO2019056306A1 (zh) * | 2017-09-22 | 2019-03-28 | 深圳大学 | 一种鲁棒的基于深度信息的平面检测方法及系统 |
TWI658431B (zh) * | 2017-10-02 | 2019-05-01 | 緯創資通股份有限公司 | 影像處理方法、影像處理裝置及電腦可讀取記錄媒體 |
US10902625B1 (en) * | 2018-01-23 | 2021-01-26 | Apple Inc. | Planar surface detection |
CN109214348A (zh) * | 2018-09-19 | 2019-01-15 | 北京极智嘉科技有限公司 | 一种障碍物检测方法、装置、设备及存储介质 |
WO2020073982A1 (en) * | 2018-10-11 | 2020-04-16 | Shanghaitech University | System and method for extracting planar surface from depth image |
CN111352106B (zh) * | 2018-12-24 | 2022-06-14 | 珠海一微半导体股份有限公司 | 扫地机器人坡度识别方法、装置、芯片及扫地机器人 |
CN110223336B (zh) * | 2019-05-27 | 2023-10-17 | 上海交通大学 | 一种基于tof相机数据的平面拟合方法 |
JP7444604B2 (ja) * | 2019-12-26 | 2024-03-06 | キヤノン株式会社 | 画像処理装置及び方法、及び撮像装置 |
WO2022158834A1 (ko) * | 2021-01-21 | 2022-07-28 | 삼성전자 주식회사 | 타겟 평면 검출 및 공간 추정을 위한 장치 및 방법 |
US11741676B2 (en) | 2021-01-21 | 2023-08-29 | Samsung Electronics Co., Ltd. | System and method for target plane detection and space estimation |
US11734850B2 (en) * | 2021-04-26 | 2023-08-22 | Ubtech North America Research And Development Center Corp | On-floor obstacle detection method and mobile machine using the same |
US12001216B2 (en) * | 2021-05-31 | 2024-06-04 | Ubkang (Qingdao) Technology Co., Ltd. | Carpet detection method, movement control method, and mobile machine using the same |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5978504A (en) * | 1997-02-19 | 1999-11-02 | Carnegie Mellon University | Fast planar segmentation of range data for mobile robots |
US6503195B1 (en) * | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US7006709B2 (en) * | 2002-06-15 | 2006-02-28 | Microsoft Corporation | System and method deghosting mosaics using multiperspective plane sweep |
AU2003291320A1 (en) * | 2002-11-05 | 2004-06-07 | Disney Enterprises, Inc. | Video actuated interactive environment |
US6847728B2 (en) * | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
US7068815B2 (en) * | 2003-06-13 | 2006-06-27 | Sarnoff Corporation | Method and apparatus for ground detection and removal in vision systems |
US9652032B2 (en) * | 2004-03-02 | 2017-05-16 | Brian T. Mitchell | Simulated training environments based upon fixated objects in specified regions |
US7111783B2 (en) * | 2004-06-25 | 2006-09-26 | Board Of Trustees Operating Michigan State University | Automated dimensional inspection |
US7957016B2 (en) * | 2004-09-20 | 2011-06-07 | Marvell International Technology Ltd. | Method and apparatus for image processing |
WO2006107727A2 (en) * | 2005-04-01 | 2006-10-12 | San Diego State University Foundation | Edge-on sar scintillator devices and systems for enhanced spect, pet, and compton gamma cameras |
US8472675B2 (en) * | 2008-05-05 | 2013-06-25 | Biotronics, Inc. | Systems, methods and devices for use in filter-based assessment of carcass grading |
US8411081B2 (en) * | 2008-06-09 | 2013-04-02 | The Board Of Trustees Of The Leland Stanford Jr. University | Systems and methods for enhancing symmetry in 2D and 3D objects |
EP2154650A1 (en) * | 2008-08-12 | 2010-02-17 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | 3D time-of-flight camera system and position/orientation calibration method therefor |
US9189886B2 (en) * | 2008-08-15 | 2015-11-17 | Brown University | Method and apparatus for estimating body shape |
US8385599B2 (en) * | 2008-10-10 | 2013-02-26 | Sri International | System and method of detecting objects |
WO2010078034A2 (en) * | 2008-12-17 | 2010-07-08 | Saint-Gobain Ceramics & Plastics, Inc. | Scintillation array method and apparatus |
CN101533529B (zh) * | 2009-01-23 | 2011-11-30 | 北京建筑工程学院 | 基于深度图像的三维空间数据处理方法与装置 |
US8340400B2 (en) * | 2009-05-06 | 2012-12-25 | Honeywell International Inc. | Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features |
DE102009042327A1 (de) * | 2009-09-21 | 2011-04-07 | Siemens Aktiengesellschaft | Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering |
US8199977B2 (en) * | 2010-05-07 | 2012-06-12 | Honeywell International Inc. | System and method for extraction of features from a 3-D point cloud |
US10776635B2 (en) * | 2010-09-21 | 2020-09-15 | Mobileye Vision Technologies Ltd. | Monocular cued detection of three-dimensional structures from depth images |
US9280711B2 (en) * | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
EP2447912B1 (en) * | 2010-10-27 | 2017-03-08 | Vaelsys Formacion y Desarrollo, S.L. | Method and device for the detection of change in illumination for vision systems |
US8761990B2 (en) * | 2011-03-30 | 2014-06-24 | Microsoft Corporation | Semi-autonomous mobile device driving with obstacle avoidance |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
KR101909544B1 (ko) * | 2012-01-19 | 2018-10-18 | 삼성전자주식회사 | 평면 검출 장치 및 방법 |
KR20130098042A (ko) * | 2012-02-27 | 2013-09-04 | 삼성전자주식회사 | 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치 |
EP2877959B1 (en) * | 2012-07-24 | 2018-04-18 | Datalogic USA, Inc. | Systems and methods of object measurement in an automated data reader |
US9811880B2 (en) * | 2012-11-09 | 2017-11-07 | The Boeing Company | Backfilling points in a point cloud |
-
2013
- 2013-06-11 US US13/915,618 patent/US20140363073A1/en not_active Abandoned
-
2014
- 2014-06-06 BR BR112015030440A patent/BR112015030440A2/pt not_active IP Right Cessation
- 2014-06-06 EP EP14735779.2A patent/EP3008692A1/en not_active Withdrawn
- 2014-06-06 CA CA2913787A patent/CA2913787A1/en not_active Abandoned
- 2014-06-06 MX MX2015017154A patent/MX2015017154A/es unknown
- 2014-06-06 WO PCT/US2014/041425 patent/WO2014200869A1/en active Application Filing
- 2014-06-06 RU RU2015153051A patent/RU2015153051A/ru not_active Application Discontinuation
- 2014-06-06 KR KR1020167000711A patent/KR20160019110A/ko not_active Application Discontinuation
- 2014-06-06 JP JP2016519565A patent/JP2016529584A/ja active Pending
- 2014-06-06 CN CN201480033605.9A patent/CN105359187A/zh active Pending
- 2014-06-06 AU AU2014278452A patent/AU2014278452A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11428522B2 (en) | 2017-12-07 | 2022-08-30 | Fujitsu Limited | Distance measuring device, distance measuring method, and non-transitory computer-readable storage medium for storing program |
Also Published As
Publication number | Publication date |
---|---|
KR20160019110A (ko) | 2016-02-18 |
EP3008692A1 (en) | 2016-04-20 |
BR112015030440A2 (pt) | 2017-07-25 |
US20140363073A1 (en) | 2014-12-11 |
WO2014200869A1 (en) | 2014-12-18 |
RU2015153051A (ru) | 2017-06-16 |
CN105359187A (zh) | 2016-02-24 |
AU2014278452A1 (en) | 2015-12-17 |
CA2913787A1 (en) | 2014-12-18 |
MX2015017154A (es) | 2016-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016529584A (ja) | 深度カメラデータを用いた高性能面検出 | |
US11010965B2 (en) | Virtual object placement for augmented reality | |
KR102207768B1 (ko) | 이동 패턴 프로젝터에 의한 초고해상도 깊이 맵 | |
JP6423435B2 (ja) | 物理的光景を表すための方法および装置 | |
US8548270B2 (en) | Time-of-flight depth imaging | |
US8660362B2 (en) | Combined depth filtering and super resolution | |
US8885890B2 (en) | Depth map confidence filtering | |
US8553934B2 (en) | Orienting the position of a sensor | |
US20170068326A1 (en) | Imaging surround system for touch-free display control | |
EP3016071B1 (en) | Estimating device and estimation method | |
US11816848B2 (en) | Resilient dynamic projection mapping system and methods | |
US20120108332A1 (en) | Entertainment Device, System, and Method | |
TWI696906B (zh) | 處理地板之方法 | |
US9972091B2 (en) | System and method for detecting object from depth image | |
US20130147785A1 (en) | Three-dimensional texture reprojection | |
EP2557482A2 (en) | Input device, system and method | |
US11651533B2 (en) | Method and apparatus for generating a floor plan | |
KR101434072B1 (ko) | 안정화 방법 및 컴퓨터 시스템 | |
US11816798B1 (en) | 3D surface representation refinement |