JP2013513179A - 距離に基づく検知 - Google Patents
距離に基づく検知 Download PDFInfo
- Publication number
- JP2013513179A JP2013513179A JP2012542612A JP2012542612A JP2013513179A JP 2013513179 A JP2013513179 A JP 2013513179A JP 2012542612 A JP2012542612 A JP 2012542612A JP 2012542612 A JP2012542612 A JP 2012542612A JP 2013513179 A JP2013513179 A JP 2013513179A
- Authority
- JP
- Japan
- Prior art keywords
- light
- structured
- pattern
- patterns
- spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
特定の距離または奥行き状況での使用に合わせた構造化光のパターンを投影することが可能な測距機器。場面内の検出された光点は、たとえばスマートフォンまたはPDAとのインターフェースとしての、単純で低コストのジェスチャ認識システムを提供するために、所定のパターンテンプレートと比較されることが可能である。構造化光発生器は、タイミング制御にしたがって自動的に、または照射された場面からの検知情報に応じて適応的に、前記第一および第二構造化パターンの間を前後に切り替わるようになっていてもよい。あるいは、構造化光発生器は、第一および第二パターンを同時に投影するようになっていてもよい。個別の光発生器が異なるパターン向けに採用されてもよく、あるいは部品が共有されてもよい。
Description
本発明は、距離に基づく検知に関し、具体的には、ただし限定的ではなく、多数の異なる作動距離での距離に基づく検知に関する。
構造化光投影を用いる測距装置の有効作動距離は通常、様々な設計パラメータによって決定されることになり、この作動距離外では、装置の実現に応じて、精度および一貫性が減少するか、または有効な測距が不可能であるかも知れない。
本出願人の国際公開第2004/0044525号は、スポットプロジェクタ、および異なる距離の間の曖昧性を解決するために配置された検出器を用いる、測距機器を記載している。
本発明の目的は、改良された測距機器および関連する方法を提供することである。
そこで本発明の第一の態様によれば、
第一構造化パターンの光点および第二構造化パターンの光点で場面を照射するようになっている構造化光発生器であって、前記第一および第二パターンは異なる距離で動作するように構成されている、構造化光発生器と、
場面において投影された光点の位置を検出するための検出器と、
前記場面における投影点の検出位置から、前記点までの距離を判定するためのプロセッサと、を含む測距機器が提供される。
第一構造化パターンの光点および第二構造化パターンの光点で場面を照射するようになっている構造化光発生器であって、前記第一および第二パターンは異なる距離で動作するように構成されている、構造化光発生器と、
場面において投影された光点の位置を検出するための検出器と、
前記場面における投影点の検出位置から、前記点までの距離を判定するためのプロセッサと、を含む測距機器が提供される。
異なる作動距離にわたって有効な測距または奥行き判定を提供するために最適化された異なる構造化光パターンを提供することによって、全体的な作動距離が増加する。2つの異なる光パターンの異なる作動距離または状況は、異なる実施形態によれば、未使用領域または一連の距離によって、重複、隣接、または分離されていてもよい。与えられた用途に適合するために必要であれば、第三のまたはそれ以上の異なる光パターンが採用されてもよい。
さらなる利点は、両方のパターンからの投影光点を検出することが可能な単一の検出機器を用いることによる、特定の実施形態において提供される。ここでも、特定の実施形態は、単一のプロセッサを有利に使用することになる。
構造化パターンの光点が、周知の所定形状の複数の認識可能な特徴を有するパターンを指すことは、理解されるだろう。一般的な構造化光パターンは、スポットのアレイ、平行線、または格子線を含む。特定の実施形態において、構造化光パターンは、大まかな測距を提供するために、単一の光点を含んでもよい。本明細書において使用される「光点」という用語は、このようなパターンのいずれかの認識可能な特徴を指す。
構造化光発生器は、タイミング制御にしたがって自動的に、または照射された場面からの検知情報に応じて適応的に、前記第一および第二構造化パターンの間を前後に切り替わるようになっていてもよい。あるいは、構造化光発生器は、第一および第二パターンを同時に投影するようになっていてもよい。2つ以上のパターンが同時に投影される実施形態において、異なるパターンに対応する光点は、好ましくは形状、色、偏光、または構成によって識別可能である。個々の光点の形状は、たとえば正方形または円形であってもよく、色は可視スペクトルの範囲内およびこれを超える範囲の両方で異なってもよく、波長識別が検出器で採用されることを可能にする。光点の構成は、たとえば正方形または六角形のアレイ、角度つきまたは傾斜アレイの点の配置において、あるいは直線または曲線などのさらなるパターン特徴の導入によって、異なってもよい。そのパターンの全てまたは一部のみの検出によって1つのパターンが別のパターンと区別されることを可能にする、広がったアレイの異なるパターンが可能であることは、理解されるだろう。このように、検出された光点または特徴の画像および/または波長分析が実行可能であり、この情報は、検出点、点の集合、または特徴がどのパターンに属するかの判断に使用するため、プロセッサに送られることが可能である。
一度に単一のパターンのみが投影される実施形態において、プロセッサは、どのパターンがアクティブであるか、したがって現在検出されている光点がどのパターンに属するかを、たとえばタイミング制御信号など、投影パターンを制御する信号から、またはたとえば構造化光発生器からの状態出力から、有利に判断することができる。
第一および第二パターンの構成は、後に添付図面を参照してより詳細に記載されるように、視野、角度光点分離、光点の数、および光出力パワーを含む変数の範囲の適切な選択によって、好適な実施形態において実現される。これらおよびその他の変数は、1つ以上の光源、および光源から光を受けて所望のパターンの構造化光を出力するようになっている、1つ以上の光変調器またはパターン発生器の選択によって、適切に変動することが可能である。
一実施形態において、異なる構造化パターンを生成するために、第一および第二状態の間で構成可能なパターン発生器が採用される。しかしながら、代替実施形態は、異なる構造化パターンを生成するようになっている、第一および第二の個別のパターン発生器を採用する。いずれの場合も、同じ光源が採用されてもよく、異なる構造化パターンが必要とされる場合には、2つ以上の異なる光点が採用され選択されることが可能である。したがって、異なる構造化光パターンの提供は、同じ構造化光発生器部品のうちのいくつか、または全てを共有すること、またはいずれも共有しないことによって、実現されてもよい。
本発明の特に好適な実施形態は、内部に反射側面を有するプリズム状光導体の入射面を照射するように配置された光源を有する、構造化光発生器を採用している。このようにして、好ましくは一定の多角形断面を有するプリズム状光導体は、その出力において、光源の多数の画像を生成するために、万華鏡の役割を果たす。好ましくは、たとえばコリメータレンズなどの投影光学系が、構造化光を場面内に投影するために、光導体の出力端に設けられるか、またはそこに組み込まれている。好ましくは光源は、LEDまたはLEDのアレイを含む。このような構造化光発生器の形態は、参照の対象である、本出願人の国際公開第2004/0044523号に、より詳細に説明されている。
このような実施形態において、プリズム状光導体のいくつかまたは全ては、第一および第二光パターンの投影に共通して使用されてもよい。たとえば、単一のプリズム状光導体は、2つの異なるパターンを生成するために、2つの異なる光源によって照射されることが可能である。あるいは、単一の構成可能な光源が、異なる光入力パターンを生成するように制御されることも可能である。
万華鏡光導体およびコリメータレンズ構成を採用する一実施形態において、パイプの全断面は、コリメータレンズ向けの有効光源発光面積である。隣り合うビームは、これらがはっきりと個別に分解可能となるようにコリメータレンズから適度な距離だけ伝播してしまうまで、隣接して出発する。これは三次元カメラに最小作動距離を付与し、これはいくつかの実施形態において10cm以上となり得る。
この制約を克服するために、開口マスクが実施形態に導入されることが可能であり、たとえばライトパイプとコリメータレンズとの間など、プリズム状光導体の出力に結合される。これは、レンズまたはライトパイプ上の蒸着金属被覆を用いて形成されてもよく、たとえば正方形または円形など、様々な形状を取ることができる。開口を円形とし、パイプ断面の50%までの直径を有するようにすることが、好ましいかも知れない。これは、隣り合うビームのマーク対スペース比を2とし、これは、隣り合うビームがプロジェクタを離れるとすぐに分解可能にする。
光損失を防止するために、開口は、たとえば蒸着金属など、反射するように作られることが好ましい。したがって、この開口を通して現れないいずれの光も、ライトパイプ内に戻るように反射され、再循環されることが可能である。開口マスクは、所望の光出力パターンに応じて、動作のインアンドアウトを有利に切り替えられることが可能である。
与えられた断面での光導体の長さを短縮することは、システム視野におけるスポットの密度の減少、およびしたがって総数の減少も可能にし、その逆もまた同じである。スポットの総数(つまりはスポット密度)は、LED上の発光点の数を変更することによっても、変動可能である。ライトパイプの裏面(すなわちLED面)の発光点が多いほど、複製単位セルあたりのスポット数が増加する。この手法は、サイズを減少させるためのパイプの短縮を相殺するために使用されることが可能である。与えられた断面でのライトパイプの短縮はまた、コリメートされて投影スポットビームになる光の集光角においても増加させ、それによってスポット輝度を増加させる−すなわち、同じLED出力が今やより少ないLEDスポットに分散されている。
特定の実施形態は、選択可能な発光点のアレイまたはパターンを備えるLEDエミッタを有してもよい。これは、事前に定義されていてもよく、または画素化アレイを用いて任意にプログラム可能であってもよい。これは、異なる三次元走査範囲または対象物の種類に対して異なる投影パターンを可能にするだろう。多くの投影パターンによる走査は、改善されたスキャナの堅牢性および走査性能の信頼性を提供する。たとえば異なる距離に対して最適化されるなど、異なるパターンを投影するように設計された第二プロジェクタを用いて、類似の結果が実現可能であろう。これは、手動で選択されるか、または異なる画像フレームにおいて連続的に動作されることが可能である。異なる色が異なるパターンを有する、プロジェクタが異なる色のLEDを使用する場合に、単一の動画フレーム内で走査することの魅力が可能であろう。これらの特徴の多くは、投影パターン光源としてLED動画プロジェクタを用いることによっても、実現可能である。
多数の発光点を備えるLEDは、結果的に大型のLEDになる可能性があり、やはり電流を沈降させる発光点の間のデッドスペースの結果として、著しい電力を消費する。したがって、サイズ、コスト、および電力効率を最適化するために、LEDを単一点エミッタにまで減少させることが、有益である。スポット数を回復するために、ライトパイプのアスペクト比を修正する必要があるだろう。たとえば、総面積2mm×2mmで、直径100μmのエミッタの4×4アレイを有するLEDが、提案されてもよい。これは、0.0079/4=0.002の総面積利用を表す。LED面積の99.8%は、原理上は発光しておらず、電流を引き込んで熱を発生する。実際には、上部電極および接合パッドがまだ必要とされるので、この半導体領域の全てが回復されるわけではない。
より多くの発光を得るための別の効果的な方法は、LED発光面積を増加させることである。したがって、その場面において必要とされるスポット電力が、LEDのサイズを決定する。スポットが場面内で明確に分解されることを保証するために、エミッタ面積は好ましくはライトパイプの幅の30%以下なので、これはひるがえって万華鏡パイプ幅を決定する。
本質的に、半導体レーザは、LEDよりも効率が良い。LEDは、万華鏡光導体を用いてスポットのアレイを形成するために望ましい発散特性を備える光のスポットを形成するため、随意的にディフューザまたは光学系を備えて、レーザと置き換えられることが可能であろう。これは、厳しく合焦されたレンズを用いて実現されることが可能であろう。発散次数は、目的のスポットプロジェクタパターンに適合するために光学系を用いて最適化され、それによって効率を最大化することが可能である。レーザの使用もまた、出力パワーと光導体断面との間の依存性を回避する。
本発明の実施形態は、付加的にまたは代替的に、光源および回折素子を含む構造化光発生器を採用してもよい。光源は、好ましくはレーザダイオードである。回折素子、またはいくつかの実施形態において回折アレイ格子(DAG)は、第一および第二状態の間で光り出力を変動させるように制御可能であり、結果的に第一および第二投影光パターンを生じる。回折素子は機械的に切り替え可能であってもよく、たとえば、1つ以上の素子が制御信号に応えて光源の経路に出入りするように移動させられることが可能であり、または回折素子が電気光学的に構成可能であってもよい。これは、プログラム可能な空間的光変調器、または参照の対象である、国際公開第2000/75698号に記載のマルチアクセスコンピュータ生成ホログラム(Multi Access Computer Generated Hologram)の使用によってもよい。
上述のように、投影に基づく距離検知は、エイリアシングまたは奥行き曖昧性によって有限の距離能力に限定され、それによって投影光点または特徴の検出は、2つ以上の可能な奥行きまたは距離値に対応する可能性がある。異なる動作範囲での使用に適した多くの異なる投影パターンの使用に基づくソリューションが、上記で提案された。付加的にまたは代替的に、同じ構造化光発生器および検出器を用いて、異なる作動距離用の測距機器を較正することが、ここに提案される。これは結果的に、同じハードウェアに対して多数の較正ファイルを生じるだろう。異なる較正ファイルを用いて検出スポット画像を処理するために、ソフトウェアソリューションが使用可能であり、その場面に多数の距離マップを生成する可能性がある。場面の各部分に最も適したデータを選択するために、雑音フィルタリングなどのアルゴリズム的方法が使用可能であろう。各動作範囲は有限であるものの、スポット軌跡が明確に追跡されて、予備較正済みデータと相互関連のある、明確な動作窓が存在するだろう。
したがって、本発明のさらなる態様によれば、
少なくとも1つの構造化パターンの光点で場面を照射するステップと、
照射された場面内の光点を検出するステップと、
較正データの事前定義された複数のセットから1つのセットを選択するステップであって、前記データセットの各々は異なる奥行き範囲に対応しているステップと、
投影点の検出位置から、選択された較正データセットにしたがって前記点までの距離を判定するステップと、を含む、距離検出の方法が提供される。
少なくとも1つの構造化パターンの光点で場面を照射するステップと、
照射された場面内の光点を検出するステップと、
較正データの事前定義された複数のセットから1つのセットを選択するステップであって、前記データセットの各々は異なる奥行き範囲に対応しているステップと、
投影点の検出位置から、選択された較正データセットにしたがって前記点までの距離を判定するステップと、を含む、距離検出の方法が提供される。
好ましくは、データセットは、距離の大まかな推定に応じて選択される。奥行き範囲は、較正データが存在しない帯域によって、隣接、重複、または分離されていてもよい。
異なる較正ファイルを用いて検出スポット画像を処理するために、ソフトウェアソリューションが使用可能であり、その場面に多数の距離マップを生成する可能性がある。この態様に応じて動作する装置の動作の異なるモードは、どの奥行き範囲を使用すべきかを、システムに伝えてもよい。たとえば、異なるモードは、近距離のジェスチャが認識されるジェスチャインターフェース、中距離で動作する顔面走査モード、および長距離で動作する三次元対象物走査を含むことができるだろう。場面の各部分に最も適切な距離を選択するために、雑音フィルタリングなどのアルゴリズム的方法を使用することも、可能であろう。これらの動作窓は重複してもよい。重複している奥行き窓は、フィルタリングアルゴリズムを支援することが可能な、隣接形状データを明らかにするだろう。
上記で論じられた概念は、特にリアルタイムのジェスチャ検出に適しており、したがって、ジェスチャ検出および認識の特徴は、本明細書に記載されるその他の概念と組み合わせて、または本発明の独立した態様として、提供されてもよい。
従来の二次元カメラまたは三次元立体カメラシステムを用いるジェスチャの検出は、著しい画像処理を必要とする。検出領域内の対象物の存在を検出し、これが手または指であるか否かを判断し、キーポイントである、ジェスチャを検出するために追跡すべき手または指の特徴の縁を判断することが、必要である。
二次元センサは、対象物の距離または絶対的なサイズを判断することができないという点において根本的な問題を有している−これらは、対象物の角サイズを検出するのみである。したがって、二次元センサにとって、遠距離にある大きい対象物は、センサの近くにある小さい対象物と区別することが、非常に難しい。これは、場面中の対象物が検出領域内の手であるか否かを確実に判断することを、非常に難しくする。奥行き情報の欠如もまた、ジェスチャの判定を非常に難しくする。
立体カメラシステムは、単一の二次元センサに対して著しい改善を提供する。一旦手または指のキーポイントが判断されてしまうと、センサからのその距離を確認するために、三角測量法が使用可能である。しかしながら、各カメラからの画像は、三角測量および距離判定が実行できる前に、先に概説されたような複数の段階を通じて処理されなければならない。この結果、−特に携帯電話などの小型で低コストの移動電子機器上でのリアルタイム動作に関して−著しい画像処理の課題が生じる。
本発明のさらに別の態様によれば、
少なくとも1つの構造化パターンの光点で検出領域を照射するステップと、
前記検出領域内の対象物に入射する複数の光点を検出するステップと、
ジェスチャ一致条件を判断するために、検出された光点のパターンを所定の複数のパターンテンプレートと比較するステップと、
前記一致テンプレートを示すジェスチャ一致信号を出力するステップと、を含む、ジェスチャ検出の方法が提供される。
少なくとも1つの構造化パターンの光点で検出領域を照射するステップと、
前記検出領域内の対象物に入射する複数の光点を検出するステップと、
ジェスチャ一致条件を判断するために、検出された光点のパターンを所定の複数のパターンテンプレートと比較するステップと、
前記一致テンプレートを示すジェスチャ一致信号を出力するステップと、を含む、ジェスチャ検出の方法が提供される。
本発明の実施例の検出領域は、200mm以下、およびより好ましくは150mmもしくは100mm以下である。本発明のこの態様によれば、検出点の距離の絶対値は必要ではなく、むしろ検出された光スポットのパターン(点の相対距離を表すことになる)が使用可能であることは、留意されたい。しかしながら、絶対距離値は、たとえば特定の距離値をゲート制御し、より長い距離で検出された点と区別する目的で、いくつかまたは全ての検出点について計算されてもよい。
検出された光スポットのパターン、およびテンプレートは、動的であってもよく、すなわち時間に応じて変化する光スポットのパターンを表してもよい。検出された領域における新しい光スポットの出現、または反対に既存の光スポットの消滅、または光スポットの移動は、検出および比較されることが可能な、認識可能な特徴を含んでもよい。
好ましくは、光点の構造化パターンは、スポットの規則的なアレイ、または格子パターンで形成された線を含む。
このようにして認識可能なジェスチャは、たとえば拳、開いた手のひら、伸ばした人差し指、および「親指を立てる」サインを含む。認識される各ジェスチャは、実験的に、またはたとえばコンピュータシミュレーションを通じて導かれてもよい、関連するテンプレートを有する。高確率の区別を提供するために、1組のジェスチャが選択されてもよい。このようなジェスチャは、たとえば携帯電話またはPDAなどの手持ち携帯装置向けユーザインターフェースの基礎として使用可能であり、本発明のジェスチャ認識方法は、特定のジェスチャに対応する所定信号を提供する。
特定の態様において、方法は付加的に、時間間隔にわたって前記複数の点を検出するステップを含む。これは、与えられた方向への手の振りまたは振り抜きなどの運動に基づくジェスチャを判定するために、検出点の運動が分析されることを可能にする。拳を握ったり開いたりすることなど、より複雑なジェスチャもまた、認識可能であろう。
本発明は、実質的に添付図面を参照して本明細書に記載されるような方法、機器、および/または使用法にまで及ぶ。
本発明の一態様におけるいずれの特徴も、いずれかの適切な組み合わせにおいて、本発明のその他の態様に適用されてもよい。具体的には、方法態様が機器態様に適用されてもよく、その逆もまた同じである。
さらに、ハードウェアにおいて実現される特徴は、通常はソフトウェアにおいて実現されてもよく、その逆もまた同じである。本明細書に記載されるソフトウェアおよびハードウェアの特徴のいずれの参照も、そのように解釈されるべきである。
本発明の好適な特徴は、以下の添付図面を参照して、純粋に例示によって、ここに記載される。
図1を参照すると、たとえばディスプレイの直前におけるジェスチャ検出などの近接作動向けに最適化された1つのスポットプロジェクタ装置104、およびたとえば顔、三次元ビデオ会議、または対象物の三次元撮影などの一般的な三次元走査向けに最適化された別のスポットプロジェクタ装置106を有する、装置102が図示されている。いずれのプロジェクタも、同じカメラセンサ108を使用することができる。
手指ジェスチャインターフェースのような短距離実行では、たとえば50mmの標準的な作動距離で2mmまでのスポットまたは特徴分離112を備える広い視野110(たとえば±45°)の光パターン142を有することが、最優先である。このスポット分離は、1つを超すスポットが各指に当たる可能性のある、個々の指運動を記録するために必要とされる。これは、2°までの角度スポット分離に等しく、したがって±45°の視野をカバーし、プロジェクタは50×50までのスポットを出力する必要があるだろう。近接した作動距離のため、各スポットは低パワーのみを必要とするだろう。近距離動作は、カメラレンズの短焦点またはマクロ機能とともに使用されることが可能であろう。
多数のスポットを出力するようにパターニングされた、LED光源120を使用することは、パイプの全長を短縮するのに役立つだろう。たとえば、各個別エミッタが小さく、たとえば50μmの、4×4アレイのエミッタである。これは、たとえば1×1×20mmの、短く細いライトパイプ104、および小型出力レンズの使用を可能にするだろう。このスポットプロジェクタには、出力レンズに結合された万華鏡の末端において開口マスク130を使用するという付加的な恩恵があるだろう。この開口は、近接した作動距離におけるスポット分離を改善する。
より長い作動距離の実行では、スポットプロジェクタから、より狭い視野114およびより小さい角度のスポット分離を備えるパターン144が必要とされるだろう。通常、これは±30°以下の、500mmの距離で10mmまでのスポットまたは特徴分離116を有する、視野であってもよい(ここで格子パターンが示されているが、しかし交線は特徴を定義するように選択されている)。これは、1°までのスポット角度分離、および30×30までのアレイサイズに等しい。延長された作動距離のため、各スポットはより高いパワーを必要とするだろう。
長距離性能は、カメラレンズの自動焦点またはズーム機能と合わせて使用されることが可能であろう。
より高パワー出力では、たとえば300μmなど、より広いエミッタ領域が必要とされるだろう。これは、断面が1mmで長さが50mmまでの万華鏡106とともに使用されることが可能であろう。スポットは200mm未満の距離から明確に分解可能なので、上述のような開口マスクを使用する必要はないだろう。あるいは、2×2アレイのLEDが、類似の断面の25mm万華鏡とともに使用されることも可能であろう。個々のエミッタサイズは、同等のスポット電力を達成するために、150μmまで削減可能であろう。
図2bを参照すると、両方のスポットパターン142および144を生成するために、同じ光学部品(万華鏡または光導体204およびレンズ208)を利用することが可能なようである。このソリューションは、多数の選択可能な出力パターンを出力することができるLED202の恩恵を受けることができる。このようにして、2つ以上のスポットパターンを提供し、異なる測距条件の要件に適合するように個別に最適化されたパワーを出力するために、異なるエミッタパターンが選択可能である。図2aは、円220で示される2×2LED構成、および十字222で示される4×4構成を示している。これは、単一の大面積エミッタ、および選択可能またはプログラム可能な光シャッタ装置を用いても、実現可能である。ライトパイプの出力面にある切り替え可能な開口206もまた、近接および遠隔使用モードにおける性能の最適化を支援するのに役立つ。
図3は再び、たとえばディスプレイの直前におけるジェスチャ検出などの近接作動向けに最適化された1つのスポットプロジェクタ装置、およびたとえば顔、三次元ビデオ会議、または対象物の三次元撮影などの一般的な三次元走査向けに最適化されたもう1台がある例を示す。いずれのプロジェクタも、同じカメラセンサ308を使用することができる。
手指ジェスチャインターフェースのような短距離実行では、たとえば50mmの標準的な作動距離で2mmまで分離したスポットを備える広い視野(たとえば±45°)を有することが、最優先である。このスポット分離は、1つを超えるスポットが各指に当たる可能性のある、個々の指運動を記録するために必要とされる。これは、2°までの角度スポット分離に等しく、したがって±45°の視野をカバーし、プロジェクタは50×50までのスポットを出力する必要があるだろう。近接した作動距離のため、各スポットは低パワーのみを必要とするだろう。
多数のスポットを出力するようにパターニングされたLED光源310を使用することは、光導体312の全長を短縮するのに役立つだろう。たとえば、各個別エミッタが小さく、たとえば50μmの、4×4アレイのエミッタである。これは、たとえば1×1×20mmの、短く細いライトパイプ、および小型出力レンズの使用を可能にするだろう。このスポットプロジェクタには、出力レンズに結合された万華鏡の末端において開口マスクを使用するという付加的な恩恵があるだろう。この開口は、非常に近接した作動距離におけるスポット分離を改善する。
より長い作動距離の実行では、スポットプロジェクタから、より狭い視野、およびより小さい角度のスポット分離が必要とされるだろう。通常、これは±30°以下の、500mmの距離で10mmまでのスポット分離を有する、視野であってもよい。これは、1°までのスポット角度分離、および30×30までのアレイサイズに等しい。この長距離性能は、レーザダイオード320、および均一強度スポットのアレイを生成する回折素子322を用いて、実現可能であろう。この素子は、回折アレイ発生器(DAG)として知られている。小型のコリメートレーザダイオード−従来のエッジエミッタに基づくかまたは垂直共振器面発光レーザが、適切な角度分離を備える所望の均一スポットアレイを生成するようにパターンが設計された小型DAGに、結合される。製造を簡素化するためにより小さい視野を必要とするシステムとともにDAGを使用することは、有益である。たとえば、30°の回折角を達成するために、DAGは波長の2倍の寸法、すなわち650nmのレーザに対して1300nmの単位セルを必要とすることになる。この標準的な仕様のDAGは、独立系サプライヤから入手可能である。
レーザ源およびDAGの使用は、1mを超える長距離に対して、小さいシステム容積で高光パワーを出す機会を提供する。狭帯域レーザはまた、遠くの対象物上のスポットパターンの検出における信号対雑音を改善するために、適合した狭帯域光フィルタリングを使用する機会も提供する。
図4は、たとえばディスプレイの直前におけるジェスチャ検出などの近接作動向けに最適化された1つのスポットプロジェクタ装置、およびたとえば顔、三次元ビデオ会議、または対象物の三次元撮影などの一般的な三次元走査向けに最適化されたもう1台を有する装置の、第三の例を示す。いずれのプロジェクタも、同じカメラセンサ(図示せず)を使用することができる。
手指ジェスチャインターフェースのような短距離実行では、たとえば50mmの標準的な作動距離で2mmまで分離したスポットを備える広い視野(たとえば±45°)を有することが、最優先である。このスポット分離は、1つを超えるスポットが各指に当たる可能性のある、個々の指運動を記録するために必要とされる。これは、2°までの角度スポット分離に等しく、したがって±45°の視野をカバーし、プロジェクタは50×50までのスポットを出力する必要があるだろう。近接した作動距離のため、各スポットは低パワーのみを必要とするだろう。
このスポットアレイは、コリメートレーザダイオード402、および均一強度スポットのアレイ410、412を生成するように設計された回折素子404を用いて、生成可能であろう。この素子は、回折アレイ発生器(DAG)−そのパターンが光学基板にエッチングまたはエンボス加工されている、コンピュータ設計された回折格子−として知られている。小型のコリメートレーザダイオード−従来のエッジエミッタに基づくかまたは垂直共振器面発光レーザが、適切な角度分離を備える所望の均一スポットアレイを生成するようにパターンが設計された小型DAGを照射する。DAGを使用することは有益である。45°の回折角を達成するために、DAGは波長の1.5倍までの寸法、すなわち650nmのレーザに対して1000nmの単位セルを必要とすることになる。
より長い距離の実行を実現するために、回折素子を別の設計に置き換えることが可能であろう。適合するようにレーザ出力パワーを変動させることが適切であるかも知れないが、これは同じコリメートレーザ源402を使用することができるだろう。回折素子404の変更は、機械的または電気光学的に実現可能である。機械的手段は、単にレーザビームからDAGを取り出して、単一スポットを場面に投影することであろう。これは、たとえば部屋の広さの測定など、長距離を測定するのに便利であり得る。あるいは、DAGは、その使用目的のために最適化された異なるスポットパターンを実現するように設計されたもののうちの1つと交換されることが、可能であろう。
切り替え可能な回折を電気光学的に実現する可能な方法は、プログラム可能な空間的光変調器、異なる回折結果にアクセスするために液晶が永久複合位相格子上に電気的にチューニングされているマルチアクセスコンピュータ生成ホログラム(MACH)を使用することを含む。別の方法は、位相回折パターンを露出または屈折率整合させるために、エレクトロウェッティング法を用いることができるだろう。
上記の例において、異なる距離で使用するようになっている異なるパターンを検知するために、単一の検出器またはカメラが使用される。多数のスポットプロジェクタを用いるこのような三次元カメラは、以下を含む様々な手段を通じて、異なる投影パターンを区別することができるだろう:
−プロジェクタが順次発射され、各スポットプロジェクタ向けに取得された画像を分割する、時分割多重化
−たとえば1つのプロジェクタは赤色で動作し、その一方で他のプロジェクタは緑色で照射する、カラー符号化。2つのスポットパターンを同時に検出するためにカラーカメラが使用されるが、しかしパターンは分離されて個別に処理されることが可能である
−偏光符号化−1つは線形または円形のいずれかで偏光され、第二のプロジェクタは直交偏光符号化を有する。2つの画像を区別するために、カメラの前で偏光子または偏光ビームスプリッタが使用可能である。
空間パターン符号化−2つのプロジェクタは、たとえば左右の斜線パターンなど、特徴的な形状の放射源を有する。するとこれらのパターンは、カメラで同時に検出され、パターン一致アルゴリズムを用いて識別されることが可能である。重複の問題が発生する可能性がある。
−その他の符号化手法またはそれらの組み合わせ。
−プロジェクタが順次発射され、各スポットプロジェクタ向けに取得された画像を分割する、時分割多重化
−たとえば1つのプロジェクタは赤色で動作し、その一方で他のプロジェクタは緑色で照射する、カラー符号化。2つのスポットパターンを同時に検出するためにカラーカメラが使用されるが、しかしパターンは分離されて個別に処理されることが可能である
−偏光符号化−1つは線形または円形のいずれかで偏光され、第二のプロジェクタは直交偏光符号化を有する。2つの画像を区別するために、カメラの前で偏光子または偏光ビームスプリッタが使用可能である。
空間パターン符号化−2つのプロジェクタは、たとえば左右の斜線パターンなど、特徴的な形状の放射源を有する。するとこれらのパターンは、カメラで同時に検出され、パターン一致アルゴリズムを用いて識別されることが可能である。重複の問題が発生する可能性がある。
−その他の符号化手法またはそれらの組み合わせ。
図5において、構造化光プロジェクタ502は、発散線504によって示される特徴のアレイを投影する。カメラ506は、対象物520、522にそれぞれ投影された、対応する光のスポット508、510を検出する。カメラの視野において、光の点508および510が同じ位置に出現することがわかるが、しかしこれらは奥行きの異なる対象物を表す。これは、その他の識別特徴が存在しない場合に、曖昧性を生じる。本発明の特定の態様において、これは、図中AおよびBで示される、異なる作動距離を定義すること、および各距離に対して個別の異なる較正データを割り当てることによって、解決される。図6は、センサからの対象物の距離が変化するにつれてスポット軌跡がどのようにカメラセンサ(矩形で表される)を横断して移動するか、およびスポット軌跡の異なる部分(異なる破線で示される)が異なる作動距離とどのように関連づけられるかを、示している。これら異なる距離に関連づけられた異なる較正ファイル、および対応する動作モードの例は、図7に示されている。
上述のように、スポットデータから対象物の三次元モデルを構築するために必要とされる計算処理を行う必要なく、投影された特徴またはスポットが場面内でどのように移動するかを検出することにより、ジェスチャが検出および解釈されることが可能である。この結果、単純で堅牢な検出アルゴリズムを導き出すことができる。たとえば、側方運動の結果、検出領域内の対象物の前縁上にスポットの線が出現し、これと同時に検出領域内の対象物の後縁からスポットの線が消滅することになる。高さの変化の結果、距離の変化に応じて検出器上で同じように移動する対象物上のスポットの群が生じるだろう。対象物の運動またはジェスチャは、連続画像を比較することによって、効率よく検出されることが可能である。たとえば、連続画像を減じる単純なプロセスは、移動しなかった場面内の対象物上のスポットを除去するが、対象物の変化、すなわちジェスチャがあった領域を強調することになる。これらの変化を分析することで、ジェスチャを明らかにすることができる。
図8を参照して、検出領域内の平坦な手について検討する。これは、センサからの対象物の共通距離に対応するスポットのパッチを生じる。ここで、センサに対して縁が向くまで手を回転させると考える。この動作の間、手の片側のスポットは、検出器に近づく場合と同じように移動して見えるが、その一方で手の反対側では、これらは反対向きに移動することになる。運動の度合いは、回転軸からの距離に応じて異なるだろう。手によって決められる角度が減少するにつれて最終的に、いくつかのスポットは対象の領域から事実上消滅する。
本発明は純粋に例示によって先に記載されてきたが、本発明の範囲内で詳細の変更がなされ得ることは、理解されるだろう。
本明細書、ならびに(適切であれば)特許請求の範囲および図面に記載された各々の特徴は、独立して、またはいずれかの適切な組み合わせにおいて、提供されてもよい。
Claims (23)
- ジェスチャ検出方法であって、
少なくとも1つの構造化パターンの光点で検出領域を照射するステップと、
前記検出領域内の対象物に入射する複数の光点を検出するステップと、
ジェスチャ一致条件を判断するために、検出された光点のパターンを所定の複数のパターンテンプレートと比較するステップと、
前記一致テンプレートを示すジェスチャ一致信号を出力するステップと、を含む方法。 - 検出領域が400cm2以下である、請求項1に記載の方法。
- 検出領域が100cm2以下である、請求項1または2に記載の方法。
- 前記検出領域の外側にあると判断された光点が拒絶される、請求項1、2、または3に記載の方法。
- 方法が、時間間隔にわたって前記複数の点を検出するステップをさらに含む、請求項1から4のいずれか一項に記載の方法。
- 前記時間間隔にわたって検出された光点の運動パターンを判定するステップをさらに含む、請求項5に記載の方法。
- 前記複数のパターンテンプレートが動的テンプレートを含む、請求項5または6に記載の方法。
- 測距機器であって、
第一構造化パターンの光点および第二構造化パターンの光点で場面を照射するようになっている構造化光発生器であって、前記第一および第二パターンは異なる距離で動作するように構成されている、構造化光発生器と、
場面において投影された光点の位置を検出するための検出器と、
前記場面における投影点の検出位置から、前記点までの距離を判定するためのプロセッサと、を含む測距機器。 - 前記構造化光発生器が、前記第一および第二構造化パターンの間で切り替えられるようになっている、請求項8に記載の機器。
- 前記構造化光発生器が、前記第一および第二パターンを同時に投影するようになっている、請求項8に記載の機器。
- 前記第一および第二パターンの光点が、形状、色、または構成によって識別可能である、請求項8から10のいずれか一項に記載の機器。
- 前記プロセッサが、検出された光点がどの構造化パターンに対応するかを判断するようになっている、請求項8から11のいずれか一項に記載の機器。
- 前記構造化光発生器が、光源から光を受け、構造化光のパターンを出力するようになっている、パターン発生器を含み、前記パターン発生器は、前記第一および第二構造化パターンを生成するための第一および第二状態の間で構成可能である、請求項8から12のいずれか一項に記載の機器。
- 前記構造化光発生器が、光源から光を受け、構造化光のパターンを出力するようになっている、第一および第二の個別のパターン発生器を含み、前記第一および第二パターン発生器は、それぞれ前記第一および第二構造化パターンを生成するようになっている、請求項8から13のいずれか一項に記載の機器。
- 前記構造化光発生器が、前記第一および第二パターンをそれぞれ生成するための第一および第二光源を含む、請求項8から14のいずれか一項に記載の機器。
- 前記構造化光発生器が、光源、および内部に反射側面を有するプリズム状光導体を含む、請求項8から15のいずれか一項に記載の機器。
- 光源が、LEDまたはLEDアレイを含む、請求項16に記載の機器。
- 前記構造化光発生器が、光源および回折格子を含む、請求項8から17のいずれか一項に記載の機器。
- 前記回折格子が機械的または電気光学的に構成可能である、請求項18に記載の機器。
- 前記光源がレーザダイオードを含む、請求項16、18、または19に記載の機器。
- 距離検出方法であって、
少なくとも1つの構造化パターンの光点で場面を照射するステップと、
照射された場面内の光点を検出するステップと、
較正データの事前定義された複数のセットから1つのセットを選択するステップであって、前記データセットの各々は異なる奥行き距離に対応しているステップと、
投影点の検出位置から、選択された較正データセットにしたがって前記点までの距離を判定するステップと、を含む方法。 - 前記データセットが、距離の大まかな推定に応じて選択される、請求項21に記載の方法。
- 前記データセットが、ユーザ選択可能な動作モードに応じて選択される、請求項21または項22に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB0921461.0A GB0921461D0 (en) | 2009-12-08 | 2009-12-08 | Range based sensing |
GB0921461.0 | 2009-12-08 | ||
PCT/GB2010/002204 WO2011070313A1 (en) | 2009-12-08 | 2010-12-01 | Range based sensing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013513179A true JP2013513179A (ja) | 2013-04-18 |
Family
ID=41642093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012542612A Pending JP2013513179A (ja) | 2009-12-08 | 2010-12-01 | 距離に基づく検知 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20120236288A1 (ja) |
EP (1) | EP2510421A1 (ja) |
JP (1) | JP2013513179A (ja) |
KR (1) | KR20120101520A (ja) |
CN (1) | CN102640087A (ja) |
GB (1) | GB0921461D0 (ja) |
WO (1) | WO2011070313A1 (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160029845A (ko) * | 2013-07-09 | 2016-03-15 | 제노마틱스 엔브이 | 주위 감지 시스템 |
JP2016166810A (ja) * | 2015-03-10 | 2016-09-15 | アルプス電気株式会社 | 物体検出装置 |
JP2016166815A (ja) * | 2015-03-10 | 2016-09-15 | アルプス電気株式会社 | 物体検出装置 |
JP2016537612A (ja) * | 2013-09-25 | 2016-12-01 | アールト コルケアコウルスエーティ | モデリング構成及び三次元表面のトポグラフィーをモデリングする方法及びシステム |
WO2017003053A1 (ko) * | 2015-06-30 | 2017-01-05 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 차량 |
JP2017527777A (ja) * | 2014-06-20 | 2017-09-21 | クアルコム,インコーポレイテッド | 時間共有を使用する自動複数深度カメラ同期化 |
CN109983506A (zh) * | 2016-12-15 | 2019-07-05 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
JP2020144136A (ja) * | 2016-03-01 | 2020-09-10 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 深度感知システムおよび方法 |
JP2020148784A (ja) * | 2015-05-10 | 2020-09-17 | マジック アイ インコーポレイテッド | 物体までの距離を算出するための方法 |
JP2021086595A (ja) * | 2019-11-27 | 2021-06-03 | 奇景光電股▲ふん▼有限公司 | 光学フィルムスタック、可変光源装置、及び顔感知モジュール |
US11199397B2 (en) | 2017-10-08 | 2021-12-14 | Magik Eye Inc. | Distance measurement using a longitudinal grid pattern |
US11320537B2 (en) | 2019-12-01 | 2022-05-03 | Magik Eye Inc. | Enhancing triangulation-based three-dimensional distance measurements with time of flight information |
JP2022535521A (ja) * | 2019-05-31 | 2022-08-09 | オッポ広東移動通信有限公司 | 電子機器の制御方法及び電子機器 |
JP2022535520A (ja) * | 2019-05-31 | 2022-08-09 | オッポ広東移動通信有限公司 | 電子機器の制御方法及び電子機器 |
US11474209B2 (en) | 2019-03-25 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
US11474245B2 (en) | 2018-06-06 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
US11483503B2 (en) | 2019-01-20 | 2022-10-25 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9170097B2 (en) | 2008-04-01 | 2015-10-27 | Perceptron, Inc. | Hybrid system |
US8908995B2 (en) | 2009-01-12 | 2014-12-09 | Intermec Ip Corp. | Semi-automatic dimensioning with imager on a portable device |
CN102859319A (zh) * | 2011-04-19 | 2013-01-02 | 三洋电机株式会社 | 信息获取装置以及物体检测装置 |
US9197881B2 (en) * | 2011-09-07 | 2015-11-24 | Intel Corporation | System and method for projection and binarization of coded light patterns |
WO2013088205A1 (es) * | 2011-12-14 | 2013-06-20 | Amaya Urrego Cesar Eduardo | Sistema de automatizacion para las edificaciones basado en reconocimiento y activacion por medio del movimiento del cuerpo humano |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9606237B2 (en) * | 2012-03-01 | 2017-03-28 | Iee International Electronics & Engineering S.A. | Spatially coded structured light generator |
EP2823252A1 (en) * | 2012-03-09 | 2015-01-14 | Galil Soft Ltd | System and method for non-contact measurement of 3d geometry |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
WO2013171613A1 (en) * | 2012-05-14 | 2013-11-21 | Koninklijke Philips N.V. | Apparatus and method for profiling a depth of a surface of a target object |
US10007858B2 (en) | 2012-05-15 | 2018-06-26 | Honeywell International Inc. | Terminals and methods for dimensioning objects |
US9286530B2 (en) * | 2012-07-17 | 2016-03-15 | Cognex Corporation | Handheld apparatus for quantifying component features |
DE102012014330A1 (de) * | 2012-07-20 | 2014-01-23 | API - Automotive Process Institute GmbH | Verfahren und Vorrichtung zur 3D-Vermessung |
US10321127B2 (en) | 2012-08-20 | 2019-06-11 | Intermec Ip Corp. | Volume dimensioning system calibration systems and methods |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US9841311B2 (en) | 2012-10-16 | 2017-12-12 | Hand Held Products, Inc. | Dimensioning system |
US9285893B2 (en) * | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
DE102012224260A1 (de) * | 2012-12-21 | 2014-06-26 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Messung der Profiltiefe eines Reifens |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US20140267701A1 (en) * | 2013-03-12 | 2014-09-18 | Ziv Aviv | Apparatus and techniques for determining object depth in images |
US9080856B2 (en) | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9234742B2 (en) | 2013-05-01 | 2016-01-12 | Faro Technologies, Inc. | Method and apparatus for using gestures to control a laser tracker |
EP2811318B1 (de) * | 2013-06-05 | 2015-07-22 | Sick Ag | Optoelektronischer Sensor |
US10228452B2 (en) | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
US20150009290A1 (en) * | 2013-07-05 | 2015-01-08 | Peter MANKOWSKI | Compact light module for structured-light 3d scanning |
US20150022635A1 (en) * | 2013-07-19 | 2015-01-22 | Blackberry Limited | Using multiple flashes when obtaining a biometric image |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
KR101386248B1 (ko) * | 2013-09-09 | 2014-04-17 | 재단법인 실감교류인체감응솔루션연구단 | 공간 제스처 인식 장치 및 방법 |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9443310B2 (en) * | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
DE102014101070A1 (de) * | 2014-01-29 | 2015-07-30 | A.Tron3D Gmbh | Verfahren zum Kalibrieren und Betreiben einer Vorrichtung zum Erfassen der dreidimensionalen Geometrie von Objekten |
CN104850219A (zh) * | 2014-02-19 | 2015-08-19 | 北京三星通信技术研究有限公司 | 估计附着物体的人体姿势的设备和方法 |
SG10201807071TA (en) * | 2014-03-13 | 2018-09-27 | Nat Univ Singapore | An optical interference device |
US9823059B2 (en) | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
DE102014013677B4 (de) | 2014-09-10 | 2017-06-22 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE202014010357U1 (de) * | 2014-09-10 | 2015-12-11 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9779276B2 (en) | 2014-10-10 | 2017-10-03 | Hand Held Products, Inc. | Depth sensor based auto-focus system for an indicia scanner |
US10775165B2 (en) | 2014-10-10 | 2020-09-15 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
US10810715B2 (en) | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US9752864B2 (en) | 2014-10-21 | 2017-09-05 | Hand Held Products, Inc. | Handheld dimensioning system with feedback |
US9762793B2 (en) | 2014-10-21 | 2017-09-12 | Hand Held Products, Inc. | System and method for dimensioning |
US9557166B2 (en) | 2014-10-21 | 2017-01-31 | Hand Held Products, Inc. | Dimensioning system with multipath interference mitigation |
US10060729B2 (en) | 2014-10-21 | 2018-08-28 | Hand Held Products, Inc. | Handheld dimensioner with data-quality indication |
US9897434B2 (en) | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
JP2016150081A (ja) * | 2015-02-17 | 2016-08-22 | ソニー株式会社 | 光学ユニット、測定システムおよび測定方法 |
JP6500493B2 (ja) * | 2015-02-25 | 2019-04-17 | 株式会社リコー | 視差画像生成システム、ピッキングシステム、視差画像生成方法およびプログラム |
JP6484071B2 (ja) * | 2015-03-10 | 2019-03-13 | アルプスアルパイン株式会社 | 物体検出装置 |
US10488192B2 (en) | 2015-05-10 | 2019-11-26 | Magik Eye Inc. | Distance sensor projecting parallel patterns |
TWI651511B (zh) * | 2015-05-15 | 2019-02-21 | 高準精密工業股份有限公司 | 偵測方法以及應用該偵測方法的光學裝置 |
TWI663377B (zh) * | 2015-05-15 | 2019-06-21 | 高準精密工業股份有限公司 | 光學裝置及其發光裝置 |
CN106289092B (zh) * | 2015-05-15 | 2020-10-27 | 高准国际科技有限公司 | 光学装置及其发光装置 |
CN106289065B (zh) * | 2015-05-15 | 2020-10-27 | 高准精密工业股份有限公司 | 侦测方法以及应用该侦测方法的光学装置 |
US20160335492A1 (en) * | 2015-05-15 | 2016-11-17 | Everready Precision Ind. Corp. | Optical apparatus and lighting device thereof |
US9651366B2 (en) * | 2015-05-15 | 2017-05-16 | Everready Precision Ind. Corp. | Detecting method and optical apparatus using the same |
US9786101B2 (en) | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
US10066982B2 (en) | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
US20160377414A1 (en) * | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
US9857167B2 (en) | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
DE102015008564A1 (de) * | 2015-07-02 | 2017-01-05 | Daimler Ag | Erzeugung strukturierten Lichts |
US9835486B2 (en) | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
US9816804B2 (en) | 2015-07-08 | 2017-11-14 | Google Inc. | Multi functional camera with multiple reflection beam splitter |
CN105005770A (zh) * | 2015-07-10 | 2015-10-28 | 青岛亿辰电子科技有限公司 | 手持扫描仪多次扫描面部细节提升合成方法 |
EP3396313B1 (en) | 2015-07-15 | 2020-10-21 | Hand Held Products, Inc. | Mobile dimensioning method and device with dynamic accuracy compatible with nist standard |
US10094650B2 (en) | 2015-07-16 | 2018-10-09 | Hand Held Products, Inc. | Dimensioning and imaging items |
US20170017301A1 (en) | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
DE102016214826B4 (de) * | 2015-08-10 | 2017-11-09 | Ifm Electronic Gmbh | Temperaturkompensation einer strukturierten Lichtprojektion |
US10397546B2 (en) * | 2015-09-30 | 2019-08-27 | Microsoft Technology Licensing, Llc | Range imaging |
US9958686B2 (en) * | 2015-10-16 | 2018-05-01 | Everready Precision Ind. Corp. | Optical apparatus |
FR3043210A1 (fr) * | 2015-10-28 | 2017-05-05 | Valeo Comfort & Driving Assistance | Dispositif et procede de detection d'objets |
US10249030B2 (en) | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
US10225544B2 (en) | 2015-11-19 | 2019-03-05 | Hand Held Products, Inc. | High resolution dot pattern |
US10025314B2 (en) | 2016-01-27 | 2018-07-17 | Hand Held Products, Inc. | Vehicle positioning and object avoidance |
CN106095133B (zh) * | 2016-05-31 | 2019-11-12 | 广景视睿科技(深圳)有限公司 | 一种交互投影的方法及系统 |
US10339352B2 (en) | 2016-06-03 | 2019-07-02 | Hand Held Products, Inc. | Wearable metrological apparatus |
US9940721B2 (en) | 2016-06-10 | 2018-04-10 | Hand Held Products, Inc. | Scene change detection in a dimensioner |
US10163216B2 (en) | 2016-06-15 | 2018-12-25 | Hand Held Products, Inc. | Automatic mode switching in a volume dimensioner |
US10021372B2 (en) * | 2016-09-16 | 2018-07-10 | Qualcomm Incorporated | Systems and methods for improved depth sensing |
WO2018106671A2 (en) | 2016-12-07 | 2018-06-14 | Magik Eye Inc. | Distance sensor including adjustable focus imaging sensor |
US10909708B2 (en) | 2016-12-09 | 2021-02-02 | Hand Held Products, Inc. | Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements |
EP3472646B8 (en) * | 2017-01-19 | 2021-10-06 | Envisics Ltd. | Holographic light detection and ranging |
US10628950B2 (en) * | 2017-03-01 | 2020-04-21 | Microsoft Technology Licensing, Llc | Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping |
US11047672B2 (en) | 2017-03-28 | 2021-06-29 | Hand Held Products, Inc. | System for optically dimensioning |
CN107424188B (zh) * | 2017-05-19 | 2020-06-30 | 深圳奥比中光科技有限公司 | 基于vcsel阵列光源的结构光投影模组 |
US10733748B2 (en) | 2017-07-24 | 2020-08-04 | Hand Held Products, Inc. | Dual-pattern optical 3D dimensioning |
FR3070498B1 (fr) * | 2017-08-28 | 2020-08-14 | Stmicroelectronics Rousset | Dispositif et procede de determination de la presence ou de l'absence et eventuellement du deplacement d'un objet contenu dans un logement |
CN107450190B (zh) * | 2017-09-08 | 2019-12-13 | 深圳奥比中光科技有限公司 | 一种衍射光学元件及配制方法 |
US10679076B2 (en) * | 2017-10-22 | 2020-06-09 | Magik Eye Inc. | Adjusting the projection system of a distance sensor to optimize a beam layout |
US11852843B1 (en) | 2018-01-10 | 2023-12-26 | Meta Platforms Technologies, Llc | Diffractive optical elements (DOEs) for high tolerance of structured light |
US10895752B1 (en) * | 2018-01-10 | 2021-01-19 | Facebook Technologies, Llc | Diffractive optical elements (DOEs) for high tolerance of structured light |
JP7354133B2 (ja) | 2018-03-20 | 2023-10-02 | マジック アイ インコーポレイテッド | 三次元深度検知及び二次元撮像のためのカメラ露出調節 |
CN108594454B (zh) | 2018-03-23 | 2019-12-13 | 深圳奥比中光科技有限公司 | 一种结构光投影模组和深度相机 |
US10584962B2 (en) | 2018-05-01 | 2020-03-10 | Hand Held Products, Inc | System and method for validating physical-item security |
CN108896007A (zh) * | 2018-07-16 | 2018-11-27 | 信利光电股份有限公司 | 一种光学测距装置及方法 |
CN111322961B (zh) * | 2019-03-21 | 2021-04-06 | 深圳市光鉴科技有限公司 | 用于增强飞行时间分辨率的系统和方法 |
US10585194B1 (en) | 2019-01-15 | 2020-03-10 | Shenzhen Guangjian Technology Co., Ltd. | Switchable diffuser projection systems and methods |
CN114073075B (zh) | 2019-05-12 | 2024-06-18 | 魔眼公司 | 将三维深度图数据映射到二维图像上 |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
US11450083B2 (en) * | 2019-09-27 | 2022-09-20 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
JP2023508501A (ja) | 2019-12-29 | 2023-03-02 | マジック アイ インコーポレイテッド | 3次元座標と2次元特徴点との関連付け |
US11688088B2 (en) | 2020-01-05 | 2023-06-27 | Magik Eye Inc. | Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera |
CN112415010B (zh) * | 2020-09-30 | 2024-06-04 | 成都中信华瑞科技有限公司 | 一种成像检测方法及系统 |
KR20220083059A (ko) | 2020-12-11 | 2022-06-20 | 삼성전자주식회사 | Tof 카메라 장치와 그 구동방법 |
CN112946604A (zh) * | 2021-02-05 | 2021-06-11 | 上海鲲游科技有限公司 | 基于dTOF的探测设备和电子设备及其应用 |
CN112965073A (zh) * | 2021-02-05 | 2021-06-15 | 上海鲲游科技有限公司 | 分区投射装置及其光源单元和应用 |
CN113155047B (zh) * | 2021-04-02 | 2022-04-15 | 中车青岛四方机车车辆股份有限公司 | 长距离孔距测量装置、方法、存储介质、设备及轨道车辆 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62291509A (ja) * | 1986-06-11 | 1987-12-18 | Canon Inc | 距離測定装置 |
JPH05332737A (ja) * | 1991-03-15 | 1993-12-14 | Yukio Sato | 形状計測装置 |
JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
JP2006505784A (ja) * | 2002-11-11 | 2006-02-16 | キネティック リミテッド | 測距装置 |
JP2009069866A (ja) * | 2007-09-10 | 2009-04-02 | Mitsubishi Electric Corp | 3次元形状検出装置 |
US20090189858A1 (en) * | 2008-01-30 | 2009-07-30 | Jeff Lev | Gesture Identification Using A Structured Light Pattern |
JP2009528514A (ja) * | 2006-02-27 | 2009-08-06 | プライム センス リミティド | スペックルの無相関を使用した距離マッピング(rangemapping) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000030023A1 (en) * | 1998-11-17 | 2000-05-25 | Holoplex, Inc. | Stereo-vision for gesture recognition |
GB2350962A (en) | 1999-06-09 | 2000-12-13 | Secr Defence Brit | Holographic displays |
GB2395289A (en) | 2002-11-11 | 2004-05-19 | Qinetiq Ltd | Structured light generator |
JP5592070B2 (ja) * | 2006-03-14 | 2014-09-17 | プライム センス リミティド | 三次元検知のために深度変化させる光照射野 |
CN101957994B (zh) * | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | 三维传感的深度变化光场 |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
-
2009
- 2009-12-08 GB GBGB0921461.0A patent/GB0921461D0/en not_active Ceased
-
2010
- 2010-12-01 JP JP2012542612A patent/JP2013513179A/ja active Pending
- 2010-12-01 WO PCT/GB2010/002204 patent/WO2011070313A1/en active Application Filing
- 2010-12-01 US US13/511,929 patent/US20120236288A1/en not_active Abandoned
- 2010-12-01 EP EP10803262A patent/EP2510421A1/en not_active Withdrawn
- 2010-12-01 KR KR1020127017522A patent/KR20120101520A/ko not_active Application Discontinuation
- 2010-12-01 CN CN2010800558554A patent/CN102640087A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62291509A (ja) * | 1986-06-11 | 1987-12-18 | Canon Inc | 距離測定装置 |
JPH05332737A (ja) * | 1991-03-15 | 1993-12-14 | Yukio Sato | 形状計測装置 |
JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
JP2006505784A (ja) * | 2002-11-11 | 2006-02-16 | キネティック リミテッド | 測距装置 |
JP2009528514A (ja) * | 2006-02-27 | 2009-08-06 | プライム センス リミティド | スペックルの無相関を使用した距離マッピング(rangemapping) |
JP2009069866A (ja) * | 2007-09-10 | 2009-04-02 | Mitsubishi Electric Corp | 3次元形状検出装置 |
US20090189858A1 (en) * | 2008-01-30 | 2009-07-30 | Jeff Lev | Gesture Identification Using A Structured Light Pattern |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016530503A (ja) * | 2013-07-09 | 2016-09-29 | ゼノマティクス・ナムローゼ・フエンノートシャップXenomatix Nv | 周辺検知システム |
KR102327997B1 (ko) | 2013-07-09 | 2021-11-17 | 제노마틱스 엔브이 | 주위 감지 시스템 |
KR20160029845A (ko) * | 2013-07-09 | 2016-03-15 | 제노마틱스 엔브이 | 주위 감지 시스템 |
JP2016537612A (ja) * | 2013-09-25 | 2016-12-01 | アールト コルケアコウルスエーティ | モデリング構成及び三次元表面のトポグラフィーをモデリングする方法及びシステム |
US10419703B2 (en) | 2014-06-20 | 2019-09-17 | Qualcomm Incorporated | Automatic multiple depth cameras synchronization using time sharing |
JP2017527777A (ja) * | 2014-06-20 | 2017-09-21 | クアルコム,インコーポレイテッド | 時間共有を使用する自動複数深度カメラ同期化 |
JP2016166810A (ja) * | 2015-03-10 | 2016-09-15 | アルプス電気株式会社 | 物体検出装置 |
JP2016166815A (ja) * | 2015-03-10 | 2016-09-15 | アルプス電気株式会社 | 物体検出装置 |
JP2020148784A (ja) * | 2015-05-10 | 2020-09-17 | マジック アイ インコーポレイテッド | 物体までの距離を算出するための方法 |
KR101904373B1 (ko) * | 2015-06-30 | 2018-10-05 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 차량 |
US10534440B2 (en) | 2015-06-30 | 2020-01-14 | Lg Electronics Inc. | Vehicle display device and vehicle |
KR20170003135A (ko) * | 2015-06-30 | 2017-01-09 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 차량 |
WO2017003053A1 (ko) * | 2015-06-30 | 2017-01-05 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 차량 |
JP2020144136A (ja) * | 2016-03-01 | 2020-09-10 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 深度感知システムおよび方法 |
JP7270702B2 (ja) | 2016-03-01 | 2023-05-10 | マジック リープ, インコーポレイテッド | 深度感知システムおよび方法 |
JP2022009902A (ja) * | 2016-03-01 | 2022-01-14 | マジック リープ, インコーポレイテッド | 深度感知システムおよび方法 |
JP2020502506A (ja) * | 2016-12-15 | 2020-01-23 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 向上した深度感知のためのシステムおよび方法 |
CN109983506A (zh) * | 2016-12-15 | 2019-07-05 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
US11199397B2 (en) | 2017-10-08 | 2021-12-14 | Magik Eye Inc. | Distance measurement using a longitudinal grid pattern |
US11474245B2 (en) | 2018-06-06 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
US11483503B2 (en) | 2019-01-20 | 2022-10-25 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
US11474209B2 (en) | 2019-03-25 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
JP2022535520A (ja) * | 2019-05-31 | 2022-08-09 | オッポ広東移動通信有限公司 | 電子機器の制御方法及び電子機器 |
JP2022535521A (ja) * | 2019-05-31 | 2022-08-09 | オッポ広東移動通信有限公司 | 電子機器の制御方法及び電子機器 |
JP7376618B2 (ja) | 2019-05-31 | 2023-11-08 | オッポ広東移動通信有限公司 | 電子機器の制御方法及び電子機器 |
US11838434B2 (en) | 2019-05-31 | 2023-12-05 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Controlling method for electronic device and electronic device |
US11947045B2 (en) | 2019-05-31 | 2024-04-02 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Controlling method for electronic device, and electronic device |
JP2021086595A (ja) * | 2019-11-27 | 2021-06-03 | 奇景光電股▲ふん▼有限公司 | 光学フィルムスタック、可変光源装置、及び顔感知モジュール |
US11320537B2 (en) | 2019-12-01 | 2022-05-03 | Magik Eye Inc. | Enhancing triangulation-based three-dimensional distance measurements with time of flight information |
Also Published As
Publication number | Publication date |
---|---|
US20120236288A1 (en) | 2012-09-20 |
EP2510421A1 (en) | 2012-10-17 |
WO2011070313A1 (en) | 2011-06-16 |
KR20120101520A (ko) | 2012-09-13 |
GB0921461D0 (en) | 2010-01-20 |
CN102640087A (zh) | 2012-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013513179A (ja) | 距離に基づく検知 | |
US20210297651A1 (en) | Three dimensional depth mapping using dynamic structured light | |
US10031588B2 (en) | Depth mapping with a head mounted display using stereo cameras and structured light | |
US10514148B2 (en) | Pattern projection using microlenses | |
US10656721B2 (en) | Interactive three-dimensional display apparatus and method | |
US9826216B1 (en) | Systems and methods for compact space-time stereo three-dimensional depth sensing | |
EP3250881B1 (en) | System and method for structured light pattern generation | |
US9958758B2 (en) | Multiple exposure structured light pattern | |
RU2633922C2 (ru) | Устройство и способ для профилирования глубины поверхности целевого объекта | |
US20160274679A1 (en) | Depth mapping with a head mounted display using stereo cameras and structured light | |
JP6230911B2 (ja) | 距離測定のためのライトプロジェクタ及びビジョンシステム | |
TW201739131A (zh) | 多模式照明模組及相關方法 | |
KR20120109722A (ko) | 회절 소자와 광원을 이용한 대상물의 거리 인식 장치 | |
KR20210053980A (ko) | 그리드 광 패턴들을 사용한 깊이 감지 | |
US20160267671A1 (en) | Active sensing spatial resolution improvement through multiple receivers and code reuse | |
WO2014016994A1 (ja) | インターフェース装置、プログラム、及び制御方法 | |
JP6626552B1 (ja) | マルチ画像プロジェクタ及びマルチ画像プロジェクタを有する電子デバイス | |
TWI719383B (zh) | 多影像投影機以及具有多影像投影機之電子裝置 | |
KR20130028594A (ko) | 구조광 생성 방법, 그 장치 및 그 장치를 이용한 모션 인식 장치 | |
US20160146592A1 (en) | Spatial motion sensing device and spatial motion sensing method | |
KR102103919B1 (ko) | 다중 이미지 프로젝터 및 다중 이미지 프로젝터를 구비한 전자 기기 | |
TW202032415A (zh) | 指紋影像感測方法 | |
JPH11271034A (ja) | 三次元形状測定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150127 |