JP6776333B2 - メモリ効率の良いコーディングされた光の誤り訂正 - Google Patents
メモリ効率の良いコーディングされた光の誤り訂正 Download PDFInfo
- Publication number
- JP6776333B2 JP6776333B2 JP2018506383A JP2018506383A JP6776333B2 JP 6776333 B2 JP6776333 B2 JP 6776333B2 JP 2018506383 A JP2018506383 A JP 2018506383A JP 2018506383 A JP2018506383 A JP 2018506383A JP 6776333 B2 JP6776333 B2 JP 6776333B2
- Authority
- JP
- Japan
- Prior art keywords
- codeword
- depth
- code
- invalid
- codebook
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 title description 22
- 238000000034 method Methods 0.000 claims description 124
- 230000003287 optical effect Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 description 67
- 230000000875 corresponding effect Effects 0.000 description 38
- 238000001514 detection method Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 23
- 230000009471 action Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 239000002131 composite material Substances 0.000 description 8
- 238000010200 validation analysis Methods 0.000 description 8
- 238000013461 design Methods 0.000 description 5
- 238000005284 basis set Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Detection And Prevention Of Errors In Transmission (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
図1は、シーンを照明し、2次元(「2D」)の画像および/または情報から3次元(「3D」)の情報を生成する際に用いる深度情報を得るために、既知のパターンが使用される、アクティブ検知システムの例を示す。本明細書において説明される1つまたは複数の態様および/または特徴は、そのような例示的なアクティブ検知システム内で実装され得る。図1に示されるシステムは、送信機102および受信機108を含む。送信機102は、コードワードを物体またはシーン106に投影するために、コードマスク104を通してライトフィールドを投影する。本明細書では、説明を明確にするために、使用される文脈に応じて、シーンと物体の一方または両方を指すために、「シーン」が使用され得る。たとえば、シーンは、目的の単一の物体、または目的の複数の物体を含み得る。受信機108は、投影されたコードマスク110およびその中のコードワードを捉える。この例は、コードマスク104のセクション112が、シーン106の表面(たとえば、投影されるセクション116)へと(セクション114として)どのように投影されるかを示している。投影されるセクション116は次いで、捉えられたセグメント118として受信機108によって捉えられ得る。セクション112は、一意に識別可能なコードワード120として使用され得る。したがって、このように一意なコードワードでシーン106をカバーすることによって、シーン106のセクション/部分を反射されたコードワードによって識別することができ、この情報は、検知デバイスからシーンの中の物体までの距離(深度)を検知するために使用され得る。
図3は、シーンの中の1つまたは複数の物体のために深度がどのように検知され得るかの例を示す。図3は、送信機302および受信機304を含むデバイス300を示す。デバイスは、コードワード投影310として、送信機302から放出される構造化された光を用いて2つの物体306および308を照明している。コードワード投影310は、物体306および/または308から反射し、反射されたコードワード311としてセンサ表面307上で受信機304によって受信される。
構造化された光のパターンは、コードマスクを通じて光を照らすことによって、シーンへと投影され得る。コードマスクを通じて投影される光は、1つまたは複数の多角形のコードマスク基本要素を含み得る。各コードマスク基本要素は、空間コードのアレイを含み得る。コードブックまたはデータ構造は、コードのセットを含み得る。空間コード、コードマスク、およびコードマスク基本要素は、基底関数を使用して生成され得る。基底関数の周期性は、(ゴースト像を除去して製造を簡単にするための)エルミート対称性の集合的なパターン、(コードワードごとの最小の電力を確実にするための)最小のデューティ比、(最適な輪郭分解能および高分解能向けのコードパッキングのための)完全ウィンドウ特性、および(物体の境界の改善された検出のための)ランダム化されたシフトに対する要件を満たすように選ばれ得る。受信機は、受信されたパターンを復調し、復号し、その誤りを訂正するときの制約に従うことが意図される、設計のコードブックおよび/または属性を利用し得る。
図4は、合成コードマスクを生成し、かつ/またはそのような合成コードマスクを投影するように構成され得る、送信機デバイスの例を示すブロック図である。送信機デバイス402は、メモリ/記憶デバイス406、画像投影デバイス408、および/または有形媒体409に結合された処理回路404を含み得る。いくつかの態様では、送信機デバイス402は、図3に関して上で論じられた送信機302に相当し得る。
図5は、物体から反射された合成コードマスクを受信し、合成コードマスクから深度情報を決定するように構成される、受信機デバイス502の例を示すブロック図である。受信機デバイス502は、メモリ/記憶デバイスと受信機センサ508(たとえば、画像キャプチャデバイス508)とに結合された処理回路504を含み得る。いくつかの態様では、図5に示される受信機デバイス502は、図3に関して上で論じられた受信機304に相当し得る。いくつかの実施形態では、受信機センサ508は、画像キャプチャデバイス、たとえばカメラである。
図6は、本明細書において開示される誤り訂正方法の1つまたは複数を実行するように構成される装置のある実施形態を示すブロック図である。装置600は、光放出器602、光受信要素604、プロセッサ606、およびメモリ608を含む。光放出器602、光受信要素604、プロセッサ606、およびメモリ608は、バス610を介して動作可能に接続される。いくつかの態様では、光受信要素604は、図5に関して上で論じられた受信機デバイス502に相当し得る。いくつかの態様では、光放出器602は、図4に関して上で論じられた送信機デバイス402に相当し得る。
104 コードマスク
106 シーン
107 深度マップ
108 受信機
110 コードマスク
112 セクション
114 セクション
116 投影されるセクション
118 捉えられたセグメント
120 一意に識別可能なコードワード
201 エンコーダ/形状変調器
202 送信機デバイス
204 送信チャネル
205 受信機センサ
206 デコーダ
208 深度マップ
210a 3次元のバージョン
210b 3次元のバージョン
210c 3次元のバージョン
210d 3次元のバージョン
300 デバイス
302 送信機
304 受信機
305 レンズ表面
306 物体
307 センサ表面
308 物体
310 コードワード投影
311 反射されたコードワード
312 投影されたセグメント
313 開口
315 受信機開口
402 送信機デバイス
404 処理回路
406 メモリ/記憶デバイス
408 画像投影デバイス
409 有形媒体
410 コードレイヤ
412 キャリアレイヤ
414 合成コードマスク
416 コードレイヤ生成器/選択器
418 キャリアレイヤ生成器/選択器
420 合成コードマスク生成器/選択器
422 事前形成回路
502 受信機デバイス
504 処理回路
506 メモリ/記憶デバイス
508 受信機センサ
512 基準縞検出器回路/モジュール
514 歪み調整回路/モジュール
516 コードワード識別器回路/モジュール
518 深度検出回路/モジュール
520 深度マップ生成回路/モジュール
600 装置
602 光放出器
604 光受信要素
606 プロセッサ
608 メモリ
610 バス
701a 画像
701b 手
702a 画像
702b 手
703a 画像
703b 手
704a 画像
704b 手
900 コードマスク
910 関数、回転
920 関数
922 関数
924 関数
926 関数
930 関数
932 関数
950 コード
952 コード
954 コード
956 コード
1002a 深度マップ
1002b 手
1102 無効な空間コード
1104 列
1106 コードワード候補
1108 コードブック
1110 有効なコードワード候補
1150 誤り検出プロセス
1160 コードワード候補生成プロセス
1170 有効性確認プロセス
1180 深度生成プロセス
1215 領域
1222 領域
1224 領域
1226 領域
1235 深度マップ領域
1302a 画像
1302b 左手
1302c 右手
1404a 画像
1404b 左手
1404c 右手
1500 構造
1510 リスト
1520 要素
1521 要素
1531 要素
1532 要素
1533 要素
1542 要素
1544 要素
1546 要素
1600 構造
1610 リスト
1631 ブロック
1632 ブロック
1633 ブロック
1634 ブロック
1635 ブロック
1636 ブロック
1637 ブロック
1638 ブロック
1639 ブロック
1700 方法
Claims (16)
- 構造化された光システムによって生成される深度マップにおける誤りを訂正するための方法であって、
複数の有効なコードワードおよび少なくとも1つの無効なコードワードを受信するステップであって、前記複数の有効なコードワードの各々が有効なコードワードのコードブックに含まれ、前記コードブックが前記少なくとも1つの無効なコードワードを含まず、各コードワードが構造化された光の画像の画素の少なくとも1つの行および少なくとも1つの列を表し、各コードワードが深度マップにおける位置に対応する、ステップと、
前記無効なコードワードを検出するステップと、
メモリユニットから、前記コードブックに含まれるコードワード候補を取り出すステップであって、前記メモリユニットに、前記無効なコードワードから第1のハミング距離にあるコードワード候補および前記無効なコードワードから第2のハミング距離にあるコードワード候補が格納され、前記第1のハミング距離が前記少なくとも1つの無効なコードワードと前記コードブックの中の前記コードワードとの間の最小のハミング距離であり、前記第2のハミング距離が前記第1のハミング距離より長い、ステップと、
前記深度マップにおける前記無効なコードワードの位置に隣接する少なくとも1つの位置を含む、前記深度マップの複数の位置に対する深度推定値を決定するステップと、
深度を前記コードワード候補の各々と関連付けるステップと、
前記決定された深度推定値に最も近い関連する深度を有する前記コードワード候補を選択するステップと、
前記選択されたコードワード候補と関連付けられる前記深度を前記無効なコードワードの前記位置に割り当てるステップとを備える、方法。 - 画素の前記少なくとも1つの列の中の各画素が受信された光のエネルギーを表し、画素の前記少なくとも1つの列の中の各画素nが二値の値を有する、請求項1に記載の方法。
- 前記少なくとも1つの無効なコードワードを検出するステップが、前記無効なコードワードが前記コードブックに含まれないことの指示を前記メモリユニットから取り出すステップを備える、請求項1に記載の方法。
- 各々の受信された複数のコードワードおよび前記少なくとも1つの無効なコードワードが前記コードブックに含まれるかどうかの指示を前記メモリユニットに格納するステップをさらに備える、請求項1に記載の方法。
- 前記少なくとも1つの無効なコードワードと前記コードワード候補の各々との間の前記第1のハミング距離が、異なる二値の値を有する画素の前記少なくとも1つの行および前記少なくとも1つの列の数である、請求項1に記載の方法。
- 前記深度推定値を決定するステップが、前記深度マップの前記複数の位置のメジアン深度または平均深度を計算するステップを備える、請求項1に記載の方法。
- 前記深度マップの前記複数の位置が、前記無効なコードワードの前記位置から閾値の位置の距離以下にある位置を含む、請求項1に記載の方法。
- 前記閾値の距離が、前記深度マップの前記複数の位置の中の4個、8個、12個、20個、および24個の位置にそれぞれ対応する、1、√2、2、√5、2、または2√2である、請求項7に記載の方法。
- 構造化された光システムによって生成される深度マップにおける誤りを訂正するための装置であって、
複数の有効なコードワードおよび少なくとも1つの無効なコードワードを記憶するための手段であって、前記複数の有効なコードワードの各々が有効なコードワードのコードブックに含まれ、前記コードブックが前記少なくとも1つの無効なコードワードを含まず、各コードワードが構造化された光の画像の画素の少なくとも1つの行および少なくとも1つの列を表し、各コードワードが深度マップにおける位置に対応する、手段と、
複数の有効なコードワードおよび少なくとも1つの無効なコードワードを受信するための手段と、
前記無効なコードワードを検出するための手段と、
前記記憶するための手段から、前記コードブックに含まれるコードワード候補を取り出すための手段であって、前記記憶するための手段に、前記無効なコードワードから第1のハミング距離にあるコードワード候補のセットおよび前記無効なコードワードから第2のハミング距離にあるコードワード候補の第2のセットが格納され、前記第1のハミング距離が前記少なくとも1つの無効なコードワードと前記コードブックの中の前記コードワードとの間の最小のハミング距離であり、前記第2のハミング距離が前記第1のハミング距離より長い、手段と、
前記深度マップにおける前記無効なコードワードの位置に隣接する少なくとも1つの位置を含む、前記深度マップの複数の位置に対する深度推定値を決定するための手段と、
深度を前記コードワード候補の各々と関連付けるための手段と、
前記決定された深度推定値に最も近い関連する深度を有する前記コードワード候補を選択するための手段と、
前記選択されたコードワード候補と関連付けられる前記深度を前記無効なコードワードの前記位置に割り当てるための手段とを備える、装置。 - 前記手段がメモリユニットを備え、前記受信するための手段がプロセッサを有する受信機を備える、請求項9に記載の装置。
- 各画素が受信される光のエネルギーを表し、各画素が二値の値によって表される、請求項9に記載の装置。
- 前記検出するための手段が、前記無効なコードワードが前記コードブックに含まれないことの指示を前記記憶手段から取り出すことによって、前記無効なコードワードを検出する、請求項9に記載の装置。
- 各々の受信されたコードワードが前記コードブックに含まれるかどうかの指示を前記記憶するための手段に格納するための手段をさらに備える、請求項9に記載の装置。
- 前記決定するための手段が、前記深度マップの前記複数の位置のメジアン深度または平均深度を計算することによって、前記深度推定値を推定するように構成される、請求項9に記載の装置。
- 前記深度マップの前記複数の位置が、前記無効なコードワードの前記位置から閾値の位置の距離以下にある位置を含み、前記閾値の距離が、前記深度マップの前記複数の位置の中の4個、8個、12個、20個、および24個の位置にそれぞれ対応する、1、√2、2、√5、2、または2√2である、請求項9に記載の装置。
- 構造化された光システムによって生成される深度マップにおける誤りを訂正するための命令を記憶するコンピュータ可読記憶媒体であって、前記命令が、実行されると、請求項1から8のいずれか一項に記載の方法を実行する、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/827,088 | 2015-08-14 | ||
US14/827,088 US9635339B2 (en) | 2015-08-14 | 2015-08-14 | Memory-efficient coded light error correction |
PCT/US2016/043141 WO2017030727A1 (en) | 2015-08-14 | 2016-07-20 | Memory-efficient coded light error correction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018533104A JP2018533104A (ja) | 2018-11-08 |
JP2018533104A5 JP2018533104A5 (ja) | 2019-08-15 |
JP6776333B2 true JP6776333B2 (ja) | 2020-10-28 |
Family
ID=56801769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018506383A Active JP6776333B2 (ja) | 2015-08-14 | 2016-07-20 | メモリ効率の良いコーディングされた光の誤り訂正 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9635339B2 (ja) |
EP (1) | EP3335192B1 (ja) |
JP (1) | JP6776333B2 (ja) |
KR (1) | KR102507101B1 (ja) |
CN (1) | CN107851310B (ja) |
BR (1) | BR112018002739B1 (ja) |
WO (1) | WO2017030727A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8531650B2 (en) | 2008-07-08 | 2013-09-10 | Chiaro Technologies LLC | Multiple channel locating |
US9562760B2 (en) | 2014-03-10 | 2017-02-07 | Cognex Corporation | Spatially self-similar patterned illumination for depth imaging |
US9948920B2 (en) | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US10068338B2 (en) | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
US9846943B2 (en) | 2015-08-31 | 2017-12-19 | Qualcomm Incorporated | Code domain power control for structured light |
EP3444782B1 (en) * | 2017-08-19 | 2022-03-30 | Cognex Corporation | Coding distance topologies for structured light patterns for 3d reconstruction |
CN109635619B (zh) * | 2017-08-19 | 2021-08-31 | 康耐视公司 | 用于三维重建的结构化光图案的编码距离拓扑 |
WO2019107180A1 (ja) * | 2017-12-01 | 2019-06-06 | ソニー株式会社 | 符号化装置、符号化方法、復号装置、および復号方法 |
US11262192B2 (en) | 2017-12-12 | 2022-03-01 | Samsung Electronics Co., Ltd. | High contrast structured light patterns for QIS sensors |
US10740913B2 (en) | 2017-12-12 | 2020-08-11 | Samsung Electronics Co., Ltd. | Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system |
US11297300B2 (en) | 2018-01-29 | 2022-04-05 | Samsung Electronics Co., Ltd. | Robust structured-light patterns for 3D camera system |
KR102645539B1 (ko) | 2019-01-18 | 2024-03-11 | 삼성전자주식회사 | 구조적 깊이 카메라 시스템에서 인코딩 장치 및 방법 |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4104608A (en) * | 1977-03-30 | 1978-08-01 | The United States Of America As Represented By The Secretary Of The Navy | Heave meter |
US4653104A (en) | 1984-09-24 | 1987-03-24 | Westinghouse Electric Corp. | Optical three-dimensional digital data acquisition system |
US5226084A (en) | 1990-12-05 | 1993-07-06 | Digital Voice Systems, Inc. | Methods for speech quantization and error correction |
JP3481631B2 (ja) | 1995-06-07 | 2003-12-22 | ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク | 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法 |
CA2306515A1 (en) | 2000-04-25 | 2001-10-25 | Inspeck Inc. | Internet stereo vision, 3d digitizing, and motion capture camera |
FI109633B (fi) | 2001-01-24 | 2002-09-13 | Gamecluster Ltd Oy | Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi |
WO2004001332A1 (en) | 2002-06-19 | 2003-12-31 | Canesta, Inc. | System and method for determining 3-d coordinates of a surface using a coded array |
US7146036B2 (en) | 2003-02-03 | 2006-12-05 | Hewlett-Packard Development Company, L.P. | Multiframe correspondence estimation |
CA2435935A1 (en) | 2003-07-24 | 2005-01-24 | Guylain Lemelin | Optical 3d digitizer with enlarged non-ambiguity zone |
US7231578B2 (en) * | 2004-04-02 | 2007-06-12 | Hitachi Global Storage Technologies Netherlands B.V. | Techniques for detecting and correcting errors using multiple interleave erasure pointers |
US7916932B2 (en) | 2005-02-16 | 2011-03-29 | In-G Co., Ltd. | Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof |
JP4856605B2 (ja) * | 2006-08-31 | 2012-01-18 | パナソニック株式会社 | 符号化方法、符号化装置、及び送信装置 |
DE102006048234A1 (de) | 2006-10-11 | 2008-04-17 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts |
US20090322859A1 (en) | 2008-03-20 | 2009-12-31 | Shelton Damion M | Method and System for 3D Imaging Using a Spacetime Coded Laser Projection System |
TWI420401B (zh) | 2008-06-11 | 2013-12-21 | Vatics Inc | 一種回授式物件偵測演算法 |
US8537200B2 (en) | 2009-10-23 | 2013-09-17 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2D video data to 3D video data |
WO2011060579A1 (en) | 2009-11-18 | 2011-05-26 | Industrial Technology Research Institute | Method for generating depth maps from monocular images and systems using the same |
GB2479784B (en) * | 2010-04-23 | 2012-11-07 | Nds Ltd | Image scaling |
WO2011139734A2 (en) | 2010-04-27 | 2011-11-10 | Sanjay Nichani | Method for moving object detection using an image sensor and structured light |
US8774267B2 (en) * | 2010-07-07 | 2014-07-08 | Spinella Ip Holdings, Inc. | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
US8933927B2 (en) | 2010-09-02 | 2015-01-13 | Samsung Electronics Co., Ltd. | Display system with image conversion mechanism and method of operation thereof |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US9013634B2 (en) | 2010-09-14 | 2015-04-21 | Adobe Systems Incorporated | Methods and apparatus for video completion |
US8908011B2 (en) | 2010-09-17 | 2014-12-09 | Panasonic Corporation | Three-dimensional video creating device and three-dimensional video creating method |
US20120086803A1 (en) | 2010-10-11 | 2012-04-12 | Malzbender Thomas G | Method and system for distance estimation using projected symbol sequences |
US8429495B2 (en) | 2010-10-19 | 2013-04-23 | Mosaid Technologies Incorporated | Error detection and correction codes for channels and memories with incomplete error characteristics |
US8531535B2 (en) | 2010-10-28 | 2013-09-10 | Google Inc. | Methods and systems for processing a video for stabilization and retargeting |
JP2012141252A (ja) | 2011-01-06 | 2012-07-26 | Nikon Corp | 三次元形状測定装置 |
US8724854B2 (en) | 2011-04-08 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for robust video stabilization |
US9482529B2 (en) | 2011-04-15 | 2016-11-01 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
MX2014001614A (es) * | 2011-08-09 | 2014-05-28 | Samsung Electronics Co Ltd | Metodo y aparato para codificar un mapa de profundidad de datos de video de varios puntos de vista, y metodo y aparato para decodificar el mapa de profundidad codificado. |
US9491441B2 (en) | 2011-08-30 | 2016-11-08 | Microsoft Technology Licensing, Llc | Method to extend laser depth map range |
WO2013068548A2 (en) | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient multi-view coding using depth-map estimate for a dependent view |
US8270465B1 (en) | 2011-11-15 | 2012-09-18 | Xw Llc | Timing and time information extraction from a phase modulated signal in a radio controlled clock receiver |
KR101272573B1 (ko) * | 2011-11-17 | 2013-06-10 | 재단법인대구경북과학기술원 | 구조광 패턴 기반의 깊이 정보 추정 장치 및 방법 |
JP5918984B2 (ja) | 2011-12-06 | 2016-05-18 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
KR20130119380A (ko) * | 2012-04-23 | 2013-10-31 | 삼성전자주식회사 | 슬라이스 헤더를 이용하는 3차원 비디오 부호화 방법 및 그 장치, 다시점 비디오 복호화 방법 및 그 장치 |
US9188433B2 (en) | 2012-05-24 | 2015-11-17 | Qualcomm Incorporated | Code in affine-invariant spatial mask |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
CN102831582B (zh) | 2012-07-27 | 2015-08-12 | 湖南大学 | 一种微软体感装置深度图像增强方法 |
BR112015006178B1 (pt) * | 2012-09-21 | 2022-11-16 | Nokia Technologies Oy | Métodos, aparelhos e meio não transitório legível por computador para codificação e decodificação de vídeo |
US10368053B2 (en) | 2012-11-14 | 2019-07-30 | Qualcomm Incorporated | Structured light active depth sensing systems combining multiple images to compensate for differences in reflectivity and/or absorption |
US9071756B2 (en) | 2012-12-11 | 2015-06-30 | Facebook, Inc. | Systems and methods for digital video stabilization via constraint-based rotation smoothing |
KR101995340B1 (ko) | 2013-01-02 | 2019-07-02 | 엘지이노텍 주식회사 | 적외선 광원 제어방법 |
JP5794240B2 (ja) | 2013-02-05 | 2015-10-14 | ソニー株式会社 | 誤り検出訂正装置、誤り検出訂正方法、情報処理装置、および、プログラム |
US10140765B2 (en) | 2013-02-25 | 2018-11-27 | Google Llc | Staged camera traversal for three dimensional environment |
US9142019B2 (en) | 2013-02-28 | 2015-09-22 | Google Technology Holdings LLC | System for 2D/3D spatial feature processing |
US9270386B2 (en) | 2013-06-24 | 2016-02-23 | Intel Corporation | Error detecting and correcting structured light patterns |
WO2015065386A1 (en) | 2013-10-30 | 2015-05-07 | Intel Corporation | Image capture feedback |
CN103702098B (zh) * | 2013-12-09 | 2015-12-30 | 上海交通大学 | 一种时空域联合约束的三视点立体视频深度提取方法 |
US9542749B2 (en) * | 2014-01-06 | 2017-01-10 | Microsoft Technology Licensing, Llc | Fast general multipath correction in time-of-flight imaging |
CN103796004B (zh) | 2014-02-13 | 2015-09-30 | 西安交通大学 | 一种主动结构光的双目深度感知方法 |
US9407896B2 (en) * | 2014-03-24 | 2016-08-02 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions |
US10349037B2 (en) | 2014-04-03 | 2019-07-09 | Ams Sensors Singapore Pte. Ltd. | Structured-stereo imaging assembly including separate imagers for different wavelengths |
US20160050372A1 (en) | 2014-08-15 | 2016-02-18 | Qualcomm Incorporated | Systems and methods for depth enhanced and content aware video stabilization |
CN104199922B (zh) * | 2014-09-01 | 2019-05-03 | 中国科学院自动化研究所 | 一种基于局部相似哈希算法的大规模图像库检索方法 |
CN104639933A (zh) * | 2015-01-07 | 2015-05-20 | 前海艾道隆科技(深圳)有限公司 | 一种立体视图的深度图实时获取方法及系统 |
US9948920B2 (en) | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US10068338B2 (en) | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
US9530215B2 (en) | 2015-03-20 | 2016-12-27 | Qualcomm Incorporated | Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology |
-
2015
- 2015-08-14 US US14/827,088 patent/US9635339B2/en active Active
-
2016
- 2016-07-20 KR KR1020187004330A patent/KR102507101B1/ko active IP Right Grant
- 2016-07-20 JP JP2018506383A patent/JP6776333B2/ja active Active
- 2016-07-20 EP EP16757381.5A patent/EP3335192B1/en active Active
- 2016-07-20 CN CN201680043443.6A patent/CN107851310B/zh active Active
- 2016-07-20 BR BR112018002739-1A patent/BR112018002739B1/pt active IP Right Grant
- 2016-07-20 WO PCT/US2016/043141 patent/WO2017030727A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
BR112018002739A2 (ja) | 2018-10-02 |
EP3335192A1 (en) | 2018-06-20 |
WO2017030727A1 (en) | 2017-02-23 |
US9635339B2 (en) | 2017-04-25 |
CN107851310B (zh) | 2021-08-10 |
KR102507101B1 (ko) | 2023-03-06 |
KR20180041671A (ko) | 2018-04-24 |
BR112018002739B1 (pt) | 2023-10-24 |
EP3335192B1 (en) | 2019-07-03 |
JP2018533104A (ja) | 2018-11-08 |
US20170048507A1 (en) | 2017-02-16 |
CN107851310A (zh) | 2018-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6776333B2 (ja) | メモリ効率の良いコーディングされた光の誤り訂正 | |
JP6419988B2 (ja) | 構造化光における誤り訂正のためのシステムおよび方法 | |
EP2856078B1 (en) | Design of code in affine-invariant spatial mask | |
US8811767B2 (en) | Structured light for 3D shape reconstruction subject to global illumination | |
US10223801B2 (en) | Code domain power control for structured light | |
US10574947B2 (en) | Object reconstruction in disparity maps using displaced shadow outlines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6776333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |