JP2018518750A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018518750A5 JP2018518750A5 JP2017558699A JP2017558699A JP2018518750A5 JP 2018518750 A5 JP2018518750 A5 JP 2018518750A5 JP 2017558699 A JP2017558699 A JP 2017558699A JP 2017558699 A JP2017558699 A JP 2017558699A JP 2018518750 A5 JP2018518750 A5 JP 2018518750A5
- Authority
- JP
- Japan
- Prior art keywords
- map representation
- representation
- pattern
- pattern characteristic
- reflection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005286 illumination Methods 0.000 claims 18
- 238000004590 computer program Methods 0.000 claims 6
- 238000000034 method Methods 0.000 claims 2
Claims (20)
- 照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を備え、
前記反射マップ表現生成工程は、
キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
前記パターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、方法。 - 前記指標化工程は、
前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項1に記載の方法。 - 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項1に記載の方法。
- 前記除去工程は、
乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項1に記載の方法。 - 前記除去工程は、
キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項1に記載の方法。 - 追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項1に記載の方法。 - 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
追加の三次元データを前記1以上の追加の画像から導出する工程と、
前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項1に記載の方法。 - 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項7に記載の方法。
- 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項1に記載の方法。
- コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせ、
前記反射マップ表現生成工程は、
キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
前記少なくとも1つのパターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、非一時的コンピュータ可読記憶媒体。 - 前記指標化工程は、
前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- 前記除去工程は、
乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記除去工程は、
キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
追加の三次元データを前記1以上の追加の画像から導出する工程と、
前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。 - 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項16に記載の非一時的コンピュータ可読記憶媒体。
- 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項10に記載の非一時的コンピュータ可読記憶媒体。
- コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせる、非一時的コンピュータ可読記憶媒体。 - コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
追加の照射を前記オブジェクトに提供する工程と、
前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、
前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程と、を行わせ、
前記拡張三次元表現生成工程は、
前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
追加の三次元データを前記1以上の追加の画像から導出する工程と、
前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562160957P | 2015-05-13 | 2015-05-13 | |
US62/160,957 | 2015-05-13 | ||
PCT/US2016/032230 WO2016183395A1 (en) | 2015-05-13 | 2016-05-13 | Augmenting a depth map representation with a reflectivity map representation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018518750A JP2018518750A (ja) | 2018-07-12 |
JP6377863B2 JP6377863B2 (ja) | 2018-08-22 |
JP2018518750A5 true JP2018518750A5 (ja) | 2018-08-23 |
Family
ID=57248653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558699A Active JP6377863B2 (ja) | 2015-05-13 | 2016-05-13 | 反射マップ表現による奥行きマップ表現の増補 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9947098B2 (ja) |
EP (1) | EP3295239B1 (ja) |
JP (1) | JP6377863B2 (ja) |
KR (1) | KR101892168B1 (ja) |
CN (1) | CN107850782B (ja) |
WO (1) | WO2016183395A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011036618A2 (en) * | 2009-09-22 | 2011-03-31 | Pebblestech Ltd. | Remote control of computer devices |
US20160196657A1 (en) * | 2015-01-06 | 2016-07-07 | Oculus Vr, Llc | Method and system for providing depth mapping using patterned light |
US10440355B2 (en) | 2015-11-06 | 2019-10-08 | Facebook Technologies, Llc | Depth mapping with a head mounted display using stereo cameras and structured light |
US10276210B2 (en) * | 2015-11-18 | 2019-04-30 | International Business Machines Corporation | Video enhancement |
US9947099B2 (en) | 2016-07-27 | 2018-04-17 | Microsoft Technology Licensing, Llc | Reflectivity map estimate from dot based structured light systems |
EP3577416B1 (en) * | 2017-02-06 | 2022-03-30 | Riven, Inc. | System and method for 3d scanning |
US10620316B2 (en) * | 2017-05-05 | 2020-04-14 | Qualcomm Incorporated | Systems and methods for generating a structured light depth map with a non-uniform codeword pattern |
KR102457462B1 (ko) * | 2018-03-06 | 2022-10-21 | 삼성전자주식회사 | 전자장치의 이미지 처리 장치 및 방법 |
US10935376B2 (en) * | 2018-03-30 | 2021-03-02 | Koninklijke Philips N.V. | System and method for 3D scanning |
CN109087347B (zh) * | 2018-08-15 | 2021-08-17 | 浙江光珀智能科技有限公司 | 一种图像处理方法及装置 |
US11100713B2 (en) | 2018-08-17 | 2021-08-24 | Disney Enterprises, Inc. | System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems |
US10909373B1 (en) * | 2018-08-24 | 2021-02-02 | Snap Inc. | Augmented reality system using structured light |
CN109375232B (zh) * | 2018-10-17 | 2021-01-26 | 维沃移动通信(杭州)有限公司 | 一种距离测量方法及装置 |
KR102668245B1 (ko) * | 2018-10-29 | 2024-05-23 | 삼성전자주식회사 | 3차원 깊이 측정 장치 및 방법 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5878152A (en) * | 1997-05-21 | 1999-03-02 | Cognex Corporation | Depth from focal gradient analysis using object texture removal by albedo normalization |
JP3714063B2 (ja) | 1999-10-19 | 2005-11-09 | 富士ゼロックス株式会社 | 3次元形状計測装置 |
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
EP1258837A1 (en) * | 2001-05-14 | 2002-11-20 | Thomson Licensing S.A. | Method to generate mutual photometric effects |
WO2003105289A2 (en) * | 2002-06-07 | 2003-12-18 | University Of North Carolina At Chapel Hill | Methods and systems for laser based real-time structured light depth extraction |
JP2005258622A (ja) * | 2004-03-10 | 2005-09-22 | Fuji Photo Film Co Ltd | 三次元情報取得システムおよび三次元情報取得方法 |
JP2006163547A (ja) * | 2004-12-03 | 2006-06-22 | Canon Inc | 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。 |
EP1960928A2 (en) | 2005-12-14 | 2008-08-27 | Yeda Research And Development Co., Ltd. | Example based 3d reconstruction |
JP5174684B2 (ja) * | 2006-03-14 | 2013-04-03 | プライムセンス リミテッド | スペックル・パターンを用いた三次元検出 |
EP1994503B1 (en) * | 2006-03-14 | 2017-07-05 | Apple Inc. | Depth-varying light fields for three dimensional sensing |
US20110057930A1 (en) * | 2006-07-26 | 2011-03-10 | Inneroptic Technology Inc. | System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy |
EP2064676B1 (en) * | 2006-09-21 | 2011-09-07 | Thomson Licensing | A method and system for three-dimensional model acquisition |
US7769205B2 (en) * | 2006-11-28 | 2010-08-03 | Prefixa International Inc. | Fast three dimensional recovery method and apparatus |
US20090189858A1 (en) * | 2008-01-30 | 2009-07-30 | Jeff Lev | Gesture Identification Using A Structured Light Pattern |
US8717416B2 (en) * | 2008-09-30 | 2014-05-06 | Texas Instruments Incorporated | 3D camera using flash with structured light |
US8462207B2 (en) * | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US9582889B2 (en) * | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8908958B2 (en) * | 2009-09-03 | 2014-12-09 | Ron Kimmel | Devices and methods of generating three dimensional (3D) colored models |
US20120056988A1 (en) | 2010-09-07 | 2012-03-08 | David Stanhill | 3-d camera |
US8724887B2 (en) * | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
US9471864B2 (en) * | 2012-06-22 | 2016-10-18 | Microsoft Technology Licensing, Llc | Encoding data in depth patterns |
US10234941B2 (en) * | 2012-10-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Wearable sensor for tracking articulated body-parts |
RU2012145349A (ru) * | 2012-10-24 | 2014-05-10 | ЭлЭсАй Корпорейшн | Способ и устройство обработки изображений для устранения артефактов глубины |
US11509880B2 (en) | 2012-11-14 | 2022-11-22 | Qualcomm Incorporated | Dynamic adjustment of light source power in structured light active depth sensing systems |
WO2014153022A1 (en) * | 2013-03-14 | 2014-09-25 | University Of Southern California | Specular object scanner for measuring reflectance properties of objects |
US10019843B2 (en) * | 2013-08-08 | 2018-07-10 | Facebook, Inc. | Controlling a near eye display |
US9299188B2 (en) * | 2013-08-08 | 2016-03-29 | Adobe Systems Incorporated | Automatic geometry and lighting inference for realistic image editing |
US9799117B2 (en) * | 2013-09-30 | 2017-10-24 | Lenovo (Beijing) Co., Ltd. | Method for processing data and apparatus thereof |
US20150302648A1 (en) * | 2014-02-18 | 2015-10-22 | Sulon Technologies Inc. | Systems and methods for mapping an environment using structured light |
US9507995B2 (en) * | 2014-08-29 | 2016-11-29 | X Development Llc | Combination of stereo and structured-light processing |
US9664507B2 (en) * | 2014-09-17 | 2017-05-30 | Canon Kabushiki Kaisha | Depth value measurement using illumination by pixels |
CN104539925B (zh) * | 2014-12-15 | 2016-10-05 | 北京邮电大学 | 基于深度信息的三维场景增强现实的方法及系统 |
US9635231B2 (en) * | 2014-12-22 | 2017-04-25 | Google Inc. | Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions |
US9948920B2 (en) * | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US20160324580A1 (en) * | 2015-03-23 | 2016-11-10 | Justin Esterberg | Systems and methods for assisted surgical navigation |
-
2016
- 2016-05-13 EP EP16793578.2A patent/EP3295239B1/en active Active
- 2016-05-13 US US15/153,741 patent/US9947098B2/en active Active
- 2016-05-13 CN CN201680041776.5A patent/CN107850782B/zh active Active
- 2016-05-13 WO PCT/US2016/032230 patent/WO2016183395A1/en active Application Filing
- 2016-05-13 JP JP2017558699A patent/JP6377863B2/ja active Active
- 2016-05-13 KR KR1020177035777A patent/KR101892168B1/ko active IP Right Grant
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018518750A5 (ja) | ||
US10043278B2 (en) | Method and apparatus for reconstructing 3D face with stereo camera | |
JP6351238B2 (ja) | 画像処理装置、撮像装置および距離補正方法 | |
TWI526992B (zh) | 擴充實境中基於深度攝影機之遮蔽效果優化方法 | |
JP2017528731A5 (ja) | ||
JP2019500602A5 (ja) | ||
JP6857980B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2018534698A (ja) | Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム | |
US20110069866A1 (en) | Image processing apparatus and method | |
JP2015215895A (ja) | 深度画像の深度値復元方法及びシステム | |
JP2012518223A5 (ja) | ||
JP2015529369A5 (ja) | ||
JP2019083001A5 (ja) | ||
JP2011253521A5 (ja) | ||
JP2021179835A5 (ja) | ||
US20140056508A1 (en) | Apparatus and method for image matching between multiview cameras | |
JP2014006885A5 (ja) | ||
JP2009134693A5 (ja) | ||
JP2017517818A5 (ja) | ||
WO2017110293A1 (en) | Data processing apparatus and method of controlling same | |
JP2016009941A5 (ja) | ||
JP2020197989A5 (ja) | 画像処理システム、画像処理方法、およびプログラム | |
JP2015127936A5 (ja) | ||
KR20200067719A (ko) | 스테레오-시간적 이미지 시퀀스들로부터 향상된 3-d 데이터 재구성을 위한 방법들 및 장치 | |
JP2011150483A (ja) | 画像処理装置 |