JP2018518750A5 - - Google Patents

Download PDF

Info

Publication number
JP2018518750A5
JP2018518750A5 JP2017558699A JP2017558699A JP2018518750A5 JP 2018518750 A5 JP2018518750 A5 JP 2018518750A5 JP 2017558699 A JP2017558699 A JP 2017558699A JP 2017558699 A JP2017558699 A JP 2017558699A JP 2018518750 A5 JP2018518750 A5 JP 2018518750A5
Authority
JP
Japan
Prior art keywords
map representation
representation
pattern
pattern characteristic
reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017558699A
Other languages
English (en)
Other versions
JP2018518750A (ja
JP6377863B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2016/032230 external-priority patent/WO2016183395A1/en
Publication of JP2018518750A publication Critical patent/JP2018518750A/ja
Application granted granted Critical
Publication of JP6377863B2 publication Critical patent/JP6377863B2/ja
Publication of JP2018518750A5 publication Critical patent/JP2018518750A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (20)

  1. 照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    記オブジェクトの画像をキャプチャする工程であって、記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を備え
    前記反射マップ表現生成工程は、
    キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
    前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
    前記パターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、方法。
  2. 前記指標化工程は、
    前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項に記載の方法。
  3. 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項に記載の方法。
  4. 前記除去工程は、
    乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
    前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項に記載の方法。
  5. 前記除去工程は、
    キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
    前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項1に記載の方法。
  6. 追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項1に記載の方法。
  7. 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
    前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
    前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
    追加の三次元データを前記1以上の追加の画像から導出する工程と、
    前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項1に記載の方法。
  8. 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項に記載の方法。
  9. 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項1に記載の方法。
  10. コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
    照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせ、
    前記反射マップ表現生成工程は、
    キャプチャされた前記画像内の前記オブジェクトに投影された前記少なくとも1つのパターン特性を指標化する、指標化工程と、
    前記少なくとも1つの指標化されたパターン特性の機能的挙動を導出する工程と、
    前記少なくとも1つのパターン特性の導出された前記機能的挙動に基づいて、前記少なくとも1つのパターン特性を、前記オブジェクトのキャプチャされた前記画像から除去する、除去工程と、を含む、非一時的コンピュータ可読記憶媒体。
  11. 前記指標化工程は、
    前記少なくとも1つのパターン特性の特性の特徴に基づいて、前記少なくとも1つのパターン特性に標識を付ける工程であって、前記特性の特徴は、前記少なくとも1つのパターン特性の強度、形状、サイズ、および色のうちの少なくとも1つを含む、工程を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  12. 前記少なくとも1つのパターン特性の前記機能的挙動は、所定の方向に沿った前記少なくとも1つのパターン特性の強度によって表現される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記除去工程は、
    乗算関数を前記少なくとも1つのパターン特性に適用する工程と、
    前記乗算関数の前記適用に基づいて、前記少なくとも1つのパターン特性を除去する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記除去工程は、
    キャプチャされた前記画像内の前記オブジェクトのピクセルの中心に対する前記少なくとも1つのパターン特性の位置を決定する工程と、
    前記オブジェクトの前記ピクセルの前記中心に対する前記少なくとも1つのパターン特性の前記位置を補正する工程であって、前記少なくとも1つのパターン特性は、前記補正後、前記オブジェクトのキャプチャされた前記画像から除去される、工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  15. 追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の少なくとも一部分の反射特性を表す追加の情報を提供する、工程と、を更に備える、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程を更に備え、前記拡張三次元表現生成工程は、
    前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
    前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
    追加の三次元データを前記1以上の追加の画像から導出する工程と、
    前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記オブジェクトの改善された反射マップ表現によって、前記オブジェクトの前記拡張三次元表現を生成する工程を更に備える、請求項16に記載の非一時的コンピュータ可読記憶媒体。
  18. 前記パターン特性は、異なる強度を有するストライプであって、隣接する2つのストライプは、暗い区間により離間されている、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  19. コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
    照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、を行わせる、非一時的コンピュータ可読記憶媒体。
  20. コンピュータプログラム命令を記憶する非一時的コンピュータ可読記憶媒体であって、コンピュータプロセッサによって実行される際、前記コンピュータプログラム命令は、前記プロセッサに、
    照射パターンの立体照明によってシーン内のオブジェクトを照射する工程と、
    前記オブジェクトの画像をキャプチャする工程であって、前記オブジェクトの前記画像は、前記照射パターンに従う複数のパターン特性を有する、工程と、
    前記オブジェクトのキャプチャされた前記画像における少なくとも1つのパターン特性を分析する工程と、
    キャプチャされた前記画像の前記少なくとも1つのパターン特性の前記分析に基づいて、前記オブジェクトの奥行きマップ表現を生成する工程であって、前記オブジェクトの前記奥行きマップ表現は、前記オブジェクトの前記画像をキャプチャするときの視点に対する前記オブジェクトの距離を表す情報を備える、工程と、
    前記オブジェクトのキャプチャされた前記画像から反射マップ表現を生成する工程であって、前記オブジェクトの前記反射マップ表現は、前記オブジェクトの少なくとも一部分の反射特性を表す情報を備える、反射マップ表現生成工程と、
    追加の照射を前記オブジェクトに提供する工程と、
    前記オブジェクトに対する前記追加の照射によって前記オブジェクトの前記反射マップ表現を改善する工程であって、前記オブジェクトの改善された前記反射マップ表現は、前記オブジェクトの表面の1以上の部分の反射を表す追加の情報を提供する、工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現とを組み合わせる工程と、
    前記オブジェクトの前記奥行きマップ表現と改善された前記オブジェクトの前記反射マップ表現との前記組み合わせに基づいて、前記オブジェクトの三次元(3D)表現を生成する工程と、
    前記オブジェクトの拡張三次元表現を生成する拡張三次元表現生成工程と、を行わせ、
    前記拡張三次元表現生成工程は、
    前記オブジェクトの1以上の追加の画像をキャプチャする工程と、
    前記1以上の追加の画像を、前記反射マップ表現とともに、前記オブジェクトの前記奥行きマップ表現に登録する工程と、
    追加の三次元データを前記1以上の追加の画像から導出する工程と、
    前記追加の三次元データによって、前記オブジェクトの拡張三次元表現を生成する工程と、を含む、非一時的コンピュータ可読記憶媒体。
JP2017558699A 2015-05-13 2016-05-13 反射マップ表現による奥行きマップ表現の増補 Active JP6377863B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562160957P 2015-05-13 2015-05-13
US62/160,957 2015-05-13
PCT/US2016/032230 WO2016183395A1 (en) 2015-05-13 2016-05-13 Augmenting a depth map representation with a reflectivity map representation

Publications (3)

Publication Number Publication Date
JP2018518750A JP2018518750A (ja) 2018-07-12
JP6377863B2 JP6377863B2 (ja) 2018-08-22
JP2018518750A5 true JP2018518750A5 (ja) 2018-08-23

Family

ID=57248653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017558699A Active JP6377863B2 (ja) 2015-05-13 2016-05-13 反射マップ表現による奥行きマップ表現の増補

Country Status (6)

Country Link
US (1) US9947098B2 (ja)
EP (1) EP3295239B1 (ja)
JP (1) JP6377863B2 (ja)
KR (1) KR101892168B1 (ja)
CN (1) CN107850782B (ja)
WO (1) WO2016183395A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011036618A2 (en) * 2009-09-22 2011-03-31 Pebblestech Ltd. Remote control of computer devices
US20160196657A1 (en) * 2015-01-06 2016-07-07 Oculus Vr, Llc Method and system for providing depth mapping using patterned light
US10440355B2 (en) 2015-11-06 2019-10-08 Facebook Technologies, Llc Depth mapping with a head mounted display using stereo cameras and structured light
US10276210B2 (en) * 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
US9947099B2 (en) 2016-07-27 2018-04-17 Microsoft Technology Licensing, Llc Reflectivity map estimate from dot based structured light systems
EP3577416B1 (en) * 2017-02-06 2022-03-30 Riven, Inc. System and method for 3d scanning
US10620316B2 (en) * 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
KR102457462B1 (ko) * 2018-03-06 2022-10-21 삼성전자주식회사 전자장치의 이미지 처리 장치 및 방법
US10935376B2 (en) * 2018-03-30 2021-03-02 Koninklijke Philips N.V. System and method for 3D scanning
CN109087347B (zh) * 2018-08-15 2021-08-17 浙江光珀智能科技有限公司 一种图像处理方法及装置
US11100713B2 (en) 2018-08-17 2021-08-24 Disney Enterprises, Inc. System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
US10909373B1 (en) * 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
CN109375232B (zh) * 2018-10-17 2021-01-26 维沃移动通信(杭州)有限公司 一种距离测量方法及装置
KR102668245B1 (ko) * 2018-10-29 2024-05-23 삼성전자주식회사 3차원 깊이 측정 장치 및 방법

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5878152A (en) * 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
JP3714063B2 (ja) 1999-10-19 2005-11-09 富士ゼロックス株式会社 3次元形状計測装置
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
EP1258837A1 (en) * 2001-05-14 2002-11-20 Thomson Licensing S.A. Method to generate mutual photometric effects
WO2003105289A2 (en) * 2002-06-07 2003-12-18 University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
JP2005258622A (ja) * 2004-03-10 2005-09-22 Fuji Photo Film Co Ltd 三次元情報取得システムおよび三次元情報取得方法
JP2006163547A (ja) * 2004-12-03 2006-06-22 Canon Inc 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
EP1960928A2 (en) 2005-12-14 2008-08-27 Yeda Research And Development Co., Ltd. Example based 3d reconstruction
JP5174684B2 (ja) * 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
EP1994503B1 (en) * 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
EP2064676B1 (en) * 2006-09-21 2011-09-07 Thomson Licensing A method and system for three-dimensional model acquisition
US7769205B2 (en) * 2006-11-28 2010-08-03 Prefixa International Inc. Fast three dimensional recovery method and apparatus
US20090189858A1 (en) * 2008-01-30 2009-07-30 Jeff Lev Gesture Identification Using A Structured Light Pattern
US8717416B2 (en) * 2008-09-30 2014-05-06 Texas Instruments Incorporated 3D camera using flash with structured light
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8908958B2 (en) * 2009-09-03 2014-12-09 Ron Kimmel Devices and methods of generating three dimensional (3D) colored models
US20120056988A1 (en) 2010-09-07 2012-03-08 David Stanhill 3-d camera
US8724887B2 (en) * 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US9471864B2 (en) * 2012-06-22 2016-10-18 Microsoft Technology Licensing, Llc Encoding data in depth patterns
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
RU2012145349A (ru) * 2012-10-24 2014-05-10 ЭлЭсАй Корпорейшн Способ и устройство обработки изображений для устранения артефактов глубины
US11509880B2 (en) 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
WO2014153022A1 (en) * 2013-03-14 2014-09-25 University Of Southern California Specular object scanner for measuring reflectance properties of objects
US10019843B2 (en) * 2013-08-08 2018-07-10 Facebook, Inc. Controlling a near eye display
US9299188B2 (en) * 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
US9799117B2 (en) * 2013-09-30 2017-10-24 Lenovo (Beijing) Co., Ltd. Method for processing data and apparatus thereof
US20150302648A1 (en) * 2014-02-18 2015-10-22 Sulon Technologies Inc. Systems and methods for mapping an environment using structured light
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
US9664507B2 (en) * 2014-09-17 2017-05-30 Canon Kabushiki Kaisha Depth value measurement using illumination by pixels
CN104539925B (zh) * 2014-12-15 2016-10-05 北京邮电大学 基于深度信息的三维场景增强现实的方法及系统
US9635231B2 (en) * 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US9948920B2 (en) * 2015-02-27 2018-04-17 Qualcomm Incorporated Systems and methods for error correction in structured light
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation

Similar Documents

Publication Publication Date Title
JP2018518750A5 (ja)
US10043278B2 (en) Method and apparatus for reconstructing 3D face with stereo camera
JP6351238B2 (ja) 画像処理装置、撮像装置および距離補正方法
TWI526992B (zh) 擴充實境中基於深度攝影機之遮蔽效果優化方法
JP2017528731A5 (ja)
JP2019500602A5 (ja)
JP6857980B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
US20110069866A1 (en) Image processing apparatus and method
JP2015215895A (ja) 深度画像の深度値復元方法及びシステム
JP2012518223A5 (ja)
JP2015529369A5 (ja)
JP2019083001A5 (ja)
JP2011253521A5 (ja)
JP2021179835A5 (ja)
US20140056508A1 (en) Apparatus and method for image matching between multiview cameras
JP2014006885A5 (ja)
JP2009134693A5 (ja)
JP2017517818A5 (ja)
WO2017110293A1 (en) Data processing apparatus and method of controlling same
JP2016009941A5 (ja)
JP2020197989A5 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2015127936A5 (ja)
KR20200067719A (ko) 스테레오-시간적 이미지 시퀀스들로부터 향상된 3-d 데이터 재구성을 위한 방법들 및 장치
JP2011150483A (ja) 画像処理装置