JP6930700B2 - 適応可能な深度検知システム - Google Patents
適応可能な深度検知システム Download PDFInfo
- Publication number
- JP6930700B2 JP6930700B2 JP2017552940A JP2017552940A JP6930700B2 JP 6930700 B2 JP6930700 B2 JP 6930700B2 JP 2017552940 A JP2017552940 A JP 2017552940A JP 2017552940 A JP2017552940 A JP 2017552940A JP 6930700 B2 JP6930700 B2 JP 6930700B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- sensor
- depth detection
- module
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
Description
グーグルコーポレーションからのAndroid(登録商標)OSおよび/またはChrome OS(登録商標)、アップルコーポレーションからのiOS(登録商標)および/またはMac(登録商標)OS、マイクロソフトコーポレーションからのWindows(登録商標)OS、リナックス(登録商標)ファウンデーションからのTizen(登録商標)OS、MozillaプロジェクトからのFirefox(登録商標)OS、ブラックベリーコーポレーションからのBlackberry(登録商標)OS、ヒューレット・パッカードコーポレーションからのPalm(登録商標)OS、シンビアン・ファウンデーションからのSymbian(登録商標)OSなどに基づく、例えば、セルラハンドセットまたはスマートフォンなどのモバイル通信デバイスと、
例えば、アップルコーポレーションからのiPad(登録商標)、グーグルコーポレーションからのNexus(登録商標)、マイクロソフトコーポレーションからのSurface(登録商標)、サムスンコーポレーションからのGalaxy Tab(登録商標)、アマゾンコーポレーションからのKindle Fire(登録商標)のようなタブレットコンピュータ、インテルコーポレーションにより製造された低電力チップセットを含むUltrabook(登録商標)、ネットブック、ノートブック、ラップトップ、パームトップなどのモバイルコンピューティングデバイスと、
例えば、サムスンコーポレーションからのGalaxy Gear(登録商標)のような腕時計型ファクタコンピューティングデバイス、グーグルコーポレーションからのGoogle Glass(登録商標)のようなアイウェア型ファクタコンピューティングデバイス/ユーザインタフェース、サムスンコーポレーションからのGear VR(登録商標)のような仮想現実(VR)ヘッドセットデバイス、Oculus VRコーポレーションからのOculus Rift(登録商標)などのウェアラブルデバイスと、
例えば、デスクトップコンピュータ、スマートテレビ、インテルコーポレーションからのNext Unit of Computing(NUC)プラットフォームのような(例えば、スペース限定アプリケーション、TVセットトップボックスなどのための)小型ファクタコンピューティングソリューションなどの通常固定のコンピューティングデバイスと
を含み得る。ホストデバイス104は、上に列挙された例示的なデバイスのいずれかであってよいが、典型的な利用のシナリオは、異なる様々な動作モードを有する携帯通信または携帯コンピューティングデバイスであるホストデバイス104を含む場合である。ホストデバイス104は、本開示と一貫する様々な実施形態を理解するために容易に理解できる文脈を提供すべく、これらの例示的な構成を用いて本明細書に(例えば、図2および図3において)示され、および/または説明され得る。
深度検知デバイスにおける赤外線(IR)エミッタおよび第1のIRセンサを有効することにより近距離深度検知を構成する工程と、
深度検知デバイスにおける第2のIRセンサをまた有効することにより中距離深度検知を構成する工程と、
を有する。
深度検知デバイスにおいて、第2のIRセンサを無効にし、かつ第3のIRセンサを有効にすることにより、または第2のIRセンサを移動することにより長距離深度検知を構成する工程を含む。
Claims (25)
- 対象までの距離を検知する深度検知を実行する深度検知機器モジュールと、
深度検知機器モジュールから少なくとも深度データを受信し、少なくとも深度データに基づき、前記深度検知機器モジュールのための、検知距離に適応した動作モードを構成する制御モジュールと
を備え、
前記深度検知機器モジュールは、少なくとも赤、緑および青(RGB)センサ、赤外線(IR)エミッタ、IRエミッタから離れて配置される第1のIRセンサ、およびIRエミッタに近接して配置される第2のIRセンサを有する
深度検知デバイス。 - 前記深度データは、前記深度検知デバイスから、前記深度検知機器モジュールにより検知された連結画素グループの少なくとも1つの画素までの距離、および、前記連結画素グループのサイズのうちの少なくとも1つを含む、請求項1に記載の深度検知デバイス。
- 前記制御モジュールはさらに、少なくとも前記深度検知デバイスに関する条件データを受信し、
前記条件データに基づき前記深度検知デバイスのための構成を判定し、
前記構成にもまた基づき前記深度検知機器モジュールのための動作モードを構成する、
請求項1または2に記載の深度検知デバイス。 - 前記制御モジュールはさらに、
前記深度検知デバイスがホストデバイスに結合されるかどうかを判定し、
前記深度検知デバイスが前記ホストデバイスに結合されるとの前記判定に基づき前記ホストデバイスに関する条件データを受信し、
前記深度検知デバイスおよび前記ホストデバイスから受信された前記条件データに基づき前記深度検知デバイスならびに前記ホストデバイスの少なくとも1つのための構成を判定する、
請求項3に記載の深度検知デバイス。 - 前記制御モジュールはさらに、
前記条件データおよび深度データの少なくとも1つに基づきシーン変化があったかどうかを判定し、
シーンが変化したとの判定に基づき前記深度検知機器モジュールのための前記動作モードを再構成する、
請求項3に記載の深度検知デバイス。 - 前記動作モードを構成するときに、前記制御モジュールは、前記深度検知機器モジュールのコンポーネントを有効にすること、深度検知機器モジュールのコンポーネントに対してフォーカスを調整すること、前記深度検知機器モジュールのコンポーネントに対する画像方向付けを構成すること、および前記深度検知機器モジュールのコンポーネントに対する深度検知方法論を選択すること
のうちの少なくとも1つを行う、
請求項1から5のいずれか一項に記載の深度検知デバイス。 - 深度検知を実行する深度検知機器モジュールと、
深度検知機器モジュールから少なくとも深度データを受信し、少なくとも深度データに基づき前記深度検知機器モジュールのための動作モードを構成する制御モジュールと
を備え、
前記深度検知機器モジュールは、少なくとも赤、緑および青(RGB)センサ、赤外線(IR)エミッタ、IRエミッタから離れて配置される第1のIRセンサ、およびIRエミッタに近接して配置される第2のIRセンサを有する
深度検知デバイス。 - 前記動作モードを構成するときに、前記制御モジュールは、近距離深度検知のために前記IRエミッタおよび前記第1のIRセンサを有効にする、
請求項1から7のいずれか一項に記載の深度検知デバイス。 - 前記動作モードを構成するときに、前記制御モジュールはまた、中距離深度検知のために前記第2のIRセンサを有効にする、
請求項8に記載の深度検知デバイス。 - 前記第2のIRセンサは、前記深度検知機器モジュール内部で移動可能であり、前記動作モードを構成するときに、前記制御モジュールは、前記深度検知機器モジュールに、中距離深度検知のために構成される場合の第1の位置に、または長距離深度検知のために前記第1のIRセンサから距離が遠くなる第2の位置に前記第2のIRセンサを配置させる、
請求項9に記載の深度検知デバイス。 - 前記深度検知機器モジュールは、前記第2のIRセンサよりも前記第1のIRセンサから距離が遠くに配置される第3のIRセンサを有し、
前記動作モードを構成するときに、前記制御モジュールは、長距離深度検知のために前記RGBセンサ、前記IRエミッタ、前記第1のIRセンサおよび前記第3のIRセンサを有効にする、
請求項1から7のいずれか一項に記載の深度検知デバイス。 - 対象までの距離を検知する深度検知デバイスを構成するための方法であって、
深度センサデバイスにおける制御モジュールにて条件データを受信する段階と、
前記条件データに基づき少なくとも前記深度センサデバイスのための構成を判定する段階と、
前記深度センサデバイスから前記制御モジュールにて深度データを受信する段階と、
前記判定された構成および前記深度データに少なくとも基づき、前記深度センサデバイスにおける深度検知機器モジュールのための、検知距離に適応した動作モードを構成する段階と
を備え、
前記深度検知デバイスは、少なくとも赤、緑および青(RGB)センサ、赤外線(IR)エミッタ、IRエミッタから離れて配置される第1のIRセンサ、およびIRエミッタに近接して配置される第2のIRセンサを有する
方法。 - 前記深度センサデバイスがホストデバイスに結合されるかどうかを判定する段階と、
前記深度センサデバイスが前記ホストデバイスに結合されるとの判定に基づき前記ホストデバイスから条件データを受信する段階と、
前記ホストデバイスから受信された前記条件データにもまた基づき前記構成を判定する段階と
をさらに備える請求項12に記載の方法。 - 前記構成を判定する段階は、前記深度センサデバイスおよびホストデバイスの少なくとも1つが卓上構成にあるかどうか、ならびに、前記深度センサデバイスおよび前記ホストデバイスの少なくとも1つが移動しているかどうかの少なくとも1つを判定する段階を含む、
請求項12または13に記載の方法。 - 前記条件データおよび深度データの少なくとも1つに基づきシーン変化があったかどうかを判定する段階と、
判定し得、シーンが変化したとの判定に基づき前記深度検知機器モジュールのための前記動作モードを再構成する段階と
をさらに備える請求項12から14のいずれか一項に記載の方法。 - 前記動作モードを構成する段階は、
前記深度検知機器モジュールのコンポーネントを有効にする段階、
前記深度検知機器モジュールのコンポーネントに対するフォーカスを調整する段階、
前記深度検知機器モジュールのコンポーネントに対する画像方向付けを構成する段階、および
前記深度検知機器モジュールのコンポーネントに対する深度検知方法論を選択する段階
のうちの少なくとも1つを備える、
請求項12から15のいずれか一項に記載の方法。 - 前記動作モードを判定する段階は、
前記深度検知デバイスにおける前記IRエミッタおよび前記第1のIRセンサを有効することにより近距離深度検知を構成する段階と、
前記深度検知デバイスにおける前記第2のIRセンサをまた有効することにより中距離深度検知を構成する段階と、
を有する請求項12から16のいずれか一項に記載の方法。 - 深度検知デバイスを構成するための方法であって、
深度センサデバイスにおける制御モジュールにて条件データを受信する段階と、
前記条件データに基づき少なくとも前記深度センサデバイスのための構成を判定する段階と、
前記深度センサデバイスから前記制御モジュールにて深度データを受信する段階と、
前記判定された構成および前記深度データに少なくとも基づき前記深度センサデバイスにおける深度検知機器モジュールのための動作モードを構成する段階と
を備え、
前記動作モードを判定する段階は、
前記深度検知デバイスにおける赤外線(IR)エミッタおよび第1のIRセンサを有効することにより近距離深度検知を構成する段階と、
前記深度検知デバイスにおける第2のIRセンサをまた有効することにより中距離深度検知を構成する段階と、
を有する方法。 - 前記動作モードを判定する段階は、
前記深度検知デバイスにおいて、前記第2のIRセンサを無効にし、かつ第3のIRセンサを有効にすることにより、または前記第2のIRセンサを移動することにより長距離深度検知を構成する段階、
を含む請求項17または18に記載の方法。 - 請求項12から19のいずれか一項に記載の方法を実行するように配設される、深度検知デバイスおよびホストデバイスを少なくとも含むシステム。
- 請求項12から19のいずれか一項に記載の方法を実行するように配設されるチップセット。
- 請求項12から19のいずれか一項に記載の方法をコンピュータに実行させるためのプログラム。
- 請求項12から19のいずれか一項に記載の方法を実行すべく配設される深度検知デバイスを構成する少なくとも1つのデバイス。
- 請求項12から19のいずれか一項に記載の方法を実行する手段を有するデバイス。
- 請求項22に記載のプログラムを格納する、コンピュータ可読ストレージ媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/722,955 | 2015-05-27 | ||
US14/722,955 US9683834B2 (en) | 2015-05-27 | 2015-05-27 | Adaptable depth sensing system |
PCT/US2016/029511 WO2016191018A1 (en) | 2015-05-27 | 2016-04-27 | Adaptable depth sensing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018523089A JP2018523089A (ja) | 2018-08-16 |
JP6930700B2 true JP6930700B2 (ja) | 2021-09-01 |
Family
ID=57394172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017552940A Active JP6930700B2 (ja) | 2015-05-27 | 2016-04-27 | 適応可能な深度検知システム |
Country Status (7)
Country | Link |
---|---|
US (1) | US9683834B2 (ja) |
EP (1) | EP3304898B1 (ja) |
JP (1) | JP6930700B2 (ja) |
KR (1) | KR102559289B1 (ja) |
CN (1) | CN108541300A (ja) |
TW (1) | TWI697655B (ja) |
WO (1) | WO2016191018A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101672669B1 (ko) * | 2015-11-23 | 2016-11-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 시차를 이용하는 멀티 애퍼처 카메라 시스템 |
US10169663B2 (en) * | 2016-09-01 | 2019-01-01 | The Boeing Company | Scene change detection via multiple sensors |
KR102527329B1 (ko) | 2017-03-21 | 2023-05-02 | 매직 립, 인코포레이티드 | 가상, 증강 및 혼합 현실 시스템들을 위한 깊이 감지 기술 |
CN108765480B (zh) * | 2017-04-10 | 2022-03-15 | 钰立微电子股份有限公司 | 深度处理设备 |
CA2980396C (en) * | 2017-09-27 | 2019-01-29 | Synaptive Medical (Barbados) Inc. | Cognitive optical control system and methods |
KR102486425B1 (ko) * | 2018-02-23 | 2023-01-09 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 초해상도 영상 처리 방법 |
JP7220343B2 (ja) * | 2018-02-26 | 2023-02-10 | パナソニックIpマネジメント株式会社 | 画像処理装置 |
DE102018105219A1 (de) * | 2018-03-07 | 2019-09-12 | Ifm Electronic Gmbh | Optisches Messsystem zur tiefensensitiven Messung und dessen Verwendung |
US11346938B2 (en) | 2019-03-15 | 2022-05-31 | Msa Technology, Llc | Safety device for providing output to an individual associated with a hazardous environment |
KR20210049561A (ko) * | 2019-10-25 | 2021-05-06 | 현대모비스 주식회사 | 센서 클러스터장치 및 그를 포함하는 자동차 |
TWI718765B (zh) * | 2019-11-18 | 2021-02-11 | 大陸商廣州立景創新科技有限公司 | 影像感測裝置 |
KR20210106809A (ko) * | 2020-02-21 | 2021-08-31 | 엘지전자 주식회사 | 이동 단말기 |
CN116615760A (zh) * | 2020-12-07 | 2023-08-18 | 华为技术有限公司 | 成像结构 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000213931A (ja) * | 1999-01-21 | 2000-08-04 | Hamamatsu Photonics Kk | 測距モジュ―ル |
US7852461B2 (en) * | 2007-11-15 | 2010-12-14 | Microsoft International Holdings B.V. | Dual mode depth imaging |
WO2010104490A1 (en) * | 2009-03-12 | 2010-09-16 | Hewlett-Packard Development Company, L.P. | Depth-sensing camera system |
KR101599434B1 (ko) | 2009-07-06 | 2016-03-03 | 엘지이노텍 주식회사 | 자동 초점 조절을 이용한 영상촬상장치의 공간감지장치 및 공간감지방법 |
US20110025689A1 (en) * | 2009-07-29 | 2011-02-03 | Microsoft Corporation | Auto-Generating A Visual Representation |
CA2776223A1 (en) * | 2009-09-30 | 2011-04-07 | Lions Eye Institute Limited | Imager, module for an imager, imaging system and method |
US9044172B2 (en) * | 2009-10-01 | 2015-06-02 | Intel Corporation | Ergonomic detection, processing and alerting for computing devices |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US9084002B2 (en) * | 2010-05-03 | 2015-07-14 | Microsoft Technology Licensing, Llc | Heterogeneous image sensor synchronization |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US20120113232A1 (en) * | 2010-11-10 | 2012-05-10 | Sony Pictures Technologies Inc. | Multiple camera system and method for selectable interaxial separation |
KR20120051208A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치 |
WO2012068724A1 (zh) | 2010-11-23 | 2012-05-31 | 深圳超多维光电子有限公司 | 立体图像获取系统及方法 |
US8553934B2 (en) * | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
WO2012147702A1 (ja) * | 2011-04-28 | 2012-11-01 | シャープ株式会社 | ヘッドマウントディスプレイ |
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
US8830302B2 (en) * | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
US20130095920A1 (en) * | 2011-10-13 | 2013-04-18 | Microsoft Corporation | Generating free viewpoint video using stereo imaging |
US10158873B2 (en) * | 2011-11-30 | 2018-12-18 | Qualcomm Incorporated | Depth component removal for multiview video coding (MVC) compatible three-dimensional video coding (3DVC) |
KR101938648B1 (ko) * | 2012-10-23 | 2019-01-15 | 삼성전자주식회사 | 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법 |
CN203136025U (zh) * | 2012-11-12 | 2013-08-14 | 深圳市维尚视界立体显示技术有限公司 | 一种3d立体拍摄智能控制的装置及其系统 |
KR102118610B1 (ko) * | 2013-02-22 | 2020-06-04 | 삼성전자주식회사 | 센서들을 이용하는 근접 동작 인식 장치 및 그 장치를 이용한 방법 |
US20150002734A1 (en) * | 2013-07-01 | 2015-01-01 | Motorola Mobility Llc | Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor |
US8938558B2 (en) * | 2013-03-04 | 2015-01-20 | Microsoft Corporation | Modifying functionality based on distances between devices |
US20140267701A1 (en) * | 2013-03-12 | 2014-09-18 | Ziv Aviv | Apparatus and techniques for determining object depth in images |
US20140267617A1 (en) | 2013-03-15 | 2014-09-18 | Scott A. Krig | Adaptive depth sensing |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
KR20140123302A (ko) | 2013-04-12 | 2014-10-22 | 삼성전자주식회사 | 영상 처리 장치 및 그 제어방법 |
US20140307055A1 (en) * | 2013-04-15 | 2014-10-16 | Microsoft Corporation | Intensity-modulated light pattern for active stereo |
EP2992403B1 (en) | 2013-04-30 | 2021-12-22 | Hewlett-Packard Development Company, L.P. | Depth sensors |
US9390511B2 (en) * | 2013-08-23 | 2016-07-12 | Futurewei Technologies, Inc. | Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data |
US9438775B2 (en) * | 2013-09-17 | 2016-09-06 | Occipital, Inc. | Apparatus for real-time 3D capture |
-
2015
- 2015-05-27 US US14/722,955 patent/US9683834B2/en active Active
-
2016
- 2016-04-20 TW TW105112307A patent/TWI697655B/zh active
- 2016-04-27 CN CN201680024530.7A patent/CN108541300A/zh active Pending
- 2016-04-27 WO PCT/US2016/029511 patent/WO2016191018A1/en unknown
- 2016-04-27 JP JP2017552940A patent/JP6930700B2/ja active Active
- 2016-04-27 EP EP16800464.6A patent/EP3304898B1/en active Active
- 2016-04-27 KR KR1020177031277A patent/KR102559289B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
JP2018523089A (ja) | 2018-08-16 |
EP3304898A4 (en) | 2019-01-02 |
KR102559289B1 (ko) | 2023-07-24 |
EP3304898B1 (en) | 2020-05-06 |
EP3304898A1 (en) | 2018-04-11 |
WO2016191018A1 (en) | 2016-12-01 |
KR20180012746A (ko) | 2018-02-06 |
TWI697655B (zh) | 2020-07-01 |
US20160349042A1 (en) | 2016-12-01 |
US9683834B2 (en) | 2017-06-20 |
CN108541300A (zh) | 2018-09-14 |
TW201710641A (zh) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6930700B2 (ja) | 適応可能な深度検知システム | |
EP3700184B1 (en) | Electronic device and method for changing magnification of image using multiple cameras | |
KR102406327B1 (ko) | 출력 장치를 제어하는 방법 및 장치 | |
US11222477B2 (en) | Electronic device for providing augmented reality service and operating method thereof | |
US10205874B2 (en) | Wearable device and control method thereof | |
US9658713B2 (en) | Systems, methods, and applications for dynamic input mode selection based on whether an identified operating system includes an application program interface associated with the input mode | |
US20180101715A1 (en) | Electronic device having plurality of fingerprint sensing modes and method for controlling the same | |
CN108234750B (zh) | 用于检测盖设备的打开和闭合的电子设备及其操作方法 | |
EP3141982B1 (en) | Electronic device for sensing pressure of input and method for operating the electronic device | |
US20170118402A1 (en) | Electronic device and camera control method therefor | |
EP3608765A1 (en) | Electronic device and method for executing application using both display of electronic device and external display | |
US20160364564A1 (en) | Lock screen output controlling method and electronic device for supporting the same | |
CN105138247A (zh) | 检测到第二设备接近第一设备而在第一设备呈现用户界面 | |
KR102504308B1 (ko) | 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체 | |
US20150381896A1 (en) | Method of managing data and electronic device for processing the same | |
US9792183B2 (en) | Method, apparatus, and recording medium for interworking with external terminal | |
US11132537B2 (en) | Electronic device for determining position of user based on image pixels, and method of controlling said device | |
CN104679552A (zh) | 选择性地禁用传感器和相关联的功能 | |
US11457151B2 (en) | Method of obtaining a user-selected angle of view from among a plurality of angles of view of respective cameras and electronic device supporting the same | |
US11636675B2 (en) | Electronic device and method for providing multiple services respectively corresponding to multiple external objects included in image | |
KR20200106483A (ko) | 화면 구성 방법, 전자 장치 및 저장 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6930700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |