JP2018523089A - 適応可能な深度検知システム - Google Patents
適応可能な深度検知システム Download PDFInfo
- Publication number
- JP2018523089A JP2018523089A JP2017552940A JP2017552940A JP2018523089A JP 2018523089 A JP2018523089 A JP 2018523089A JP 2017552940 A JP2017552940 A JP 2017552940A JP 2017552940 A JP2017552940 A JP 2017552940A JP 2018523089 A JP2018523089 A JP 2018523089A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- sensor
- module
- depth sensing
- host device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000008859 change Effects 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 33
- 230000015654 memory Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000009977 dual effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
グーグルコーポレーションからのAndroid(登録商標)OSおよび/またはChrome OS(登録商標)、アップルコーポレーションからのiOS(登録商標)および/またはMac(登録商標)OS、マイクロソフトコーポレーションからのWindows(登録商標)OS、リナックス(登録商標)ファウンデーションからのTizen(登録商標)OS、MozillaプロジェクトからのFirefox(登録商標)OS、ブラックベリーコーポレーションからのBlackberry(登録商標)OS、ヒューレット・パッカードコーポレーションからのPalm(登録商標)OS、シンビアン・ファウンデーションからのSymbian(登録商標)OSなどに基づく、例えば、セルラハンドセットまたはスマートフォンなどのモバイル通信デバイスと、
例えば、アップルコーポレーションからのiPad(登録商標)、グーグルコーポレーションからのNexus(登録商標)、マイクロソフトコーポレーションからのSurface(登録商標)、サムスンコーポレーションからのGalaxy Tab(登録商標)、アマゾンコーポレーションからのKindle Fire(登録商標)のようなタブレットコンピュータ、インテルコーポレーションにより製造された低電力チップセットを含むUltrabook(登録商標)、ネットブック、ノートブック、ラップトップ、パームトップなどのモバイルコンピューティングデバイスと、
例えば、サムスンコーポレーションからのGalaxy Gear(登録商標)のような腕時計型ファクタコンピューティングデバイス、グーグルコーポレーションからのGoogle Glass(登録商標)のようなアイウェア型ファクタコンピューティングデバイス/ユーザインタフェース、サムスンコーポレーションからのGear VR(登録商標)のような仮想現実(VR)ヘッドセットデバイス、Oculus VRコーポレーションからのOculus Rift(登録商標)などのウェアラブルデバイスと、
例えば、デスクトップコンピュータ、スマートテレビ、インテルコーポレーションからのNext Unit of Computing(NUC)プラットフォームのような(例えば、スペース限定アプリケーション、TVセットトップボックスなどのための)小型ファクタコンピューティングソリューションなどの通常固定のコンピューティングデバイスと
を含み得る。ホストデバイス104は、上に列挙された例示的なデバイスのいずれかであってよいが、典型的な利用のシナリオは、異なる様々な動作モードを有する携帯通信または携帯コンピューティングデバイスであるホストデバイス104を含む場合である。ホストデバイス104は、本開示と一貫する様々な実施形態を理解するために容易に理解できる文脈を提供すべく、これらの例示的な構成を用いて本明細書に(例えば、図2および図3において)示され、および/または説明され得る。
深度検知デバイスにおける赤外線(IR)エミッタおよび第1のIRセンサを有効することにより近距離深度検知を構成する工程と、
深度検知デバイスにおける第2のIRセンサをまた有効することにより中距離深度検知を構成する工程と、
を有する。
深度検知デバイスにおいて、第2のIRセンサを無効にし、かつ第3のIRセンサを有効にすることにより、または第2のIRセンサを移動することにより長距離深度検知を構成する工程を含む。
Claims (23)
- 深度検知を実行する深度検知機器モジュールと、
深度検知機器モジュールから少なくとも深度データを受信し、少なくとも深度データに基づき前記深度検知機器モジュールための動作モードを構成する制御モジュールと
を備える深度検知デバイス。 - 前記深度データは、前記深度検知デバイスから、前記深度検知機器モジュールにより検知された連結画素グループの少なくとも1つの画素までの距離、および、前記連結画素グループのサイズのうちの少なくとも1つを含む、請求項1に記載の深度検知デバイス。
- 前記制御モジュールはさらに、少なくとも前記深度検知デバイスに関する条件データを受信し、
前記条件データに基づき前記深度検知デバイスのための構成を判定し、
前記構成にもまた基づき前記深度検知機器モジュールのための動作モードを構成する、
請求項1または2に記載の深度検知デバイス。 - 前記制御モジュールはさらに、
前記深度検知デバイスがホストデバイスに結合されるかどうかを判定し、
前記深度検知デバイスが前記ホストデバイスに結合されるとの前記判定に基づき前記ホストデバイスに関する条件データを受信し、
前記深度検知デバイスおよび前記ホストデバイスから受信された前記条件データに基づき前記深度検知デバイスならびに前記ホストデバイスの少なくとも1つのための構成を判定する、
請求項3に記載の深度検知デバイス。 - 前記制御モジュールはさらに、
前記条件データおよび深度データの少なくとも1つに基づきシーン変化があったかどうかを判定し、
シーンが変化したとの判定に基づき前記深度検知機器モジュールのための前記動作モードを再構成する、
請求項3に記載の深度検知デバイス。 - 前記動作モードを構成するときに、前記制御モジュールは、前記深度検知機器モジュールのコンポーネントを有効にすること、深度検知機器モジュールのコンポーネントに対してフォーカスを調整すること、前記深度検知機器モジュールのコンポーネントに対する画像方向付けを構成すること、および前記深度検知機器モジュールのコンポーネントに対する深度検知方法論を選択すること
のうちの少なくとも1つを行う、
請求項1から5のいずれか一項に記載の深度検知デバイス。 - 前記深度検知機器モジュールは、少なくとも赤、緑および青(RGB)センサ、赤外線(IR)エミッタ、IRエミッタから離れて配置される第1のIRセンサ、およびIRエミッタに近接して配置される第2のIRセンサを有する、
請求項1から6のいずれか一項に記載の深度検知デバイス。 - 前記動作モードを構成するときに、前記制御モジュールは、近距離深度検知のために前記IRエミッタおよび前記第1のIRセンサを有効にする、
請求項7に記載の深度検知デバイス。 - 前記動作モードを構成するときに、前記制御モジュールはまた、中距離深度検知のために前記第2のIRセンサを有効にする、
請求項8に記載の深度検知デバイス。 - 前記第2のIRセンサは、前記深度検知機器モジュール内部で移動可能であり、前記動作モードを構成するときに、前記制御モジュールは、前記深度検知機器モジュールに、中距離深度検知のために構成される場合の第1の位置に、または長距離深度検知のために前記第1のIRセンサから距離が遠くなる第2の位置に前記第2のIRセンサを配置させる、
請求項9に記載の深度検知デバイス。 - 前記深度検知機器モジュールは、前記第2のIRセンサよりも前記第1のIRセンサから距離が遠くに配置される第3のIRセンサを有し、
前記動作モードを構成するときに、前記制御モジュールは、長距離深度検知のために前記RGBセンサ、前記IRエミッタ、前記第1のIRセンサおよび前記第3のIRセンサを有効にする、
請求項7に記載の深度検知デバイス。 - 深度検知デバイスを構成するための方法であって、
深度センサデバイスにおける制御モジュールにて条件データを受信する段階と、
前記条件データに基づき少なくとも前記深度センサデバイスのための構成を判定する段階と、
前記深度センサデバイスから前記制御モジュールにて深度データを受信する段階と、
前記判定された構成および前記深度データに少なくとも基づき前記深度センサデバイスにおける深度検知機器モジュールのための動作モードを構成する段階と
を備える方法。 - 前記深度センサデバイスがホストデバイスに結合されるかどうかを判定する段階と、
前記深度センサデバイスが前記ホストデバイスに結合されるとの判定に基づき前記ホストデバイスから条件データを受信する段階と、
前記ホストデバイスから受信された前記条件データにもまた基づき前記構成を判定する段階と
をさらに備える請求項12に記載の方法。 - 前記構成を判定する段階は、前記深度センサデバイスおよびホストデバイスの少なくとも1つが卓上構成にあるかどうか、ならびに、前記深度センサデバイスおよび前記ホストデバイスの少なくとも1つが移動しているかどうかの少なくとも1つを判定する段階を含む、
請求項12または13に記載の方法。 - 前記条件データおよび深度データの少なくとも1つに基づきシーン変化があったかどうかを判定する段階と、
判定し得、シーンが変化したとの判定に基づき前記深度検知機器モジュールのための前記動作モードを再構成する段階と
をさらに備える請求項12から14のいずれか一項に記載の方法。 - 前記動作モードを構成する段階は、
前記深度検知機器モジュールのコンポーネントを有効にする段階、
前記深度検知機器モジュールのコンポーネントに対するフォーカスを調整する段階、
前記深度検知機器モジュールのコンポーネントに対する画像方向付けを構成する段階、および
前記深度検知機器モジュールのコンポーネントに対する深度検知方法論を選択する段階
のうちの少なくとも1つを備える、
請求項12から15のいずれか一項に記載の方法。 - 前記動作モードを判定する段階は、
前記深度検知デバイスにおける赤外線(IR)エミッタおよび第1のIRセンサを有効することにより近距離深度検知を構成する段階と、
前記深度検知デバイスにおける第2のIRセンサをまた有効することにより中距離深度検知を構成する段階と、
を有する請求項12から16のいずれか一項に記載の方法。 - 前記動作モードを判定する段階は、
前記深度検知デバイスにおいて、前記第2のIRセンサを無効にし、かつ第3のIRセンサを有効にすることにより、または前記第2のIRセンサを移動することにより長距離深度検知を構成する段階、
を含む請求項17に記載の方法。 - 請求項12から18のいずれか一項に記載の方法を実行するように配設される、深度検知デバイスおよびホストデバイスを少なくとも含むシステム。
- 請求項12から18のいずれか一項に記載の方法を実行するように配設されるチップセット。
- コンピューティングデバイス上で実行中であることに応答して、請求項12から18のいずれか一項に記載の方法を前記コンピューティングデバイスに実行させる複数の命令を備える少なくとも1つの機械可読媒体。
- 請求項12から18のいずれか一項に記載の方法を実行すべく配設される深度検知デバイスを構成する少なくとも1つのデバイス。
- 請求項12から18のいずれか一項に記載の方法を実行する手段を有するデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/722,955 US9683834B2 (en) | 2015-05-27 | 2015-05-27 | Adaptable depth sensing system |
US14/722,955 | 2015-05-27 | ||
PCT/US2016/029511 WO2016191018A1 (en) | 2015-05-27 | 2016-04-27 | Adaptable depth sensing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018523089A true JP2018523089A (ja) | 2018-08-16 |
JP6930700B2 JP6930700B2 (ja) | 2021-09-01 |
Family
ID=57394172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017552940A Active JP6930700B2 (ja) | 2015-05-27 | 2016-04-27 | 適応可能な深度検知システム |
Country Status (7)
Country | Link |
---|---|
US (1) | US9683834B2 (ja) |
EP (1) | EP3304898B1 (ja) |
JP (1) | JP6930700B2 (ja) |
KR (1) | KR102559289B1 (ja) |
CN (1) | CN108541300A (ja) |
TW (1) | TWI697655B (ja) |
WO (1) | WO2016191018A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101672669B1 (ko) * | 2015-11-23 | 2016-11-03 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 시차를 이용하는 멀티 애퍼처 카메라 시스템 |
US10169663B2 (en) * | 2016-09-01 | 2019-01-01 | The Boeing Company | Scene change detection via multiple sensors |
WO2018175344A1 (en) * | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Depth sensing techniques for virtual, augmented, and mixed reality systems |
CN108765480B (zh) * | 2017-04-10 | 2022-03-15 | 钰立微电子股份有限公司 | 深度处理设备 |
CA2980396C (en) * | 2017-09-27 | 2019-01-29 | Synaptive Medical (Barbados) Inc. | Cognitive optical control system and methods |
KR102486425B1 (ko) | 2018-02-23 | 2023-01-09 | 엘지이노텍 주식회사 | 카메라 모듈 및 그의 초해상도 영상 처리 방법 |
JP7220343B2 (ja) * | 2018-02-26 | 2023-02-10 | パナソニックIpマネジメント株式会社 | 画像処理装置 |
DE102018105219A1 (de) * | 2018-03-07 | 2019-09-12 | Ifm Electronic Gmbh | Optisches Messsystem zur tiefensensitiven Messung und dessen Verwendung |
US11346938B2 (en) | 2019-03-15 | 2022-05-31 | Msa Technology, Llc | Safety device for providing output to an individual associated with a hazardous environment |
KR20210049561A (ko) * | 2019-10-25 | 2021-05-06 | 현대모비스 주식회사 | 센서 클러스터장치 및 그를 포함하는 자동차 |
TWI718765B (zh) | 2019-11-18 | 2021-02-11 | 大陸商廣州立景創新科技有限公司 | 影像感測裝置 |
KR20210106809A (ko) * | 2020-02-21 | 2021-08-31 | 엘지전자 주식회사 | 이동 단말기 |
CN116615760A (zh) * | 2020-12-07 | 2023-08-18 | 华为技术有限公司 | 成像结构 |
US12101539B2 (en) * | 2023-01-05 | 2024-09-24 | Dell Products L.P. | Information handling system camera shutter with secondary security by power removal |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000213931A (ja) * | 1999-01-21 | 2000-08-04 | Hamamatsu Photonics Kk | 測距モジュ―ル |
JP2013008368A (ja) * | 2011-06-24 | 2013-01-10 | Ricoh Co Ltd | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 |
JP2014501086A (ja) * | 2010-11-23 | 2014-01-16 | 深▲セン▼超多▲維▼光▲電▼子有限公司 | 立体画像取得システム及び方法 |
WO2014150728A1 (en) * | 2013-03-15 | 2014-09-25 | Qualcomm Incorporated | Detection of a zooming gesture |
US20140307126A1 (en) * | 2013-04-12 | 2014-10-16 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of controlling the same |
WO2014178836A1 (en) * | 2013-04-30 | 2014-11-06 | Hewlett-Packard Development Company, L.P. | Depth sensors |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7852461B2 (en) * | 2007-11-15 | 2010-12-14 | Microsoft International Holdings B.V. | Dual mode depth imaging |
US8681216B2 (en) * | 2009-03-12 | 2014-03-25 | Hewlett-Packard Development Company, L.P. | Depth-sensing camera system |
KR101599434B1 (ko) | 2009-07-06 | 2016-03-03 | 엘지이노텍 주식회사 | 자동 초점 조절을 이용한 영상촬상장치의 공간감지장치 및 공간감지방법 |
US20110025689A1 (en) * | 2009-07-29 | 2011-02-03 | Microsoft Corporation | Auto-Generating A Visual Representation |
WO2011038457A1 (en) * | 2009-09-30 | 2011-04-07 | Lions Eye Institute Limited | Imager, module for an imager, imaging system and method |
US9044172B2 (en) * | 2009-10-01 | 2015-06-02 | Intel Corporation | Ergonomic detection, processing and alerting for computing devices |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US9084002B2 (en) * | 2010-05-03 | 2015-07-14 | Microsoft Technology Licensing, Llc | Heterogeneous image sensor synchronization |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US20120113232A1 (en) * | 2010-11-10 | 2012-05-10 | Sony Pictures Technologies Inc. | Multiple camera system and method for selectable interaxial separation |
KR20120051208A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사물을 이용한 제스쳐 인식 방법 및 장치 |
US8553934B2 (en) * | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
WO2012147702A1 (ja) * | 2011-04-28 | 2012-11-01 | シャープ株式会社 | ヘッドマウントディスプレイ |
US8830302B2 (en) * | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
US20130095920A1 (en) * | 2011-10-13 | 2013-04-18 | Microsoft Corporation | Generating free viewpoint video using stereo imaging |
US9473752B2 (en) * | 2011-11-30 | 2016-10-18 | Qualcomm Incorporated | Activation of parameter sets for multiview video coding (MVC) compatible three-dimensional video coding (3DVC) |
KR101938648B1 (ko) * | 2012-10-23 | 2019-01-15 | 삼성전자주식회사 | 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법 |
CN203136025U (zh) * | 2012-11-12 | 2013-08-14 | 深圳市维尚视界立体显示技术有限公司 | 一种3d立体拍摄智能控制的装置及其系统 |
KR102118610B1 (ko) * | 2013-02-22 | 2020-06-04 | 삼성전자주식회사 | 센서들을 이용하는 근접 동작 인식 장치 및 그 장치를 이용한 방법 |
US20150002734A1 (en) * | 2013-07-01 | 2015-01-01 | Motorola Mobility Llc | Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor |
US8938558B2 (en) * | 2013-03-04 | 2015-01-20 | Microsoft Corporation | Modifying functionality based on distances between devices |
US20140267701A1 (en) * | 2013-03-12 | 2014-09-18 | Ziv Aviv | Apparatus and techniques for determining object depth in images |
US20140267617A1 (en) * | 2013-03-15 | 2014-09-18 | Scott A. Krig | Adaptive depth sensing |
US20140307055A1 (en) * | 2013-04-15 | 2014-10-16 | Microsoft Corporation | Intensity-modulated light pattern for active stereo |
US9390511B2 (en) * | 2013-08-23 | 2016-07-12 | Futurewei Technologies, Inc. | Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data |
US9438775B2 (en) * | 2013-09-17 | 2016-09-06 | Occipital, Inc. | Apparatus for real-time 3D capture |
-
2015
- 2015-05-27 US US14/722,955 patent/US9683834B2/en active Active
-
2016
- 2016-04-20 TW TW105112307A patent/TWI697655B/zh active
- 2016-04-27 CN CN201680024530.7A patent/CN108541300A/zh active Pending
- 2016-04-27 WO PCT/US2016/029511 patent/WO2016191018A1/en unknown
- 2016-04-27 JP JP2017552940A patent/JP6930700B2/ja active Active
- 2016-04-27 EP EP16800464.6A patent/EP3304898B1/en active Active
- 2016-04-27 KR KR1020177031277A patent/KR102559289B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000213931A (ja) * | 1999-01-21 | 2000-08-04 | Hamamatsu Photonics Kk | 測距モジュ―ル |
JP2014501086A (ja) * | 2010-11-23 | 2014-01-16 | 深▲セン▼超多▲維▼光▲電▼子有限公司 | 立体画像取得システム及び方法 |
JP2013008368A (ja) * | 2011-06-24 | 2013-01-10 | Ricoh Co Ltd | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 |
WO2014150728A1 (en) * | 2013-03-15 | 2014-09-25 | Qualcomm Incorporated | Detection of a zooming gesture |
US20140307126A1 (en) * | 2013-04-12 | 2014-10-16 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of controlling the same |
WO2014178836A1 (en) * | 2013-04-30 | 2014-11-06 | Hewlett-Packard Development Company, L.P. | Depth sensors |
Also Published As
Publication number | Publication date |
---|---|
EP3304898B1 (en) | 2020-05-06 |
KR20180012746A (ko) | 2018-02-06 |
US9683834B2 (en) | 2017-06-20 |
CN108541300A (zh) | 2018-09-14 |
US20160349042A1 (en) | 2016-12-01 |
JP6930700B2 (ja) | 2021-09-01 |
KR102559289B1 (ko) | 2023-07-24 |
WO2016191018A1 (en) | 2016-12-01 |
TWI697655B (zh) | 2020-07-01 |
EP3304898A4 (en) | 2019-01-02 |
TW201710641A (zh) | 2017-03-16 |
EP3304898A1 (en) | 2018-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102559289B1 (ko) | 적응형 깊이 감지 시스템 | |
KR102664705B1 (ko) | 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법 | |
US11222477B2 (en) | Electronic device for providing augmented reality service and operating method thereof | |
US10205874B2 (en) | Wearable device and control method thereof | |
KR102524498B1 (ko) | 듀얼 카메라를 포함하는 전자 장치 및 듀얼 카메라의 제어 방법 | |
US20200125144A1 (en) | Foldable electronic device for controlling user interface and operating method thereof | |
US10551833B2 (en) | Method for image capturing using unmanned image capturing device and electronic device supporting the same | |
KR102406327B1 (ko) | 출력 장치를 제어하는 방법 및 장치 | |
US20180198982A1 (en) | Image capturing method and electronic device | |
EP3451661A1 (en) | Three-dimensional imaging device and electronic device including same | |
CN107959773A (zh) | 拍摄图像的电子装置 | |
WO2018098638A1 (zh) | 一种电子设备拍摄方法和装置 | |
US11457151B2 (en) | Method of obtaining a user-selected angle of view from among a plurality of angles of view of respective cameras and electronic device supporting the same | |
CN105138247A (zh) | 检测到第二设备接近第一设备而在第一设备呈现用户界面 | |
KR102645340B1 (ko) | 전자 장치 및 그의 녹화 방법 | |
US20150381896A1 (en) | Method of managing data and electronic device for processing the same | |
US9264613B2 (en) | Apparatus and method for controlling current consumption of mobile terminal | |
US20230061776A1 (en) | Electronic device for providing augmented reality service, and operating method therefor | |
CN114144749A (zh) | 基于触摸输入的操作方法及其电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6930700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |