JP2015529372A - ディスプレイ一体型カメラアレイ - Google Patents
ディスプレイ一体型カメラアレイ Download PDFInfo
- Publication number
- JP2015529372A JP2015529372A JP2015533160A JP2015533160A JP2015529372A JP 2015529372 A JP2015529372 A JP 2015529372A JP 2015533160 A JP2015533160 A JP 2015533160A JP 2015533160 A JP2015533160 A JP 2015533160A JP 2015529372 A JP2015529372 A JP 2015529372A
- Authority
- JP
- Japan
- Prior art keywords
- computing device
- display screen
- light
- camera
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 32
- 238000005286 illumination Methods 0.000 claims description 30
- 239000000758 substrate Substances 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 10
- 239000004973 liquid crystal related substance Substances 0.000 claims description 5
- 239000000463 material Substances 0.000 claims description 5
- 210000003811 finger Anatomy 0.000 description 25
- 238000013459 approach Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000002085 persistent effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
- G01J1/4228—Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/10—Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors
- G01J5/20—Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors using resistors, thermistors or semiconductors sensitive to radiation, e.g. photoconductive devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
付記1. コンピューティングデバイスであって、
少なくとも1つのプロセッサと、
コンテンツであって、コンピューティングデバイス上でディスプレイ画面の第1の側面から見ることができる、コンテンツを表示するための少なくとも透過レイヤを含む、ディスプレイ画面と、
ディスプレイ画面の第2の側面であって、第1の側面の反対側にある第2の側面に近接して位置付けられる検出器アレイであって、複数のフォトダイオードであって、それぞれが、ディスプレイ画面の第1の側面上の赤外線(IR)光入射を取り込み、少なくとも透過レイヤを通過するように構成される、複数のフォトダイオードを含む、検出器アレイと、
IR光を放射するように構成される、複数の赤外線放射体と、
少なくとも1つのプロセッサによって実行されると、コンピューティングデバイスに、
赤外線放射体のうちの少なくとも2つに、異なる特定の時間に光を照射させ、
特定の時間のそれぞれについて、検出器アレイによって取り込まれる輝度データであって、IR放射体のうちの少なくとも1つによって照射され、コンピューティングデバイスの決定可能な範囲内の場所にある物体によって反射されるIR光に対応する、輝度データを収集させ、
特定の時間のそれぞれについての輝度データを含む統合データセットであって、検出器アレイの中のフォトダイオードのそれぞれについての少なくとも統合された輝度データを含む統合データセットを生成させ、
コンピューティングデバイスに対する物体の場所または配向のうちの少なくとも1つを決定するために、統合データセットの中の物体の表象を分析させる、命令を含む、メモリと、を備える、コンピューティングデバイス。
付記2. 少なくとも2つの赤外線放射体は、検出器アレイの異なる端に近接して位置付けられ、特定の時間のそれぞれについての輝度データの中の物体の表象が、各々の方向からの照明を表す、付記1に記載のコンピューティングデバイス。
付記3. 少なくとも2つの赤外線放射体は、検出器アレイのフォトダイオードと共通の基板上にあり、少なくとも2つの赤外線放射体は、共通の基板の隅または端のうちの少なくとも1つに近接して位置付けされる、付記1に記載のコンピューティングデバイス。
付記4. ディスプレイ画面からある距離を置いて位置付けられる少なくとも1つのカメラであって、物体が少なくとも1つのカメラの視野内にあるときに、物体の場所または配向のうちの少なくとも1つを決定するための、少なくとも1つのプロセッサと、物体が少なくとも1つのカメラの視野外にあるが、コンピューティングデバイスの決定可能な範囲にあるときに、物体の場所または配向のうちの少なくとも1つを決定するための、分析されることが可能な輝度データを取り込むように構成される、検出器アレイとによって、分析されることが可能な画像を取り込むように構成される、少なくとも1つのカメラをさらに備える、付記1に記載のコンピューティングデバイス。
付記5. コンピューティングデバイスであって、
プロセッサと、
コンテンツを表示するためのディスプレイ画面と、
それぞれが、物体によって反射され、かつディスプレイ画面を通過する光を検出するように構成される、複数の検出器を含む検出器アレイと、
プロセッサによって実行されると、コンピューティングデバイスに、コンピューティングデバイスに対する物体の位置を決定するために、検出器アレイによって検出される光についてのデータを分析させる命令を含む、メモリと、を備える、コンピューティングデバイス。
付記6. 検出器は、基板上の少なくとも所定の距離によって分離されるフォトダイオードであって、基板は、フォトダイオードのそれぞれによって検出された値を読み取るように動作可能な回路にフォトダイオードを接続するためのラインを備える、付記5に記載のコンピューティングデバイス。
付記7. 光がディスプレイ画面を通って物体から反射されるようにするために、照明の源を提供するように構成される、少なくとも1つの照明源をさらに備える、付記5に記載のコンピューティングデバイス。
付記8. 少なくとも1つの照明源は、ディスプレイ画面を通って赤外線を放射するように構成される、少なくとも1つの赤外線発光ダイオードを含み、検出器は、物体によって反射され、かつディスプレイ画面を通過する赤外線のうちの少なくとも一部分を検出することができる、付記7に記載のコンピューティングデバイス。
付記9. 少なくとも1つの照明源は、ディスプレイ画面のためのバックライトを含む、付記7に記載のコンピューティングデバイス。
付記10. ディスプレイ画面と少なくとも1つの照明源および検出器アレイを支持する基板との間に位置付けられる赤外線透過要素をさらに備え、赤外線透過要素は、可視光線が検出器アレイによって検出されることを防ぐ、付記7に記載のコンピューティングデバイス。
付記11. 少なくとも2つの照明源は、異なる特定の時間に、異なる方向から光を放射するように起動される、付記7に記載のコンピューティングデバイス。
付記12. 命令は、実行されると、さらにコンピューティングデバイスに、
特定の時間のそれぞれについて、検出器アレイによって取り込まれた輝度データであって、少なくとも2つの照明源のうちの少なくとも1つによって照射され、かつ物体によって反射される光についての輝度データを含む、輝度データを収集させ、
特定の時間のそれぞれについての輝度データを含む統合データセットであって、検出器のそれぞれの検出器についての少なくとも統合輝度情報を含む、統合データセットを生成させ、
統合データセットにおける物体の表象を分析させて、コンピューティングデバイスに対する物体の配向をさらに決定させる、付記11に記載のコンピューティングデバイス。
付記13. ディスプレイ画面からある距離を置いて、コンピューティングデバイス上に位置付けられる少なくとも1つのカメラであって、物体が少なくとも1つのカメラの視野内にあるときに、物体の場所または配向のうちの少なくとも1つを決定するために、プロセッサによって分析されることができる画像を取り込むように構成される、少なくとも1つのカメラと、物体が少なくとも1つのカメラの視野外にあるときに、物体の場所または配向のうちの少なくとも1つを決定するために、分析されることができる画像データを取り込むように構成される、検出器アレイと、をさらに備える、付記5に記載のコンピューティングデバイス。
付記14. 命令は、実行されると、さらに検出器アレイに、ディスプレイ画面の順次のアクティブ期間の合間の光を検出させる、付記5に記載のコンピューティングデバイス。
付記15. アクティブレイヤは、液晶材料を含み、液晶材料は、ディスプレイ画面上の光入射の少なくとも一部分がディスプレイ画面を通過することができるように活性化されるように構成される、付記5に記載のコンピューティングデバイス。
付記16. 命令は、実行されると、さらにコンピューティングデバイスに、コンピューティングデバイスが物体によって実施されるモーションまたはジェスチャのうちの少なくとも1つを決定することができるように、物体を経時的に追跡させる、付記5に記載のコンピューティングデバイス。
付記17. 物体は、ユーザの指もしくは手、またはユーザによって保持される物体のうちの少なくとも1つを含む、付記5に記載のコンピューティングデバイス。
付記18. 少なくとも2つの放射体に異なる特定の時間に光を放射させることであって、放射体は、コンピューティングデバイスのディスプレイ画面を通って光を放射するように構成される、光を放射させることと、
特定の時間のそれぞれについて、検出器アレイによって取り込まれた輝度データを収集することであって、輝度データは、放射体のうちの少なくとも1つによって照射され、かつコンピューティングデバイスの少なくとも検出範囲内で物体によって反射された光に対応し、物体によって反射された光は、検出器アレイによって検出される前にディスプレイ画面を通って戻る、収集することと、
特定の時間についての輝度データを含む統合データセットであって、検出器アレイの中のそれぞれの検出器についての少なくとも統合された輝度データを含む、統合データセットを生成することと、
コンピューティングデバイスに対する物体の場所または配向のうちの少なくとも1つを決定するために、統合データセットの中の物体の表象を分析することと、を含む、コンピュータ実装方法。
付記19. 命令は、実行されると、さらにコンピューティングデバイスに、コンピューティングデバイスが物体によって実施されるモーションまたはジェスチャのうちの少なくとも1つを決定することができるように、物体を経時的に追跡させる、付記18に記載のコンピュータ実装方法。
付記20. 放射体は赤外線を放射し、検出器アレイの検出器は、放射体によって放射される赤外線の反射された部分を検出し、赤外線は、ディスプレイ画面の操作の間に検出されることができる、付記18に記載のコンピュータ実装方法。
付記21. コンピューティングデバイスは、ディスプレイ画面からある距離を置いて位置付けられる、少なくとも1つのカメラを含み、少なくとも1つのカメラは、物体が少なくとも1つのカメラの視野内にあるときに、物体の場所または配向のうちの少なくとも1つを決定するために、分析されることが可能な画像を取り込むように構成され、検出器アレイは、物体が少なくとも1つのカメラの視野外にあり、かつ検出範囲内にあるときに、物体の場所または配向のうちの少なくとも1つを決定するために、分析されることが可能な画像データを取り込むように構成される、付記18に記載のコンピュータ実装方法。
付記22. 少なくとも1つのプロセッサまたはコンピューティングデバイスによって実行されると、コンピューティングデバイスに、複数のフォトダイオードを用いて、光であって、物体によって反射され、かつコンピューティングデバイスのディスプレイ画面を通過する光を検出させ、
フォトダイオードのそれぞれの場所およびフォトダイオードのそれぞれによって検出される光の輝度に少なくとも部分的に基づいて、複数のフォトダイオードによって検出される光についてのデータセットを生成させ、
物体の表象の場所を決定するために、データセットを分析させ、
データセットにおける物体の表象の場所に少なくとも部分的に基づいて、コンピューティングデバイスに対する物体の場所を決定させる、命令を含む、持続性コンピュータ可読記憶媒体。
付記23. 命令は、実行されると、さらにコンピューティングデバイスに、
コンピューティングデバイスのうちの少なくとも1つの放射体であって、物体によって反射される光の一部分が複数のフォトダイオードのうちの1つ以上によって検出されることができるように、光を放射するように構成される放射体を用いて光を放射させる、付記22に記載の持続性コンピュータ可読記憶媒体。
付記24. 命令は、実行されると、さらにコンピューティングデバイスに、
コンピューティングデバイスの少なくとも2つの放射体に、異なる特定の時間に光を放射させ、
特定の時間のそれぞれについて、複数のフォトダイオードによって検出される光についての輝度データであって、放射体のうちの少なくとも1つによって放射され、コンピューティングデバイスの少なくとも検出範囲内で物体によって反射される光であって、複数のフォトダイオードによって検出される前に、ディスプレイ画面を通って戻る、物体によって反射される光に対応する輝度データを取得させ、
特定の時間のそれぞれについての輝度データを含む統合データセットであって、それぞれのフォトダイオードについての少なくとも統合輝度データを含む、統合データセットを生成させ、
コンピューティングデバイスに対する少なくとも物体の配向を決定するために、統合データセットにおける物体の表象を分析させる、付記23に記載の持続性コンピュータ可読記憶媒体。
付記25. 命令は、実行されると、さらにコンピューティングデバイスに、コンピューティングデバイスが物体によって実施されるモーションまたはジェスチャのうちの少なくとも1つを決定することができるように、物体を経時的に追跡させる、付記22に記載の持続性コンピュータ可読記憶媒体。
Claims (15)
- コンピューティングデバイスであって、
プロセッサと、
コンテンツを表示するためのディスプレイ画面と、
光が前記ディスプレイ画面を通って物体から反射されるようにするために、照明の源を提供するように動作可能な少なくとも1つの照明源と、
複数の検出器を含む検出器アレイであって、それぞれが、前記物体によって反射され、かつ前記ディスプレイ画面を通過する光を検出するように構成される、複数の検出器を含む検出器アレイと、
前記プロセッサによって実行されると、前記コンピューティングデバイスに、前記コンピューティングデバイスに対する前記物体の位置を決定するために、前記検出器アレイによって検出される前記光についてのデータを分析させる命令を含むメモリと、を備える、コンピューティングデバイス。 - 前記検出器は、基板上の少なくとも所定の距離によって分離されるフォトダイオードであって、前記基板は、前記フォトダイオードのそれぞれによって検出された値を読み取るように動作可能な回路に前記フォトダイオードを接続するためのラインを備える、請求項1に記載のコンピューティングデバイス。
- 前記少なくとも1つの照明源は、前記ディスプレイ画面を通って赤外線を放射するように構成される少なくとも1つの赤外線発光ダイオードを含み、前記検出器は、前記物体によって反射され、かつ前記ディスプレイ画面を通って戻る前記赤外線のうちの少なくとも一部分を検出することが可能である、請求項1に記載のコンピューティングデバイス。
- 前記少なくとも1つの照明源は、前記ディスプレイ画面のためのバックライトを含む、請求項1に記載のコンピューティングデバイス。
- 前記ディスプレイ画面と前記少なくとも1つの照明源および前記検出器アレイを支持する基板との間に位置付けられる赤外線透過要素をさらに備え、
前記赤外線透過要素は、可視光線が前記検出器アレイによって検出されることを防ぐ、請求項1に記載のコンピューティングデバイス。 - 前記少なくとも1つの照明源は、少なくとも2つの照明源を備え、
前記少なくとも2つの照明源は、異なる特定の時間に、異なる方向から光を放射するように起動され、
前記命令は、実行されると、さらに前記コンピューティングデバイスに、
前記特定のそれぞれの時間について、前記検出器アレイによって取り込まれた輝度データであって、前記少なくとも2つの照明源のうちの少なくとも1つによって照射され、かつ前記物体によって反射される光についての輝度データを含む、輝度データを収集させ、
前記特定の時間のそれぞれについての前記輝度データを含む統合データセットであって、前記検出器のそれぞれの前記検出器についての少なくとも統合輝度情報を含む、統合データセットを生成させ、
前記統合データセットにおける前記物体の表象を分析させて、前記コンピューティングデバイスに対する前記物体の配向をさらに決定させる、請求項1に記載のコンピューティングデバイス。 - 前記ディスプレイ画面からある距離を置いて、前記コンピューティングデバイス上に位置付けられる少なくとも1つのカメラであって、前記物体が前記少なくとも1つのカメラの視野内にあるときに、前記物体の場所または配向のうちの少なくとも1つを決定するために、前記プロセッサによって分析されることができる画像を取り込むように構成される、少なくとも1つのカメラと、前記物体が前記少なくとも1つのカメラの視野外にあるときに、前記物体の前記場所または前記配向のうちの少なくとも1つを決定するために、分析されることができる画像データを取り込むように構成される、前記検出器アレイと、をさらに備える、請求項1に記載のコンピューティングデバイス。
- 前記命令は、実行されると、さらに前記検出器アレイに、前記ディスプレイ画面の順次のアクティブ期間の合間の光を検出させる、請求項1に記載のコンピューティングデバイス。
- アクティブレイヤは、液晶材料を含み、前記液晶材料は、前記ディスプレイ画面上の光入射の少なくとも一部分が前記ディスプレイ画面を通過することができるように活性化されるように構成される、請求項1に記載のコンピューティングデバイス。
- 前記命令は、実行されると、さらに前記コンピューティングデバイスに、前記コンピューティングデバイスが前記物体によって実施されるモーションまたはジェスチャのうちの少なくとも1つを決定することができるように、前記物体を経時的に追跡させる、請求項1に記載のコンピューティングデバイス。
- 前記物体は、ユーザの指もしくは手、または前記ユーザによって保持される物体のうちの少なくとも1つを含む、請求項1に記載のコンピューティングデバイス。
- 少なくとも2つの放射体に異なる特定の時間に光を放射させることであって、前記放射体は、コンピューティングデバイスのディスプレイ画面を通って光を放射するように構成される、光を放射させることと、
前記特定の時間のそれぞれについて、検出器アレイによって取り込まれた輝度データを収集することであって、前記輝度データは、前記放射体のうちの少なくとも1つによって照射され、かつ前記コンピューティングデバイスの少なくとも検出範囲内で物体によって反射された光に対応し、前記物体によって反射された前記光は、前記検出器アレイによって検出される前に前記ディスプレイ画面を通って戻る、収集することと、
前記特定の時間についての前記輝度データを含む統合データセットであって、前記検出器アレイの中のそれぞれの検出器についての少なくとも統合された輝度データを含む、統合データセットを生成することと、
前記コンピューティングデバイスに対する前記物体の場所または配向のうちの少なくとも1つを決定するために、前記統合データセットにおける前記物体の表象を分析することと、を含む、コンピュータ実装方法。 - 命令は、実行されると、さらに前記コンピューティングデバイスに、前記コンピューティングデバイスが前記物体によって実施されるモーションまたはジェスチャのうちの少なくとも1つを決定することができるように、前記物体を経時的に追跡させる、請求項12に記載のコンピュータ実装方法。
- 前記放射体は赤外線を放射し、前記検出器アレイの前記検出器は、前記放射体によって放射される前記赤外線の反射された部分を検出し、前記赤外線は、前記ディスプレイ画面の操作の間に検出されることができる、請求項12に記載のコンピュータ実装方法。
- 前記コンピューティングデバイスは、前記ディスプレイ画面からある距離を置いて位置付けられる、少なくとも1つのカメラを含み、前記少なくとも1つのカメラは、前記物体が前記少なくとも1つのカメラの視野内にあるときに、前記物体の場所または配向のうちの少なくとも1つを決定するために、分析されることができる画像を取り込むように構成され、前記検出器アレイは、前記物体が前記少なくとも1つのカメラの視野外にあり、かつ検出範囲内にあるときに、前記物体の前記場所または前記配向のうちの少なくとも1つを決定するために、分析されることができる画像データを取り込むように構成される、請求項12に記載のコンピュータ実装方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/624,378 US20140085245A1 (en) | 2012-09-21 | 2012-09-21 | Display integrated camera array |
US13/624,378 | 2012-09-21 | ||
PCT/US2013/060457 WO2014047207A1 (en) | 2012-09-21 | 2013-09-18 | Display integrated camera array |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015529372A true JP2015529372A (ja) | 2015-10-05 |
JP6309527B2 JP6309527B2 (ja) | 2018-04-11 |
Family
ID=50338368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015533160A Active JP6309527B2 (ja) | 2012-09-21 | 2013-09-18 | ディスプレイ一体型カメラアレイ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20140085245A1 (ja) |
EP (1) | EP2898399B1 (ja) |
JP (1) | JP6309527B2 (ja) |
CN (1) | CN105027052A (ja) |
WO (1) | WO2014047207A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9383434B2 (en) * | 2013-10-01 | 2016-07-05 | Heptagon Micro Optics Pte. Ltd. | Compact opto-electronic sensor modules for detecting gestures or other movements by a user |
US9122349B1 (en) * | 2014-03-19 | 2015-09-01 | Bidirectional Display Inc. | Image sensor panel and method for capturing graphical information using same |
WO2015143011A1 (en) * | 2014-03-19 | 2015-09-24 | Bidirectional Display Inc. | Image sensor panel and method for capturing graphical information using same |
US20150309663A1 (en) * | 2014-04-28 | 2015-10-29 | Qualcomm Incorporated | Flexible air and surface multi-touch detection in mobile platform |
KR102062840B1 (ko) * | 2014-10-31 | 2020-02-11 | 삼성전자주식회사 | 양안 시차를 이용한 물체 위치 검출 장치 및 그 장치의 동작 방법 |
WO2017175265A1 (ja) * | 2016-04-04 | 2017-10-12 | Necディスプレイソリューションズ株式会社 | 座標検出方法、座標検出プログラム、及び座標検出システム |
US11416041B2 (en) | 2016-05-23 | 2022-08-16 | Microsoft Technology Licensing, Llc. | Device having display integrated infrared and visible light source |
US10122969B1 (en) | 2017-12-07 | 2018-11-06 | Microsoft Technology Licensing, Llc | Video capture systems and methods |
CN111984155B (zh) * | 2018-03-09 | 2023-07-18 | Oppo广东移动通信有限公司 | 电子装置及其制造方法 |
US10706556B2 (en) | 2018-05-09 | 2020-07-07 | Microsoft Technology Licensing, Llc | Skeleton-based supplementation for foreground image segmentation |
CN109031782B (zh) * | 2018-07-31 | 2024-03-19 | Oppo广东移动通信有限公司 | 显示屏组件、电子设备及电子设备的控制方法 |
EP3822738B1 (en) | 2018-07-31 | 2023-12-06 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Display screen assembly, electronic device, and control method for electronic device |
US11081516B2 (en) * | 2018-08-10 | 2021-08-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Display screen, electronic device and method for three-dimensional feature recognition |
US10699673B2 (en) * | 2018-11-19 | 2020-06-30 | Facebook Technologies, Llc | Apparatus, systems, and methods for local dimming in brightness-controlled environments |
US10863085B2 (en) * | 2019-02-28 | 2020-12-08 | Harman International Industries, Incorporated | Positioning and orienting cameras to extend an angle of view |
US11430407B2 (en) * | 2019-09-25 | 2022-08-30 | Vishay Semiconductor Gmbh | Under display sensors, systems and methods |
US11274930B1 (en) * | 2019-12-11 | 2022-03-15 | Amazon Technologies, Inc. | System for assessing an autonomously determined map |
CN111461069B (zh) * | 2020-04-29 | 2023-05-30 | Oppo广东移动通信有限公司 | 控制方法、电子设备及计算机可读存储介质 |
DE102020112221A1 (de) * | 2020-05-06 | 2021-11-11 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung für ein Kraftfahrzeug und Kraftfahrzeug |
CN116234191B (zh) * | 2023-02-15 | 2024-07-16 | 福建福清核电有限公司 | 图像识别单向隔离装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050057524A1 (en) * | 2003-09-16 | 2005-03-17 | Hill Douglas B. | Gesture recognition method and touch system incorporating the same |
JP2008059283A (ja) * | 2006-08-31 | 2008-03-13 | Nippon Telegr & Teleph Corp <Ntt> | 操作検出装置とそのプログラム |
JP2008224935A (ja) * | 2007-03-12 | 2008-09-25 | Seiko Epson Corp | 表示装置及び電子機器 |
WO2010038822A1 (ja) * | 2008-10-01 | 2010-04-08 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、情報記憶媒体及びプログラム |
JP2011086220A (ja) * | 2009-10-19 | 2011-04-28 | Seiko Epson Corp | 位置検出機能付き表示装置および位置検出機能付き表示装置の駆動方法 |
JP2011117750A (ja) * | 2009-12-01 | 2011-06-16 | Seiko Epson Corp | 光学式位置検出装置、ハンド装置および位置検出機能付き表示装置 |
US20120133945A1 (en) * | 2009-07-03 | 2012-05-31 | Xinlin Ye | Interactive Display Device |
WO2012124730A1 (ja) * | 2011-03-15 | 2012-09-20 | 株式会社ニコン | 検出装置、入力装置、プロジェクタ、及び電子機器 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2826443B1 (fr) * | 2001-06-21 | 2003-10-10 | Gilles Cavallucci | Procede et dispositif de detection optique de la position d'un objet |
US7407106B2 (en) * | 2004-09-28 | 2008-08-05 | Microsoft Corporation | Method and system for hiding visible infrared markings |
JP2006276223A (ja) * | 2005-03-28 | 2006-10-12 | Sony Corp | 表示装置及び表示方法 |
JP4567028B2 (ja) * | 2006-09-26 | 2010-10-20 | エルジー ディスプレイ カンパニー リミテッド | マルチタッチ感知機能を有する液晶表示装置とその駆動方法 |
US8269746B2 (en) * | 2006-11-27 | 2012-09-18 | Microsoft Corporation | Communication with a touch screen |
US7924272B2 (en) * | 2006-11-27 | 2011-04-12 | Microsoft Corporation | Infrared sensor integrated in a touch panel |
EP2153377A4 (en) * | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
WO2009104667A1 (ja) * | 2008-02-21 | 2009-08-27 | シャープ株式会社 | 光センサ付き表示装置 |
US20100060611A1 (en) * | 2008-09-05 | 2010-03-11 | Sony Ericsson Mobile Communication Ab | Touch display with switchable infrared illumination for touch position determination and methods thereof |
JP4650703B2 (ja) * | 2008-12-25 | 2011-03-16 | ソニー株式会社 | 表示パネルおよびモジュール並びに電子機器 |
AU2010204636A1 (en) * | 2009-01-14 | 2011-08-04 | Perceptive Pixel Inc. | Touch-sensitive display |
JP2012027511A (ja) * | 2009-04-23 | 2012-02-09 | Univ Of Tsukuba | 入力装置 |
KR101663034B1 (ko) * | 2009-08-26 | 2016-10-07 | 삼성디스플레이 주식회사 | 접촉 감지 기능이 있는 전기 영동 표시 장치 |
KR20110056892A (ko) * | 2009-11-23 | 2011-05-31 | 삼성전자주식회사 | Lcd 디스플레이장치의 멀티 터치 감지장치 및 이를 이용한 멀티 터치 감지방법 |
US8811948B2 (en) * | 2010-07-09 | 2014-08-19 | Microsoft Corporation | Above-lock camera access |
TWI450154B (zh) * | 2010-09-29 | 2014-08-21 | Pixart Imaging Inc | 光學觸控系統及其物件偵測方法 |
TWI524239B (zh) * | 2010-10-08 | 2016-03-01 | 友達光電股份有限公司 | 判斷觸碰位置的方法 |
US10222974B2 (en) * | 2011-05-03 | 2019-03-05 | Nokia Technologies Oy | Method and apparatus for providing quick access to device functionality |
TW201312422A (zh) * | 2011-09-07 | 2013-03-16 | Pixart Imaging Inc | 具軌跡偵測功能之光學觸控系統及方法 |
-
2012
- 2012-09-21 US US13/624,378 patent/US20140085245A1/en not_active Abandoned
-
2013
- 2013-09-18 WO PCT/US2013/060457 patent/WO2014047207A1/en active Application Filing
- 2013-09-18 CN CN201380049336.0A patent/CN105027052A/zh active Pending
- 2013-09-18 EP EP13839599.1A patent/EP2898399B1/en active Active
- 2013-09-18 JP JP2015533160A patent/JP6309527B2/ja active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050057524A1 (en) * | 2003-09-16 | 2005-03-17 | Hill Douglas B. | Gesture recognition method and touch system incorporating the same |
JP2005108211A (ja) * | 2003-09-16 | 2005-04-21 | Smart Technol Inc | ジェスチャ認識方法及びそれを組み込んだタッチシステム |
JP2008059283A (ja) * | 2006-08-31 | 2008-03-13 | Nippon Telegr & Teleph Corp <Ntt> | 操作検出装置とそのプログラム |
JP2008224935A (ja) * | 2007-03-12 | 2008-09-25 | Seiko Epson Corp | 表示装置及び電子機器 |
US20080259051A1 (en) * | 2007-03-12 | 2008-10-23 | Seiko Epson Corporation | Display device and electronic apparatus |
WO2010038822A1 (ja) * | 2008-10-01 | 2010-04-08 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、情報記憶媒体及びプログラム |
US20110210947A1 (en) * | 2008-10-01 | 2011-09-01 | Sony Computer Entertainment Inc. | Information processing apparatus, information processing method, information recording medium, and program |
US20120133945A1 (en) * | 2009-07-03 | 2012-05-31 | Xinlin Ye | Interactive Display Device |
JP2012531638A (ja) * | 2009-07-03 | 2012-12-10 | ベイジン アイルタッチ システムズ カンパニー,リミティド | 対話型ディスプレイ装置 |
JP2011086220A (ja) * | 2009-10-19 | 2011-04-28 | Seiko Epson Corp | 位置検出機能付き表示装置および位置検出機能付き表示装置の駆動方法 |
JP2011117750A (ja) * | 2009-12-01 | 2011-06-16 | Seiko Epson Corp | 光学式位置検出装置、ハンド装置および位置検出機能付き表示装置 |
WO2012124730A1 (ja) * | 2011-03-15 | 2012-09-20 | 株式会社ニコン | 検出装置、入力装置、プロジェクタ、及び電子機器 |
Also Published As
Publication number | Publication date |
---|---|
EP2898399A1 (en) | 2015-07-29 |
JP6309527B2 (ja) | 2018-04-11 |
WO2014047207A1 (en) | 2014-03-27 |
EP2898399B1 (en) | 2019-11-06 |
EP2898399A4 (en) | 2016-04-20 |
CN105027052A (zh) | 2015-11-04 |
US20140085245A1 (en) | 2014-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6309527B2 (ja) | ディスプレイ一体型カメラアレイ | |
US11100608B2 (en) | Determining display orientations for portable devices | |
US20180348988A1 (en) | Approaches for three-dimensional object display | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
RU2579952C2 (ru) | Система и способ мультисенсорного взаимодействия и подсветки на основе камеры | |
US9288471B1 (en) | Rotatable imaging assembly for providing multiple fields of view | |
JP5950130B2 (ja) | カメラ式マルチタッチ相互作用装置、システム及び方法 | |
JP6013583B2 (ja) | 有効インターフェース要素の強調のための方式 | |
US10877564B2 (en) | Approaches for displaying alternate views of information | |
US10592064B2 (en) | Approaches for three-dimensional object display used in content navigation | |
US9367951B1 (en) | Creating realistic three-dimensional effects | |
US9672627B1 (en) | Multiple camera based motion tracking | |
US8451344B1 (en) | Electronic devices with side viewing capability | |
US20150082145A1 (en) | Approaches for three-dimensional object display | |
US9389703B1 (en) | Virtual screen bezel | |
US9652083B2 (en) | Integrated near field sensor for display devices | |
CA2924496A1 (en) | Approaches for three-dimensional object display | |
US9377866B1 (en) | Depth-based position mapping | |
US9323346B2 (en) | Accurate 3D finger tracking with a single camera | |
US9251562B1 (en) | Registration of low contrast images | |
US9507429B1 (en) | Obscure cameras as input | |
Bhowmik | Natural and intuitive user interfaces with perceptual computing technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160816 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170502 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170508 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20170526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6309527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |