JP2020525956A - コンピュータ媒介現実用の表示装置 - Google Patents
コンピュータ媒介現実用の表示装置 Download PDFInfo
- Publication number
- JP2020525956A JP2020525956A JP2019572674A JP2019572674A JP2020525956A JP 2020525956 A JP2020525956 A JP 2020525956A JP 2019572674 A JP2019572674 A JP 2019572674A JP 2019572674 A JP2019572674 A JP 2019572674A JP 2020525956 A JP2020525956 A JP 2020525956A
- Authority
- JP
- Japan
- Prior art keywords
- display device
- laser sensor
- sensor module
- movable object
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001404 mediated effect Effects 0.000 title description 2
- 230000033001 locomotion Effects 0.000 claims abstract description 64
- 238000005259 measurement Methods 0.000 claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims abstract description 6
- 230000004044 response Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 26
- 238000001454 recorded image Methods 0.000 claims description 20
- 238000005305 interferometry Methods 0.000 claims description 18
- 239000007787 solid Substances 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 4
- 210000003128 head Anatomy 0.000 description 20
- 238000004891 communication Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 6
- 230000005855 radiation Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000005265 energy consumption Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000004886 head movement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
自己混合干渉測定によって参照オブジェクトに対する可動オブジェクトの動きを割り出すように構成された少なくとも第1のレーザセンサモジュールと、
視野を表示するための表示デバイスと
を備え、
表示デバイスは、割り出された可動オブジェクトの動きに応じて、視野内に少なくとも1つの仮想オブジェクトを統合するように構成されている。
自己混合干渉測定によって参照オブジェクトに対する可動オブジェクトの動きを割り出すステップと、
割り出された動きに従って視野に少なくとも1つの仮想オブジェクトを統合するステップと
を含む。
20 可動オブジェクト
62 ピッチ
64 ヨー
66 移動
100 表示装置
110 表示デバイス
121 第1のレーザセンサモジュール
121a 第1のレーザセンサモジュールの第1の測定ビーム
121b 第1のレーザセンサモジュールの第2の測定ビーム
121c 第1のレーザセンサモジュールの第3の測定ビーム
122 第2のレーザセンサモジュール
122a 第2のレーザセンサモジュールの第1の測定ビーム
122b 第2のレーザセンサモジュールの第2の測定ビーム
122c 第2のレーザセンサモジュールの第3の測定ビーム
125 センサ光学系
130 コントローラ
132 コントローラメモリデバイス
134 コントローラ処理デバイス
140 フレーム
150 カメラデバイス
152 視野
155 カメラ光学系
160 無線通信インターフェース
180 壁
210 画像を記録するステップ
220 動きを割り出すステップ
230 記録された画像を表示するステップ
240 仮想オブジェクトを統合するステップ
250 仮想オブジェクトの位置を調整するステップ
Claims (13)
- 可動オブジェクト(20)に結合されるように構成された表示装置(100)であって、
自己混合干渉測定によって前記可動オブジェクト(20)に機械的に結合した参照オブジェクト(10、180)に対する前記可動オブジェクトの動きを割り出すように構成され、当該表示装置(100)が前記可動オブジェクト(20)に結合されたときに少なくとも3つの測定ビーム(121a、121b、121c)を前記参照オブジェクト(10)へと3つの異なる空間方向に放射するように構成され、前記空間方向と同一直線上にある速度ベクトルまたは距離を割り出すように構成された少なくとも第1のレーザセンサモジュール(121)と、
視野(152)を表示するための表示デバイス(110)と
を備えており、
前記表示デバイス(110)は、前記割り出された前記可動オブジェクト(20)の動きに応じて、前記視野(152)内に少なくとも1つの仮想オブジェクトを統合するように構成されている、表示装置(100)。 - 前記視野(152)内に前記少なくとも1つの仮想オブジェクトを統合するように構成されたコントローラ(130)をさらに備え、前記コントローラは、前記割り出された前記可動オブジェクトの動きに基づいて前記視野(152)における前記仮想オブジェクトの位置を調整するようにさらに構成されている、請求項1に記載の表示装置(100)。
- 画像を記録することによって前記可動オブジェクト(20)の前記視野(152)を定めるように構成されたカメラデバイス(150)をさらに備え、前記表示デバイス(110)は、前記割り出された前記可動オブジェクト(20)の動きに応じて、前記記録された画像の少なくとも一部分および前記少なくとも1つの仮想オブジェクトを表示するように構成されている、請求項1または2に記載の表示装置(100)。
- 前記コントローラ(130)は、前記記録された画像の前記少なくとも一部分に前記少なくとも1つの仮想オブジェクトを統合するようにさらに構成され、前記コントローラは、前記割り出された前記可動オブジェクト(20)の動きに基づいて、前記表示された画像における前記仮想オブジェクトの位置を調整するようにさらに構成されている、請求項2に従属するときの請求項3に記載の表示装置。
- 前記第1のレーザセンサモジュール(121)は、前記視野(152)と比べて当該表示装置(100)の周りの仮想の球の異なる立体角に前記少なくとも3つの測定ビーム(121a、121b、121c)を放射するように構成されている、請求項1から4のいずれか一項に記載の表示装置(100)。
- 前記第1のレーザセンサモジュール(121)は、レーザセンサのアレイを備え、前記レーザセンサのアレイは、異なる方向に複数の測定ビームを放射するように構成され、前記コントローラ(130)は、当該表示装置(100)が前記可動オブジェクト(20)に結合されたときに前記レーザセンサのアレイのうちの少なくとも3つのレーザセンサによってもたらされる自己混合干渉測定に基づいて、前記可動オブジェクト(20)の動きを割り出すように構成されている、請求項1から5のいずれか一項に記載の表示装置(100)。
- 当該表示装置(100)が前記可動オブジェクト(20)に結合されたときに自己混合干渉測定によって前記可動オブジェクト(20)の動きを割り出すように構成された少なくとも第2のレーザセンサモジュール(122)を備え、前記第2のレーザセンサモジュール(122)は、前記第1のレーザセンサモジュール(121)と比べて当該表示装置(100)の周りの仮想の球の異なる立体角に少なくとも3つの測定ビーム(122a、122b、122c)を放射するように構成されている、請求項5に記載の表示装置(100)。
- 前記コントローラ(130)は、前記第1のレーザセンサモジュール(121)または前記第2のレーザセンサモジュール(122)によって受信される自己混合干渉信号に応じて前記第1のレーザセンサモジュール(121)または前記第2のレーザセンサモジュール(122)をオンまたはオフにするように構成されている、請求項7に記載の表示装置(100)。
- 前記第2のレーザセンサモジュール(122)は、当該表示装置(100)が前記可動オブジェクト(20)に結合されたときに少なくとも3つの測定ビーム(122a、122b、122c)を前記参照オブジェクト(10)へと放射するように構成され、前記参照オブジェクト(10)は、前記可動オブジェクト(20)に機械的に結合しており、前記コントローラ(130)は、前記第1のレーザセンサモジュール(121)または前記第2のレーザセンサモジュール(122)によって決定される自己混合干渉信号によって割り出される動きに応じて、前記第1のレーザセンサモジュール(121)または前記第2のレーザセンサモジュール(122)をオンまたはオフにするように構成されている、請求項8に記載の表示装置(100)。
- 前記可動オブジェクト(20)は、ユーザの頭部であり、前記表示デバイス(110)は、ユーザの少なくとも一方の目に近接させて配置されるように構成されている、請求項1から9のいずれか一項に記載の表示装置(100)。
- 当該表示装置(100)は、前記表示デバイス(110)を備える携帯デバイスであり、前記携帯デバイスは、前記カメラデバイス(150)をさらに備え、前記カメラデバイス(150)によって定められる前記視野(152)は、前記表示デバイス(110)と比べて反対の方向にあり、前記第1のレーザセンサモジュール(121)は、前記表示デバイス(110)を見つめるユーザの方向に前記少なくとも3つの測定ビーム(121a、121b、121c)を放射するように構成され、前記可動オブジェクト(20)は、前記ユーザの手である、請求項3または請求項3に従属するときの請求項4から10のいずれか一項に記載の表示装置(100)。
- 少なくとも1つの仮想オブジェクトを含む画像を提供する方法であって、
表示装置(100)が可動オブジェクト(20)に結合されたときに、前記表示装置(100)によって少なくとも3つの測定ビーム(121a、121b、121c)を、前記可動オブジェクト(20)に機械的に結合している参照オブジェクト(10、180)へと3つの異なる空間方向に放射するステップと、
前記放射された少なくとも3つの測定ビーム(121a、121b、121c)に基づく自己混合干渉測定によって、前記空間方向と同一直線上にある速度ベクトルまたは距離を割り出すことにより、前記参照オブジェクト(10、180)に対する前記可動オブジェクト(20)の動きを割り出すステップと、
前記割り出された動きに応じて、視野(152)内に前記少なくとも1つの仮想オブジェクトを統合するステップと
を含む方法。 - 請求項1から11のいずれか一項に記載の表示装置(100)に含まれる少なくとも1つのメモリデバイスに保存することができる符号手段を含んでいるコンピュータプログラム製品であって、
前記符号手段は、請求項12に記載の方法を前記表示装置(100)に含まれる少なくとも1つの処理デバイスによって実行できるように構成されている、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17178445.7 | 2017-06-28 | ||
EP17178445.7A EP3422147A1 (en) | 2017-06-28 | 2017-06-28 | Display apparatus for computer-mediated reality |
PCT/EP2018/067152 WO2019002316A1 (en) | 2017-06-28 | 2018-06-26 | DISPLAY APPARATUS FOR COMPUTER-AIDED REALITY |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020525956A true JP2020525956A (ja) | 2020-08-27 |
Family
ID=59285012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019572674A Pending JP2020525956A (ja) | 2017-06-28 | 2018-06-26 | コンピュータ媒介現実用の表示装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11093031B2 (ja) |
EP (2) | EP3422147A1 (ja) |
JP (1) | JP2020525956A (ja) |
KR (1) | KR20200023434A (ja) |
CN (1) | CN110799929B (ja) |
WO (1) | WO2019002316A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018214637A1 (de) * | 2018-08-29 | 2020-03-05 | Robert Bosch Gmbh | Verfahren zum Ermitteln einer Blickrichtung eines Auges |
CN113168732A (zh) * | 2018-12-03 | 2021-07-23 | 麦克赛尔株式会社 | 增强现实显示装置和增强现实显示方法 |
CN111442758A (zh) * | 2020-03-27 | 2020-07-24 | 云南电网有限责任公司玉溪供电局 | 一种带增距望远功能的激光测速测距装置和方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000314774A (ja) * | 1999-05-06 | 2000-11-14 | Nissan Motor Co Ltd | 車両用レーザレーダ装置 |
EP1980999A1 (en) * | 2007-04-10 | 2008-10-15 | Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO | An augmented reality image system, a method and a computer program product |
JP2011511262A (ja) * | 2007-09-18 | 2011-04-07 | コンチネンタル・テベス・アーゲー・ウント・コンパニー・オーハーゲー | 車両の動作を検知するためのセンサ装置および方法 |
JP2012525578A (ja) * | 2009-04-29 | 2012-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 光学的車両レーザ検出システム |
US20140015381A1 (en) * | 2012-07-10 | 2014-01-16 | Seiko Epson Corporation | Oscillation piece, oscillator, electronic device, electronic apparatus, and mobile object |
JP2016520891A (ja) * | 2013-03-15 | 2016-07-14 | マジック リープ, インコーポレイテッド | 表示システムおよび方法 |
JP2016525802A (ja) * | 2013-08-02 | 2016-08-25 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 調節可能な偏光を有するレーザデバイス |
CN106680827A (zh) * | 2016-11-04 | 2017-05-17 | 乐视控股(北京)有限公司 | 一种密闭空间中的定位系统以及相关方法和装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6233045B1 (en) * | 1998-05-18 | 2001-05-15 | Light Works Llc | Self-mixing sensor apparatus and method |
EP1334463B1 (en) | 2000-11-06 | 2010-03-31 | Koninklijke Philips Electronics N.V. | Method of measuring the movement of an input device. |
RU2595794C2 (ru) * | 2010-11-03 | 2016-08-27 | Конинклейке Филипс Электроникс Н.В. | Устройство определения скорости |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US8611015B2 (en) * | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US9297996B2 (en) * | 2012-02-15 | 2016-03-29 | Microsoft Technology Licensing, Llc | Laser illumination scanning |
EP2698602A1 (de) * | 2012-08-16 | 2014-02-19 | Leica Geosystems AG | Handhaltbares Entfernungsmessgerät mit Winkelbestimmungseinheit |
US9702977B2 (en) * | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
BR112015024910A2 (pt) * | 2013-03-26 | 2017-07-18 | Seiko Epson Corp | dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição |
US9746921B2 (en) * | 2014-12-31 | 2017-08-29 | Sony Interactive Entertainment Inc. | Signal generation and detector systems and methods for determining positions of fingers of a user |
-
2017
- 2017-06-28 EP EP17178445.7A patent/EP3422147A1/en not_active Withdrawn
-
2018
- 2018-06-26 KR KR1020207002642A patent/KR20200023434A/ko active Search and Examination
- 2018-06-26 WO PCT/EP2018/067152 patent/WO2019002316A1/en unknown
- 2018-06-26 EP EP18739757.5A patent/EP3646147B1/en active Active
- 2018-06-26 CN CN201880042916.XA patent/CN110799929B/zh active Active
- 2018-06-26 JP JP2019572674A patent/JP2020525956A/ja active Pending
-
2019
- 2019-12-27 US US16/728,034 patent/US11093031B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000314774A (ja) * | 1999-05-06 | 2000-11-14 | Nissan Motor Co Ltd | 車両用レーザレーダ装置 |
EP1980999A1 (en) * | 2007-04-10 | 2008-10-15 | Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO | An augmented reality image system, a method and a computer program product |
JP2011511262A (ja) * | 2007-09-18 | 2011-04-07 | コンチネンタル・テベス・アーゲー・ウント・コンパニー・オーハーゲー | 車両の動作を検知するためのセンサ装置および方法 |
JP2012525578A (ja) * | 2009-04-29 | 2012-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 光学的車両レーザ検出システム |
US20140015381A1 (en) * | 2012-07-10 | 2014-01-16 | Seiko Epson Corporation | Oscillation piece, oscillator, electronic device, electronic apparatus, and mobile object |
JP2016520891A (ja) * | 2013-03-15 | 2016-07-14 | マジック リープ, インコーポレイテッド | 表示システムおよび方法 |
JP2016525802A (ja) * | 2013-08-02 | 2016-08-25 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 調節可能な偏光を有するレーザデバイス |
CN106680827A (zh) * | 2016-11-04 | 2017-05-17 | 乐视控股(北京)有限公司 | 一种密闭空间中的定位系统以及相关方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3646147A1 (en) | 2020-05-06 |
US20200160566A1 (en) | 2020-05-21 |
CN110799929A (zh) | 2020-02-14 |
US11093031B2 (en) | 2021-08-17 |
EP3646147B1 (en) | 2021-01-27 |
WO2019002316A1 (en) | 2019-01-03 |
CN110799929B (zh) | 2024-01-30 |
EP3422147A1 (en) | 2019-01-02 |
KR20200023434A (ko) | 2020-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110352364B (zh) | 多光谱照射和传感器模块 | |
US10643389B2 (en) | Mechanism to give holographic objects saliency in multiple spaces | |
US11044402B1 (en) | Power management for optical position tracking devices | |
US20180046874A1 (en) | System and method for marker based tracking | |
KR102408318B1 (ko) | 실세계 객체들의 가상 표현들 | |
US11127380B2 (en) | Content stabilization for head-mounted displays | |
Welch et al. | Motion tracking: No silver bullet, but a respectable arsenal | |
US9035970B2 (en) | Constraint based information inference | |
US9105210B2 (en) | Multi-node poster location | |
CN111108462B (zh) | 用于头戴式显示系统的测距和附件跟踪 | |
US7826641B2 (en) | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features | |
US20190204599A1 (en) | Head-mounted display device with electromagnetic sensor | |
JP2019505926A (ja) | 拡張現実のためのシステムおよび方法 | |
US11093031B2 (en) | Display apparatus for computer-mediated reality | |
JP2015536514A (ja) | Imuを用いた直接ホログラム操作 | |
US11540747B2 (en) | Apparatus and a method for passive scanning of an object or a scene | |
US20230244312A1 (en) | Detection device and detection method | |
US20190176341A1 (en) | Movable robot capable of providing a projected interactive user interface | |
CN116808567B (zh) | 一种基于虚拟现实的模拟行走系统 | |
US20230206622A1 (en) | Information processing device, information processing method, and program | |
US20230408696A1 (en) | Systems and methods for tracking three-dimensional objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220215 |