JP6447514B2 - 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム - Google Patents
姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム Download PDFInfo
- Publication number
- JP6447514B2 JP6447514B2 JP2015554606A JP2015554606A JP6447514B2 JP 6447514 B2 JP6447514 B2 JP 6447514B2 JP 2015554606 A JP2015554606 A JP 2015554606A JP 2015554606 A JP2015554606 A JP 2015554606A JP 6447514 B2 JP6447514 B2 JP 6447514B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- reference axis
- axis
- head
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000005259 measurement Methods 0.000 title claims description 94
- 238000012545 processing Methods 0.000 title claims description 93
- 238000004590 computer program Methods 0.000 title claims description 16
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000000691 measurement method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 title description 50
- 239000013598 vector Substances 0.000 claims description 157
- 230000004886 head movement Effects 0.000 claims description 133
- 230000033001 locomotion Effects 0.000 claims description 105
- 230000005484 gravity Effects 0.000 claims description 88
- 239000011159 matrix material Substances 0.000 claims description 78
- 230000005540 biological transmission Effects 0.000 claims description 30
- 230000009466 transformation Effects 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 239000000047 product Substances 0.000 claims description 19
- 238000010521 absorption reaction Methods 0.000 claims description 14
- 239000006227 byproduct Substances 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 7
- 230000001360 synchronised effect Effects 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 152
- 230000036544 posture Effects 0.000 description 134
- 230000006870 function Effects 0.000 description 56
- 238000005516 engineering process Methods 0.000 description 22
- 238000012937 correction Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000004044 response Effects 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 210000001061 forehead Anatomy 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1654—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/16—Use of wireless transmission of display information
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Controls And Circuits For Display Device (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- User Interface Of Digital Computer (AREA)
Description
姿勢を検出するセンサー部と、
前記センサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報を外部装置に送信する送信部と、
を具備する姿勢測定装置である。
姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報を外部装置に送信する送信ステップと、
を有する姿勢測定方法である。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示装置に送信する送信部と、
を具備する画像処理装置である。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信ステップと、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報に基づいて画像を処理する描画処理ステップと、
前記描画処理部が処理した画像を表示装置に送信する送信ステップと、
を有する画像処理方法である。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示する表示部と、
を具備する、前記ユーザーの頭部又は顔部に固定して用いられる表示装置である。
姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報を外部装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示する表示部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
ユーザーの頭部の姿勢を測定する頭部動作追跡装置と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定機能と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置で測定した姿勢情報を補正する取り付け位置誤差吸収機能と、
前記補正した姿勢情報に基づいて画像をレンダリングする描画装置と、
前記描画装置でレンダリングした画像を表示する表示装置と、
を具備する画像表示システムである。
(1)姿勢を検出するセンサー部と、
前記センサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報を外部装置に送信する送信部と、
を具備する姿勢測定装置。
(2)ユーザーの頭部に装着して用いられ、
前記センサー部は、前記頭部の姿勢を検出し、
前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記センサー部が検出した姿勢情報を補正する、
上記(1)に記載の姿勢測定装置。
(3)ユーザーの頭部に装着して用いられ、
前記送信部は、前記ユーザーの頭部の動きに追従する画像をレンダリングする前記外部装置に前記補正した姿勢情報を送信する、
上記(1)又は(2)のいずれかに記載の姿勢測定装置。
(4)前記センサー部は重力ベクトルを検出することができ、
前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ検出された重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
上記(2)に記載の姿勢測定装置。
(5)前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
上記(4)に記載の姿勢測定装置。
(6)前記取り付け位置誤差測定部は、表示装置がユーザーに正面を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGGを測定し、前記表示装置がユーザーに真上又は斜め上を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGF又はGSFを測定する、
上記(5)に記載の姿勢測定装置。
(7)姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報を外部装置に送信する送信ステップと、
を有する姿勢測定方法。
(8)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示装置に送信する送信部と、
を具備する画像処理装置。
(9)前記描画処理部は、前記姿勢情報に基づいて、前記ユーザーの頭部の動きに追従する画像をレンダリングする、
上記(8)に記載の画像処理装置。
(10)前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記頭部動作追跡装置の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する、
上記(8)又は(9)のいずれかに記載の画像処理装置。
(11)前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ前記頭部動作追跡装置から受信した重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
上記(8)乃至(10)のいずれかに記載の画像処理装置。
(12)前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
上記(11)に記載の画像処理装置。
(13)前記取り付け位置誤差測定部は、前記表示装置に対してユーザーに正面を向くように促すメッセージの表示又は音声出力を指示したことに応答して前記重力ベクトルGGを測定し、前記表示装置にユーザーに真上又は斜め上を向くように促すメッセージの表示又は音声出力を指示したことに応答して前記重力ベクトルGF又はGSFを測定する、
上記(12)に記載の画像処理装置。
(14)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信ステップと、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報に基づいて画像を処理する描画処理ステップと、
前記描画処理部が処理した画像を表示装置に送信する送信ステップと、
を有する画像処理方法。
(15)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示する表示部と、
を具備する表示装置。
(16)前記表示部の表示画面を前記ユーザーの頭部又は顔部に固定して用いられる、上記(15)に記載の表示装置。
(17)前記描画処理部は、前記姿勢情報に基づいて、前記ユーザーの頭部の動きに追従する画像をレンダリングする、
上記(15)又は(16)のいずれかに記載の表示装置。
(18)前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記頭部動作追跡装置の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する、
上記(15)乃至(17)のいずれかに記載の表示装置。
(19)前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ前記頭部動作追跡装置から受信した重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
上記(18)に記載の表示装置。
(20)前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
上記(19)に記載の表示装置。
(21)前記取り付け位置誤差測定部は、ユーザーに正面を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGGを測定し、ユーザーに真上又は斜め上を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGF又はGSFを測定する、
上記(20)に記載の表示装置。
(22)姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報を外部装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(23)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(24)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示する表示部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム
(25)ユーザーの頭部の姿勢を測定する頭部動作追跡装置と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定機能と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置で測定した姿勢情報を補正する取り付け位置誤差吸収機能と、
前記補正した姿勢情報に基づいて画像をレンダリングする描画装置と、
前記描画装置でレンダリングした画像を表示する表示装置と、
を具備する画像表示システム。
44…上バンド、45…下バンド
100…画像表示システム
200…頭部動作追跡装置、201…センサー部、202…姿勢角演算部
203…送信部
300…描画装置、301…受信部、302…描画処理部、303…送信部
304…画像ソース
400…表示装置、401…受信部、402…表示部
Claims (13)
- ユーザーの頭部に装着して用いられ、
ユーザーの頭部の姿勢を検出するセンサー部と、
前記センサー部の取り付け位置の誤差に起因する前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定する取り付け位置誤差測定部と、
前記ずれに基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報を外部装置に送信する送信部と、
を具備し、
前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
姿勢測定装置。 - 前記送信部は、前記ユーザーの頭部の動きに追従する画像をレンダリングする前記外部装置に前記補正した姿勢情報を送信する、
請求項1に記載の姿勢測定装置。 - 前記取り付け位置誤差測定部は、表示装置がユーザーに正面を向くように促すメッセージを表示又は音声出力したことに同期して前記重力ベクトルG G を測定し、前記表示装置がユーザーに真上又は斜め上を向くように促すメッセージを表示又は音声出力したことに同期して前記重力ベクトルG F 又はG SF を測定する、
請求項1に記載の姿勢測定装置。 - ユーザーの頭部の姿勢を検出するセンサー部の取り付け位置の誤差に起因する前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報を外部装置に送信する送信ステップと、
を有し、
前記取り付け位置誤差測定ステップでは、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収ステップでは、前記センサー部が検出した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
姿勢測定方法。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差に起因する前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定する取り付け位置誤差測定部と、
前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示装置に送信する送信部と、
を具備し、
前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
画像処理装置。 - 前記描画処理部は、前記姿勢情報に基づいて、前記ユーザーの頭部の動きに追従する画像をレンダリングする、
請求項5に記載の画像処理装置。 - 前記取り付け位置誤差測定部は、前記表示装置に対してユーザーに正面を向くように促すメッセージの表示又は音声出力を指示したことに同期して前記重力ベクトルG G を測定し、前記表示装置にユーザーに真上又は斜め上を向くように促すメッセージの表示又は音声出力を指示したことに同期して前記重力ベクトルG F 又はG SF を測定する、
請求項5に記載の画像処理装置。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信ステップと、
前記頭部動作追跡装置の取り付け位置の誤差に起因する前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報に基づいて画像を処理する描画処理ステップと、
前記描画処理部が処理した画像を表示装置に送信する送信ステップと、
を有し、
前記取り付け位置誤差測定ステップでは、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収ステップでは、前記センサー部が検出した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
画像処理方法。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示する表示部と、
を具備し、
前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記頭部動作追跡装置の基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記頭部動作追跡装置が測定した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
前記ユーザーの頭部又は顔部に固定して用いられる表示装置。 - 姿勢を検出するセンサー部の取り付け位置の誤差に起因する前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定する取り付け位置誤差測定部、
前記ずれに基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報を外部装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
コンピューター・プログラム。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差に起因する前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定する取り付け位置誤差測定部、
前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記頭部動作追跡装置の基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記頭部動作追跡装置が測定した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
コンピューター・プログラム。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示する表示部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記頭部動作追跡装置の基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記頭部動作追跡装置が検出した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
コンピューター・プログラム - ユーザーの頭部の姿勢を測定する頭部動作追跡装置と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定機能と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置で測定した姿勢情報を補正する取り付け位置誤差吸収機能と、
前記補正した姿勢情報に基づいて画像をレンダリングする描画装置と、
前記描画装置でレンダリングした画像を表示する表示装置と、
を具備し、
前記取り付け位置誤差測定機能により、前記ユーザーが正面を向いたときの重力ベクトルG G に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸y w 軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルG F 又は前記ユーザーが斜め上を向いたときの重力ベクトルG SF に基づいて前記頭部動作追跡装置の基準軸xyzに対する前記ユーザーの基準軸z w 軸を確定するとともに、前記y w 軸と前記z w 軸の外積演算により前記ユーザーの基準軸のx w 軸を確定し、前記頭部動作追跡装置の基準軸xyzと前記ユーザーの基準軸x w y w z w との関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収機能により、前記頭部動作追跡装置が測定した姿勢情報を表す回転マトリックスM R に前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
画像表示システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013268015 | 2013-12-25 | ||
JP2013268015 | 2013-12-25 | ||
PCT/JP2014/074969 WO2015098211A1 (ja) | 2013-12-25 | 2014-09-19 | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015098211A1 JPWO2015098211A1 (ja) | 2017-03-23 |
JP6447514B2 true JP6447514B2 (ja) | 2019-01-09 |
Family
ID=53478093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015554606A Expired - Fee Related JP6447514B2 (ja) | 2013-12-25 | 2014-09-19 | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10185389B2 (ja) |
EP (1) | EP3054266A4 (ja) |
JP (1) | JP6447514B2 (ja) |
WO (1) | WO2015098211A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022154373A1 (ko) * | 2021-01-13 | 2022-07-21 | 삼성전자 주식회사 | 웨어러블 전자 장치의 가속도 센서를 이용하여 사용자의 자세를 판단하는 방법 및 그 전자 장치 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10222619B2 (en) * | 2015-07-12 | 2019-03-05 | Steven Sounyoung Yu | Head-worn image display apparatus for stereoscopic microsurgery |
JP5944600B1 (ja) * | 2015-08-28 | 2016-07-05 | 株式会社タカラトミー | 頭部装着型ディスプレイを備えた情報処理装置 |
US10096149B2 (en) * | 2015-12-21 | 2018-10-09 | Intel Corporation | Direct motion sensor input to rendering pipeline |
KR20170079198A (ko) * | 2015-12-30 | 2017-07-10 | 엘지전자 주식회사 | 이동 단말기 및 그의 동작 방법 |
US11567499B2 (en) * | 2016-08-04 | 2023-01-31 | Sony Interactive Entertainment Inc. | Information processing apparatus, information processing method, and information medium |
CN115327780A (zh) | 2017-09-11 | 2022-11-11 | 杜比实验室特许公司 | 用于ar/vr/mr的模块化拆卸式可穿戴装置 |
JP6976907B2 (ja) | 2018-06-22 | 2021-12-08 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及び情報処理方法 |
WO2020023369A1 (en) * | 2018-07-23 | 2020-01-30 | Cornell University | Joint position error test systems and methods |
JP7162989B2 (ja) * | 2019-02-04 | 2022-10-31 | 株式会社ミツトヨ | 一次元測定機及びプログラム |
WO2020246714A1 (ko) * | 2019-06-03 | 2020-12-10 | 주식회사 바딧 | 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
WO2020246713A1 (ko) * | 2019-06-03 | 2020-12-10 | 주식회사 바딧 | 사용자의 특정 동작을 통해 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
US11061469B2 (en) | 2019-11-20 | 2021-07-13 | XRSpace CO., LTD. | Head mounted display system and rotation center correcting method thereof |
CN112904996B (zh) * | 2019-12-04 | 2023-05-12 | 上海交通大学 | 车载抬头显示设备画面补偿方法及装置、存储介质和终端 |
JP2021089678A (ja) * | 2019-12-05 | 2021-06-10 | 未來市股▲ふん▼有限公司 | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 |
CN114979615A (zh) * | 2022-05-11 | 2022-08-30 | 闪耀现实(无锡)科技有限公司 | 用于在头戴显示设备显示画面的方法、装置及电子设备 |
CN116243880B (zh) * | 2023-05-11 | 2023-07-25 | 江苏泽景汽车电子股份有限公司 | 一种图像展示方法、电子设备及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5373857A (en) * | 1993-06-18 | 1994-12-20 | Forte Technologies, Inc. | Head tracking apparatus |
JPH09106322A (ja) | 1995-10-09 | 1997-04-22 | Data Tec:Kk | ヘッドマウントディスプレイにおける姿勢角検出装置 |
JP4218952B2 (ja) * | 2003-09-30 | 2009-02-04 | キヤノン株式会社 | データ変換方法及び装置 |
WO2007008930A2 (en) * | 2005-07-13 | 2007-01-18 | Ultimate Balance, Inc. | Orientation and motion sensing in athletic training systems, physical rehabilitation and evaluation systems, and hand-held devices |
US20100259471A1 (en) * | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
JP5428261B2 (ja) * | 2008-09-16 | 2014-02-26 | 株式会社ニコン | 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法 |
JP2009296228A (ja) * | 2008-06-04 | 2009-12-17 | Nikon Corp | ヘッドマウントディスプレイ装置 |
JP2010256534A (ja) | 2009-04-23 | 2010-11-11 | Fujifilm Corp | 全方位画像表示用ヘッドマウントディスプレイ装置 |
US8576143B1 (en) * | 2010-12-20 | 2013-11-05 | Google Inc. | Head mounted display with deformation sensors |
JP2012141461A (ja) | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
WO2013179427A1 (ja) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 |
-
2014
- 2014-09-19 JP JP2015554606A patent/JP6447514B2/ja not_active Expired - Fee Related
- 2014-09-19 EP EP14875665.3A patent/EP3054266A4/en not_active Ceased
- 2014-09-19 WO PCT/JP2014/074969 patent/WO2015098211A1/ja active Application Filing
- 2014-09-19 US US15/025,679 patent/US10185389B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022154373A1 (ko) * | 2021-01-13 | 2022-07-21 | 삼성전자 주식회사 | 웨어러블 전자 장치의 가속도 센서를 이용하여 사용자의 자세를 판단하는 방법 및 그 전자 장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2015098211A1 (ja) | 2015-07-02 |
US10185389B2 (en) | 2019-01-22 |
EP3054266A1 (en) | 2016-08-10 |
EP3054266A4 (en) | 2017-08-09 |
JPWO2015098211A1 (ja) | 2017-03-23 |
US20160291688A1 (en) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6447514B2 (ja) | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム | |
US10591731B2 (en) | Ocular video stabilization | |
JP6540691B2 (ja) | 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム | |
US10310595B2 (en) | Information processing apparatus, information processing method, computer program, and image processing system | |
US10269139B2 (en) | Computer program, head-mounted display device, and calibration method | |
US8970495B1 (en) | Image stabilization for color-sequential displays | |
KR102275589B1 (ko) | 헤드-마운티드 디스플레이에서의 환경적 인터럽트 및 비 시야 리얼 에스테이트의 이용 | |
CN106062826B (zh) | 图像生成装置以及图像生成方法 | |
EP3008548B1 (en) | Head-mountable apparatus and systems | |
WO2017077918A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
JP6642430B2 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
US20170131763A1 (en) | Image processing device and image processing method, display device and display method, computer program, and image display system | |
JP6465672B2 (ja) | 情報処理装置および情報処理方法 | |
KR20200106547A (ko) | 센서 집적 회로들을 포함하는 머리-착용 디스플레이들에 대한 위치 추적 시스템 | |
JP7435596B2 (ja) | ヘッドマウントディスプレイシステム、ステレオ画像を撮像するように動作可能であるステレオ深度カメラ、および、ステレオ画像を撮像するように動作可能であるステレオ深度カメラを提供する方法 | |
GB2523554A (en) | Head-mountable apparatus and systems | |
WO2018123074A1 (ja) | 撮影装置 | |
JP6515512B2 (ja) | 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム | |
JP2016140017A (ja) | 情報処理装置、表示装置、および情報処理方法 | |
KR20200115631A (ko) | 멀티뷰잉 가상 현실 사용자 인터페이스 | |
WO2014069090A1 (ja) | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム | |
US20220382390A1 (en) | Information processing apparatus, information processing method, and program | |
JP6503407B2 (ja) | コンテンツ表示プログラム、コンピュータ装置、コンテンツ表示方法、及びコンテンツ表示システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181119 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6447514 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |