WO2015098211A1 - 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム - Google Patents
姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム Download PDFInfo
- Publication number
- WO2015098211A1 WO2015098211A1 PCT/JP2014/074969 JP2014074969W WO2015098211A1 WO 2015098211 A1 WO2015098211 A1 WO 2015098211A1 JP 2014074969 W JP2014074969 W JP 2014074969W WO 2015098211 A1 WO2015098211 A1 WO 2015098211A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- head
- unit
- attachment position
- position error
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1654—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/16—Use of wireless transmission of display information
Definitions
- an attachment position error measurement step for measuring an error in the attachment position of the sensor unit for detecting the posture
- An attachment position error absorbing step for correcting the posture information detected by the sensor unit based on the error of the attachment position
- a transmission step of transmitting the corrected posture information to an external device Is a posture measuring method.
- a receiving unit that receives information including posture information of the head from a head motion tracking device attached to a user's head;
- An attachment position error measuring unit for measuring an error in the attachment position of the head movement tracking device;
- An attachment position error absorbing unit that corrects posture information received from the head movement tracking device based on the error of the attachment position;
- a drawing processing unit for processing an image based on the corrected posture information;
- a transmission unit that transmits an image processed by the drawing processing unit to a display device; Is an image processing apparatus.
- the technology described in claim 17 of the present application is: Mounting position error measurement unit that measures the error of the mounting position of the sensor unit that detects the posture, An attachment position error absorbing unit that corrects the posture information detected by the sensor unit based on the error of the attachment position; A transmission unit for transmitting the corrected posture information to an external device; As a computer program written in a computer-readable format to make the computer function.
- FIG. 15 is a flowchart showing a processing procedure for calculating a correction coefficient for correcting an attachment position error of the head movement tracking device 200 by the configuration of the drawing device 300 shown in FIG.
- FIG. 16 is a diagram schematically illustrating a functional configuration in which the display position 400 of the image display system 100 illustrated in FIG. 2 is equipped with an attachment position error measurement function and an attachment position error absorption function.
- FIG. 17 is a flowchart showing a processing procedure for calculating a correction coefficient for correcting an attachment position error of the head movement tracking device 200 by the configuration of the display device 400 shown in FIG.
- FIG. 18 is a diagram for explaining a mechanism for displaying an image following the movement of the user's head on the display device 400 in the image display system 100 shown in FIG. 1 or 2.
- the posture angle calculation unit 202 calculates the posture information of the user's head based on the nine-axis detection result by the sensor unit 201.
- the transmission unit 203 transmits the obtained posture information to the drawing apparatus 300.
- posture information is expressed as a rotation matrix.
- the head movement tracking apparatus 200 may output the detection result such as the gravity vector of the sensor unit 201 as it is from the transmission unit 203 instead of outputting the posture information expressed by the rotation matrix.
- the head movement tracking device 200 and the drawing device 300 are interconnected by wireless communication such as Bluetooth (registered trademark) communication.
- wireless communication such as Bluetooth (registered trademark) communication.
- the head movement tracking device 200 and the drawing device 300 may be connected via a high-speed wired interface such as a USB (Universal Serial Bus).
- the receiving unit 301 receives posture information from the head movement tracking device 200 via Bluetooth (registered trademark) communication or the like. As described above, the posture information is represented by a rotation matrix.
- an image obtained by cutting out a display angle of view corresponding to the posture information of the user's head from an omnidirectional original image or a wide-angle original image such as 4K is rendered.
- the display area in the original image moves so as to cancel the posture angle of the user's head. Therefore, an image following the movement of the head can be reproduced, and the user can have an experience overlooking the large screen.
- the display device 400 may change the output of the sound in accordance with the movement of the image.
- the head movement tracking device 200 can be mounted in the main body 41 of the display device 400 configured as a head-mounted display. However, in the present embodiment, the head movement tracking device 200 is provided as an optional product externally attached to the display device 400 in order to reduce the size, weight, and cost of the display device 400.
- the head movement tracking device 200 is used as an accessory attached to any place such as the upper band 44, the lower band 45, and the forehead support portion 42 of the display device 400, for example.
- the user's head The posture cannot be detected correctly.
- reference numeral 701 in FIG. 7 even if the user swings his / her head around the y w axis (yaw), the head motion tracking device 200 cannot detect the rotation as the y axis.
- the display device 400 cannot present an image that follows the movement of the user's head, or presents an image that causes discomfort to the user.
- the head movement tracking device 200 When the head movement tracking device 200 is mounted in the main body 41 of the display device 400 configured as a head-mounted display, it is assumed that the user wears the head-mounted display in the same manner every time. Calibration of the mounting position of the part motion tracking device 200 may be performed once.
- a user wearing the head movement tracking device 200 faces the front and stops still.
- head motion tracking device 200 in this state to measure the gravity vector, as indicated by reference numeral 1001 in FIG. 10, the vector G G over that corresponds to the vertical direction of the user is detected.
- vector G G On vector G G, as shown by reference numeral 1101 in FIG. 11, corresponding to upward i.e. y w axis of the user's reference axis. Further, as indicated by reference numeral 1102 in FIG. 11, the vector G F ′ corresponds to the forward direction, that is, the z w axis on the user's reference axis. In this way, the two axes y w and z w of the user's reference axes are determined.
- x w axis shown by reference numeral 1103 in FIG. 11 can be obtained by product computation of y w and z w. Therefore, the user's reference axis x w (x w (x), x w (y), x w (z)) viewed from the reference axis xyz of the head movement tracking device 200 can also be determined.
- FIG. 12 schematically shows a functional configuration of the head movement tracking device 200 having an attachment position error measurement function and an attachment position error absorption function.
- the attachment position error measurement function unit 1201 monitors the gravity vector measured by the sensor unit 201.
- FIG. 14 schematically shows a functional configuration of a drawing apparatus 300 having an attachment position error measurement function and an attachment position error absorption function.
- the mounting position error measurement unit 1401 in the drawing apparatus 300, the display device 400 in synchronization with the timing of displaying the message, the gravity vector received from the head motion tracking device 200 i.e. before the vector G F or obliquely forward vector based on the G SF, to determine the reference axis z w-axis of the user on the coordinate system xyz of head motion tracking device 200 (step S1504).
- the attachment position error of the head movement tracking device 200 can be corrected by a simple method for the user.
- the user When measuring the mounting position error of the head movement tracking device 200 in the image display system 100, the user only needs to take two postures: facing the front and two directions above or diagonally above. It is easy for the user to take a front-facing posture. In addition, it is difficult for the user to face directly above, but it is easy if the user faces obliquely upward. Further, the posture in which the user faces obliquely upward may not be strict.
- the mounting position error measurement unit measures the gravity vector G G in response to the instruction to display or voice output of the message prompting to face squarely user to said display device, said display in response to measuring the gravitational vector G F or G SF that instructs to display or voice output of the message prompting to face directly above or obliquely above to the user device,
- the image processing apparatus according to (12) above.
- the mounting position error measurement unit measures a deviation of the reference axis of the head movement tracking device with respect to the reference axis of the user,
- the mounting position error absorbing unit corrects the posture information received from the head movement tracking device based on the deviation,
- the display device any one of (15) to (17).
- the attachment position error measurement unit measures an error of the attachment position based on a gravity vector received from the head movement tracking device when the user takes two postures, respectively.
Abstract
Description
姿勢を検出するセンサー部と、
前記センサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報を外部装置に送信する送信部と、
を具備する姿勢測定装置である。
姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報を外部装置に送信する送信ステップと、
を有する姿勢測定方法である。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示装置に送信する送信部と、
を具備する画像処理装置である。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信ステップと、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報に基づいて画像を処理する描画処理ステップと、
前記描画処理部が処理した画像を表示装置に送信する送信ステップと、
を有する画像処理方法である。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示する表示部と、
を具備する、前記ユーザーの頭部又は顔部に固定して用いられる表示装置である。
姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報を外部装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示する表示部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
ユーザーの頭部の姿勢を測定する頭部動作追跡装置と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定機能と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置で測定した姿勢情報を補正する取り付け位置誤差吸収機能と、
前記補正した姿勢情報に基づいて画像をレンダリングする描画装置と、
前記描画装置でレンダリングした画像を表示する表示装置と、
を具備する画像表示システムである。
(1)姿勢を検出するセンサー部と、
前記センサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報を外部装置に送信する送信部と、
を具備する姿勢測定装置。
(2)ユーザーの頭部に装着して用いられ、
前記センサー部は、前記頭部の姿勢を検出し、
前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記センサー部が検出した姿勢情報を補正する、
上記(1)に記載の姿勢測定装置。
(3)ユーザーの頭部に装着して用いられ、
前記送信部は、前記ユーザーの頭部の動きに追従する画像をレンダリングする前記外部装置に前記補正した姿勢情報を送信する、
上記(1)又は(2)のいずれかに記載の姿勢測定装置。
(4)前記センサー部は重力ベクトルを検出することができ、
前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ検出された重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
上記(2)に記載の姿勢測定装置。
(5)前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
上記(4)に記載の姿勢測定装置。
(6)前記取り付け位置誤差測定部は、表示装置がユーザーに正面を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGGを測定し、前記表示装置がユーザーに真上又は斜め上を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGF又はGSFを測定する、
上記(5)に記載の姿勢測定装置。
(7)姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報を外部装置に送信する送信ステップと、
を有する姿勢測定方法。
(8)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示装置に送信する送信部と、
を具備する画像処理装置。
(9)前記描画処理部は、前記姿勢情報に基づいて、前記ユーザーの頭部の動きに追従する画像をレンダリングする、
上記(8)に記載の画像処理装置。
(10)前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記頭部動作追跡装置の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する、
上記(8)又は(9)のいずれかに記載の画像処理装置。
(11)前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ前記頭部動作追跡装置から受信した重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
上記(8)乃至(10)のいずれかに記載の画像処理装置。
(12)前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
上記(11)に記載の画像処理装置。
(13)前記取り付け位置誤差測定部は、前記表示装置に対してユーザーに正面を向くように促すメッセージの表示又は音声出力を指示したことに応答して前記重力ベクトルGGを測定し、前記表示装置にユーザーに真上又は斜め上を向くように促すメッセージの表示又は音声出力を指示したことに応答して前記重力ベクトルGF又はGSFを測定する、
上記(12)に記載の画像処理装置。
(14)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信ステップと、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報に基づいて画像を処理する描画処理ステップと、
前記描画処理部が処理した画像を表示装置に送信する送信ステップと、
を有する画像処理方法。
(15)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示する表示部と、
を具備する表示装置。
(16)前記表示部の表示画面を前記ユーザーの頭部又は顔部に固定して用いられる、上記(15)に記載の表示装置。
(17)前記描画処理部は、前記姿勢情報に基づいて、前記ユーザーの頭部の動きに追従する画像をレンダリングする、
上記(15)又は(16)のいずれかに記載の表示装置。
(18)前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記頭部動作追跡装置の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する、
上記(15)乃至(17)のいずれかに記載の表示装置。
(19)前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ前記頭部動作追跡装置から受信した重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
上記(18)に記載の表示装置。
(20)前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
上記(19)に記載の表示装置。
(21)前記取り付け位置誤差測定部は、ユーザーに正面を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGGを測定し、ユーザーに真上又は斜め上を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGF又はGSFを測定する、
上記(20)に記載の表示装置。
(22)姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報を外部装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(23)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(24)ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示する表示部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム
(25)ユーザーの頭部の姿勢を測定する頭部動作追跡装置と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定機能と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置で測定した姿勢情報を補正する取り付け位置誤差吸収機能と、
前記補正した姿勢情報に基づいて画像をレンダリングする描画装置と、
前記描画装置でレンダリングした画像を表示する表示装置と、
を具備する画像表示システム。
44…上バンド、45…下バンド
100…画像表示システム
200…頭部動作追跡装置、201…センサー部、202…姿勢角演算部
203…送信部
300…描画装置、301…受信部、302…描画処理部、303…送信部
304…画像ソース
400…表示装置、401…受信部、402…表示部
Claims (20)
- 姿勢を検出するセンサー部と、
前記センサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報を外部装置に送信する送信部と、
を具備する姿勢測定装置。 - ユーザーの頭部に装着して用いられ、
前記センサー部は、前記頭部の姿勢を検出し、
前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記センサー部の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記センサー部が検出した姿勢情報を補正する、
請求項1に記載の姿勢測定装置。 - ユーザーの頭部に装着して用いられ、
前記送信部は、前記ユーザーの頭部の動きに追従する画像をレンダリングする前記外部装置に前記補正した姿勢情報を送信する、
請求項1に記載の姿勢測定装置。 - 前記センサー部は重力ベクトルを検出することができ、
前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ検出された重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
請求項2に記載の姿勢測定装置。 - 前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
請求項4に記載の姿勢測定装置。 - 前記取り付け位置誤差測定部は、表示装置がユーザーに正面を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGGを測定し、前記表示装置がユーザーに真上又は斜め上を向くように促すメッセージを表示又は音声出力したことに応答して前記重力ベクトルGF又はGSFを測定する、
請求項5に記載の姿勢測定装置。 - 姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報を外部装置に送信する送信ステップと、
を有する姿勢測定方法。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示装置に送信する送信部と、
を具備する画像処理装置。 - 前記描画処理部は、前記姿勢情報に基づいて、前記ユーザーの頭部の動きに追従する画像をレンダリングする、
請求項8に記載の画像処理装置。 - 前記取り付け位置誤差測定部は、前記ユーザーの基準軸に対する前記頭部動作追跡装置の基準軸のずれを測定し、
前記取り付け位置誤差吸収部は、前記ずれに基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する、
請求項8に記載の画像処理装置。 - 前記取り付け位置誤差測定部は、前記ユーザーが2つの姿勢をとったときにそれぞれ前記頭部動作追跡装置から受信した重力ベクトルに基づいて、前記取り付け位置の誤差を測定する、
請求項10に記載の画像処理装置。 - 前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
請求項11に記載の画像処理装置。 - 前記取り付け位置誤差測定部は、前記表示装置に対してユーザーに正面を向くように促すメッセージの表示又は音声出力を指示したことに応答して前記重力ベクトルGGを測定し、前記表示装置にユーザーに真上又は斜め上を向くように促すメッセージの表示又は音声出力を指示したことに応答して前記重力ベクトルGF又はGSFを測定する、
請求項12に記載の画像処理装置。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信ステップと、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定ステップと、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収ステップと、
前記補正した姿勢情報に基づいて画像を処理する描画処理ステップと、
前記描画処理部が処理した画像を表示装置に送信する送信ステップと、
を有する画像処理方法。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部と、
前記補正した姿勢情報に基づいて画像を処理する描画処理部と、
前記描画処理部が処理した画像を表示する表示部と、
を具備する、前記ユーザーの頭部又は顔部に固定して用いられる表示装置。 - 前記取り付け位置誤差測定部は、前記ユーザーが正面を向いたときの重力ベクトルGGに基づいて前記センサー部の基準軸xyzに対する前記ユーザーの基準軸yw軸を確定し、前記ユーザーが真上を向いたときの重力ベクトルGF又は前記ユーザーが斜め上を向いたときの重力ベクトルGSFに基づいて前記センサーの基準軸xyzに対する前記ユーザーの基準軸zw軸を確定するとともに、前記yw軸と前記zw軸の外積演算により前記ユーザーの基準軸のxw軸を確定し、前記センサーの基準軸xyzと前記ユーザーの基準軸xwywzwとの関係に基づいて変換マトリックスMを算出し、
前記取り付け位置誤差吸収部は、前記センサー部が検出した姿勢情報を表す回転マトリックスMRに前記変換マトリックスMを乗算して前記取り付け位置の誤差を補正する、
請求項15に記載の表示装置。 - 姿勢を検出するセンサー部の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記センサー部が検出した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報を外部装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示装置に送信する送信部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。 - ユーザーの頭部に取り付けられた頭部動作追跡装置から前記頭部の姿勢情報を含む情報を受信する受信部、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定部、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置から受信した姿勢情報を補正する取り付け位置誤差吸収部、
前記補正した姿勢情報に基づいて画像を処理する描画処理部、
前記描画処理部が処理した画像を表示する表示部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム - ユーザーの頭部の姿勢を測定する頭部動作追跡装置と、
前記頭部動作追跡装置の取り付け位置の誤差を測定する取り付け位置誤差測定機能と、
前記取り付け位置の誤差に基づいて、前記頭部動作追跡装置で測定した姿勢情報を補正する取り付け位置誤差吸収機能と、
前記補正した姿勢情報に基づいて画像をレンダリングする描画装置と、
前記描画装置でレンダリングした画像を表示する表示装置と、
を具備する画像表示システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14875665.3A EP3054266A4 (en) | 2013-12-25 | 2014-09-19 | Orientation measurement device, orientation measurement method, image processing device, image processing method, display device, display method, computer program, and image display system |
JP2015554606A JP6447514B2 (ja) | 2013-12-25 | 2014-09-19 | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム |
US15/025,679 US10185389B2 (en) | 2013-12-25 | 2014-09-19 | Posture measuring device, posture measuring method, image processing device, image processing method, and image display system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-268015 | 2013-12-25 | ||
JP2013268015 | 2013-12-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015098211A1 true WO2015098211A1 (ja) | 2015-07-02 |
Family
ID=53478093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/074969 WO2015098211A1 (ja) | 2013-12-25 | 2014-09-19 | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10185389B2 (ja) |
EP (1) | EP3054266A4 (ja) |
JP (1) | JP6447514B2 (ja) |
WO (1) | WO2015098211A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017112138A1 (en) * | 2015-12-21 | 2017-06-29 | Intel Corporation | Direct motion sensor input to rendering pipeline |
WO2018025467A1 (ja) * | 2016-08-04 | 2018-02-08 | ソニー株式会社 | 情報処理装置、情報処理方法、および、情報媒体 |
KR102176769B1 (ko) * | 2019-06-03 | 2020-11-09 | 주식회사 바딧 | 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
KR102176767B1 (ko) * | 2019-06-03 | 2020-11-09 | 주식회사 바딧 | 사용자의 특정 동작을 통해 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
JP2021089678A (ja) * | 2019-12-05 | 2021-06-10 | 未來市股▲ふん▼有限公司 | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 |
US11061469B2 (en) | 2019-11-20 | 2021-07-13 | XRSpace CO., LTD. | Head mounted display system and rotation center correcting method thereof |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10222619B2 (en) * | 2015-07-12 | 2019-03-05 | Steven Sounyoung Yu | Head-worn image display apparatus for stereoscopic microsurgery |
US9703102B2 (en) * | 2015-08-28 | 2017-07-11 | Tomy Company Ltd. | Information processing device including head mounted display |
KR20170079198A (ko) * | 2015-12-30 | 2017-07-10 | 엘지전자 주식회사 | 이동 단말기 및 그의 동작 방법 |
CN109491087B (zh) | 2017-09-11 | 2022-09-20 | 杜比实验室特许公司 | 用于ar/vr/mr的模块化拆卸式可穿戴装置 |
JP6976907B2 (ja) | 2018-06-22 | 2021-12-08 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及び情報処理方法 |
WO2020023369A1 (en) * | 2018-07-23 | 2020-01-30 | Cornell University | Joint position error test systems and methods |
JP7162989B2 (ja) * | 2019-02-04 | 2022-10-31 | 株式会社ミツトヨ | 一次元測定機及びプログラム |
CN112904996B (zh) * | 2019-12-04 | 2023-05-12 | 上海交通大学 | 车载抬头显示设备画面补偿方法及装置、存储介质和终端 |
KR20220102436A (ko) * | 2021-01-13 | 2022-07-20 | 삼성전자주식회사 | 웨어러블 전자 장치의 가속도 센서를 이용하여 사용자의 자세를 판단하는 방법 및 그 전자 장치 |
CN114979615A (zh) * | 2022-05-11 | 2022-08-30 | 闪耀现实(无锡)科技有限公司 | 用于在头戴显示设备显示画面的方法、装置及电子设备 |
CN116243880B (zh) * | 2023-05-11 | 2023-07-25 | 江苏泽景汽车电子股份有限公司 | 一种图像展示方法、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09106322A (ja) | 1995-10-09 | 1997-04-22 | Data Tec:Kk | ヘッドマウントディスプレイにおける姿勢角検出装置 |
JP2005107248A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | データ変換方法及び装置並びに姿勢計測装置 |
JP2009296228A (ja) * | 2008-06-04 | 2009-12-17 | Nikon Corp | ヘッドマウントディスプレイ装置 |
JP2010074228A (ja) * | 2008-09-16 | 2010-04-02 | Nikon Corp | 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法 |
JP2010256534A (ja) | 2009-04-23 | 2010-11-11 | Fujifilm Corp | 全方位画像表示用ヘッドマウントディスプレイ装置 |
JP2012141461A (ja) | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
US8576143B1 (en) * | 2010-12-20 | 2013-11-05 | Google Inc. | Head mounted display with deformation sensors |
WO2013179427A1 (ja) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5373857A (en) * | 1993-06-18 | 1994-12-20 | Forte Technologies, Inc. | Head tracking apparatus |
US7383728B2 (en) * | 2005-07-13 | 2008-06-10 | Ultimate Balance, Inc. | Orientation and motion sensing in athletic training systems, physical rehabilitation and evaluation systems, and hand-held devices |
US20100259471A1 (en) * | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
-
2014
- 2014-09-19 JP JP2015554606A patent/JP6447514B2/ja not_active Expired - Fee Related
- 2014-09-19 EP EP14875665.3A patent/EP3054266A4/en not_active Ceased
- 2014-09-19 US US15/025,679 patent/US10185389B2/en not_active Expired - Fee Related
- 2014-09-19 WO PCT/JP2014/074969 patent/WO2015098211A1/ja active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09106322A (ja) | 1995-10-09 | 1997-04-22 | Data Tec:Kk | ヘッドマウントディスプレイにおける姿勢角検出装置 |
JP2005107248A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | データ変換方法及び装置並びに姿勢計測装置 |
JP2009296228A (ja) * | 2008-06-04 | 2009-12-17 | Nikon Corp | ヘッドマウントディスプレイ装置 |
JP2010074228A (ja) * | 2008-09-16 | 2010-04-02 | Nikon Corp | 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法 |
JP2010256534A (ja) | 2009-04-23 | 2010-11-11 | Fujifilm Corp | 全方位画像表示用ヘッドマウントディスプレイ装置 |
US8576143B1 (en) * | 2010-12-20 | 2013-11-05 | Google Inc. | Head mounted display with deformation sensors |
JP2012141461A (ja) | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
WO2013179427A1 (ja) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3054266A4 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10096149B2 (en) | 2015-12-21 | 2018-10-09 | Intel Corporation | Direct motion sensor input to rendering pipeline |
WO2017112138A1 (en) * | 2015-12-21 | 2017-06-29 | Intel Corporation | Direct motion sensor input to rendering pipeline |
CN109803735B (zh) * | 2016-08-04 | 2021-10-08 | 索尼互动娱乐股份有限公司 | 信息处理装置、信息处理方法和信息介质 |
WO2018025467A1 (ja) * | 2016-08-04 | 2018-02-08 | ソニー株式会社 | 情報処理装置、情報処理方法、および、情報媒体 |
JPWO2018025467A1 (ja) * | 2016-08-04 | 2019-03-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、玩具システム、玩具、および、情報媒体 |
CN109803735A (zh) * | 2016-08-04 | 2019-05-24 | 索尼互动娱乐股份有限公司 | 信息处理装置、信息处理方法和信息介质 |
US11567499B2 (en) | 2016-08-04 | 2023-01-31 | Sony Interactive Entertainment Inc. | Information processing apparatus, information processing method, and information medium |
JP6995754B2 (ja) | 2016-08-04 | 2022-01-17 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、玩具システム、玩具、および、情報媒体 |
KR102176767B1 (ko) * | 2019-06-03 | 2020-11-09 | 주식회사 바딧 | 사용자의 특정 동작을 통해 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
WO2020246714A1 (ko) * | 2019-06-03 | 2020-12-10 | 주식회사 바딧 | 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
KR102176769B1 (ko) * | 2019-06-03 | 2020-11-09 | 주식회사 바딧 | 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
US11061469B2 (en) | 2019-11-20 | 2021-07-13 | XRSpace CO., LTD. | Head mounted display system and rotation center correcting method thereof |
JP2021089678A (ja) * | 2019-12-05 | 2021-06-10 | 未來市股▲ふん▼有限公司 | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6447514B2 (ja) | 2019-01-09 |
US10185389B2 (en) | 2019-01-22 |
US20160291688A1 (en) | 2016-10-06 |
EP3054266A1 (en) | 2016-08-10 |
EP3054266A4 (en) | 2017-08-09 |
JPWO2015098211A1 (ja) | 2017-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6447514B2 (ja) | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム | |
US10310595B2 (en) | Information processing apparatus, information processing method, computer program, and image processing system | |
US10591731B2 (en) | Ocular video stabilization | |
US20170036111A1 (en) | Head position detecting apparatus and head position detecting method, image processing apparatus and image processing method, display apparatus, and computer program | |
US8970495B1 (en) | Image stabilization for color-sequential displays | |
EP3029550B1 (en) | Virtual reality system | |
CN106062826B (zh) | 图像生成装置以及图像生成方法 | |
WO2017077918A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
EP3008548B1 (en) | Head-mountable apparatus and systems | |
US11314323B2 (en) | Position tracking system for head-mounted displays that includes sensor integrated circuits | |
US20150097772A1 (en) | Gaze Signal Based on Physical Characteristics of the Eye | |
US20170131763A1 (en) | Image processing device and image processing method, display device and display method, computer program, and image display system | |
WO2016013272A1 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
WO2016002657A1 (ja) | 画像生成装置および画像生成方法 | |
JP2018055589A (ja) | プログラム、物体の追跡方法、表示装置 | |
JP7435596B2 (ja) | ヘッドマウントディスプレイシステム、ステレオ画像を撮像するように動作可能であるステレオ深度カメラ、および、ステレオ画像を撮像するように動作可能であるステレオ深度カメラを提供する方法 | |
GB2523554A (en) | Head-mountable apparatus and systems | |
WO2018123074A1 (ja) | 撮影装置 | |
WO2014069090A1 (ja) | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム | |
JP6515512B2 (ja) | 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム | |
US20230008009A1 (en) | Adjusting content of a head mounted display | |
US11954269B2 (en) | Information processing apparatus, information processing method, and program for generating location data | |
JP6503407B2 (ja) | コンテンツ表示プログラム、コンピュータ装置、コンテンツ表示方法、及びコンテンツ表示システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14875665 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2015554606 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15025679 Country of ref document: US |
|
REEP | Request for entry into the european phase |
Ref document number: 2014875665 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2014875665 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |