WO2015098292A1 - 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム - Google Patents

画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム Download PDF

Info

Publication number
WO2015098292A1
WO2015098292A1 PCT/JP2014/079205 JP2014079205W WO2015098292A1 WO 2015098292 A1 WO2015098292 A1 WO 2015098292A1 JP 2014079205 W JP2014079205 W JP 2014079205W WO 2015098292 A1 WO2015098292 A1 WO 2015098292A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
image
series data
predicted
unit
Prior art date
Application number
PCT/JP2014/079205
Other languages
English (en)
French (fr)
Inventor
山本 祐輝
河本 献太
洋一 廣田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP14875678.6A priority Critical patent/EP3089154B1/en
Priority to KR1020167008121A priority patent/KR102208329B1/ko
Priority to CN201480054842.3A priority patent/CN105593924B/zh
Priority to JP2015554644A priority patent/JP6439702B2/ja
Priority to US15/026,766 priority patent/US10324523B2/en
Publication of WO2015098292A1 publication Critical patent/WO2015098292A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Definitions

  • the technology disclosed in the present specification relates to an image processing apparatus, an image processing method, a computer program, and an image display system that process an image following the movement of a user's head.
  • the head-mounted display has an image display unit for each of the left and right eyes, for example, and is configured to be used in combination with headphones to control vision and hearing.
  • the head-mounted display can also project different images to the left and right eyes, and can display a 3D image by displaying an image with parallax for the left and right eyes.
  • This type of head-mounted display forms a virtual image on the retina of the eye and allows the user to observe it.
  • the virtual image can be formed on the object side when the object is closer to the lens than the focal length.
  • a wide viewing angle optical system is disposed in front of the pupil by 25 millimeters, and a display panel having an effective pixel range of about 0.7 inches is disposed further in front of the wide viewing angle optical system.
  • Proposals have been made on head-mounted displays (see, for example, Patent Document 1).
  • wide-angle images can be viewed using this type of head-mounted display.
  • a head-mounted display that has a head motion tracking device consisting of a gyro sensor, etc. attached to the head so that the user can feel 360 degree images of the entire space following the movement of the user's head has been proposed.
  • a head motion tracking device consisting of a gyro sensor, etc. attached to the head so that the user can feel 360 degree images of the entire space following the movement of the user's head.
  • Patent Document 2 and Patent Document 3 By moving the display area so as to cancel the movement of the head detected by the gyro sensor, the user observes the image following the movement of his / her head, and can view the entire space.
  • the head-mounted display preferably presents an image that follows the movement of the user's head movement with a shorter delay time.
  • the delay time is long, the feeling that the image follows the movement of the head is deteriorated. There is also concern that users will get sick.
  • An object of the technology disclosed in the present specification is to provide an excellent image processing apparatus capable of suitably processing an image following the movement of a part or all of a body such as a user's head or hands, feet, and hips. And an image processing method, a computer program, and an image display system.
  • a receiving unit for receiving time-series data from an external device A predicted time calculation unit that calculates a predicted time from a time when the latest one of the data received in the past is generated in the external device to a display time of the next image; A time-series data prediction unit for predicting time-series data at the prediction time; A rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit; Is an image processing apparatus.
  • the time-series data prediction unit of the image processing apparatus includes a configuration for interpolating between two time-series data, and The system is configured to extrapolate the destination and to predict the time-series data ahead by the prediction time.
  • the image processing device further includes a transmission unit that transmits the rendered image to a display device.
  • the image processing apparatus further includes a display unit that displays the rendered image.
  • the external device tracks the position or posture of a part or all of the body of the user who observes the image.
  • the receiving unit of the image processing device according to claim 1 receives posture information as time-series data from the external device, and the drawing processing unit is configured to detect a part of a user's body or based on the posture information. It is configured to render an image that follows all movements.
  • the predicted time calculation unit of the image processing apparatus displays the image based on the attitude information after transmitting the attitude information by the external device.
  • the predicted time is calculated based on the total amount of delay until.
  • the total delay amount is based on a transmission delay when transmitting posture information from the external device, and posture information. It includes a rendering delay when rendering an image and a display delay when displaying the rendered image.
  • the prediction time calculation unit of the image processing apparatus calculates the total delay amount by decomposing into a steady delay that can be measured and a variable delay that cannot be measured. Is configured to do.
  • variable delay includes a variation in transmission delay.
  • the receiving unit of the image processing apparatus expresses the position or posture of a part or all of the user's body as time series data from the external device. Is configured to receive quaternions.
  • the time-series data prediction unit of the image processing apparatus includes a configuration in which two quaternions are linearly interpolated, and extrapolates two quaternions.
  • the quaternion ahead by the predicted time is predicted.
  • the time-series data prediction unit of the image processing apparatus includes a configuration in which two quaternions are spherically linearly interpolated, and the two quaternions are excluded from the tip. In other words, the quaternion ahead by the predicted time is predicted.
  • the technique according to claim 13 of the present application is A receiving unit for receiving time-series data from an external device; A predicted time calculation unit that calculates a predicted time from the time added in the external device to the latest of the data received in the past to the display time of the next image; A time-series data prediction unit for predicting time-series data at the prediction time; A rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit; Is an image processing apparatus.
  • a receiving unit for receiving time-series data from an external device A predicted time calculation unit that calculates a predicted time from the latest transmission time from the external device to the display time of the next image in the data received in the past; A time-series data prediction unit for predicting time-series data at the prediction time; A rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit; Is an image processing apparatus.
  • the technique described in claim 15 of the present application is: A receiving step for receiving time-series data from an external device; A predicted time calculation step of calculating a predicted time from the time when the latest data received in the past is generated in the external device to the display time of the next image; A time-series data prediction step of predicting time-series data at the prediction time; A rendering process step for rendering an image based on the time-series data predicted in the prediction step; Is an image processing method.
  • the technique described in claim 16 of the present application is: A receiving unit for receiving time-series data from an external device; A predicted time calculation unit that calculates a predicted time from the time when the latest data received in the past is generated in the external device to the display time of the next image; A time-series data prediction unit that predicts time-series data in the prediction time; A rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit; As a computer program written in a computer-readable format to make the computer function.
  • the computer program according to claim 16 of the present application defines a computer program written in a computer-readable format so as to realize predetermined processing on a computer.
  • a cooperative operation is exhibited on the computer, and the same effect as the image processing apparatus according to claim 1 of the present application is obtained. be able to.
  • the technology described in claim 17 of the present application is: An external device that transmits time-series data; A drawing device that receives time-series data and renders an image; A display device for displaying an image rendered by the drawing device; Comprising The drawing device predicts a predicted time from a time when the latest data received in the past is generated in the external device to a display time of the next image, predicts time-series data in the predicted time, Render the image based on the predicted time series data, An image display system.
  • system here refers to a logical collection of a plurality of devices (or functional modules that realize specific functions), and each device or functional module is in a single housing. It does not matter whether or not.
  • the external device is a position or posture of a part or all of a user's body observing the display image of the display unit.
  • the tracking device that tracks the posture transmits the posture information, and the drawing device is configured to render an image that follows the movement of part or all of the user's body based on the received posture information.
  • the tracking device transmits a quaternion expressing a position or posture of a part or all of a user's body
  • the drawing apparatus is configured to predict the quaternion ahead by the prediction time by extrapolating the two quaternions ahead and performing spherical linear interpolation, and render the image based on the predicted quaternions.
  • an excellent image processing apparatus capable of suitably processing an image following the movement of a part or all of a body such as a user's head or hands, feet, and hips. And an image processing method, a computer program, and an image display system can be provided.
  • posture information after a certain time is predicted from a time series of posture information with variation in transmission delay, and image rendering processing is executed based on the predicted posture information. Can reduce the delay in sensation when observing an image following the movement of the head.
  • FIG. 1 is a diagram schematically illustrating a configuration example of an image display system 100 to which the technology disclosed in this specification is applied.
  • FIG. 2 is a diagram showing a delay that occurs when displaying image data following the user's head movement in the image display system 100.
  • FIG. 3 is a diagram schematically showing a delay model in the image display system 100.
  • FIG. 4 is a diagram showing the quaternion q.
  • FIG. 5 is a diagram for explaining a method of linearly interpolating between two quaternions.
  • FIG. 6 is a diagram for explaining a method of spherical linear interpolation between two quaternions.
  • FIG. 7 is a diagram illustrating a configuration example of a drawing apparatus 300 to which a posture information prediction algorithm is applied.
  • FIG. 8 is a diagram showing a time-series graph of quaternion prediction results.
  • FIG. 9 is a diagram showing a modification of the image display system 100.
  • FIG. 10 is a timing chart
  • FIG. 1 schematically shows a configuration example of an image display system 100 to which the technology disclosed in this specification is applied.
  • the illustrated image display system 100 includes a head motion tracking device 200, a drawing device 300, and a display device 400.
  • the head movement tracking device 200 is used by being mounted on the head of the user who observes the image displayed on the display device 400, and outputs the posture angle of the user's head to the drawing device 200 at a predetermined transmission cycle.
  • the head movement tracking device 200 includes a sensor unit 201, a posture angle calculation unit 202, and a transmission unit 203 that transmits the obtained posture information to the drawing device 300.
  • the sensor unit 201 is configured by combining a plurality of sensor elements such as a gyro sensor, an acceleration sensor, and a geomagnetic sensor, for example.
  • a sensor capable of detecting a total of nine axes including a three-axis gyro sensor, a three-axis acceleration sensor, and a three-axis geomagnetic sensor.
  • the posture angle calculation unit 202 calculates the posture angle of the user's head based on the nine-axis detection result by the sensor unit 201.
  • the transmission unit 203 transmits the obtained posture information to the drawing apparatus 300.
  • the posture angle is expressed as a quaternion.
  • a quaternion is a quaternion consisting of a rotation axis (vector) and a rotation angle (scalar).
  • the head movement tracking device 200 may transmit information representing the posture angle in a format other than the quaternion to the drawing device 300. Alternatively, as shown in FIG.
  • the head movement tracking device 200 outputs the detection result of the sensor unit 201 as it is from the transmission unit 203, and the drawing device 300 is equipped with the posture angle calculation unit 202 to track the head movement.
  • the attitude angle may be calculated from the sensor information received from the device 200.
  • the head movement tracking device 200 and the drawing device 300 are interconnected by wireless communication such as Bluetooth (registered trademark) communication.
  • wireless communication such as Bluetooth (registered trademark) communication.
  • the head movement tracking device 200 and the drawing device 300 communicate asynchronously, and the clocks are not synchronized with each other.
  • the head movement tracking device 200 and the drawing device 300 may be connected via a high-speed wired interface such as a USB (Universal Serial Bus).
  • a transmission delay occurs when transmitting posture information from the head movement tracking device 200 to the drawing device 300.
  • Bluetooth (registered trademark) communication is used for communication with various devices
  • a protocol is formulated for each type of device and standardized as a profile.
  • SPP Serial Port Profile
  • Android registered trademark
  • SPP Serial Port Profile
  • the SPP has a wide sampling rate and tends to cause indefinite delay.
  • the drawing device 300 performs a rendering process of an image displayed on the display device 400.
  • the drawing device 300 is configured as an Android (registered trademark) -equipped terminal such as a smartphone, a personal computer, or a game machine, but is not limited thereto.
  • the drawing device 300 includes a receiving unit 301 that receives posture information from the head movement tracking device 200, a drawing processing unit 302 that performs image rendering processing based on the posture information, and a display device that displays the rendered image.
  • a transmission unit 302 that transmits data to 400 and an image source 304 that serves as a supply source of image data are provided.
  • the receiving unit 301 receives posture information from the head movement tracking device 200 via Bluetooth (registered trademark) communication or the like. As described above, the posture information is expressed in quaternions.
  • the image source 304 includes, for example, a media playback device that plays back recording media such as Blu-ray (registered trademark), a broadcast tuner that selects and receives digital broadcast signals, a communication interface that receives image content from an Internet server, and the like.
  • a media playback device that plays back recording media such as Blu-ray (registered trademark)
  • a broadcast tuner that selects and receives digital broadcast signals
  • a communication interface that receives image content from an Internet server, and the like.
  • the rendering processing unit 302 renders an image to be displayed on the display device 400 side from the image data of the image source 304.
  • the drawing processing unit 302 cuts out a partial region corresponding to the posture information received by the receiving unit 301 from an omnidirectional original image supplied from the image source 304 or a high-resolution original image such as 4K. Render the image.
  • the drawing device 300 and the display device 400 are connected by a wired cable such as HDMI (registered trademark) (High Definition Multimedia Interface) or MHL (Mobile High-definition Link). Or you may connect by wireless communication like wirelessHD or Miracast.
  • the transmission unit 303 transmits the image data rendered by the drawing processing unit 302 to the display device 400 without compression using any of the communication paths.
  • the display device 400 includes a receiving unit 401 that receives an image from the drawing device 300 and a display unit 402 that displays the received image.
  • the display device 400 is configured as, for example, a head-mounted display that is fixed to the head or face of a user who observes an image.
  • the receiving unit 401 receives uncompressed image data from the drawing apparatus 300 via a communication path such as HDMI (registered trademark) or MHL.
  • the display unit 402 displays the received image data on the screen.
  • the display unit 402 When the display device 400 is configured as a head-mounted display, for example, the display unit 402 includes left and right screens fixed to the left and right eyes of the user, and displays a left-eye image and a right-eye image. .
  • the screen of the display unit 402 is composed of a display panel such as an organic EL (Electro-Luminescence) element or a micro display such as a liquid crystal display, or a laser scanning display such as a direct retina display.
  • a virtual image optical unit that enlarges and projects the display image of the display unit 402 and allows the user to observe the image as an enlarged virtual image having a predetermined angle of view is provided.
  • an image obtained by cutting out a part of the area corresponding to the posture information of the user's head from a high-resolution original image such as an omnidirectional original image or 4K is rendered.
  • the display area in the original image moves so as to cancel the posture angle of the user's head. Therefore, the user observes an image following the movement of his / her head, and can look around the large screen.
  • the image display system 100 is configured by three independent devices, that is, the head motion tracking device 200, the drawing device 300, and the display device 400, but the drawing device 300 and the display device 400 are included.
  • a configuration in which the head movement tracking device 200, the drawing device 300, and the display device 400 are all incorporated in one device is also conceivable.
  • the display device 400 can be reduced in size, weight, and cost.
  • the display delay 23 generated when the drawing data is displayed on the display device 400 is considered as a main factor of the delay time.
  • FIG. 3 schematically shows a delay model for transmission from the head movement tracking device 200 to the drawing device 300 in the image display system 100.
  • the head movement tracking device 200 calculates posture information (quaternion) of the user's head from the detection result by the sensor unit 201, and outputs it at a predetermined transmission period ⁇ t period as in the data series indicated by reference numeral 31. To do.
  • the transmission delay when transmitting the posture information from the head movement tracking device 200 to the drawing device 300 is constant, the posture information generated at the time of transmission in each transmission cycle is as in the data series indicated by the reference number 32.
  • the drawing apparatus 300 is always reached after a certain transmission delay ⁇ t transmit . That is, each posture information is received at equal intervals.
  • the transmission delay includes a steady component and a variation component, the transmission delay is different every time as in the data series indicated by reference numeral 33.
  • ⁇ t i transmit be the transmission delay that occurs during the i-th transmission. For example, when a protocol such as Bluetooth (registered trademark) communication SPP is used for transmission from the head movement tracking device 200 to the drawing device 400, it is assumed that the transmission delay varies.
  • the display device 400 preferably presents an image that follows the movement of the user's head with a shorter delay time.
  • the delay time is long, the feeling that the image follows the movement of the head is deteriorated. There is also concern that users will get sick.
  • the posture information arriving at the drawing device 300 from the head motion tracking device 200 has a variation in transmission delay.
  • the drawing apparatus 300 side predicts posture information after a predetermined time from a sequence of posture information that has already been received, and executes image rendering processing based on the predicted posture information, so that the user's head The delay in bodily sensation when presenting an image that follows the movement of the user is reduced.
  • the sensor value output from the sensor unit 201 has an offset removed using an offset value measured in advance.
  • the attitude angle calculation unit 202 estimates the attitude using the sensor value after the offset removal, and obtains a quaternion representing the sensor force coordinate rotation.
  • the coordinate rotation here represents conversion from an inertial coordinate system (global coordinate system) fixed to the ground to a local coordinate system fixed to the display device 400.
  • the quaternion value received by the receiving unit 301 is stored in the array on the drawing device 300 side.
  • the length of the array is fixed to the size n required for the posture prediction algorithm, and the latest n quaternions are always stored.
  • Posture prediction processing is performed using the values stored in the quaternion array, and one quaternion can be obtained as a result.
  • the drawing processing unit 302 uses the quaternion of the prediction results obtained here, the drawing processing unit 302 performs coordinate rotation on the 3D model displayed on the display device 400, performs rendering processing, and updates the drawing.
  • the posture information prediction algorithm is roughly composed of two steps: (1) estimation of prediction time for displaying an image based on the next posture information and (2) prediction of posture information at the prediction time.
  • the rendering processing unit 302 renders an image at the predicted time from the predicted posture information, so that the display device 400 reduces a sensory delay when observing an image following the movement of the user's head.
  • the predicted time mentioned here is the time when the latest data among the data received by the drawing apparatus 300 from the head movement tracking apparatus 200 in the past is generated (measured or calculated) by the head movement tracking apparatus 200, or the head time. This is the time from the time when the motion tracking apparatus 200 transmits to the time when the next image is displayed.
  • the time at which the head movement tracking device 200 transmits data it is possible to use not only the time at the moment of transmission but also the time at which the head movement tracking device 200 generates time information and adds it to the data.
  • the transmission delay is not constant and is assumed to have a certain range of variation.
  • the clock of the sensor unit 201 (head movement tracking device 200) and the clock of the drawing device 300 are asynchronous, the drawing device 300 cannot use the time information added to the received data as it is.
  • the transmission time can be estimated using the received time.
  • FIG. 10 shows a flow of processing in the image display system 100 on a timing chart.
  • a method for estimating the transmission time of data from the head movement tracking device 200 in the drawing device 300 will be considered.
  • the data transmission cycle from the head movement tracking device 200 is ⁇ t period
  • the transmission time of the n th data from the head movement tracking device 200 is t n send
  • the n th data is received by the drawing device 300.
  • the time is t n receive
  • the time (transmission delay) required from the transmission of the n-th data to the reception by the drawing apparatus 300 is ⁇ t n transmit .
  • the rendering processing unit 302 takes time (rendering delay) ⁇ t r render to calculate the r-th rendering, and it takes time (display delay) ⁇ t display to display the rendering result on the display unit 402.
  • the head movement tracking device 200 transmits the quaternion calculated from the sensor result of the sensor unit 201 to the drawing device 300 every ⁇ t period .
  • the receiving unit 301 manages the received quaternion together with the reception time.
  • the drawing processing unit 302 accesses the quaternion stored in the receiving unit 301 at a timing necessary for rendering, and renders a corresponding display image. When the rendering is finished, the result image is displayed on the display unit 402 of the display device 400.
  • the data transmission period ⁇ t period , the data reception time ⁇ t i receive ⁇ i ⁇ N , the rendering delay ⁇ t r render , and the display delay ⁇ t display are known values that can be measured.
  • the transmission delay ⁇ t i transmit ⁇ i ⁇ N is an unknown value.
  • the total delay amount from when the posture information transmitted at a certain time to the head movement tracking device 200 is received by the drawing device 300, further rendered by the drawing device 300, and displayed on the display device 400 is predicted for the r-th rendering.
  • the time ⁇ t r predict can be expressed by a mathematical expression as in the following expression (1).
  • the display delay ⁇ t display of the first term and the rendering delay ⁇ t r render of the second term in the above equation (1) are known values, but the transmission delay ⁇ t n of the third term. transmit is an unknown value. Therefore, the total delay amount can be decomposed into a steady delay composed of a display delay ⁇ t display and a rendering delay ⁇ t r render and an unknown variable delay ⁇ t n transmit .
  • an unknown value ⁇ t i transmit ⁇ i ⁇ N must be estimated using a known stationary delay.
  • the first to third terms on the right side of the above equation (3) can be measured by prior measurement or system clock measurement, and are classified as steady delay.
  • the estimated time is estimated using the display delay ⁇ t display of the first term on the right side and the steady transmission delay ⁇ t const of the third term on the right side, which are measured in advance.
  • ⁇ t n variant in the fourth term on the right side of the above equation (3) is a variation in transmission delay.
  • the transmission delay variation ⁇ t n variant cannot be measured and is classified as a variable delay.
  • the variable transmission delay ⁇ t n variant is expressed by a mathematical expression such as the following expression (4) or (5). However, details of the method of deriving the variable transmission delay ⁇ t n variant shown in the following equation (4) will be described later.
  • the fluctuation transmission delay ⁇ t n variant is estimated by taking the sum of the variations in the reception intervals of the past n pieces of posture information.
  • the above equation (5) can also be interpreted as an approximate equation when n is infinite.
  • the total delay amount ⁇ t r predict composed of the sum of the steady delay (average of display delay, rendering delay, transmission delay) and variable delay expressed by the above formula (1) is transmitted from the head movement tracking device 200 at a certain time. Predicted time for receiving the posture information.
  • the posture information is expressed by quaternion q.
  • the quaternion q is a quaternion composed of a rotation axis (vector) and a rotation angle (scalar) as shown in the following equation (6) and FIG.
  • Quaternions are suitable for calculations because there are no singularities. In the field of computer graphics, it is common to represent poses of objects in quaternions. In the present embodiment, from the time series q i of quaternion that arrive to the drawing device 300 from head motion tracking device 200 (however, q i is the quaternion which received i th), the prediction quaternion in the prediction time Delta] t r predict To do.
  • a quaternion representing a posture is described as one point on a three-dimensional spherical surface.
  • linear interpolation is performed on a line segment connecting quaternions q i-1 and q i , as shown in the following equation (7) and FIG.
  • a spherical linear interpolation Slerp that linearly interpolates between quaternions q i ⁇ 1 and q i on a three-dimensional sphere as shown in the following equation (8) and FIG.
  • the interval at which the quaternions q i ⁇ 1 and q i are transmitted from the head motion tracking apparatus 200 is ⁇ t period .
  • the predicted time when the drawing apparatus 300 receives the quaternion q i + 1 transmitted from the head movement tracking device 200 next is the time ⁇ t period + ⁇ t r obtained by adding the total delay amount ⁇ t r predict to the transmission interval ⁇ t period. predict .
  • FIG. 7 shows a configuration example of a drawing apparatus 300 to which a posture information prediction algorithm is applied.
  • the fluctuation delay estimation unit 71 monitors the time at which the reception unit 301 receives the quaternion from the head movement tracking device 200, and estimates the fluctuation delay ⁇ t n variant according to the above equation (4) or (5).
  • the total delay amount calculation unit 72 inputs the variation delay ⁇ t n variant from the variation delay estimation unit 71, inputs the display delay and transmission delay average measured in advance, and the rendering delay in the rendering processing unit 302, and calculates the above formula ( The total delay amount ⁇ t is calculated according to 1).
  • the prediction unit 73 is configured as a spherical linear interpolator (Slerp) that linearly interpolates between two quaternions on a three-dimensional sphere.
  • the prediction unit 73 outputs the predicted quaternion q to the drawing processing unit 302.
  • the drawing processing unit 302 uses the predicted quaternion q to render an image with an angle of view corresponding to the posture information of the user's head.
  • FIG. 8 shows a time series graph of the quaternion prediction result by the prediction unit 73.
  • the horizontal axis is the time axis and the vertical axis is the quaternion s component.
  • the curve indicated by reference numeral 81 is a correct value of the quaternion s component, that is, a value output from the head motion tracking device 200.
  • the s component of the quaternion (quaternion before prediction) received by the drawing apparatus 300 is indicated by ⁇ .
  • a transmission delay occurs when the quaternion is transmitted from the head movement tracking device 200 to the drawing device 300, and the transmission delay varies for each quaternion.
  • the prediction unit 73 predicts the current correct quaternion at the prediction time from the two received quaternions, and outputs the prediction to the drawing processing unit 302.
  • the s component of the quaternion predicted from two quaternions before prediction is indicated by ⁇ . It can be seen that the predicted quaternion is approaching the correct value.
  • the above equation (30) means that the quaternion derivative is predicted. Further, the above equation (31), using the prediction quaternion q predict (t n), it is obtained by predicting the quaternion of the previous pose only estimated time Delta] t r predict.
  • the technique disclosed in this specification can be applied to the case of rendering an image based on the time-series data.
  • the technology disclosed in the present specification is also applied to the case where the posture information is expressed in other formats. Can do.
  • a receiving unit that receives time-series data from an external device;
  • a predicted time calculation unit that calculates a predicted time from a time when the latest one of the data received in the past is generated in the external device to a display time of the next image;
  • a time-series data prediction unit for predicting time-series data at the prediction time;
  • a rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit;
  • An image processing apparatus comprising:
  • the time series data prediction unit includes a configuration for interpolating between two time series data, extrapolates the two time series data, and predicts the time series data ahead by the prediction time.
  • the image processing apparatus further includes a transmission unit that transmits the rendered image to a display device.
  • a display unit for displaying the rendered image is further provided.
  • the external device tracks the position or posture of part or all of the body of the user who observes the image,
  • the receiving unit receives posture information as time-series data from the external device,
  • the drawing processing unit renders an image that follows the movement of part or all of the user's body based on the posture information.
  • the image processing apparatus according to any one of (1) to (5) above.
  • the predicted time calculation unit calculates a predicted time based on a total delay amount from transmission of posture information by the external device to display of an image based on the posture information.
  • the total delay amount includes a transmission delay when transmitting posture information from the external device, a rendering delay when rendering an image based on the posture information, and a display delay when displaying the rendered image.
  • the prediction time calculation unit decomposes and calculates the total delay amount into a measurable steady delay and an unmeasurable variable delay, The image processing apparatus according to any one of (6) and (7).
  • the variable delay includes a variation in transmission delay.
  • the receiving unit receives a quaternion representing a position or posture of a part or all of the user's body as time series data from the external device.
  • the image processing apparatus according to (5) above.
  • the time-series data prediction unit includes a configuration that linearly interpolates two quaternions, extrapolates the two quaternions, and predicts the quaternion ahead by the prediction time.
  • (12) The time-series data prediction unit includes a configuration in which two quaternions are spherically linearly interpolated, and extrapolates two quaternions to predict a quaternion ahead by the prediction time.
  • the image processing apparatus according to any one of (10) and (11) above.
  • a receiving unit that receives time-series data from an external device; A predicted time calculation unit that calculates a predicted time from the time added in the external device to the latest of the data received in the past to the display time of the next image; A time-series data prediction unit for predicting time-series data at the prediction time; A rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit;
  • An image processing apparatus comprising: (14) a receiving unit that receives time-series data from an external device; A predicted time calculation unit that calculates a predicted time from the latest transmission time from the external device to the display time of the next image in the data received in the past; A time-series data prediction unit for predicting time-series data at the prediction time; A rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit; An image processing apparatus comprising: (15) a receiving step of receiving time-series data from an external device; A predicted time calculation step of calculating a predicted time from the time when the latest data received
  • a receiving unit that receives time-series data from an external device;
  • a predicted time calculation unit that calculates a predicted time from the time when the latest data received in the past is generated in the external device to the display time of the next image;
  • a time-series data prediction unit that predicts time-series data in the prediction time;
  • a rendering processing unit for rendering an image based on the time-series data predicted by the prediction unit;
  • a drawing device that receives time-series data and renders an image;
  • a display device for displaying an image rendered by a drawing device; Comprising The drawing device predicts a predicted time from a time when the latest data received in the past is generated in the external device to a display time of the next image, predicts time-series data in the predicted time, Render the image based on the predicted time series data, Image display system.
  • the external device is a tracking device that tracks the position or posture of part or all of the body of the user who observes the display image of the display unit, and transmits posture information.
  • the rendering device renders an image that follows the movement of part or all of the user's body based on the received posture information.
  • the tracking device transmits a quaternion representing a position or posture of a part or all of the user's body,
  • the drawing apparatus extrapolates the tip of two quaternions and performs spherical linear interpolation to predict a quaternion ahead by the prediction time, and renders an image based on the predicted quaternion.
  • DESCRIPTION OF SYMBOLS 100 ... Image display system 200 ... Head movement tracking apparatus, 201 ... Sensor part, 202 ... Attitude angle calculating part 203 ... Transmission part 300 ... Drawing apparatus, 301 ... Reception part, 302 ... Drawing process part, 303 ... Transmission part 304 ... Image source 400 ... display device, 401 ... reception unit, 402 ... display unit 71 ... fluctuation delay estimation unit, 72 ... total delay amount calculation unit, 73 ... prediction unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 画像を観察するユーザーの頭部の動きに追従した画像を生成する。 描画装置300側で、既に受信した姿勢角データの時系列から一定時間後に受信する姿勢角データを予測し、予測した姿勢角データに基づいて画像のレンダリング処理を実行する。姿勢角データの予測アルゴリズムは、大まかには、(1)姿勢角データを受信する予測時間の見積もりと、(2)予測時間における姿勢角データの予測の2ステップからなる。予測した姿勢角データから予測時間における画像をレンダリングすることで、ユーザーの頭部の動きに追従した画像を提示する際の体感遅延を低減する。

Description

画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム
 本明細書で開示する技術は、ユーザーの頭部の動きに追従した画像を処理する画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システムに関する。
 画像を観察するユーザーの頭部又は顔部に固定される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎の画像表示部を持ち、また、ヘッドフォンと併用し、視覚及び聴覚を制御できるように構成されている。頭部に装着した際に外界を完全に遮るように構成すれば、視聴時の仮想現実感が増す。また、ヘッド・マウント・ディスプレイは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示すれば3D画像を提示することができる。
 この種のヘッド・マウント・ディスプレイは、虚像を眼の網膜上に結像させて、ユーザーに観察させる。ここで、虚像は、物体が、焦点距離よりレンズに近い位置にある場合に、その物体側にできるものである。例えば、瞳孔の前方に25ミリメートルだけ離間して広視野角光学系を配置し、この広視野角光学系のさらに前方に約0.7インチの有効画素範囲の大きさを持つ表示パネルを配置したヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献1を参照のこと)。
 また、この種のヘッド・マウント・ディスプレイを用いて、広角画像を視聴することができる。例えば、頭部にジャイロ・センサーなどからなる頭部動作追跡装置を取り付け、ユーザーの頭部の動きに追従させた全空間の360度の映像を実感できるようにしたヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献2、特許文献3を参照のこと)。ジャイロ・センサーが検出した頭部の動きを打ち消すように表示領域を移動させることで、ユーザーは、自分の頭部の動きに追従した画像を観察することになり、全空間を見渡すことができる。
 ヘッド・マウント・ディスプレイは、ユーザーの頭部の動作の動きに、より短い遅延時間で追従した画像を提示することが好ましい。遅延時間が長いと、画像が頭部の動作に追従しているという体感を劣化させる。また、ユーザーが酔いを起こすことも懸念される。
 本明細書で開示する技術の目的は、ユーザーの頭部、あるいは手先、足先、腰など身体の一部又は全部の動きに追従した画像を好適に処理することができる、優れた画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システムを提供することにある。
 本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
 外部装置から時系列データを受信する受信部と、
 過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
 前記予測時間における時系列データを予測する時系列データ予測部と、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
を具備する画像処理装置である。
 本願の請求項2に記載の技術によれば、請求項1に記載の画像処理装置の前記時系列データ予測部は、2つの時系列データ間を補間する構成を備え、2つの時系列データの先を外挿して、前記予測時間だけ先の時系列データを予測するように構成されている。
 本願の請求項3に記載の技術によれば、請求項1に記載の画像処理装置は、レンダリングした前記画像を表示装置に送信する送信部をさらに備えている。
 本願の請求項4に記載の技術によれば、請求項1に記載の画像処理装置は、レンダリングした前記画像を表示する表示部をさらに備えている。
 本願の請求項5に記載の技術によれば、前記外部装置は、画像を観察するユーザーの身体の一部又は全部の位置又は姿勢を追跡する。そして、請求項1に記載の画像処理装置の前記受信部は、前記外部装置から時系列データとして姿勢情報を受信し、前記描画処理部は、前記姿勢情報に基づいてユーザーの身体の一部又は全部の動きに追従する画像をレンダリングするように構成されている。
 本願の請求項6に記載の技術によれば、請求項5に記載の画像処理装置の前記予測時間計算部は、前記外部装置で姿勢情報を送信してからその姿勢情報に基づく画像を表示するまでの全遅延量に基づいて予測時間を算出するように構成されている。
 本願の請求項7に記載の技術によれば、請求項6に記載の画像処理装置において、前記全遅延量は、前記外部装置から姿勢情報を伝送する際の伝送遅延と、姿勢情報に基づいて画像をレンダリングする際のレンダリング遅延と、レンダリングした画像を表示する際のディスプレイ遅延を含む。
 本願の請求項8に記載の技術によれば、請求項6に記載の画像処理装置の前記予測時間計算部は、全遅延量を測定可能な定常遅延と測定不能な変動遅延に分解して計算するように構成されている。
 本願の請求項9に記載の技術によれば、請求項8に記載の画像処理装置において、前記変動遅延は、伝送遅延のばらつきを含む。
 本願の請求項10に記載の技術によれば、請求項5に記載の画像処理装置の前記受信部は、前記外部装置から時系列データとしてユーザーの身体の一部又は全部の位置又は姿勢を表現するクォータニオンを受信するように構成されている。
 本願の請求項11に記載の技術によれば、請求項10に記載の画像処理装置の前記時系列データ予測部は、2つのクォータニオンを線形補間する構成を備え、2つのクォータニオンの先を外挿して、前記予測時間だけ先のクォータニオンを予測するように構成されている。
 本願の請求項12に記載の技術によれば、請求項10に記載の画像処理装置の前記時系列データ予測部は、2つのクォータニオンを球面線形補間する構成を備え、2つのクォータニオンの先を外挿して、前記予測時間だけ先のクォータニオンを予測するように構成されている。
 また、本願の請求項13に記載の技術は、
 外部装置から時系列データを受信する受信部と、
 過去に受信したデータの中で最新のものに対して前記外部装置において付加された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
 前記予測時間における時系列データを予測する時系列データ予測部と、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
を具備する画像処理装置である。
 また、本願の請求項14に記載の技術は、
 外部装置から時系列データを受信する受信部と、
 過去に受信したデータの中で前記外部装置からの最新の送信時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
 前記予測時間における時系列データを予測する時系列データ予測部と、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
を具備する画像処理装置である。
 また、本願の請求項15に記載の技術は、
 外部装置から時系列データを受信する受信ステップと、
 過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算ステップと、
 前記予測時間における時系列データを予測する時系列データ予測ステップと、
 前記予測ステップで予測した時系列データに基づいて画像をレンダリングする描画処理ステップと、
を有する画像処理方法である。
 また、本願の請求項16に記載の技術は、
 外部装置から時系列データを受信する受信部、
 過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部、
 前記予測時間における時系列データを予測する時系列データ予測部、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
 本願の請求項16に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項16に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係る画像処理装置と同様の作用効果を得ることができる。
 また、本願の請求項17に記載の技術は、
 時系列データを送信する外部装置と、
 時系列データを受信して画像をレンダリングする描画装置と、
 前記描画装置でレンダリングした画像を表示する表示装置と、
を具備し、
 前記描画装置は、過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を予測し、前記予測時間における時系列データを予測し、予測した時系列データに基づいて画像をレンダリングする、
画像表示システムである。
 但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
 本願の請求項18に記載の技術によれば、請求項17に記載の画像表示システムにおいて、前記外部装置は、前記表示部の表示画像を観察するユーザーの身体の一部又は全部の位置又は姿勢を追跡する追跡装置で、姿勢情報を送信し、前記描画装置は、受信した姿勢情報に基づいてユーザーの身体の一部又は全部の動きに追従する画像をレンダリングするように構成されている。
 本願の請求項19に記載の技術によれば、請求項17に記載の画像表示システムにおいて、前記追跡装置は、ユーザーの身体の一部又は全部の位置又は姿勢を表現するクォータニオンを送信し、前記描画装置は、2つのクォータニオンの先を外挿して球面線形補間することにより前記予測時間だけ先のクォータニオンを予測し、予測したクォータニオンに基づいて画像をレンダリングするように構成されている。
 本明細書で開示する技術によれば、ユーザーの頭部、あるいは手先、足先、腰など身体の一部又は全部の動きに追従した画像を好適に処理することができる、優れた画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システムを提供することができる。
 ユーザーの頭部などの動きを表す姿勢情報を伝送する際に遅延量のばらつきがある。本明細書で開示する技術によれば、伝送遅延のばらつきがある姿勢情報の時系列から一定時間後の姿勢情報を予測し、予測した姿勢情報に基づいて画像のレンダリング処理を実行するので、ユーザーが頭部の動きに追従した画像を観察する際の体感遅延を低減することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示した図である。 図2は、画像表示システム100においてユーザーの頭部動作に追従した画像データを表示する際に生じる遅延を示した図である。 図3は、画像表示システム100における遅延モデルを模式的に示した図である。 図4は、クォータニオンqを示した図である。 図5は、2つのクォータニオンの間を線形補間する方法を説明するための図である。 図6は、2つのクォータニオンの間を球面線形補間する方法を説明するための図である。 図7は、姿勢情報の予測アルゴリズムを適用した描画装置300の構成例を示した図である 図8は、クォータニオンの予測結果の時系列グラフを示した図である。 図9は、画像表示システム100の変形例を示した図である。 図10は、画像表示システム100における処理の流れを示したタイミング・チャートである。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
 図1には、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示している。図示の画像表示システム100は、頭部動作追跡装置200と、描画装置300と、表示装置400で構成される。
 頭部動作追跡装置200は、表示装置400が表示する画像を観察するユーザーの頭部に装着して用いられ、所定の送信周期でユーザーの頭部の姿勢角を描画装置200に出力する。図示の例では、頭部動作追跡装置200は、センサー部201と、姿勢角演算部202と、得られた姿勢情報を描画装置300に送信する送信部203を備えている。
 センサー部201は、例えば、ジャイロ・センサーと加速度センサーと地磁気センサーなど複数のセンサー素子を組み合わせて構成されている。ここでは、3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。
 姿勢角演算部202は、センサー部201による9軸の検出結果に基づいて、ユーザーの頭部の姿勢角を演算する。送信部203は、求められた姿勢情報を描画装置300に送信する。本実施形態では、姿勢角はクォータニオンとして表現されるものとする。クォータニオンは、回転軸(ベクトル)と回転角(スカラー)からなる4元数である。但し、頭部動作追跡装置200がクォータニオンで表現される姿勢角を演算することは必須ではない。頭部動作追跡装置200は、姿勢角をクォータニオン以外の形式で表現した情報を描画装置300に送信するようにしてもよい。あるいは、図9に示すように、頭部動作追跡装置200は、センサー部201の検出結果をそのまま送信部203から出力し、描画装置300が姿勢角演算部202を装備して、頭部動作追跡装置200から受信したセンサー情報から姿勢角を算出するようにしてもよい。
 図示の画像表示システム100では、頭部動作追跡装置200と描画装置300間はBluetooth(登録商標)通信などの無線通信により相互接続されているものとする。本実施形態では、頭部動作追跡装置200と描画装置300間では非同期で通信が行なわれ、お互いのクロックも同期がとられていないことを想定する。勿論、無線通信ではなく、USB(Universal Serial Bus)のような高速な有線インフェース経由で頭部動作追跡装置200と描画装置300間を接続するようにしてもよい。いずれにせよ、頭部動作追跡装置200から描画装置300へ姿勢情報を伝送する際には伝送遅延が生じる。
 ここで、Bluetooth(登録商標)通信は、さまざまな機器での通信に使用されるという性質から、機器の種類毎にプロトコルが策定され、プロファイルとして標準化されている。例えば、SPP(Serial Port Profile)は、Bluetooth(登録商標)対応機器間で仮想的にシリアル通信するためのプロファイルであり、スマートフォンなどのAndroid(登録商標)搭載端末とBluetooth(登録商標)対応機器との接続にも利用されている。SPPは、サンプリングレートに幅があり、不定の遅延を生じ易い。
 描画装置300は、表示装置400で表示する画像のレンダリング処理を行なう。描画装置300は、例えばスマートフォンなどのAndroid(登録商標)搭載端末、あるいはパーソナル・コンピューター、ゲーム機として構成されるが、これに限定される訳ではない。
 図示の例では、描画装置300は、頭部動作追跡装置200から姿勢情報を受信する受信部301と、姿勢情報に基づいて画像のレンダリング処理を行なう描画処理部302と、レンダリングした画像を表示装置400に送信する送信部302と、画像データの供給源となる画像ソース304を備えている。
 受信部301は、Bluetooth(登録商標)通信などを介して、頭部動作追跡装置200から姿勢情報を受信する。上述したように、姿勢情報はクォータニオンで表現されている。
 画像ソース304は、例えば、ブルーレイ(登録商標)などの記録メディアを再生するメディア再生装置、ディジタル放送信号を選局受信する放送チューナー、インターネットのサーバーなどから画像コンテンツを受信する通信インターフェースなどからなる。
 描画処理部302は、画像ソース304の画像データから、表示装置400側で表示する画像をレンダリングする。描画処理部302は、例えば画像ソース304から供給される全天球型の原画像や4Kなどの高解像度の原画像から、受信部301で受信した姿勢情報に対応した一部の領域を切り出した画像をレンダリングする。
 描画装置300と表示装置400間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High-definition Link)などの有線ケーブルにより接続されている。あるいは、wirelessHDやMiracastのような無線通信で接続してもよい。送信部303は、いずれかの通信路を用いて、描画処理部302でレンダリングされた画像データを非圧縮のまま表示装置400に送信する。
 表示装置400は、描画装置300から画像を受信する受信部401と、受信した画像を表示する表示部402を備えている。表示装置400は、例えば、画像を観察するユーザーの頭部又は顔部に固定されるヘッド・マウント・ディスプレイとして構成される。
 受信部401は、例えばHDMI(登録商標)やMHLなどの通信路を介して、描画装置300から非圧縮の画像データを受信する。表示部402は、受信した画像データを画面に表示する。
 表示装置400がヘッド・マウント・ディスプレイとして構成される場合、例えば、表示部402は、ユーザーの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像及び右眼用画像を表示する。表示部402の画面は、例えば有機EL(Electro-Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイなどの表示パネル、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部402の表示画像を拡大投影して、ユーザーに所定の画角からなる拡大虚像として観察させる虚像光学部を備えている。
 描画装置300側では、例えば全天球型の原画像や4Kなどの高解像度の原画像から、ユーザーの頭部の姿勢情報に対応した一部の領域を切り出した画像をレンダリングする。表示装置400側では、ユーザーの頭部の姿勢角を打ち消すように原画像中の表示領域が移動することになる。したがって、ユーザーは、自分の頭部の動きに追従した画像を観察することになり、大画面を見渡すことができる。
 なお、図1に示す例では、画像表示システム100は、頭部動作追跡装置200、描画装置300、表示装置400という3台の独立した装置で構成されるが、描画装置300と表示装置400が1つの装置内に組み込まれる構成や、頭部動作追跡装置200、描画装置300、及び表示装置400がすべて1つの装置内に組み込まれる構成も考えられる。図1に示したように、頭部動作追跡装置200を表示装置400に外付けされるオプション製品として構成すれば、表示装置400の小型・軽量化、低廉化になる。
 図1に示した画像表示システム100においては、頭部動作追跡装置200がユーザーの頭部の姿勢を検出してから、その姿勢に追従した画像を表示装置400で表示するまでの間に、遅延時間が生じる。図2に示すように、頭部動作追跡装置200から描画装置300へ姿勢情報を伝送する際に生じる伝送遅延21や、描画装置300で姿勢情報に追従した画像を描画処理する際に生じるレンダリング遅延22、描画データを表示装置400で表示する際に生じるディスプレイ遅延23などが、遅延時間の主な要素と考えられる。
 図3には、画像表示システム100において、頭部動作追跡装置200から描画装置300へ伝送する際の遅延モデルを模式的に示している。
 頭部動作追跡装置200は、センサー部201による検出結果からユーザーの頭部の姿勢情報(クォータニオン)を計算して、参照番号31で示すデータ系列のように、所定の送信周期Δtperiod毎に出力する。
 頭部動作追跡装置200から描画装置300へ姿勢情報を伝送する際の伝送遅延が定常的な場合には、参照番号32で示すデータ系列のように、各送信周期で送信時に発生する姿勢情報は、常に一定の伝送遅延Δttransmitの後に描画装置300に到達する。すなわち、各姿勢情報を等間隔で受信する。ところが、伝送遅延は、定常的な成分とばらつき成分を含むため、参照番号33で示すデータ系列のように、伝送遅延は毎回異なる。i回目の送信時に生じる伝送遅延をΔti transmitとする。例えば、頭部動作追跡装置200から描画装置400の伝送にBluetooth(登録商標)通信のSPPなどのプロトコルを使用する場合には、伝送遅延がばらつくことが想定される。
 表示装置400は、ユーザーの頭部の動作の動きに、より短い遅延時間で追従した画像を提示することが好ましい。遅延時間が長いと、画像が頭部の動作に追従しているという体感を劣化させる。また、ユーザーが酔いを起こすことも懸念される。
 上述したように、画像表示システム100では、頭部動作追跡装置200から描画装置300に到着する姿勢情報には伝送遅延のばらつきがある。本実施形態では、描画装置300側で、既に受信した姿勢情報の系列から一定時間後の姿勢情報を予測し、予測した姿勢情報に基づいて画像のレンダリング処理を実行することで、ユーザーの頭部の動きに追従した画像を提示する際の体感遅延を低減するようにしている。
 まず、姿勢予測処理のデータ・フローについて、図2を参照しながら説明する。センサー部201から出力されるセンサー値は、あらかじめ測定されたオフセット値を使用してオフセットが除去されている。姿勢角演算部202は、オフセット除去後のセンサー値を使用して姿勢推定し、センサー力座標回転を表すクォータニオンを得る。ここでの座標回転は、地面に固定された慣性座標系(グローバル座標系)から、表示装置400に固定された局所座標系への変換を表す。
 頭部動作追跡装置200から描画装置300へ、姿勢推定後のクォータニオンを送信すると、描画装置300側では、受信部301で受信したクォータニオンの値が配列に保存される。配列の長さは、姿勢予測アルゴリズムに必要な大きさn個に固定し、常に最新のn個のクォータニオンを格納しておくものとする。クォータニオン配列内に格納された値を使用して姿勢予測処理をし、結果として1つのクォータニオンを得ることができる。描画処理部302は、ここで得た予測結果のクォータニオンを用いて、表示装置400で表示する3Dモデルに対して座標回転を行ない、レンダリング処理して、描画を更新する。
 姿勢情報の予測アルゴリズムは、大まかには、(1)次の姿勢情報に基づく画像を表示する予測時間の見積もりと、(2)予測時間における姿勢情報の予測の2ステップからなる。描画処理部302では、予測した姿勢情報から予測時間における画像をレンダリングすることで、表示装置400ではユーザーの頭部の動きに追従した画像を観察する際の体感遅延を低減する。
 次いで、予測時間を見積もる方法について説明する。ここで言う予測時間は、描画装置300が頭部動作追跡装置200から過去に受信したデータの中で最新のものが、頭部動作追跡装置200において生成(測定又は計算)された時刻、あるいは頭部動作追跡装置200が送信した時刻から、次の画像の表示時刻までの時間である。頭部動作追跡装置200がデータを送信した時刻としては、送信した瞬間の時刻だけでなく、頭部動作追跡装置200において時刻情報を生成しデータに付加した時刻を用いることも可能である。
 頭部動作追跡装置200から描画装置300へのデータ伝送がとりわけ無線による場合、伝送遅延は一定ではなく、ある範囲のばらつきを持つことが想定される。また、センサー部201(頭部動作追跡装置200)のクロックと描画装置300のクロックが非同期であることから、描画装置300は、受信データに付加される時刻情報をそのまま使用することはできないが、受信した時間を利用して送信時間を推定することができる。
 図10には、画像表示システム100における処理の流れをタイミング・チャート上で示している。図10を参照しながら、描画装置300において、頭部動作追跡装置200からのデータの送信時間を推定する方法について考察する。
 図10中、頭部動作追跡装置200からのデータ送信周期をΔtperiod、頭部動作追跡装置200からのn番目のデータの送信時刻をtn send、描画装置300でのn番目のデータの受信時刻をtn receive、n番目のデータの送信から描画装置300での受信までにかかる時間(伝送遅延)をΔtn transmitとする。また、描画処理部302においてr回目のレンダリングの計算に時間(レンダリング遅延)Δtr renderがかかり、レンダリング結果を表示部402に表示するのに時間(ディスプレイ遅延)Δtdisplayがかかるものとする。
 頭部動作追跡装置200は、センサー部201のセンサー結果から演算したクォータニオンを、Δtperiodの時間毎に描画装置300に送信する。受信部301は、受信したクォータニオンを受信時刻とともに管理する。描画処理部302は、レンダリングに必要なタイミングで、受信部301で蓄積されたクォータニオンにアクセスして、対応する表示画像をレンダリングする。レンダリングが終わると、表示装置400の表示部402で結果画像を表示する。
 描画装置300では、データ送信周期Δtperiod、データ受信時刻{ti receivei∈N、レンダリング遅延Δtr render、及び、ディスプレイ遅延Δtdisplayの各時間は、計測可能な既知の値である。これに対し、頭部動作追跡装置200からのデータ送信時刻{ti sendi∈Nは描画装置300にとって不明であるため、伝送遅延{Δti transmiti∈Nは未知の値である。
 頭部動作追跡装置200がある時刻に送信した姿勢情報が描画装置300に受信され、さらに描画装置300でレンダリングされ、表示装置400に表示されるまでの全遅延量は、r回目のレンダリングに対する予測時間Δtr predictとして、下式(1)のように数式で表現することができる。
Figure JPOXMLDOC01-appb-M000001
 上述したように、描画装置300にとって、上式(1)の第1項のディスプレイ遅延Δtdisplayと第2項のレンダリング遅延Δtr renderは既知の値であるが、第3項の伝送遅延Δtn transmitは未知の値である。したがって、全遅延量を、ディスプレイ遅延Δtdisplayとレンダリング遅延Δtr renderからなる定常遅延と、未知の変動遅延Δtn transmitに分解することができる。全遅延量Δtr predictを計算するためには、既知の定常遅延を使って、未知の値{Δti transmiti∈Nを推定しなければならない。
 ここで、描画装置300上でのデータの受信時間間隔Δti receive=ti receive-ti-1 receive(i∈N)が一定であることと、伝送遅延{Δti transmiti∈Nが一定であることは同値である。ある時間継続して伝送遅延時間をあらかじめ測定しておくことで、定常的な遅延時間の平均値Δtconst=Ei(Δti transmit)を計測することができる。したがって、上式(1)の第3項を、下式(2)のように定常伝送遅延Δtconstと変動伝送遅延Δtn variantに分解することができる。また、下式(2)を上式(1)に代入すると、下式(3)の通りとなる。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 上式(3)の右辺第1項~第3項は、事前測定やシステム・クロック測定により測定が可能であり、定常遅延に分類される。本実施形態では、右辺第1項のディスプレイ遅延Δtdisplayと右辺第3項の定常伝送遅延Δtconstは、あらかじめ測定したものを使用して、予測時間の見積もりを行なうものとする。
 一方、上式(3)の右辺第4項のΔtn variantは伝送遅延のばらつきである。伝送遅延のばらつきΔtn variantは、測定不可能であり、変動遅延に分類される。本実施形態では、変動伝送遅延Δtn variantを、下式(4)又は(5)のように数式で表現する。但し、下式(4)に示す変動伝送遅延Δtn variantを導出する方法の詳細については、後述に譲る。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 上式(4)又は(5)の右辺の、受信時間間隔Δtn receiveは、頭部動作追跡装置200から(n-1)番目に送信された姿勢情報のクォータニオンを描画装置300で受信した時刻tn-1 receiveと、頭部動作追跡装置200からn番目に送信された姿勢情報のクォータニオンを描画装置300で受信した時刻tn receiveとの差分である。伝送遅延のばらつきがなければ、受信時間間隔Δtn receive(=tn receive-tn-1 receive)は頭部動作追跡装置200から姿勢情報の送信周期Δtperiodに等しいが、ばらつきがあるとΔtn receive-Δtperiodはゼロでなくなる。上式(4)では、過去n個分の姿勢情報の受信間隔のばらつきの和をとって変動伝送遅延Δtn variantを見積もっている。また、上式(5)は、nを無限大にしたときの近似式と解することもできる。
 上式(1)で表される、定常遅延(ディスプレイ遅延、レンダリング遅延、伝送遅延の平均)と変動遅延の和からなる全遅延量Δtr predictが、ある時刻において頭部動作追跡装置200から送信された姿勢情報を受信する予測時間となる。
 次いで、予測時間における姿勢情報を予測する方法について説明する。
 既に述べたように、本実施形態では、姿勢情報をクォータニオンqで表現する。クォータニオンqは、下式(6)並びに図4に示すように、回転軸(ベクトル)と回転角(スカラー)からなる4元数である。
Figure JPOXMLDOC01-appb-M000006
 クォータニオンは、特異点がないことから計算に適している。コンピューター・グラフィックスの分野では、物体の姿勢をクォータニオンで表現するのが一般的である。本実施形態では、頭部動作追跡装置200から描画装置300に届いたクォータニオンの時系列qiから(但し、qiはi番目に受信したクォータニオンとする)、予測時間Δtr predictにおけるクォータニオンを予測する。
 姿勢を表すクォータニオンは、3次元球面上の1点として記述される。2つのクォータニオンqi-1とqiの間を線形補間する方法として、下式(7)並びに図5に示すように、クォータニオンqi-1とqiの終点を結ぶ線分上で線形補間する方法Lerpと、下式(8)並びに図6に示すように、クォータニオンqi-1とqiの間を3次元球面上で線形補間する球面線形補間Slerpが挙げられる。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 通常の線形補間Lerpよりも、球面線形補間Slerpの方がより正確な補間を行なうことができると思料される。
 上式(8)において、0≦t≦1であれば2つのクォータニオンqi-1とqiの間を線形補間することになるが、t≧1であれば、2つのクォータニオンqi-1とqiの先を外挿して、時刻tだけ先のクォータニオンを予測することになる。したがって、本実施形態では、見積もった予測時間を上式(8)のtに代入することで、予測時間後におけるクォータニオンを予測する。
 頭部動作追跡装置200からクォータニオンqi-1とqiが送信される間隔はΔtperiodである。一方、次に頭部動作追跡装置200から送信されるクォータニオンqi+1が描画装置300で受信される予測時間は、送信間隔Δtperiodに全遅延量Δtr predictを加えた時間Δtperiod+Δtr predictである。この時間を送信間隔Δtperiodで正規化した値(tr=1+Δtr predict/Δtperiod)をtとして上式(8)に代入することにより、予測時間Δtr predict後のクォータニオンqpredict(tr)を、下式(9)又は(10)に従って予測することができる。但し、下式(10)の場合、qpredict(tn-1)を下式(11)とおく。下式(9)に示す予測時間trにおけるクォータニオンqpredict(tr)を導出する方法の詳細については、後述に譲る。
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
 図7には、姿勢情報の予測アルゴリズムを適用した描画装置300の構成例を示している。
 変動遅延見積部71は、受信部301で頭部動作追跡装置200からクォータニオンを受信する時刻をモニターして、上式(4)又は(5)に従って変動遅延Δtn variantを見積もる。
 全遅延量計算部72は、変動遅延見積部71から変動遅延Δtn variantを入力するとともに、事前測定したディスプレイ遅延や伝送遅延の平均、描画処理部302におけるレンダリング遅延を入力して、上式(1)に従って全遅延量Δtを算出する。
 予測部73は、2つのクォータニオン間を3次元球面上で線形補間する球面線形補間器(Slerp)として構成されるが、パラメーターtに全遅延量Δtから求まる予測時間を代入することで、上式(6)に示したように、次のクォータニオンqi+1を外挿して、現在の正しい姿勢情報として予測する。そして、予測部73は、予測したクォータニオンqを、描画処理部302に出力する。描画処理部302は、予測されたクォータニオンqを用いて、ユーザーの頭部の姿勢情報に対応した画角の画像のレンダリングを実行する。
 図8には、予測部73によるクォータニオンの予測結果の時系列グラフを示している。但し、横軸は時間軸、縦軸はクォータニオンのs成分とする。
 図8中、参照番号81で示す曲線は、クォータニオンのs成分の正解値、すなわち頭部動作追跡装置200から出力される値である。
 また、描画装置300で受信したクォータニオン(予測前のクォータニオン)のs成分を、◆で示している。上述したように、頭部動作追跡装置200から描画装置300にクォータニオンを伝送する際に伝送遅延が生じ、クォータニオン毎に伝送遅延はばらつく。
 参照番号82、83で示すように、予測部73は、受信した2つのクォータニオンから予測時間における現在の正しいクォータニオンを予測して、描画処理部302に出力する。図8中では、予測前の2つのクォータニオンから予測されたクォータニオンのs成分を●で示している。予測されたクォータニオンは正解値に近づいていることが分かる。
 ここで、上式(4)に示した変動伝送遅延Δtn variantの導出方法について説明しておく。データの受信時間間隔Δti receiveと伝送遅延Δti variantの間には、下式(12)に示す関係式が成り立つ。下式(12)に下式(13)を用いると、下式(14)に示す通りとなる。
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
 変動伝送遅延Δti variantの平均値は0になるはずである。したがって、下式(15)が成立する。
Figure JPOXMLDOC01-appb-M000015
 ここで、上式(14)を変形して、下式(16)とする。
Figure JPOXMLDOC01-appb-M000016
 あるNを固定したとき、任意のjに対してj≦i≦N-1に関する上式(16)の両辺の総和をとると、下式(17)、ひいては下式(18)の通りとなる。
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
 さらに、iに関する上式(18)の両辺の総和をとると、下式(19)、(20)が成り立つ。
Figure JPOXMLDOC01-appb-M000019
Figure JPOXMLDOC01-appb-M000020
 ここで、上式(5)より、Nが十分に大きいとき、下式(21)のようになる。したがって、上式(20)は下式(22)のようになる。そして、下式(22)のNをN+1に置き換えると、下式(23)に示す通りとなる。
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000023
 上式(23)から上式(22)を辺々引き算すると、下式(24)を得る。
Figure JPOXMLDOC01-appb-M000024
 ここで、上式(23)の右辺第1項を下式(25)に示すように変形し、下式(26)が成り立つことに注意すると、上式(24)について、下式(27)、(28)が成り立つ。
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
Figure JPOXMLDOC01-appb-M000027
Figure JPOXMLDOC01-appb-M000028
 したがって、上式(28)をΔtN+1 variantに関する推定式とみなすと、十分大きなNに対して下式(29)となり、上式(4)を導くことができる。
Figure JPOXMLDOC01-appb-M000029
 続いて、上式(9)に示した、予測時間trにおけるクォータニオンqpredict(tr)を導出する方法について説明する。現在までに取得された最新の3つのクォータニオンq(tn-2)、q(tn-1)、q(tn)を使用し、球面線形補間の式を使用して、予測クォータニオンqpredict(tr)、を以下のように計算する。
Figure JPOXMLDOC01-appb-M000030
Figure JPOXMLDOC01-appb-M000031
 上式(30)は、クォータニオンの微分を予測していることを意味している。また、上式(31)は、上記の予測クォータニオンqpredict(tn)を使って、予測時間Δtr predictだけ先の姿勢のクォータニオンを予測したものである。
 ここで、下式(32)のようにおくと、上式(31)は下式(33)の通りとなる。
Figure JPOXMLDOC01-appb-M000032
Figure JPOXMLDOC01-appb-M000033
 すなわち、この導出方法では、クォータニオンq(tn-1)を推定した値qpredict(tn-1)を使用して、球面線形補間により予測時間trにおけるクォータニオンqpredict(tr)を予測していると解することができる。
特開2012-141461号公報 特開平9-106322号公報 特開2010-256534号公報
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書では、時系列データとしてユーザーの頭部、あるいは手先、足先、腰など身体の一部又は全部の姿勢情報に基づいて画像のレンダリングを行なう実施形態を中心に説明してきたが、他の時系列データに基づいて画像のレンダリングを行なう場合においても、同様に本明細書で開示する技術を適用することができる。また、本明細書では、姿勢情報をクォータニオンで表現する実施形態を中心に説明してきたが、その他の形式で姿勢情報を表現する場合においても、同様に本明細書で開示する技術を適用することができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)外部装置から時系列データを受信する受信部と、
 過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
 前記予測時間における時系列データを予測する時系列データ予測部と、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
を具備する画像処理装置。
(2)前記時系列データ予測部は、2つの時系列データ間を補間する構成を備え、2つの時系列データの先を外挿して、前記予測時間だけ先の時系列データを予測する、
上記(1)に記載の画像処理装置。
(3)レンダリングした前記画像を表示装置に送信する送信部をさらに備える、
上記(1)又は(2)のいずれかに記載の画像処理装置。
(4)レンダリングした前記画像を表示する表示部をさらに備える、
上記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)前記外部装置は、画像を観察するユーザーの身体の一部又は全部の位置又は姿勢を追跡し、
 前記受信部は、前記外部装置から時系列データとして姿勢情報を受信し、
 前記描画処理部は、前記姿勢情報に基づいてユーザーの身体の一部又は全部の動きに追従する画像をレンダリングする、
上記(1)乃至(5)のいずれかに記載の画像処理装置。
(6)前記予測時間計算部は、前記外部装置で姿勢情報を送信してからその姿勢情報に基づく画像を表示するまでの全遅延量に基づいて予測時間を算出する、
上記(5)に記載の画像処理装置。
(7)前記全遅延量は、前記外部装置から姿勢情報を伝送する際の伝送遅延と、姿勢情報に基づいて画像をレンダリングする際のレンダリング遅延と、レンダリングした画像を表示する際のディスプレイ遅延を含む、
上記(6)に記載の画像処理装置。
(8)前記予測時間計算部は、全遅延量を測定可能な定常遅延と測定不能な変動遅延に分解して計算する、
上記(6)又は(7)のいずれかに記載の画像処理装置。
(9)前記変動遅延は、伝送遅延のばらつきを含む、
上記(8)に記載の画像処理装置。
(10)前記受信部は、前記外部装置から時系列データとしてユーザーの身体の一部又は全部の位置又は姿勢を表現するクォータニオンを受信する、
上記(5)に記載の画像処理装置。
(11)前記時系列データ予測部は、2つのクォータニオンを線形補間する構成を備え、2つのクォータニオンの先を外挿して、前記予測時間だけ先のクォータニオンを予測する、
上記(10)に記載の画像処理装置。
(12)前記時系列データ予測部は、2つのクォータニオンを球面線形補間する構成を備え、2つのクォータニオンの先を外挿して、前記予測時間だけ先のクォータニオンを予測する、
上記(10)又は(11)のいずれかに記載の画像処理装置。
(13)外部装置から時系列データを受信する受信部と、
 過去に受信したデータの中で最新のものに対して前記外部装置において付加された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
 前記予測時間における時系列データを予測する時系列データ予測部と、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
を具備する画像処理装置。
(14)外部装置から時系列データを受信する受信部と、
 過去に受信したデータの中で前記外部装置からの最新の送信時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
 前記予測時間における時系列データを予測する時系列データ予測部と、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
を具備する画像処理装置。
(15)外部装置から時系列データを受信する受信ステップと、
 過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算ステップと、
 前記予測時間における時系列データを予測する時系列データ予測ステップと、
 前記予測ステップで予測した時系列データに基づいて画像をレンダリングする描画処理ステップと、
を有する画像処理方法。
(16)外部装置から時系列データを受信する受信部、
 過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部、
 前記予測時間における時系列データを予測する時系列データ予測部、
 前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(17)時系列データを送信する外部装置と、
 時系列データを受信して画像をレンダリングする描画装置と、
 描画装置でレンダリングした画像を表示する表示装置と、
を具備し、
 前記描画装置は、過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を予測し、前記予測時間における時系列データを予測し、予測した時系列データに基づいて画像をレンダリングする、
画像表示システム。
(18)前記外部装置は、前記表示部の表示画像を観察するユーザーの身体の一部又は全部の位置又は姿勢を追跡する追跡装置で、姿勢情報を送信し、
 前記描画装置は、受信した姿勢情報に基づいてユーザーの身体の一部又は全部の動きに追従する画像をレンダリングする、
上記(17)に記載の画像表示システム。
(19)前記追跡装置は、ユーザーの身体の一部又は全部の位置又は姿勢を表現するクォータニオンを送信し、
 前記描画装置は、2つのクォータニオンの先を外挿して球面線形補間することにより前記予測時間だけ先のクォータニオンを予測し、予測したクォータニオンに基づいて画像をレンダリングする、
上記(17)に記載の画像表示システム。
 100…画像表示システム
 200…頭部動作追跡装置、201…センサー部、202…姿勢角演算部
 203…送信部
 300…描画装置、301…受信部、302…描画処理部、303…送信部
 304…画像ソース
 400…表示装置、401…受信部、402…表示部
 71…変動遅延見積部、72…全遅延量計算部、73…予測部

Claims (19)

  1.  外部装置から時系列データを受信する受信部と、
     過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
     前記予測時間における時系列データを予測する時系列データ予測部と、
     前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
    を具備する画像処理装置。
  2.  前記時系列データ予測部は、2つの時系列データ間を補間する構成を備え、2つの時系列データの先を外挿して、前記予測時間だけ先の時系列データを予測する、
    請求項1に記載の画像処理装置。
  3.  レンダリングした前記画像を表示装置に送信する送信部をさらに備える、
    請求項1に記載の画像処理装置。
  4.  レンダリングした前記画像を表示する表示部をさらに備える、
    請求項1に記載の画像処理装置。
  5.  前記外部装置は、画像を観察するユーザーの身体の一部又は全部の位置又は姿勢を追跡し、
     前記受信部は、前記外部装置から時系列データとして姿勢情報を受信し、
     前記描画処理部は、前記姿勢情報に基づいてユーザーの身体の一部又は全部の動きに追従する画像をレンダリングする、
    請求項1に記載の画像処理装置。
  6.  前記予測時間計算部は、前記外部装置で姿勢情報を送信してからその姿勢情報に基づく画像を表示するまでの全遅延量に基づいて予測時間を算出する、
    請求項5に記載の画像処理装置。
  7.  前記全遅延量は、前記外部装置から姿勢情報を伝送する際の伝送遅延と、姿勢情報に基づいて画像をレンダリングする際のレンダリング遅延と、レンダリングした画像を表示する際のディスプレイ遅延を含む、
    請求項6に記載の画像処理装置。
  8.  前記予測時間計算部は、全遅延量を測定可能な定常遅延と測定不能な変動遅延に分解して計算する、
    請求項6に記載の画像処理装置。
  9.  前記変動遅延は、伝送遅延のばらつきを含む、
    請求項8に記載の画像処理装置。
  10.  前記受信部は、前記外部装置から時系列データとしてユーザーの身体の一部又は全部の位置又は姿勢を表現するクォータニオンを受信する、
    請求項5に記載の画像処理装置。
  11.  前記時系列データ予測部は、2つのクォータニオンを線形補間する構成を備え、2つのクォータニオンの先を外挿して、前記予測時間だけ先のクォータニオンを予測する、
    請求項10に記載の画像処理装置。
  12.  前記時系列データ予測部は、2つのクォータニオンを球面線形補間する構成を備え、2つのクォータニオンの先を外挿して、前記予測時間だけ先のクォータニオンを予測する、
    請求項10に記載の画像処理装置。
  13.  外部装置から時系列データを受信する受信部と、
     過去に受信したデータの中で最新のものに対して前記外部装置において付加された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
     前記予測時間における時系列データを予測する時系列データ予測部と、
     前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
    を具備する画像処理装置。
  14.  外部装置から時系列データを受信する受信部と、
     過去に受信したデータの中で前記外部装置からの最新の送信時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部と、
     前記予測時間における時系列データを予測する時系列データ予測部と、
     前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部と、
    を具備する画像処理装置。
  15.  外部装置から時系列データを受信する受信ステップと、
     過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算ステップと、
     前記予測時間における時系列データを予測する時系列データ予測ステップと、
     前記予測ステップで予測した時系列データに基づいて画像をレンダリングする描画処理ステップと、
    を有する画像処理方法。
  16.  外部装置から時系列データを受信する受信部、
     過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を算出する予測時間計算部、
     前記予測時間における時系列データを予測する時系列データ予測部、
     前記予測部が予測した時系列データに基づいて画像をレンダリングする描画処理部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
  17.  時系列データを送信する外部装置と、
     時系列データを受信して画像をレンダリングする描画装置と、
     前記描画装置でレンダリングした画像を表示する表示装置と、
    を具備し、
     前記描画装置は、過去に受信したデータの中で最新ものが前記外部装置において生成された時刻から次の画像の表示時刻までの予測時間を予測し、前記予測時間における時系列データを予測し、予測した時系列データに基づいて画像をレンダリングする、
    画像表示システム。
  18.  前記外部装置は、前記表示部の表示画像を観察するユーザーの身体の一部又は全部の姿勢を追跡する追跡装置で、姿勢情報を送信し、
     前記描画装置は、受信した姿勢情報に基づいてユーザーの身体の一部又は全部の動きに追従する画像をレンダリングする、
    請求項17に記載の画像表示システム。
  19.  前記追跡装置は、ユーザーの身体の一部又は全部の位置又は姿勢を表現するクォータニオンを送信し、
     前記描画装置は、2つのクォータニオンの先を外挿して球面線形補間することにより前記予測時間だけ先のクォータニオンを予測し、予測したクォータニオンに基づいて画像をレンダリングする、
    請求項17に記載の画像表示システム。
PCT/JP2014/079205 2013-12-25 2014-11-04 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム WO2015098292A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP14875678.6A EP3089154B1 (en) 2013-12-25 2014-11-04 Image processing device and image display system for pose prediction-based display
KR1020167008121A KR102208329B1 (ko) 2013-12-25 2014-11-04 화상 처리 장치 및 화상 처리 방법, 컴퓨터 프로그램, 및 화상 표시 시스템
CN201480054842.3A CN105593924B (zh) 2013-12-25 2014-11-04 图像处理装置、图像处理方法、计算机程序以及图像显示系统
JP2015554644A JP6439702B2 (ja) 2013-12-25 2014-11-04 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム
US15/026,766 US10324523B2 (en) 2013-12-25 2014-11-04 Rendering virtual images based on predicted head posture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-268014 2013-12-25
JP2013268014 2013-12-25

Publications (1)

Publication Number Publication Date
WO2015098292A1 true WO2015098292A1 (ja) 2015-07-02

Family

ID=53478170

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079205 WO2015098292A1 (ja) 2013-12-25 2014-11-04 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム

Country Status (6)

Country Link
US (1) US10324523B2 (ja)
EP (1) EP3089154B1 (ja)
JP (1) JP6439702B2 (ja)
KR (1) KR102208329B1 (ja)
CN (1) CN105593924B (ja)
WO (1) WO2015098292A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892658A (zh) * 2016-03-30 2016-08-24 华为技术有限公司 基于头戴显示设备预测头部姿态的方法和头戴显示设备
CN106959745A (zh) * 2016-01-12 2017-07-18 深圳多哚新技术有限责任公司 一种头部姿态预测方法和装置
WO2017120767A1 (zh) * 2016-01-12 2017-07-20 深圳多哚新技术有限责任公司 一种头部姿态预测方法和装置
US10008006B2 (en) 2016-02-09 2018-06-26 Fujitsu Limited Image processing control method and apparatus
WO2018235744A1 (ja) * 2017-06-22 2018-12-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、制御方法、及びプログラム
WO2019098198A1 (ja) * 2017-11-20 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
US10310595B2 (en) 2014-06-30 2019-06-04 Sony Corporation Information processing apparatus, information processing method, computer program, and image processing system
EP3368965B1 (en) * 2015-10-26 2021-03-24 Microsoft Technology Licensing, LLC Remote rendering for virtual images
JP2021514070A (ja) * 2018-02-15 2021-06-03 バルブ コーポレーション ディスプレイデバイスの追跡を使用した画像表示制御
US11158101B2 (en) 2017-06-07 2021-10-26 Sony Interactive Entertainment Inc. Information processing system, information processing device, server device, image providing method and image generation method

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10708569B2 (en) * 2016-09-29 2020-07-07 Eric Wilson Turbine-Powered Pool Scrubber
CN106598253B (zh) * 2016-12-23 2019-12-10 北京搜狐新媒体信息技术有限公司 一种数据预测方法及装置
US9807384B1 (en) * 2017-01-13 2017-10-31 Optofidelity Oy Method, apparatus and computer program product for testing a display
JP6673288B2 (ja) * 2017-04-27 2020-03-25 株式会社デンソー 車両用表示装置
JP6946087B2 (ja) * 2017-07-14 2021-10-06 キヤノン株式会社 情報処理装置及びその制御方法、並びに、プログラム
CN109791297B (zh) * 2017-07-18 2021-07-20 深圳市柔宇科技股份有限公司 检测头戴式显示器数据传输延迟的方法及头戴式显示器
US10762691B2 (en) * 2017-09-08 2020-09-01 Microsoft Technology Licensing, Llc Techniques for compensating variable display device latency in image display
CN107566685B (zh) * 2017-09-26 2020-10-27 联想(北京)有限公司 一种图像数据处理方法及电子设备
GB2573271B (en) 2018-03-27 2022-04-06 Displaylink Uk Ltd Data transmission to mobile devices
GB2579760B (en) 2018-03-29 2023-03-22 Displaylink Uk Ltd Position error measurement in an extended reality mobile display device
CN108717701B (zh) 2018-05-24 2021-03-02 北京乐蜜科技有限责任公司 一种制作影片残影特效的方法、装置、电子设备及介质
CN109743626B (zh) * 2019-01-02 2022-08-12 京东方科技集团股份有限公司 一种图像显示方法、图像处理方法和相关设备
US11010921B2 (en) * 2019-05-16 2021-05-18 Qualcomm Incorporated Distributed pose estimation
CN110430270B (zh) * 2019-08-08 2022-03-25 网易(杭州)网络有限公司 载具数据的同步方法及装置
CN111131805A (zh) * 2019-12-31 2020-05-08 歌尔股份有限公司 图像处理方法、装置和可读存储介质
CN111352506A (zh) * 2020-02-07 2020-06-30 联想(北京)有限公司 图像处理方法、装置、设备及计算机可读存储介质
CN112486318A (zh) * 2020-11-26 2021-03-12 北京字跳网络技术有限公司 图像显示方法、装置、可读介质及电子设备
CN117294832B (zh) * 2023-11-22 2024-03-26 湖北星纪魅族集团有限公司 数据处理方法、装置、电子设备和计算机可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02301798A (ja) * 1989-05-17 1990-12-13 Nippon Hoso Kyokai <Nhk> 画像表示装置
JPH08336128A (ja) * 1995-04-05 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
JPH09106322A (ja) 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
JP2004198377A (ja) * 2002-12-20 2004-07-15 Zenrin Co Ltd 移動体監視システム
JP2004343431A (ja) * 2003-05-15 2004-12-02 Sharp Corp 移動通信端末位置推定装置、この移動通信端末位置推定装置と通信可能な通信端末装置、通信システム、通信システムにおける移動通信端末位置推定方法、移動通信端末位置推定プログラム、及び移動通信端末位置推定プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010039556A (ja) * 2008-07-31 2010-02-18 Canon Inc システム
JP2010256534A (ja) 2009-04-23 2010-11-11 Fujifilm Corp 全方位画像表示用ヘッドマウントディスプレイ装置
JP2011070341A (ja) * 2009-09-25 2011-04-07 Ubiquitous Entertainment Inc 三次元画像表示プログラム、三次元画像表示機能を備えた携帯電話機等の携帯デバイス、及び三次元画像の表示方法
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
AU7616496A (en) * 1995-11-27 1997-06-19 Cae Electronics Ltd. Method and apparatus for displaying a virtual environment on a video display
US6839041B2 (en) * 2001-08-01 2005-01-04 Thermwood Corporation Virtual reality viewing system and method
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US8774950B2 (en) * 2008-01-22 2014-07-08 Carnegie Mellon University Apparatuses, systems, and methods for apparatus operation and remote sensing
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02301798A (ja) * 1989-05-17 1990-12-13 Nippon Hoso Kyokai <Nhk> 画像表示装置
JPH08336128A (ja) * 1995-04-05 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
JPH09106322A (ja) 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
JP2004198377A (ja) * 2002-12-20 2004-07-15 Zenrin Co Ltd 移動体監視システム
JP2004343431A (ja) * 2003-05-15 2004-12-02 Sharp Corp 移動通信端末位置推定装置、この移動通信端末位置推定装置と通信可能な通信端末装置、通信システム、通信システムにおける移動通信端末位置推定方法、移動通信端末位置推定プログラム、及び移動通信端末位置推定プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010039556A (ja) * 2008-07-31 2010-02-18 Canon Inc システム
JP2010256534A (ja) 2009-04-23 2010-11-11 Fujifilm Corp 全方位画像表示用ヘッドマウントディスプレイ装置
JP2011070341A (ja) * 2009-09-25 2011-04-07 Ubiquitous Entertainment Inc 三次元画像表示プログラム、三次元画像表示機能を備えた携帯電話機等の携帯デバイス、及び三次元画像の表示方法
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10310595B2 (en) 2014-06-30 2019-06-04 Sony Corporation Information processing apparatus, information processing method, computer program, and image processing system
EP3368965B1 (en) * 2015-10-26 2021-03-24 Microsoft Technology Licensing, LLC Remote rendering for virtual images
US10962780B2 (en) 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN106959745A (zh) * 2016-01-12 2017-07-18 深圳多哚新技术有限责任公司 一种头部姿态预测方法和装置
WO2017120767A1 (zh) * 2016-01-12 2017-07-20 深圳多哚新技术有限责任公司 一种头部姿态预测方法和装置
US10008006B2 (en) 2016-02-09 2018-06-26 Fujitsu Limited Image processing control method and apparatus
CN105892658A (zh) * 2016-03-30 2016-08-24 华为技术有限公司 基于头戴显示设备预测头部姿态的方法和头戴显示设备
CN105892658B (zh) * 2016-03-30 2019-07-23 华为技术有限公司 基于头戴显示设备预测头部姿态的方法和头戴显示设备
US11158101B2 (en) 2017-06-07 2021-10-26 Sony Interactive Entertainment Inc. Information processing system, information processing device, server device, image providing method and image generation method
WO2018235744A1 (ja) * 2017-06-22 2018-12-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、制御方法、及びプログラム
JPWO2018235744A1 (ja) * 2017-06-22 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、制御方法、及びプログラム
JP2019095916A (ja) * 2017-11-20 2019-06-20 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
WO2019098198A1 (ja) * 2017-11-20 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
US11204502B2 (en) 2017-11-20 2021-12-21 Sony Interactive Entertainment Inc. Image generation apparatus, head mounted display, image generation system, image generation method, and program
JP2021514070A (ja) * 2018-02-15 2021-06-03 バルブ コーポレーション ディスプレイデバイスの追跡を使用した画像表示制御
JP7276753B2 (ja) 2018-02-15 2023-05-18 バルブ コーポレーション ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム

Also Published As

Publication number Publication date
US20160252955A1 (en) 2016-09-01
JP6439702B2 (ja) 2018-12-19
US10324523B2 (en) 2019-06-18
CN105593924B (zh) 2019-06-07
KR20160101894A (ko) 2016-08-26
CN105593924A (zh) 2016-05-18
KR102208329B1 (ko) 2021-01-26
EP3089154A1 (en) 2016-11-02
EP3089154A4 (en) 2017-08-30
EP3089154B1 (en) 2020-04-08
JPWO2015098292A1 (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6439702B2 (ja) 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム
US20230161157A1 (en) Image generation apparatus and image generation method
EP3163422B1 (en) Information processing device, information processing method, computer program, and image processing system
US20170036111A1 (en) Head position detecting apparatus and head position detecting method, image processing apparatus and image processing method, display apparatus, and computer program
EP2879098A1 (en) Three-dimensional environment sharing system, and three-dimensional environment sharing method
WO2017169081A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2008300983A (ja) 頭部装着型表示装置、及びその制御方法
US11507203B1 (en) Body pose estimation using self-tracked controllers
US20200388052A1 (en) Information processing device, information processing method, and program
US11694409B1 (en) Augmented reality using a split architecture
WO2013132885A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20180061956A (ko) 눈 위치 예측 방법 및 장치
EP3217256B1 (en) Interactive display system and method
US11954269B2 (en) Information processing apparatus, information processing method, and program for generating location data
GB2559809A (en) Motion tracking apparatus and system
CN115641392A (zh) 虚拟现实系统的数据处理方法、装置、服务器和介质
KR20190046387A (ko) Hmd 영상 보정 방법 및 hmd에 보정 영상을 표시하는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14875678

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015554644

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20167008121

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014875678

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014875678

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15026766

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE