WO2016157523A1 - 表示端末ならびに情報記録媒体 - Google Patents

表示端末ならびに情報記録媒体 Download PDF

Info

Publication number
WO2016157523A1
WO2016157523A1 PCT/JP2015/060622 JP2015060622W WO2016157523A1 WO 2016157523 A1 WO2016157523 A1 WO 2016157523A1 JP 2015060622 W JP2015060622 W JP 2015060622W WO 2016157523 A1 WO2016157523 A1 WO 2016157523A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
axis
display
space
display terminal
Prior art date
Application number
PCT/JP2015/060622
Other languages
English (en)
French (fr)
Inventor
直敬 藤井
Original Assignee
株式会社SR laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社SR laboratories filed Critical 株式会社SR laboratories
Priority to PCT/JP2015/060622 priority Critical patent/WO2016157523A1/ja
Priority to JP2016513151A priority patent/JP5961892B1/ja
Publication of WO2016157523A1 publication Critical patent/WO2016157523A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention provides a display terminal suitable for reducing the uncomfortable feeling given to the user when presenting the state of the observation space on the head mounted display according to the change in the orientation of the user's head, and the display terminal.
  • the present invention relates to a computer-readable non-transitory information recording medium on which a program is recorded.
  • an alternative reality system has been proposed that allows a user to recognize an event that does not actually occur in front of him as if it was actually occurring in front of him (Patent Document 1). reference).
  • Research on virtual reality (Augmented Reality) systems and augmented reality (Augmented Reality) systems is also underway as technologies similar to alternative reality systems.
  • virtual reality, augmented reality, etc. an observation space (Observation Space) different from the real space (Real Space) is prepared.
  • the observation space is constructed by combining panoramic images and omnidirectional images taken at different locations and times, as well as 3D graphics modeling technology.
  • an image representing a state of viewing the observation space from the observation position in the observation direction is generated by perspective projection or video segmentation, and the image is displayed on the head mounted display.
  • the user wears a head mounted display, a change in the user's head orientation is detected by a sensor or the like, and the observation direction is updated according to the detected change in the head orientation.
  • the present invention solves the problems as described above, and a display terminal that reduces the uncomfortable feeling given to the user when presenting the state of the observation space on the head-mounted display according to the change in the orientation of the user's head, and the display terminal
  • An object is to provide a computer-readable non-transitory information recording medium in which a program for realizing a display terminal is recorded.
  • the display terminal is In the observation space, set an observation position, an observation direction, and an observation axis that intersects an observation line extending from the observation position in the observation direction, Generate an image for observing the observation space from the observation position in the observation direction, and display it on a screen arranged in a real space, In the real space, the screen detects the display direction in which the video is displayed, and acquires the amount of rotation around the reference axis in the real space out of the change in the display direction.
  • the observation position and the observation direction are updated by rotating the observation position around the observation axis by the rotation amount around the acquired reference axis while the observation line intersects the observation axis. .
  • a display terminal that reduces discomfort given to the user and a program for realizing the display terminal are provided.
  • a recorded computer-readable non-transitory information recording medium can be provided.
  • FIG. 1 is an explanatory diagram showing an overview of a display terminal according to the present embodiment.
  • a description will be given with reference to FIG. 1
  • the display terminal 101 includes a setting unit 102, a display unit 103, an acquisition unit 104, and an update unit 105.
  • the display terminal 101 is configured by a head mounted display including various sensors and a control device.
  • a head mounted display may be constructed by attaching a smartphone, tablet computer, fablet, or the like to the attachment.
  • a program for causing a computer such as a smartphone to function as each unit described above is executed on the smartphone or the like.
  • the above programs are computer readable such as compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, ROM (Read (Only Memory), EEPROM (ElectricallylectErasable Programmable ROM), flash memory, semiconductor memory, etc. It can be recorded on a non-transitory information recording medium.
  • This information recording medium can be distributed and sold independently of a computer such as a smartphone.
  • a computer reads a program recorded on a non-transitory information recording medium into a RAM (Random Access Memory) which is a temporary storage device, and then a CPU (Central Processing Unit).
  • RAM Random Access Memory
  • CPU Central Processing Unit
  • the command included in the read program is executed.
  • the CPU directly reads and executes a command included in the program stored in the ROM.
  • the above program can be distributed and sold from a server device or the like to a terminal device or the like via a transitory transmission medium such as a computer communication network, independently of the computer on which the program is executed. .
  • an electronic circuit is configured by an FPGA (Field Programmable Gate Gate Array) or the like based on specifications determined by the program.
  • the display terminal is controlled by the electronic circuit.
  • FIG. 2 is a top view showing a state before the positional relationship between the display and the user changes in real space (time t a ).
  • FIG. 4 is a top view showing a state of the observation space before the positional relationship between the display and the user changes in the real space (time t a ).
  • FIG. 3 is a top view showing a state after the positional relationship between the display and the user changes in the real space (time t b ).
  • FIG. 5 is a top view showing the state of the observation space after the positional relationship between the display and the user changes in the real space (time t b ).
  • the user 203 wears the display terminal 101 that realizes the head mounted display 202 in front of his / her eyes.
  • the display direction 204 of the head mounted display 202 is opposite to the direction of the line of sight when the user 203 looks at the head mounted display 202.
  • An object 304 is arranged in the eyelid observation space 301.
  • the setting unit 102 sets an observation position 302, an observation line extending from the observation position 302 in the observation direction 303, and an observation axis 305 in the observation space 301.
  • the eyelid observation axis 305 is typically an axis extending in parallel to the vertical direction assumed in the observation space 301, but can be arbitrarily changed.
  • the eyelid display unit 103 generates an image for observing the observation space 301 in the observation direction 303, which is the direction in which the observation line extends from the observation position 302, and displays it on the screen of the head mounted display 202 arranged in the real space 201.
  • FIG. 6 is a display example showing the state of the observation space displayed on the screen before the positional relationship between the display and the user changes in the real space (time t a ).
  • This figure shows a state of an image displayed on the screen of the head mounted display 202 in the situation of FIGS. As shown in the figure, an object 304 is displayed at the center of the screen 401.
  • azimuth 211 in the real space and the azimuth 311 in the observation space may be shifted or matched. In these figures, both are shifted.
  • the acquisition unit 104 detects the display direction 204 in which the screen displays an image in the real space 201, and among the changes in the display direction 204 from the time t a to the time t b ,
  • the rotation amount ⁇ around the reference axis is acquired. 2 and 3, before the user 203 changes the head orientation, the display direction 204a is directed from the head mounted display 202a to the user 203a. After the head orientation is changed, the display direction 204b is the head mount. The display 202b is moving toward the user 203b.
  • An angle formed by the display direction 204a and the display direction 20ba is a rotation amount ⁇ around the reference axis, and the rotation amount ⁇ corresponds to a so-called yaw angle. In this figure, the user turns his head to the right.
  • the time interval from time t a to time t b can be determined according to the application.
  • the refresh interval of the screen of the head mounted display 202 for example, the vertical synchronization cycle
  • the time t b in a certain repeating unit is interpreted as the time t a in the next repeating unit.
  • the eyelid rotation amount ⁇ is acquired from the measurement results of the position / posture sensor and the acceleration sensor included in the head mounted display 202.
  • the reference axis in the real space 301 the gravity direction in the real space 301 or the vertical direction of the screen of the head mounted display 202 is typically adopted.
  • An observation axis that intersects an observation line extending in the observation direction from the observation position is set.
  • the setting unit 102 penetrates the object 304 with the observation axis 305 set as the observation target, and extends from the observation position 302 in the observation direction 303.
  • the position of the observation axis 305 and the observation direction 303 in which the observation line extends are set so as to satisfy the condition that the observation line intersects the observation axis 305. That is, if the object 304 set as the observation target is stationary in the observation space 301, the observation axis 305 is also stationary while penetrating the object 304.
  • the updating unit 105 rotates the observation position 303 around the observation axis 305 by the rotation amount ⁇ around the acquired reference axis while the observation line intersects with the observation axis 305, thereby obtaining the observation position 302 and the observation position. Update the observation direction 303 in which the line extends.
  • the observation position 302a is rotated to the observation position 302b by the rotation amount ⁇ around the observation axis 305.
  • the observation direction 303a is also rotated in the observation direction 303b by the rotation amount ⁇ .
  • the distance between the observation axis 305 and the observation position 302 does not change before and after the rotation.
  • the observation position 302 and the observation direction 303 are updated so that the change in the observation direction 303 coincides with the change in the display direction 204 (change in the direction of the user's head).
  • the observation position 302 rotates clockwise around the observation axis.
  • FIG. 7 is a display example showing the state of the observation space displayed on the screen after the positional relationship between the display and the user changes in the real space (time t b ).
  • This figure shows how the object 304 is displayed on the screen 401 in the situation of FIGS. As shown in the figure, the object 304 set as the observation target is displayed near the center of the screen 401 of the head mounted display 202.
  • the screen 401 is displayed as if the user moved around the object 304 while paying attention to the object 304 to be observed. Users often look near the center of the screen 401. Since the angle at which the head is rotated and the angle at which the observation position 301 moves around the object 304 set as the observation target are linked, the user hardly feels any sense of incongruity. Therefore, even if the user does not walk around himself, the user simply shakes his head, rotates his head while sitting on the chair, or rotates the chair and the entire body while sitting on the rotating chair. The appearance of the object 304 can be easily observed.
  • the situation where the observation axis 305 passes through the object 304 set as the observation target and the observation line extending from the observation position 301 in the observation direction 303 intersects the observation axis 305 is a so-called third person shooting game ( Similar to Third Person Shooter; TPS). That is, in TPS, the main character of the game corresponds to the observation object, and the camera work is configured so that the main character is looked down from behind the head, and the camera position and shooting direction are the observation position 301 and the observation direction. Corresponds to 303. However, in TPS, the position of the camera and the shooting direction are not changed so that the player observes the outer periphery of the main character according to the movement of the head. This is the difference between the present invention and TPS.
  • TPS Third Person Shooter
  • the position of the main character of the game corresponds to the observation position 301, and the direction of the main character corresponds to the observation direction 303.
  • FIG. 8 is a top view showing a state of an observation space in which an observation target is not set and an observation axis is arranged at an observation position.
  • FIG. 9 is a top view showing a state of the observation space after the observation target is not set, the observation axis is arranged at the observation position, and the positional relationship between the display and the user is changed in the real space.
  • a constraint condition that the observation axis 305 passes through the observation position 301 is provided, and the detected rotation amount ⁇ is set around the observation axis 305.
  • the observation direction 303 may be rotated.
  • FIG. 10 is a display example showing a state of the observation space displayed on the screen after the observation target is not set, the observation axis is arranged at the observation position, and the positional relationship between the display and the user is changed in the real space. .
  • the observation position 301 does not change and the observation direction 303 turns to the right, so that the object 304 moves to the left in the screen 401.
  • switching between the display method equivalent to TPS and the display form equivalent to FPS is based on whether any of the objects 304 arranged in the observation space 301 is set as an observation target. It can be carried out. That is, in a situation where no object 304 is set as an observation target, the observation axis 305 is positioned so as to penetrate the observation position 302, and the direction is set according to the direction of the user's head. Then, when any object 304 is set as an observation target, the observation axis 305 passes through both the observation position 30206 and the object 304 set as the observation target penetrating the observation axis 305. Move position and orientation.
  • the movement of the eyelid observation axis 305 may be performed immediately after the object 304 is set as an observation target. Moreover, it is good also as moving gradually according to a user's action. For example, every time a change in the display direction 204 is detected, the observation axis 305 is moved so that the observation axis 305 approaches the observation target, with a distance determined according to the change as an upper limit. In addition, the observation axis 305 may be smoothly moved as time passes.
  • FIG. 11 is a top view showing a state of the observation space while the observation axis is moving from the observation position toward the observation target.
  • an observation line extending from the observation position 302 in the observation direction 303 needs to pass through the observation axis 305. Therefore, when the user shakes his / her head, the observation direction 303 changes. Therefore, if the observation direction 303 is adjusted according to the movement of the observation axis 305, the user does not feel uncomfortable.
  • the observation direction 303 changes little by little even if the user does not change the direction of the head, but the change is set to be minute. If this is done, the user feels uncomfortable.
  • observation axis 305 when the observation axis 305 is moved according to a user's explicit instruction, for example, when the user cancels the setting of the observation target, the observation axis 305 may be immediately returned to a position penetrating the observation position 302. In this way, it is possible to change the mode of movement of the observation axis 305 according to the event that triggered the setting of the observation target and the type of event that triggered the cancellation of the setting of the observation target. is there.
  • FIG. 12 is a flowchart showing a control flow of processing executed by the display terminal according to the present embodiment.
  • a description will be given with reference to FIG.
  • the display terminal 101 sets an observation position 302 and an observation direction 303 in the observation space 301 (step S501).
  • the observation object is initialized to a state where it is not set, and the observation space is initialized so that the observation axis 305 penetrates the observation position 302 (step S502).
  • the observation space 301 is composed of a panoramic image or a three-dimensional image captured in the past, the image can be acquired in advance.
  • the observation space 301 is configured by computer graphics, the position, shape, orientation, and appearance of an object placed in the observation space 301 at the time of initialization or the like can be acquired and set, It is also possible to acquire and set a background image that is assumed to be arranged at infinity.
  • observation target may be set from the start of the operation.
  • observation axis 305 is set so as to penetrate the object 304 set as the observation target.
  • the display terminal 101 acquires the rotation amount ⁇ (corresponding to the pitch angle) that the display direction of the screen of the head mounted display is rotated around the reference axis in the real space from the measurement result of the sensor or the like (step S503). Since step S503 is repeatedly executed, the rotation amount ⁇ acquired here corresponds to the difference between the display direction last measured by a sensor or the like and the display direction measured this time.
  • the display terminal 101 updates these settings so that the observation position 302 and the observation direction 303 rotate about the observation axis 305 by ⁇ . (Step S504).
  • the display terminal 101 generates an image representing a state in which the inside of the observation space 301 is viewed from the observation position 302 in the observation direction 303 (step S505).
  • the image it is possible to use a panoramic image, an all-around image, or computer graphics technology disclosed in Patent Document 1 or the like.
  • observation space 301 when the observation space 301 is composed of a panoramic image or a three-dimensional image captured in the past, an image associated with a desired direction may be cut out from the image.
  • an image is generated using a technique such as perspective projection.
  • the display terminal 101 waits until the vertical synchronization interrupt of the head mounted display 202 occurs (step S506), and then transfers the generated image to the screen 401 and presents it to the user (step S507).
  • the display terminal 101 updates the state of the observation space 301 (step S508).
  • the observation space 301 changes with the passage of time for example, when the panoramic video or the all-around video is a moving image
  • the current frame is selected with the passage of time.
  • physical simulation is performed to update the position and orientation of an object according to the speed, acceleration, angular velocity, each acceleration, etc. set for the object, and deformation or the like is performed based on predetermined conditions. It is also good to do.
  • the state of the observation space 301 includes the update of the presence / absence of setting of the observation target.
  • the observation target is set with the following event as a trigger. Which of these events is adopted and which is combined can be changed as appropriate according to the use.
  • step S509 determines whether or not an observation target is set. If the observation target is set (step S509; Yes), the target position of the observation axis 305 is updated to a position penetrating the object 304 (step S510), and the process proceeds to step S512.
  • step S509 the display terminal 101 updates the target position of the observation axis 305 to a position that penetrates the observation position 302 (step S511), and proceeds to step S512. .
  • the observation axis 305 may be regarded as penetrating the object 304, or the representative point (center, center of gravity, reference point) of the object 304 ) May be a necessary and sufficient condition for penetration of the object 304.
  • the display terminal 101 calculates a difference distance between the current position of the observation axis 305 and the target position of the observation axis 305 (step S512), and the calculated difference distance and the rotation amount acquired in step S503.
  • the movement distance for moving the observation axis 305 is calculated according to ⁇ (step S513).
  • the observation axis 305 When the heel difference distance is zero, the observation axis 305 has already reached the target position, so the movement distance may be zero. When the movement distance is made to coincide with the difference distance, the observation axis 305 is moved instantaneously.
  • the movement distance is set so that the movement distance becomes smaller as the eyelid rotation amount ⁇ is smaller, the uncomfortable feeling associated with the movement of the observation axis 305 can be reduced.
  • an upper limit value of the movement distance is calculated according to the rotation amount ⁇ , and then the upper limit value is compared with the difference distance. And (a) If the difference distance is greater than or equal to the upper limit value, the upper limit value is adopted as the movement distance, (b) If the difference distance is less than the upper limit, the difference distance is adopted as the movement distance.
  • the display terminal 101 moves the observation axis 305 by the movement distance toward the target position of the observation axis 305 in the observation space (step S514), and returns to step S503.
  • step S506 since it waits in step S506, this repetition period becomes a vertical synchronizing period. Therefore, in each iteration, the current time is t b, so that the time earlier by the vertical synchronizing cycle of the present time is interpreted as t a.
  • the observation axis 305 is moved according to the presence or absence of the setting of the observation target, and while the observation target is set, the user can, for example, sit on a chair, Just by changing the direction, in the observation space, you can experience as if you can walk around the observation object and observe the observation object, so that the user does not feel uncomfortable can do.
  • the present embodiment relates to processing when the user swings the head up and down, such as when looking up or looking down.
  • the change in head orientation here corresponds to a so-called pitch angle.
  • an axis for measuring the pitch angle is determined.
  • This axis is called the reference axis.
  • the reference axis is an axis orthogonal to the display direction and the reference axis in the real space. If the display direction is substantially horizontal and the reference axis is the vertical axis, the reference axis extends in the left-right direction of the display. The amount of rotation around the reference axis corresponds to the pitch angle.
  • step S503 the acquiring unit 104 further acquires the rotation amount around the reference axis orthogonal to the display direction and the reference axis, among the changes in the display direction.
  • step S504 the setting unit 102 rotates the observation direction by the amount of rotation around the acquired reference axis, with the observation line intersecting the observation axis, with the observation position as the center. That is, the observation direction is changed up and down in the observation space.
  • the direction of observing the observation space is changed following the movement of shaking the head up and down and the head moving to the left and right, so the user observes the observation space without feeling uncomfortable. can do.
  • whether or not to perform the pitch angle and roll angle processing can be appropriately changed according to the use of the display terminal 101 and the user's qualities, and may be selected based on the user's desire. For example, in the case of a user who is prone to three-dimensional sickness, it is often better to perform only vertical rotation without processing the pitch angle and roll angle.
  • each display terminal 101 exchanges the observation direction set for itself with other display terminals that share the observation space in synchronization.
  • each display terminal 101 obtains the average direction and variation of the obtained observation directions of the other display terminals.
  • the average direction the sum of unit vectors representing the observation direction of each user is obtained, and the direction vector of the sum is calculated (unit vectorization).
  • the angle formed by this and the observation direction set by another display terminal is obtained, and the average of the obtained angles is calculated.
  • the average value obtained corresponds to the variation in the observation direction.
  • the display terminal 101 arranges a mark representing the variation on the background located in the average direction from the observation position in the background of the observation space.
  • FIG. 13 is a display example informing the trends of other users who use other display terminals that share the observation space in synchronization with the display terminal according to the present embodiment.
  • a circle with a radius corresponding to the angle of variation is drawn on the screen 401 as a mark 402 representing the variation in the observation direction from the observation position to the infinity of the average direction.
  • the mark 402 is arranged in the background of the object 304, and the user of the display terminal 101 is informed that many other users are paying attention to the object 304.
  • the object 304 is automatically set as the observation target. Can be adopted.
  • the object 304 through which the observation line extending from the observation position 302 of each user in the observation direction 303 first penetrates is the object that the user is currently paying attention to. If most users are paying attention to the object 304, the size of the mark 402 will be reduced.
  • a threshold is set for the number of users sharing the observation space while synchronizing the observation space, and if the number of users more than the threshold pays attention to the same object 304, the object 304 is automatically set as an observation target. .
  • the setting of the observation target may be canceled by an instruction from each user, or the setting of the observation target may be automatically canceled after a predetermined time has elapsed.
  • the mark 402 is not limited to a circular shape, and any shape such as a square, a rectangle, or a star shape can be adopted. Further, instead of drawing the outer periphery of the mark 402 with a line, the color, transparency, and clarity may be changed between the inside of the mark 402 and the outside of the mark 402. For example, a mark 402 whose transparency changes gradually is adopted, and the direction in which many users are paying attention is clearly displayed, but other directions are displayed in a blurred manner. You can also
  • the background located in the observation direction from the observation position corresponds to the infinity point X viewed by the user, and the background located in the average direction from the observation position is infinity viewed by other users on average.
  • point Y corresponds to point Y.
  • mark 402 is displayed at infinity point Y.
  • an arrow-shaped mark from infinity point X to infinity point Y is displayed at infinity point X or infinity point X and infinity point.
  • An aspect such as drawing in the middle of Y may be adopted.
  • the display terminal is A setting unit for setting an observation position, an observation direction, and an observation axis that intersects an observation line extending from the observation position in the observation direction in the observation space;
  • a display unit that generates an image for observing the observation space from the observation position in the observation direction, and displays the image on a screen arranged in a real space;
  • An acquisition unit that detects a display direction in which the screen displays the video in the real space, and acquires a rotation amount around a reference axis in the real space among changes in the display direction;
  • the observation position and the observation direction are updated by rotating the observation position around the observation axis by the rotation amount around the acquired reference axis while the observation line intersects the observation axis.
  • An update unit can be provided.
  • the position of the observation axis can be set so that the observation axis penetrates the observation target.
  • the observation axis is moved so that the reference axis approaches the observation target until the observation axis penetrates the observation target.
  • the distance that the observation axis moves can be configured to be determined by the acquired amount of rotation around the reference axis or the passage of time.
  • the display terminal is shared with other display terminals while synchronizing the observation space and the setting of the observation target,
  • the observation position, the observation direction, and the observation axis are set independently from the other display terminals, Find the average direction and variation of the observation direction set in the other display terminal, A mark representing the obtained variation can be arranged in the background of the observation space.
  • the mark is a background positioned in the determined average direction from the observation position, a background positioned in the observation direction from the observation position, or a background positioned in the average direction determined from the observation position and the observation It can be configured to be arranged between the position and the background located in the observation direction.
  • the setting unit is set so that the observation axis extends in a vertical direction in the observation space
  • the reference axis may be configured to penetrate the screen and extend in the direction of gravity in the real space or in the vertical direction of the screen.
  • the acquisition unit further acquires a rotation amount around a reference axis that is orthogonal to the display direction and the reference axis, among changes in the display direction
  • the setting unit may be configured to rotate the observation direction around the observation position while intersecting the observation line with the observation axis by the acquired rotation amount around the reference axis. it can.
  • the computer-readable non-transitory information recording medium can be configured to cause the computer to function as each unit of the display terminal.
  • a display terminal that reduces discomfort given to the user and a program for realizing the display terminal are provided.
  • a recorded computer-readable non-transitory information recording medium can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

表示端末(101)は、ユーザの頭の向きの変化に応じて観察空間の様子をヘッドマウントディスプレイに提示する際に、ユーザに与える違和感を低減する。表示端末(101)において、設定部(102)は、観察空間において、観察位置と、観察方向と、観察位置から観察方向に伸びる観察線に交差する観察軸と、を、設定する。表示部(103)は、観察空間を観察位置から観察方向に観察する映像を生成して、現実空間に配置される画面に表示する。取得部(104)は、現実空間において、画面が映像を表示する表示方向を検知して、当該表示方向の変化のうち、現実空間における基準軸周りの回転量を取得する。更新部(105)は、観察線が観察軸と交差したまま、取得された基準軸周りの回転量だけ、観察位置を観察軸の周りで回転させることにより、観察位置および観察方向を更新する。

Description

表示端末ならびに情報記録媒体
  本発明は、ユーザの頭の向きの変化に応じて観察空間の様子をヘッドマウントディスプレイに提示する際に、ユーザに与える違和感を低減するのに好適な表示端末ならびに当該表示端末を実現するためのプログラムが記録されたコンピュータ読取可能な非一時的な情報記録媒体に関する。
  従来から、ユーザに対して実際は目の前で起きていない事象を、あたかも実際に目の前で起きている事象であるかのように認識させる代替現実システムが提案されている(特許文献1を参照)。代替現実システムに類似する技術として、仮想現実(Virtual Reality)システムや拡張現実(Augmented Reality)システムなどの研究も進められている。代替現実、仮想現実、拡張現実等では、現実空間(Real Space)とは異なる観察空間(Observation Space)が用意される。観察空間は、異なる場所や時間等に撮影されたパノラマ映像や全方位映像のほか、3次元グラフィックスのモデリング技術を組み合わせることによって構築される。
  これらの技術においては、観察位置から観察方向に観察空間を見た様子を表す画像が、透視投影や映像の切り出しによって生成され、当該画像がヘッドマウントディスプレイに表示される。ユーザは、ヘッドマウントディスプレイを装着し、ユーザの頭の向きの変化がセンサ等により検知され、観察方向は、検知された頭の向きの変化に応じて更新される。
  従来は、ヘッドマウントディスプレイを装着したユーザが、移動せずに頭の向きだけを変えた場合には、観察位置は変化せず、観察位置を中心に観察方向を変化させていた。これは、現実空間におけるユーザの位置や向きを、そのまま観察空間に反映させることが、リアリティを向上させる、と考えられていたからである。
  このため、観察位置を移動させるには、現実空間においてユーザが歩き回って自身の位置を変化させるか、各種のコントローラ等を利用して観察位置を移動する指示をシステムに伝達するのが一般的であった。
特開2014-38523号公報
  しかしながら、たとえば多数のユーザが同じ観察空間を共有しているような場合には、現実空間内でユーザが歩き回ることが不可能な場合もある。一方で、コントローラ等を用いた移動の指示は、リアリティを低減させる、という問題がある。
  本発明は、以上のような課題を解決するもので、ユーザの頭の向きの変化に応じて観察空間の様子をヘッドマウントディスプレイに提示する際に、ユーザに与える違和感を低減する表示端末ならびに当該表示端末を実現するためのプログラムが記録されたコンピュータ読取可能な非一時的な情報記録媒体を提供することを目的とする。
  本発明に係る表示端末は、
  観察空間において、観察位置と、観察方向と、前記観察位置から前記観察方向に伸びる観察線に交差する観察軸と、を、設定し、
  前記観察空間を前記観察位置から前記観察方向に観察する映像を生成して、現実空間に配置される画面に表示し、
  前記現実空間において、前記画面が前記映像を表示する表示方向を検知して、当該表示方向の変化のうち、前記現実空間における基準軸周りの回転量を取得し、
  前記観察線が前記観察軸と交差したまま、前記取得された前記基準軸周りの回転量だけ、前記観察位置を前記観察軸の周りで回転させることにより、前記観察位置および前記観察方向を更新する。
  本発明によれば、ユーザの頭の向きの変化に応じて観察空間の様子をヘッドマウントディスプレイに提示する際に、ユーザに与える違和感を低減する表示端末ならびに当該表示端末を実現するためのプログラムが記録されたコンピュータ読取可能な非一時的な情報記録媒体を提供することができる。
本実施形態に係る表示端末の概要を示す説明図である。 現実空間においてディスプレイとユーザの位置関係が変化する前(時刻ta)の様子を示す上面図である。 現実空間においてディスプレイとユーザの位置関係が変化した後(時刻tb)の様子を示す上面図である。 現実空間においてディスプレイとユーザの位置関係が変化する前(時刻ta)の、観察空間の様子を示す上面図である。 現実空間においてディスプレイとユーザの位置関係が変化した後(時刻tb)の、観察空間の様子を示す上面図である。 現実空間においてディスプレイとユーザの位置関係が変化する前(時刻ta)に画面に表示される観察空間の様子を示す表示例である。 現実空間においてディスプレイとユーザの位置関係が変化した後(時刻tb)に画面に表示される観察空間の様子を示す表示例である。 観察対象が設定されておらず、観察軸が観察位置に配置された観察空間の様子を示す上面図である。 観察対象が設定されておらず、観察軸が観察位置に配置され、現実空間においてディスプレイとユーザの位置関係が変化した後の、観察空間の様子を示す上面図である。 観察対象が設定されておらず、観察軸が観察位置に配置され、現実空間においてディスプレイとユーザの位置関係が変化した後に画面に表示される観察空間の様子を示す表示例である。 観察軸が観察位置から観察対象に向かって移動している途中の、観察空間の様子を示す上面図である。 本実施形態に係る表示端末にて実行される処理の制御の流れを示すフローチャートである。 本実施形態に係る表示端末と観察空間を同期して共有する他の表示端末を使用する他のユーザの動向を知らせる表示例である。
  以下に本発明の実施形態を説明する。なお、本実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
  図1は、本実施形態に係る表示端末の概要を示す説明図である。以下、本図を参照して説明する。
  本実施例に係る表示端末101は、設定部102、表示部103、取得部104、更新部105を備える。表示端末101は、各種のセンサや制御装置を備えたヘッドマウントディスプレイにより構成される。スマートフォンやタブレットコンピュータ、ファブレット等をアタッチメントに装着することにより、ヘッドマウントディスプレイを構築することとしても良い。この場合には、スマートフォン等のコンピュータを上記各部として機能させるためのプログラムを、当該スマートフォン等にて実行させることになる。
  上記のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、ROM(Read Only Memory)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ、半導体メモリ等のコンピュータ読み取り可能な非一時的(non-transitory)情報記録媒体に記録することができる。この情報記録媒体は、スマートフォン等のコンピュータとは独立して配布・販売することができる。
  一般には、コンピュータは、非一時的(non-transitory)情報記録媒体に記録されたプログラムを、一時的(temporary)記憶装置であるRAM(Random Access Memory)に読み出してから、CPU(Central Processing Unit)が読み出されたプログラムに含まれる指令を実行する。ただし、ROMとRAMを一つのメモリ空間にマッピングして実行することが可能なアーキテクチャでは、ROMに格納されたプログラムに含まれる指令を、直接CPUが読み出して実行する。
  さらに、上記のプログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網等の一時的(transitory)伝送媒体を介して、サーバ装置等から端末装置等へ配布・販売することができる。
  このほか、プログラムにより定められた仕様に基づいてFPGA(Field Programmable Gate Array)等により電子回路を構成する態様を採用することもできる。この場合には、当該電子回路によって表示端末が制御されることになる。
  図2は、現実空間においてディスプレイとユーザの位置関係が変化する前(時刻ta)の様子を示す上面図である。図4は、現実空間においてディスプレイとユーザの位置関係が変化する前(時刻ta)の、観察空間の様子を示す上面図である。また、図3は、現実空間においてディスプレイとユーザの位置関係が変化した後(時刻tb)の様子を示す上面図である。図5は、現実空間においてディスプレイとユーザの位置関係が変化した後(時刻tb)の、観察空間の様子を示す上面図である。以下、これらの図を参照して説明する。なお、これらの図においては、時刻taから時刻tbまでの時間の経過を表すために、英小文字を適宜付与している。以下の説明では、当該英小文字を適宜省略して説明する。
  現実空間201の中で、ユーザ203は、ヘッドマウントディスプレイ202を実現する表示端末101を眼前に装着する。ユーザ203がヘッドマウントディスプレイ101を装着しているときには、ヘッドマウントディスプレイ202の表示方向204は、ユーザ203がヘッドマウントディスプレイ202を見る視線の向きと逆向きとなる。
  観察空間301の中には、オブジェクト304が配置されている。これらの図においては、観察空間301に配置された複数のオブジェクトのうち、いずれかのオブジェクトが観察対象として設定されている状況を想定する。設定部102は、観察空間301において、観察位置302と、観察位置302から観察方向303に伸びる観察線と、観察軸305と、を設定する。
  観察軸305は、観察空間301内に想定された鉛直方向に並行に伸びる軸とするのが典型的であるが、任意に変更が可能である。
  表示部103は、観察位置302から観察線の伸びる方向である観察方向303に、観察空間301を観察する映像を生成して、現実空間201に配置されるヘッドマウントディスプレイ202の画面に表示する。
  図6は、現実空間においてディスプレイとユーザの位置関係が変化する前(時刻ta)に画面に表示される観察空間の様子を示す表示例である。本図は、図2 , 4の状況で、ヘッドマウントディスプレイ202の画面に表示される画像の様子を示す。本図に示すように、画面401の中央には、オブジェクト304が表示されている。
  なお、現実空間における方位211と観察空間における方位311とは、ずれていても良いし、一致させることとしても良い。これらの図においては、両者はずれている。
  上記の技術要素は、たとえば3次元仮想空間内をキャラクターが冒険するゲームをヘッドマウントディスプレイによりプレイする状況にて利用される技術と同様である。
  さて、取得部104は、現実空間201において、画面が映像を表示する表示方向204を検知して、時刻taから時刻tbまでの間の当該表示方向204の変化のうち、現実空間301における基準軸周りの回転量θを取得する。図2, 3を対比すると、ユーザ203が頭の向きを変える前は、表示方向204aはヘッドマウントディスプレイ202aからユーザ203aへ向かっており、頭の向きを変えた後は、表示方向204bはヘッドマウントディスプレイ202bからユーザ203bへ向かっている。表示方向204aと表示方向20baとがなす角が基準軸周りの回転量θであり、回転量θは、いわゆるヨー角に相当する。本図では、ユーザは、頭を右に回している。
  時刻taから時刻tbまでの時間間隔は、用途に応じて定めることができる。たとえば、ヘッドマウントディスプレイ202の画面のリフレッシュ間隔(たとえば、垂直同期周期)とすることができる。また、後述するように、処理は繰り返し行われるので、ある繰り返し単位における時刻tbは、次の繰り返し単位における時刻taとして解釈される。
  回転量θは、ヘッドマウントディスプレイ202が備える位置・姿勢センサや加速度センサの測定結果から、取得される。現実空間301における基準軸としては、現実空間301における重力方向、あるいは、ヘッドマウントディスプレイ202の画面の上下方向を採用するのが典型的である。観察位置から観察方向に伸びる観察線に交差する観察軸と、を、設定する。
  ここで、本実施形態においては、オブジェクト304が観察対象に設定されると、設定部102は、観察軸305が観察対象に設定されたオブジェクト304を貫通し、観察位置302から観察方向303に伸びる観察線が観察軸305に交差する、という条件を満たすように、観察軸305の位置と観察線が伸びる観察方向303と、を設定する。すなわち、観察対象に設定されたオブジェクト304が観察空間301にて静止していれば、観察軸305も、当該オブジェクト304を貫通したまま静止していることになる。
  そして、更新部105は、観察線が観察軸305と交差したまま、取得された基準軸周りの回転量θだけ、観察位置303を観察軸305の周りで回転させることにより、観察位置302および観察線が伸びる観察方向303を更新する。
  図4, 5を比較すると、観察軸305を中心に、観察位置302aが観察位置302bへ回転量θだけ回転している。これにより、観察方向303aも観察方向303bへ回転量θだけ回転している。観察軸305と観察位置302の間の距離は、回転の前後で変化していない。
  すなわち、観察方向303の変化は、表示方向204の変化(ユーザの頭の向きの変化)と一致するように観察位置302と観察方向303が更新されている。本例では、ユーザが頭を右に回すと、観察位置302が観察軸を中心に右周りに回転移動する。
  図7は、現実空間においてディスプレイとユーザの位置関係が変化した後(時刻tb)に画面に表示される観察空間の様子を示す表示例である。本図は、図3 , 5の状況で、画面401にオブジェクト304が表示される様子を示している。本図に示すように、観察対象に設定されたオブジェクト304は、ヘッドマウントディスプレイ202の画面401の中央付近に表示される。
  すなわち、ユーザが頭の向きを変えるだけで、観察対象となっているオブジェクト304に注目したまま、当該オブジェクトの周りを移動したかのように、画面401に対する表示が行われる。ユーザは、画面401の中央付近を見ていることが多いこと。頭を回転させる角度と観察位置301が観察対象に設定されたオブジェクト304の周りを移動する角度とが連動していることから、ユーザは違和感をほとんど感じない。このため、ユーザは、自分で歩き回らなくとも、頭を振ったり、椅子に座ったまま頭を回転したり、回転椅子に座ったまま椅子と体全体を回転させたりするだけで、当該オブジェクト304の周りを巡ることができ、当該オブジェクト304の外観を容易に観察することができる。
  なお、観察軸305が、観察対象に設定されたオブジェクト304を貫通し、観察位置301から観察方向303に伸びる観察線が、観察軸305と交差する、という状況は、いわゆるサードパーソン・シューティングゲーム(Third Person Shooter; TPS)に類似している。すなわち、TPSでは、ゲームの主人公キャラクターが観察対象に相当し、主人公キャラクターを、その頭上後方から見下ろすように、カメラワークが構成されており、カメラの位置および撮影方向が、観察位置301および観察方向303に相当する。しかしながら、TPSでは、プレイヤーが頭の方向を変化させる動作に応じて主人公キャラクターの外周を観察するようにカメラの位置や撮影方向を変化させることはない。この点が、本願発明とTPSとの相違点である。
  一方、ファーストパーソン・シューティングゲーム(First Person Shooter; FPS)では、ゲームの主人公キャラクターの位置が観察位置301に、主人公キャラクターの向きが観察方向303に、それぞれ対応する。そして、TPSとFPSとを切り換えられるようにしたゲームも存在する。
  そこで、本実施形態において、FPSに類似する態様を実現することも可能である。図8は、観察対象が設定されておらず、観察軸が観察位置に配置された観察空間の様子を示す上面図である。図9は、観察対象が設定されておらず、観察軸が観察位置に配置され、現実空間においてディスプレイとユーザの位置関係が変化した後の、観察空間の様子を示す上面図である。これらの図に示すように、FPSに相当する構成を実現するには、観察軸305が観察位置301を通過する、という拘束条件を設けて、検知された回転量θだけ、観察軸305周りで観察方向303を回転させれば良い。
  図10は、観察対象が設定されておらず、観察軸が観察位置に配置され、現実空間においてディスプレイとユーザの位置関係が変化した後に画面に表示される観察空間の様子を示す表示例である。本図に示すように、ユーザが頭を右に回すと、観察位置301は変化せず、観察方向303が右に回るため、画面401の中で、オブジェクト304は左に移動することになる。
  本実施形態において、TPS相当の表示方法と、FPS相当の表示形態との切り換えは、観察空間301に配置されているオブジェクト304のいずれかが、観察対象に設定されているか否か、に基づいて行うことができる。すなわち、いずれのオブジェクト304も観察対象に設定されていない状況では、観察軸305は、観察位置302を貫通するように位置を定め、その方向は、ユーザの頭の向きに合わせて設定する。そして、いずれかのオブジェクト304が観察対象に設定されたら、観察軸305は、観察位置30206と、貫通する当該観察対象に設定されたオブジェクト304と、の両方を貫通するように、観察軸305の位置および向きを移動させる。
  観察軸305の移動は、オブジェクト304が観察対象に設定された後、直ちに行うこととしても良い。また、ユーザの行動に応じて次第に移動することとしても良い。たとえば、表示方向204の変化が検知されるごとに、その変化に応じて定められる距離を上限として、観察軸305が観察対象に近付くように観察軸305を移動させる、という態様である。このほか、時間の経過に応じて滑らかに観察軸305を移動させることとしても良い。
  図11は、観察軸が観察位置から観察対象に向かって移動している途中の、観察空間の様子を示す上面図である。本図に示すように、観察軸305が移動した後は、観察位置302から観察方向303に伸びる観察線が観察軸305を通過する必要がある。そこで、ユーザが頭を振った際には、観察方向303が変化するので、観察軸305の移動にあわせて観察方向303を調整すれば、ユーザは違和感を感じない。また、時間の経過に応じて観察軸305を移動させる場合には、ユーザが頭の向きを変えなくても、観察方向303が少しずつ変化していくが、その変化が微小であるように設定しておけば、ユーザが感じる違和感は抑制される。
  なお、ユーザの明示の指示によって観察軸305を移動する場合、たとえば、ユーザが観察対象の設定を解除する場合などは、観察軸305を直ちに観察位置302を貫通する位置に戻しても良い。このように、観察対象が設定される契機となったイベントや、観察対象の設定が解除される契機となったイベントの種類に応じて、観察軸305の移動の態様を変化させることが可能である。
  図12は、本実施形態に係る表示端末にて実行される処理の制御の流れを示すフローチャートである。以下、本図を参照して説明する。
  本処理が開始されると、表示端末101は、観察空間301内において、観察位置302、および観察方向303を設定する(ステップS501)。
  そして、観察空間301において、観察対象を設定されていない状態に初期化し、観察軸305が観察位置302を貫通するように、観察空間を初期化する(ステップS502)。
  この初期化の際には、観察空間301が過去に撮影されたパノラマ画像や3次元映像からなる場合には、当該画像をあらかじめ取得しておくことができる。また、観察空間301がコンピュータグラフィックスにより構成される場合には、初期化時等に観察空間301内に配置されるオブジェクトの位置、形状、向き、外観を取得、設定したり、観察空間301の無限遠方に配置されると想定される背景の画像などを取得、設定することとしても良い。
  なお、動作開始の時点から観察対象を設定しても良い。この場合には、観察軸305は、観察対象に設定されたオブジェクト304を貫通するように設定する。
  ついで、表示端末101は、センサ等の測定結果から、ヘッドマウントディスプレイの画面の表示方向が、現実空間において基準軸周りに回転した回転量θ(ピッチ角に相当)を取得する(ステップS503)。ステップS503は、繰り返し実行されるので、ここで取得される回転量θは、センサ等により前回測定された表示方向と、今回測定された表示方向と、の差分に相当する。
  その後、表示端末101は、観察位置302および観察方向303が観察軸305周りにθだけ回転するように、これらの設定を更新する。(ステップS504)。
  そして、表示端末101は、観察空間301内を観察位置302から観察方向303に見た様子を表す画像を生成する(ステップS505)。当該画像の生成には、特許文献1等に開示されたパノラマ画像や全周囲画像、コンピュータグラフィックスの技術を利用することが可能である。
  たとえば、観察空間301が過去に撮影されたパノラマ画像や3次元映像からなる場合には、当該映像から、所望の方向に対応付けられる画像を切り出せば良い。観察空間301がコンピュータグラフィックスにより構成される場合には、透視投影等の技術を用いて画像を生成する。
  この後、表示端末101は、ヘッドマウントディスプレイ202の垂直同期割込が生じるまで待機してから(ステップS506)、生成された画像を画面401に転送して、ユーザに提示する(ステップS507)。
  この後、表示端末101は、観察空間301の状態を更新する(ステップS508)。観察空間301が時間の経過に応じて変化する場合、たとえば、パノラマ映像や全周囲映像が動画である場合には、時間経過に応じて、現在時点のフレームを選択する。コンピュータグラフィックスによる場合には、オブジェクトの位置や向きを、当該オブジェクトに設定された速度、加速度、角速度、各加速度等により更新する物理シミュレーションを行ったり、あらかじめ定められた条件に基づいて変形等をすることとしても良い。
  ここで、観察空間301の状態には、観察対象の設定の有無の更新が含まれる。観察対象は、以下のようなイベントをきっかけとして設定される。これらのイベントのいずれを採用するか、ならびに、いずれを組み合わせるか、は、用途等に応じて適宜変更が可能である。
  (1)表示端末101を利用しているユーザ自身の指示、もしくは、当該ユーザにコンテンツを提供している提供者の指示に基づいて、観察対象が設定されたり設定が解除されたりする。
  (2)観察空間301を同期して共有している他のユーザがいる場合には、たとえば、大半のユーザが現在注目しているオブジェクト304が、自動的に観察対象に設定される。この態様については、後述する。
  (3)コンテンツに、あらかじめ、観察対象の設定およびその解除の条件や手順を組み込んでおき、時間の経過や観察空間301における状態の変化に応じて、自動的に観察対象の設定およびその解除がなされる。
  そして、表示端末101は、観察対象が設定されているか否かを判定する(ステップS509)。観察対象が設定されていれば(ステップS509;Yes)、観察軸305の目標位置を、オブジェクト304を貫通する位置に更新して(ステップS510)、ステップS512に進む。
  一方、観察対象が設定されていなければ(ステップS509;No)、表示端末101は、観察軸305の目標位置を、観察位置302を貫通する位置に更新して(ステップS511)、ステップS512に進む。
  ここで、観察軸305は、オブジェクト304のいずれかの部分を通過していれば、当該オブジェクト304を貫通しているものとみなしても良いし、オブジェクト304の代表点(中心、重心、基準点)を通過することを、当該オブジェクト304の貫通の必要十分条件としても良い。
  ついで、表示端末101は、観察軸305の現在位置と、観察軸305の目標位置と、の差分距離を計算し(ステップS512)、計算された差分距離と、ステップS503にて取得された回転量θとに応じて、観察軸305を移動させる移動距離を計算する(ステップS513)。
  差分距離がゼロである場合には、観察軸305はすでに目標位置に到達していることになるから、移動距離もゼロとすれば良い。移動距離を差分距離と一致させると、観察軸305の移動を瞬時に行うことになる。
  回転量θが小さければ小さいほど移動距離を小さくするように移動距離の設定を行えば、観察軸305の移動に伴なう違和感を低減することができる。
  なお、移動距離が差分距離を超えると、目標位置を行き過ぎてしまうので、移動距離は、差分距離以下としなければならない。そこで、まず、回転量θに応じて移動距離の上限値を計算し、その上で、当該上限値と差分距離とを比較する。そして、
  (a)差分距離が当該上限値以上であれば、当該上限値を移動距離として採用し、
  (b)差分距離が当該上限値未満であれば、差分距離を移動距離として採用する。
  ついで、表示端末101は、観察空間内において、観察軸305を、観察軸305の目標位置に向かって、移動距離だけ移動し(ステップS514)、ステップS503に戻る。
  なお、ステップS506において待機することから、この繰り返しの周期は、垂直同期周期となる。したがって、各繰り返しでは、現在時刻がtb、現在時刻より垂直同期周期だけ前の時刻がtaと解釈されることになる。
  このように、本実施形態によれば、観察対象の設定の有無に応じて観察軸305を移動させ、観察対象が設定されている間は、ユーザは、たとえば椅子に座ったままでも、頭の向きを変えるだけで、観察空間内においては、観察対象の周りを歩き回って観察対象を観察することができるかのような経験をすることができ、その際に、ユーザは違和感を感じないようにすることができる。
  (ピッチ角とロール角)
  上記実施例では、ユーザが左を見たり右を見たり、と、頭の向きを左右に振るだけで、観察対象の周りを歩き回って観察をしたかのような経験をユーザに与えていた。ここでいう頭の向きの変化は、いわゆるヨー角に相当するものである。
  本実施形態は、これに加えて、ユーザが上を見たり下を見たり、と、頭の向きを上下に振った場合の処理に係るものである。ここでいう頭の向きの変化は、いわゆるピッチ角に相当する。
  まず、本実施形態では、ピッチ角を測定するための軸を定める。この軸を参照軸と呼ぶ。参照軸は、現実空間において、表示方向および基準軸と直交する軸のことである。表示方向が略水平であり、基準軸が鉛直軸であれば、参照軸は、ディスプレイの左右方向に伸びることになる。参照軸周りの回転量が、ピッチ角に相当する。
  そして、取得部104は、ステップS503において、表示方向の変化のうち、表示方向ならびに基準軸に直交する参照軸周りの回転量をさらに取得する。
  一方、設定部102は、ステップS504において、取得された参照軸周りの回転量だけ、観察位置を中心に、観察線を観察軸と交差させたまま、観察方向を回転させる。すなわち、観察空間内において、観察方向を上下に変化させることになる。
  このほか、ロール角についても対応することが可能である。この場合には、現実空間において、表示方向を表す軸周りの回転量を取得し、仮想空間を観察する際の透視投影の投影面を、当該回転量だけ回転させれば良い。
  本実施形態では、頭の向きを上下に振ったり、頭を左右にかしげたりする動作に追随して、観察空間を観察する方向を変化させるので、ユーザは違和感を感じずに、観察空間を観察することができる。
  なお、ピッチ角やロール角の処理を実行するか否かは、表示端末101の用途やユーザの資質に応じて適宜変更が可能であり、ユーザの希望に基づいて選択しても良い。たとえば、3次元酔いしやすいユーザの場合には、ピッチ角やロール角の処理は行わず、鉛直回転のみを行う方が良いことも多い。
  (他のユーザの動向)
  本実施形態では、たとえば複数のユーザが一つの部屋に並べられた椅子に座って各々表示端末101を装着し、同じ観察空間を同期しながら観察する体験をする状況を想定する。
  このような状況では、他のユーザの動向を知りたいことがある。また、他のユーザが注目しているオブジェクトを、自分でも観察したい、ということもある。
  そこで、本実施形態では、各表示端末101は、観察空間を同期して共有する他の表示端末と、自身に設定された観察方向を送受し合う。
  そして、各表示端末101は、得られた他の表示端末の観察方向の平均方向およびばらつきを求める。平均方向を得るには、各ユーザの観察方向を表す単位ベクトルの総和を求め、当該総和の方向ベクトルを計算(単位ベクトル化)すれば良い。
  平均方法が得られたら、これと、他の表示端末にて設定された観察方向と、がなす角を各々求め、求められた角の平均を計算する。得られた平均値が、観察方向のばらつきに相当する。
  そして、表示端末101は、観察空間の背景のうち、観察位置から当該平均方向に位置する背景に、当該ばらつきを表すマークを配置する。
  図13は、本実施形態に係る表示端末と観察空間を同期して共有する他の表示端末を使用する他のユーザの動向を知らせる表示例である。以下、本図を参照して説明する。本図では、画面401内に、観察位置から平均方向の無限遠方に観察方向のばらつきを表すマーク402として、ばらつきの角度に応じた半径の円を描画している。マーク402は、オブジェクト304の背景に配置されており、表示端末101のユーザには、他のユーザの多くが、オブジェクト304に注目していることが知らされる。
  ここで、観察対象が設定されていない状況で、大半のユーザがあるオブジェクト304に現在注目しているというイベントが生じた場合には、当該オブジェクト304を観察対象に自動的に設定する、という態様を採用することができる。
  各ユーザの観察位置302から観察方向303に伸びる観察線が最初に貫通するオブジェクト304が、当該ユーザが現在注目しているオブジェクトである。大半のユーザがオブジェクト304に注目しているのであれば、マーク402の大きさは小さくなることになる。
  観察空間を同期しながら共有しているユーザの人数に対して閾値を定め、当該閾値以上の人数のユーザが同じオブジェクト304に注目していれば、当該オブジェクト304を自動的に観察対象に設定する。
  この後は、各ユーザの指示によって観察対象の設定を解除できるようにしても良いし、一定時間が経過すると自動的に観察対象の設定が解除されるようにしても良い。
  なお、マーク402としては、円形のみならず、正方形や長方形、星型など、任意の形状を採用することができる。また、マーク402の外周を線で描くのではなく、マーク402の内部とマーク402の外部とで色彩や透明度や明瞭度を変化させることとしてもよい。たとえば、透明度が次第に変化するようなマーク402を採用し、多くのユーザが注目している方向は明瞭に表示されるが、それ以外の方向はぼかして表示される、などのような態様を採用することもできる。
  なお、観察位置から観察方向に位置する背景は、当該ユーザが見ている無限遠点Xに相当し、観察位置から平均方向に位置する背景は、他のユーザが平均的に見ている無限遠点Yに相当する。上記の例では、マーク402を無限遠点Yに表示していたが、たとえば、無限遠点Xから無限遠点Yへ向かう矢印形状のマークを無限遠点Xや無限遠点Xと無限遠点Yの中間に描画するなどの態様を採用しても良い。
  本態様によれば、他のユーザが何に注目しているかを知得することができ、他のユーザが注目しているオブジェクトの外観を容易に観察することができる。
  (まとめ)
  以上説明したように、上記の実施形態に係る表示端末は、
  観察空間において、観察位置と、観察方向と、前記観察位置から前記観察方向に伸びる観察線に交差する観察軸と、を、設定する設定部、
  前記観察空間を前記観察位置から前記観察方向に観察する映像を生成して、現実空間に配置される画面に表示する表示部、
  前記現実空間において、前記画面が前記映像を表示する表示方向を検知して、当該表示方向の変化のうち、前記現実空間における基準軸周りの回転量を取得する取得部、
  前記観察線が前記観察軸と交差したまま、前記取得された前記基準軸周りの回転量だけ、前記観察位置を前記観察軸の周りで回転させることにより、前記観察位置および前記観察方向を更新する更新部
  を備えるように構成することができる。
  また、当該実施形態に係る表示端末において、
  前記観察空間に配置されたオブジェクトのいずれも観察対象に設定されていなければ、前記観察軸が前記観察位置を貫通するように前記観察軸の位置を設定し、
  前記観察空間に配置されたオブジェクトのいずれかが観察対象に設定されると、前記観察軸が前記観察対象を貫通するように前記観察軸の位置を設定する
  ように構成することができる。
  また、当該実施形態に係る表示端末において、
  前記観察対象が設定されると、前記観察軸が前記観察対象を貫通するまで、前記基準軸が前記観察対象に近付くように、前記観察軸を移動させ、
  前記観察軸が移動する距離は、前記取得された前記基準軸周りの回転量もしくは時間の経過によって定められる
  ように構成することができる。
  また、当該実施形態に係る表示端末において、
  前記表示端末は、他の表示端末と、前記観察空間ならびに前記観察対象の設定を同期しながら共有し、
  前記表示端末において、前記観察位置と、前記観察方向と、前記観察軸と、は、前記他の表示端末から独立して設定され、
  前記他の表示端末において設定された観察方向の平均方向およびばらつきを求め、
  前記観察空間の背景に、前記求められたばらつきを表すマークを配置する
  ように構成することができる。
  また、当該実施形態に係る表示端末において、
  前記マークは、前記観察位置から前記求められた平均方向に位置する背景、前記観察位置から前記観察方向に位置する背景、もしくは、前記観察位置から前記求められた平均方向に位置する背景と前記観察位置から前記観察方向に位置する背景との中間に配置される
  ように構成することができる。
  また、当該実施形態に係る表示端末において、
  前記設定部は、前記観察軸が前記観察空間における鉛直方向に伸びるように設定し、
  前記基準軸は、前記画面を貫通し、前記現実空間における重力方向、もしくは、前記画面の上下方向に伸びる
  ように構成することができる。
  また、当該実施形態に係る表示端末において、
  前記取得部は、前記表示方向の変化のうち、前記表示方向ならびに前記基準軸に直交する参照軸周りの回転量をさらに取得し、
  前記設定部は、前記取得された前記参照軸周りの回転量だけ、前記観察位置を中心に、前記観察線を前記観察軸と交差させたまま、前記観察方向を回転させる
  ように構成することができる。
  このほか、上記の実施形態に係るコンピュータ読取可能な非一時的な情報記録媒体は、コンピュータを上記の表示端末の各部として機能させるように構成することができる。
  本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
  本発明によれば、ユーザの頭の向きの変化に応じて観察空間の様子をヘッドマウントディスプレイに提示する際に、ユーザに与える違和感を低減する表示端末ならびに当該表示端末を実現するためのプログラムが記録されたコンピュータ読取可能な非一時的な情報記録媒体を提供することができる。
  101 表示端末
  102 設定部
  103 表示部
  104 取得部
  105 更新部
  201 現実空間
  202 ヘッドマウントディスプレイ
  203 ユーザ
  204 表示方向
  211 現実空間の方位
  301 観察空間
  302 観察位置
  303 観察線
  304 オブジェクト
  305 観察軸
  311 観察空間の方位
  401 画面
  402 マーク

Claims (8)

  1.   観察空間において、観察位置と、観察方向と、前記観察位置から前記観察方向に伸びる観察線に交差する観察軸と、を、設定する設定部、
      前記観察空間を前記観察位置から前記観察方向に観察する映像を生成して、現実空間に配置される画面に表示する表示部、
      前記現実空間において、前記画面が前記映像を表示する表示方向を検知して、当該表示方向の変化のうち、前記現実空間における基準軸周りの回転量を取得する取得部、
      前記観察線が前記観察軸と交差したまま、前記取得された前記基準軸周りの回転量だけ、前記観察位置を前記観察軸の周りで回転させることにより、前記観察位置および前記観察方向を更新する更新部
      を備えることを特徴とする表示端末。
  2.   前記観察空間に配置されたオブジェクトのいずれも観察対象に設定されていなければ、前記観察軸が前記観察位置を貫通するように前記観察軸の位置を設定し、
      前記観察空間に配置されたオブジェクトのいずれかが観察対象に設定されると、前記観察軸が前記観察対象を貫通するように前記観察軸の位置を設定する
      ことを特徴とする請求項1に記載の表示端末。
  3.   前記観察対象が設定されると、前記観察軸が前記観察対象を貫通するまで、前記基準軸が前記観察対象に近付くように、前記観察軸を移動させ、
      前記観察軸が移動する距離は、前記取得された前記基準軸周りの回転量もしくは時間の経過によって定められる
      ことを特徴とする請求項2に記載の表示端末。
  4.   前記表示端末は、他の表示端末と、前記観察空間ならびに前記観察対象の設定を同期しながら共有し、
      前記表示端末において、前記観察位置と、前記観察方向と、前記観察軸と、は、前記他の表示端末から独立して設定され、
      前記他の表示端末において設定された観察方向の平均方向およびばらつきを求め、
      前記観察空間の背景に、前記求められたばらつきを表すマークを配置する
      ことを特徴とする請求項3に記載の表示端末。
  5.   前記マークは、前記観察位置から前記求められた平均方向に位置する背景、前記観察位置から前記観察方向に位置する背景、もしくは、前記観察位置から前記求められた平均方向に位置する背景と前記観察位置から前記観察方向に位置する背景との中間に配置される
      ことを特徴とする請求項4に記載の表示端末。
  6.   前記設定部は、前記観察軸が前記観察空間における鉛直方向に伸びるように設定し、
      前記基準軸は、前記画面を貫通し、前記現実空間における重力方向、もしくは、前記画面の上下方向に伸びる
      ことを特徴とする請求項1に記載の表示端末。
  7.   前記取得部は、前記表示方向の変化のうち、前記表示方向ならびに前記基準軸に直交する参照軸周りの回転量をさらに取得し、
      前記設定部は、前記取得された前記参照軸周りの回転量だけ、前記観察位置を中心に、前記観察線を前記観察軸と交差させたまま、前記観察方向を回転させる
      ことを特徴とする請求項6に記載の表示端末。
  8.   コンピュータを請求項1に記載の表示端末の各部として機能させるためのプログラムが記録されたコンピュータ読取可能な非一時的な情報記録媒体。
PCT/JP2015/060622 2015-04-03 2015-04-03 表示端末ならびに情報記録媒体 WO2016157523A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/060622 WO2016157523A1 (ja) 2015-04-03 2015-04-03 表示端末ならびに情報記録媒体
JP2016513151A JP5961892B1 (ja) 2015-04-03 2015-04-03 表示端末ならびに情報記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/060622 WO2016157523A1 (ja) 2015-04-03 2015-04-03 表示端末ならびに情報記録媒体

Publications (1)

Publication Number Publication Date
WO2016157523A1 true WO2016157523A1 (ja) 2016-10-06

Family

ID=56557985

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/060622 WO2016157523A1 (ja) 2015-04-03 2015-04-03 表示端末ならびに情報記録媒体

Country Status (2)

Country Link
JP (1) JP5961892B1 (ja)
WO (1) WO2016157523A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203792A1 (ja) * 2016-05-23 2017-11-30 三菱日立パワーシステムズ株式会社 三次元データ表示装置、三次元データ表示方法、およびプログラム
JP2019121072A (ja) * 2017-12-28 2019-07-22 凸版印刷株式会社 3dcg空間の鑑賞条件連動システム、方法、およびプログラム
JP2019197478A (ja) * 2018-05-11 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント プログラム、及び情報処理装置
JP2020113291A (ja) * 2020-02-26 2020-07-27 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
US12032164B2 (en) 2018-10-03 2024-07-09 Maxell, Ltd. Head-mount display and head-mount display system that display virtual space information on a display

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042658A1 (ja) * 2016-09-05 2018-03-08 マクセル株式会社 携帯情報端末、頭部装着表示システム、及びその音声出力制御方法
JP6678566B2 (ja) * 2016-12-26 2020-04-08 株式会社コーエーテクモゲームス ゲームプログラム、記録媒体、ゲーム処理方法
JP6713591B1 (ja) 2019-04-17 2020-06-24 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2010122879A (ja) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab 端末装置、表示制御方法および表示制御プログラム
JP2012190230A (ja) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd 表示装置、表示方法及びプログラム
JP2013029958A (ja) * 2011-07-28 2013-02-07 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2010122879A (ja) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab 端末装置、表示制御方法および表示制御プログラム
JP2012190230A (ja) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd 表示装置、表示方法及びプログラム
JP2013029958A (ja) * 2011-07-28 2013-02-07 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203792A1 (ja) * 2016-05-23 2017-11-30 三菱日立パワーシステムズ株式会社 三次元データ表示装置、三次元データ表示方法、およびプログラム
US10643387B2 (en) 2016-05-23 2020-05-05 Mitsubishi Hitachi Power Systems, Ltd. Three-dimensional data display device, three-dimensional data display method, and program
JP2019121072A (ja) * 2017-12-28 2019-07-22 凸版印刷株式会社 3dcg空間の鑑賞条件連動システム、方法、およびプログラム
JP7172036B2 (ja) 2017-12-28 2022-11-16 凸版印刷株式会社 3dcg空間の鑑賞条件連動システム、方法、およびプログラム
JP2019197478A (ja) * 2018-05-11 2019-11-14 株式会社ソニー・インタラクティブエンタテインメント プログラム、及び情報処理装置
US10754499B2 (en) 2018-05-11 2020-08-25 Sony Interactive Entertainment Inc. Program and information processing apparatus for changing a viewpoint selection mode
US12032164B2 (en) 2018-10-03 2024-07-09 Maxell, Ltd. Head-mount display and head-mount display system that display virtual space information on a display
JP2020113291A (ja) * 2020-02-26 2020-07-27 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP7043711B2 (ja) 2020-02-26 2022-03-30 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム

Also Published As

Publication number Publication date
JPWO2016157523A1 (ja) 2017-04-27
JP5961892B1 (ja) 2016-08-03

Similar Documents

Publication Publication Date Title
JP5961892B1 (ja) 表示端末ならびに情報記録媒体
US11983830B2 (en) Systems and methods for generating and facilitating access to a personalized augmented rendering of a user
EP3117290B1 (en) Interactive information display
JP6363587B2 (ja) 情報処理装置および警告提示方法
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
WO2017090373A1 (ja) 画像表示方法及びプログラム
CN108463839B (zh) 信息处理装置和用户指南呈现方法
JP2017138832A (ja) 仮想空間の提供方法、およびプログラム
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
JP7349256B2 (ja) 画像生成装置および情報提示方法
JP6752425B2 (ja) 撮影装置
JP2021135776A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2020017435A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114371779A (zh) 一种视线深度引导的视觉增强方法
JP2020042362A (ja) 制御装置及びその制御方法
WO2019078833A1 (en) IMAGES OF INCREASED REALITY STABILIZED AND FOLLOWED
JP2023095862A (ja) プログラム及び情報処理方法
EP2919094A1 (en) Interactive information display
JPWO2019225354A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018190432A (ja) 情報処理装置および警告提示方法
JP7341674B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020160226A (ja) 画像処理システム、及び画像処理方法
JP7300569B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2023096844A (ja) プログラム、情報処理方法、及び情報処理装置
JP2019192259A (ja) 表示制御装置、表示制御システム、及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016513151

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15887669

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15887669

Country of ref document: EP

Kind code of ref document: A1