WO2018079557A1 - 情報処理装置および画像生成方法 - Google Patents

情報処理装置および画像生成方法 Download PDF

Info

Publication number
WO2018079557A1
WO2018079557A1 PCT/JP2017/038377 JP2017038377W WO2018079557A1 WO 2018079557 A1 WO2018079557 A1 WO 2018079557A1 JP 2017038377 W JP2017038377 W JP 2017038377W WO 2018079557 A1 WO2018079557 A1 WO 2018079557A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
character
virtual space
image
operation information
Prior art date
Application number
PCT/JP2017/038377
Other languages
English (en)
French (fr)
Inventor
尚亨 椚田
林 正和
橋本 稔
康太郎 田島
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Publication of WO2018079557A1 publication Critical patent/WO2018079557A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a technology for outputting image data of an application to a display device such as a head-mounted display or a technology for generating image data for provision to a display device.
  • Patent Document 1 discloses a system in which a user and another user share a three-dimensional virtual reality space.
  • the client terminal is provided with data on basic objects constituting the virtual reality space from the information server terminal, and is provided with data on the other person's avatar from the shared server terminal.
  • the virtual reality space visible from the position is displayed on the display device.
  • a basic object is an object that is used in common by a plurality of users in a virtual reality space, for example, an object whose basic state does not change, such as a building or a road.
  • the service provider can provide various experiences to multiple users. For example, if a classroom where a plurality of users participate is constructed as a virtual reality space, the user can take classes with other users while at home. In addition, if overseas landmarks and townscapes are constructed as a virtual reality space, multiple users can enjoy traveling abroad together.
  • virtual space In the virtual reality space (hereinafter also referred to as “virtual space”), each user can freely move each character. For this reason, even if the service providing entity sets a target object (object) to be noted in the virtual space, the positions and line-of-sight directions of each character are different. It was difficult to get attention.
  • the present invention has been made in view of these problems, and an object of the present invention is to provide a technique for suggesting a direction in which a user character should pay attention in a virtual space.
  • an information processing apparatus is an information processing apparatus that outputs image data of an application to a display device, and acquires operation information for moving a user character in a virtual space And an image providing unit that outputs image data including a character of a user different from the user to the display device.
  • the image providing unit outputs image data including a direction image indicating a direction in which another user's character is viewing and / or a direction in which the character is viewed to the display device.
  • Another aspect of the present invention is an image generation method.
  • This method includes a step of obtaining operation information for moving a user character in a virtual space, a step of obtaining operation information for moving a user character different from the user in the virtual space, and the user character. And a step of controlling the movement of the user's character different from the user based on the respective operation information, and based on the position of the user's character in the virtual space, Generating image data including a direction image indicating a direction in which another user's character is viewing and / or a direction in which the character is viewed.
  • FIG. 1 shows an information processing system 1 in the embodiment.
  • the information processing system 1 provides a service in which a plurality of users share a three-dimensional virtual space.
  • the information processing system 1 includes a plurality of user systems 3a, 3b,... 3m, 3n (hereinafter, collectively referred to as “user system 3”) and a server system 4.
  • the server system 4 is operated and managed by a service providing entity, and each user system 3 is used by each user.
  • the server system 4 and the plurality of user systems 3 are connected to a network 2 such as the Internet, and the server system 4 and each user system 3 can transmit / receive data to / from each other.
  • a plurality of user systems 3 may be able to transmit / receive data to / from each other.
  • the server system 4 includes a management server 5 and a storage device 6.
  • the storage device 6 includes a content DB 7 that holds 3D image data for generating a 3D virtual space, and a user behavior DB 8 for storing user behavior information in the 3D virtual space.
  • content data the three-dimensional image data stored in the content DB 7 is referred to as “content data”.
  • the server system 4 provides a three-dimensional virtual space of a classroom to the user system 3, the operator of the server system 4 becomes a teacher, and the users of the plurality of user systems 3 become students, so that a plurality of users can take classes together.
  • the server system 4 provides the user system 3 with a three-dimensional virtual space of a city or a sightseeing spot, and an operator becomes a tour guide and a plurality of users become travel participants, so that a plurality of users can enjoy traveling with a guide. Service can be provided.
  • the server system 4 provides the user system 3 with a three-dimensional virtual space in which treasure is hidden, and an operator becomes a treasure hunting guide, and a plurality of users become treasure hunters. A service to compete for treasure hunting can be provided.
  • the server system 4 provides a service for sharing the three-dimensional virtual space among a plurality of users.
  • the content data stored in the content DB 7 is basically composed of static object data whose position information and posture information are not updated.
  • the content data representing the virtual space of a sightseeing spot includes a building object, a road object, a streetlight object, a signboard object, and the like whose relative positional relationships are defined. There may be an object that the user can move in the virtual space.
  • the user system 3 installs a viewer application for reproducing content data before receiving the service.
  • the viewer application constructs a virtual space based on the content data, and moves a character in the virtual space based on user operation information.
  • the virtual space is rendered according to the position and posture (line-of-sight direction) of the user character. As a result, the user can freely move in the virtual space through the user character and view an image from a free viewpoint.
  • FIG. 2 shows an example of a virtual space image viewed from the viewpoint of a certain user character.
  • the viewer application generates an image from the viewpoint of the user character according to the position and line-of-sight direction of the user character.
  • Each user system 3 downloads content data, so that a virtual space can be shared by a plurality of users.
  • the management server 5 is in charge of virtual space sharing processing by a plurality of users.
  • Each user operates each user character in the virtual space, and the operation information is used for processing by the viewer application in the user system 3 of the user and is transmitted to the management server 5. And transfer to the user system 3 of another user. That is, the operation information that the user A operated his / her character is also provided to the user systems 3 of the other nine users B to J, and is used for processing by the viewer application of each user system 3.
  • the user characters of all users A to J in each user system 3 basically exhibit the same behavior except for the influence of communication delay. It becomes like this.
  • FIG. 3 shows a configuration example of the user system 3 in the embodiment.
  • the user system 3 includes an information processing device 10, a head mounted display device (HMD) 100, an input device 16 operated by a user's finger, an imaging device 14 that captures a user wearing the HMD 100, and an output device that displays an image. 15.
  • the information processing apparatus 10 is connected to the network 2 via an access point (AP) 17.
  • the AP 17 has functions of a wireless access point and a router, and the information processing apparatus 10 may be connected to the AP 17 with a cable or may be connected with a known wireless communication protocol.
  • the HMD 100 is worn on the user's head and provides the user with a virtual reality (VR) world.
  • VR virtual reality
  • the HMD 100 provides the HMD 100 with a head tracking function and updating the display screen in conjunction with the movement of the user's head, a sense of immersion in the video world can be enhanced.
  • the rendered image is displayed on the display panel of the HMD 100, but the rendered image may be displayed on the output device 15.
  • the information processing apparatus 10 includes a processing device 11, an output control device 12, and a storage device 13.
  • the processing device 11 is a terminal device that receives operation information input to the input device 16 by a user and executes a viewer application.
  • the processing device 11 and the input device 16 may be connected by a cable or may be connected by a known wireless communication protocol.
  • the processing device 11 according to the embodiment also has a function of accepting the attitude information of the HMD 100 as user operation information for the viewer application and executing the viewer application.
  • the output control device 12 is a processing unit that outputs the image data generated by the processing device 11 to the HMD 100.
  • the output control device 12 and the HMD 100 may be connected by a cable or may be connected by a known wireless communication protocol.
  • the imaging device 14 is a stereo camera, images a user wearing the HMD 100 at a predetermined cycle, and supplies the captured image to the processing device 11.
  • the HMD 100 is provided with a marker (tracking LED) for tracking the user's head, and the processing device 11 detects the movement of the HMD 100 based on the position of the marker included in the captured image.
  • the HMD 100 is equipped with posture sensors (acceleration sensor and gyro sensor), and the processing device 11 acquires sensor data detected by the posture sensor from the HMD 100, so that it can be used with high accuracy together with the use of the captured image of the marker. Execute tracking process.
  • Various methods have been proposed for tracking processing, and the processing device 11 may adopt any tracking method as long as it can detect the movement of the HMD 100.
  • a viewer application that provides the HMD 100 with an image viewed from the viewpoint of the user character is executed.
  • the output device 15 is not necessarily required in the user system 3.
  • the user does not wear the HMD 100, and the output control device 12 or the processing device 11 outputs the image. You may make it output from the apparatus 15.
  • the HMD 100 is a display device that displays an image on a display panel located in front of the user when the user wears the head.
  • the HMD 100 separately displays a left-eye image on the left-eye display panel and a right-eye image on the right-eye display panel. These images constitute parallax images viewed from the left and right viewpoints, and realize stereoscopic viewing. Since the user views the display panel through the optical lens, the information processing apparatus 10 supplies the HMD 100 with parallax image data in which optical distortion caused by the lens is corrected. Either the processing device 11 or the output control device 12 may perform this optical distortion correction processing.
  • the processing device 11, the storage device 13, the output device 15, the input device 16, and the imaging device 14 may construct a conventional game system.
  • the processing device 11 is a game device that executes a game
  • the input device 16 is a device that supplies operation information by the user to the processing device 11 such as a game controller, a keyboard, a mouse, and a joystick.
  • the function of the output control device 12 may be incorporated in the processing device 11 as a part of the function of the viewer application. That is, the processing unit of the information processing apparatus 10 may be configured by one processing apparatus 11 or may be configured by the processing apparatus 11 and the output control apparatus 12. In the following, functions of the processing device 11 and the output control device 12 necessary for implementing the viewer application will be collectively described as functions of the information processing device 10.
  • the processing device 11 downloads the content data stored in the storage device 6 of the server system 4 to the storage device 13.
  • the user sets his / her character when starting the viewer application, and the set user character data is stored in the storage device 13 and transmitted to the server system 4 from the server system 4. It is transmitted to the user system 3.
  • the viewer application moves the user character in the virtual space based on the operation information input from the input device 16, and determines the line-of-sight direction of the user character based on the posture information of the HMD 100 mounted on the user's head.
  • the viewer application uses the posture information of the HMD 100 as operation information for operating the gaze direction of the user character, but uses the input information in the input device 16 as operation information for operating the gaze direction. May be.
  • the operation information for moving the user character may use the position information of the HMD 100 without using the input information of the input device 16.
  • the operation information of the user character may be acquired from either the input device 16 or the HMD 100, or may be acquired from another user interface.
  • the information processing apparatus 10 detects the position coordinates and orientation of the user's head (actually the HMD 100) by performing the user's head tracking process.
  • the position coordinates of the HMD 100 are position coordinates in a three-dimensional space with the reference position as the origin, and the reference position may be a position coordinate (latitude, longitude) when the power of the HMD 100 is turned on.
  • the attitude of the HMD 100 is an inclination in the three-axis direction with respect to a reference attitude in a three-dimensional space.
  • the reference posture is a posture in which the user's line-of-sight direction is the horizontal direction, and the reference posture may be set when the power of the HMD 100 is turned on.
  • the information processing apparatus 10 can detect the position coordinates and attitude of the HMD 100 only from the sensor data detected by the attitude sensor of the HMD 100, and further, by analyzing the image of the marker (tracking LED) of the HMD 100 captured by the imaging apparatus 14, The position coordinates and orientation of the HMD 100 can be detected with high accuracy. As described above, the information processing apparatus 10 may calculate the position of the user character in the virtual space based on the position information of the HMD 100, and may calculate the gaze direction of the user character based on the posture information of the HMD 100. In the embodiment, the position of the user character in the virtual space is calculated based on the operation information of the input device 16.
  • FIG. 4 shows an example of the external shape of the HMD 100.
  • the HMD 100 includes an output mechanism unit 102 and a mounting mechanism unit 104.
  • the wearing mechanism unit 104 includes a wearing band 106 that goes around the head when the user wears and fixes the HMD 100 to the head.
  • the wearing band 106 has a material or a structure whose length can be adjusted according to the user's head circumference.
  • the output mechanism unit 102 includes a housing 108 shaped to cover the left and right eyes when the user wears the HMD 100, and includes a display panel that faces the eyes when worn.
  • the display panel may be a liquid crystal panel or an organic EL panel.
  • the housing 108 is further provided with a pair of left and right optical lenses that are positioned between the display panel and the user's eyes and expand the viewing angle of the user.
  • the HMD 100 may further include a speaker or an earphone at a position corresponding to the user's ear.
  • the tracking LED constitutes the light emitting marker 110, but it may be any other type of marker, and in any case, the image is taken by the imaging device 14 and the information processing device 10 can perform image analysis of the marker position. I just need it.
  • the number and arrangement of the light emitting markers 110 are not particularly limited, but need to be the number and arrangement for detecting the posture of the HMD 100.
  • the light emitting markers 110 are provided at the four corners on the front surface of the housing 108. Further, the light emitting marker 110 may be provided on the side or the rear of the wearing band 106 so that the user can take a picture even when the user turns his back to the imaging device 14.
  • the HMD 100 may be connected to the information processing apparatus 10 with a cable or may be connected with a known wireless communication protocol.
  • the HMD 100 transmits the sensor data detected by the posture sensor to the information processing apparatus 10, receives image data generated by the information processing apparatus 10, and displays the image data on the left-eye display panel and the right-eye display panel.
  • FIG. 5 shows functional blocks of the HMD 100.
  • the control unit 120 is a main processor that processes and outputs various data such as image data, audio data, sensor data, and commands.
  • the storage unit 122 temporarily stores data, commands, and the like that are processed by the control unit 120.
  • the posture sensor 124 detects posture information of the HMD 100.
  • the posture sensor 124 includes at least a triaxial acceleration sensor and a triaxial gyro sensor.
  • the communication control unit 128 transmits data output from the control unit 120 to the external information processing apparatus 10 by wired or wireless communication via a network adapter or an antenna. In addition, the communication control unit 128 receives data from the information processing apparatus 10 through wired or wireless communication via a network adapter or an antenna, and outputs the data to the control unit 120.
  • control unit 120 When the control unit 120 receives image data or audio data from the information processing apparatus 10, the control unit 120 supplies the image data and audio data to the display panel 130 for display, and supplies them to the audio output unit 132 for audio output.
  • the display panel 130 includes a left-eye display panel 130a and a right-eye display panel 130b, and a pair of parallax images is displayed on each display panel. Further, the control unit 120 causes the communication control unit 128 to transmit the sensor data from the attitude sensor 124 and the audio data from the microphone 126 to the information processing apparatus 10.
  • FIG. 6 shows functional blocks of the information processing apparatus 10.
  • the information processing apparatus 10 includes a sensor data receiving unit 20, a captured image receiving unit 22, an input data receiving unit 24, a server data receiving unit 26, an operation information transmitting unit 30, an image providing unit 32, and an audio as an input / output interface with the outside.
  • a providing unit 34 is provided.
  • the server data receiving unit 26 is a communication interface that receives data transmitted from the management server 5.
  • the information processing apparatus 10 further includes an acquisition unit 40, a processing unit 50, and a storage device 13.
  • the acquisition unit 40 has a function of acquiring information used in the viewer application from data received by the input / output interface, and includes a first operation information acquisition unit 42, a second operation information acquisition unit 44, and an object information acquisition unit 46.
  • the processing unit 50 has a function of generating image data from the information acquired by the acquisition unit 40, and includes a character control unit 52, a determination unit 54, and an image generation unit 56.
  • the storage device 13 stores content data for constructing a three-dimensional virtual space, character data of a user of the information processing device 10, character data of other users, and the like.
  • each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the first operation information acquisition unit 42 acquires operation information for moving the user A's character in the virtual space.
  • the second operation information acquisition unit 44 is operation information for moving a character other than the user A in the virtual space, that is, the characters of the users B, C, D, E, F, G, H, I, and J. To get.
  • the first operation information acquisition unit 42 acquires operation information for moving the character of user B
  • the second operation information acquisition unit 44 Acquires operation information for moving another user's character.
  • the sensor data receiving unit 20 receives sensor data from the attitude sensor 124 of the HMD 100 worn by the user A at a predetermined cycle, and supplies the sensor data to the first operation information acquisition unit 42.
  • the captured image receiving unit 22 receives an image obtained by capturing the HMD 100 at a predetermined cycle from the imaging device 14 and supplies the image to the first operation information acquisition unit 42.
  • the imaging device 14 captures a front space every (1/60) second, and the captured image receiving unit 22 receives a captured image every (1/60) second.
  • the input data receiving unit 24 receives key data input by the user A from the input device 16 and supplies the key data to the first operation information acquisition unit 42.
  • the first operation information acquisition unit 42 detects a change in the posture of the HMD 100 based on the movement of the HMD 100 mounted on the user's head, and acquires operation information indicating a change in the line-of-sight direction of the user A character in the virtual space. To do. Further, the first operation information acquisition unit 42 acquires operation information indicating the movement amount and movement direction of the user A character in the virtual space based on the key data of the input device 16 received by the input data receiving unit 24.
  • the first operation information acquisition unit 42 detects a change in the posture of the HMD 100 from the sensor data of the posture sensor 124.
  • the first operation information acquisition unit 42 may specify the posture change of the HMD 100 from the sensor data of the three-axis gyro sensor. Note that the first operation information acquisition unit 42 preferably further increases the detection accuracy of the posture change by further using the imaging result of the tracking light emitting marker 110.
  • the first operation information acquisition unit 42 acquires operation information indicating a change in the viewing direction of the user A from the detected change in the attitude of the HMD 100.
  • the first operation information acquisition unit 42 acquires operation information indicating the moving amount and moving direction of the user A character from the key data input to the input device 16.
  • a known technique may be used for the process of moving the character in the virtual space by operating the input device 16.
  • the line-of-sight direction of the character is matched with the line-of-sight direction of the user A wearing the HMD 100.
  • the user A may input key data for controlling the position and line-of-sight direction of the character from the input device 16.
  • the first operation information acquisition unit 42 acquires operation information for moving the user A's character in the virtual space.
  • This operation information may be information that specifies the amount of change in the position and the line-of-sight direction, but may be information that directly specifies the position and the line-of-sight direction.
  • the first operation information acquisition unit 42 supplies operation information for moving the user A's character to the character control unit 52. What kind of operation information the first operation information acquisition unit 42 acquires depends on the viewer application, and any operation information that can be processed by the character control unit 52 may be used.
  • the first operation information acquisition unit 42 may generate operation information at a predetermined cycle and supply the operation information to the character control unit 52. However, when the state change occurs, that is, when the attitude of the HMD 100 changes or the input device 16 Operation information may be generated and supplied to the character control unit 52 when a key input occurs.
  • the character control unit 52 controls the movement of the character of the user A in the virtual space, specifically, the position and the line-of-sight direction based on the operation information supplied from the first operation information acquisition unit 42.
  • the image generation unit 56 performs three-dimensional rendering of the virtual space based on the position of the user character in the virtual space (three-dimensional virtual space coordinate value). Specifically, the image generation unit 56 generates image data by arranging a virtual camera having the optical axis in the direction of the line of sight of the user character at the position of the user character. The image providing unit 32 outputs the generated image data to the HMD 100.
  • the user A can change the line-of-sight direction of the character by moving the character by key input of the input device 16 and tilting the neck to change the direction of the HMD 100.
  • the display panel 130 of the HMD 100 displays an image corresponding to the character position and line-of-sight direction (see FIG. 2).
  • the information processing system 1 of the embodiment provides a service for sharing the three-dimensional virtual space among a plurality of users. Therefore, the operation information of the character of the user A acquired by the first operation information acquisition unit 42 is transmitted from the operation information transmission unit 30 to the management server 5 and is transmitted from the management server 5 to the information processing apparatuses 10 of other users B to J. Transferred.
  • operation information for moving each user's character is acquired and transmitted to the management server 5.
  • the management server 5 transmits the operation information of the characters acquired by the information processing apparatuses 10 of the users B to J to the information processing apparatus 10 of the user A.
  • the server data receiving unit 26 receives character operation information of another user transmitted from the management server 5.
  • Management server 5 manages information on users participating in the virtual space sharing service.
  • the user information includes at least a user account for identifying the user and character data of the user, and the management server 5 transmits the user information of each participating user to the information processing apparatuses 10 of all the participating users before starting the service. Keep it.
  • the management server 5 associates the operation information of the user character with the user account and transmits it to each information processing apparatus 10. Therefore, the information processing apparatus 10 determines which operation information is received by the server data receiving unit 26. It is possible to specify whether the information is to be reflected in the movement of the user's character.
  • the second operation information acquisition unit 44 acquires operation information for moving the characters of other users B to J from the server data reception unit 26 and supplies the operation information to the character control unit 52. Based on the operation information supplied from the second operation information acquisition unit 44, the character control unit 52 controls the movement of another user's character in the virtual space, specifically the position and line-of-sight direction of the character. The control of the character's line-of-sight direction is performed by controlling the direction of the character's neck.
  • the image generation unit 56 generates an image of the virtual space that is visible in the line-of-sight direction of the character from the position of the character of the user A. Therefore, if another user's character is included in the visual field of the user A's character, the image generation unit 56 generates image data including a user's character different from the user A.
  • the image providing unit 32 outputs the generated image data to the HMD 100 that is a display device.
  • FIG. 7 shows an example of a virtual space image viewed from the viewpoint of the user A character.
  • a state where five user characters are included in the field of view of the user A character is shown.
  • Each user character is assumed to be a character of user B, user D, user F, user G, and user H in order from the left.
  • the viewing angle of the user A's character is because it is behind the user A's character or in the building. It is not included in the image data.
  • the communication control unit 128 receives image data from the information processing apparatus 10, and the control unit 120 displays a virtual space image on the display panel 130.
  • the server system 4 provides a virtual space of a sightseeing spot to a plurality of user systems 3, an operator of the server system 4 becomes a tour guide, and a plurality of users become travel participants so that a plurality of users can guide. Provide a service to travel together.
  • the operator operates the management server 5 to distribute a voice guide to each user system 3 and designates the direction in which the user moves and the target (object) to be noticed by voice.
  • the voice providing unit 34 transmits the voice data to the HMD 100.
  • communication control unit 128 receives voice data
  • control unit 120 outputs voice guidance from voice output unit 132 to an earphone (not shown).
  • the operator performs the following voice guidance, for example. “Go straight ahead in the arcade that follows.” “The buildings on both sides of the passage were built in the late 17th century.” “The cobblestones at the feet remain as they were at the time.”
  • Each user operates the character according to the voice guidance, and the character moves in the virtual space. On the HMD 100 of each user, the virtual space image is changed and displayed as the character moves.
  • the management server 5 receives character operation information from all users, and the operator knows the positions of the characters of the respective users. Therefore, the operator can individually provide voice guidance to a user who has deviated from a predetermined moving route, delayed or moved too far.
  • an operator who is a tour guide performs voice guidance so as to pay attention to the object. It may be "Please pay attention to the signboard beside the aisle”.
  • An “explanation event” is started by this voice guidance.
  • the object 200 is set as an object to be noticed, and when the operator confirms that all users are looking at the object 200, the point of interest of the object 200 (for example, a signboard store) Explaining history).
  • the explanation event ends, and movement guidance to the next target object is performed.
  • the start and end of the explanation event may be performed at an arbitrary timing by the operator.
  • the viewer application includes an image for suggesting the direction of attention of the user character in the display image so that the user can easily recognize the position of the object 200.
  • the identifier of the object 200 (object ID) and the object 200
  • object information the object ID and the object three-dimensional coordinates are referred to as “object information”.
  • the audio providing unit 34 transmits the audio data to the HMD 100
  • the object information acquiring unit 46 acquires the object information
  • the determining unit 54 To supply.
  • the audio data transmitted to the HMD 100 is output by the audio output unit 132.
  • the determination unit 54 determines whether another user is currently looking at the object 200 based on the position and line-of-sight direction of another user's character.
  • This determination process is a process for determining whether or not the object 200 is captured by the virtual camera when a virtual camera having the optical axis in the direction of the line of sight of the character is placed at the position of another user's character. .
  • the determination unit 54 determines that another user is looking at the object 200 if the three-dimensional coordinates of the object 200 are included in the viewing angle of the character, while the object 200 is within the viewing angle. Is not included, it is determined that another user is not looking at the object 200.
  • the determination unit 54 hides the object 200 by another object (obstacle) between the character and the object 200 even when the three-dimensional coordinates of the object 200 are included in the viewing angle of the character. In this case, it is determined that another user is not looking at the object 200.
  • the determination unit 54 can specify whether or not a user character different from the user A is looking at the object 200.
  • the determination unit 54 determines that the characters of the user B, the user D, the user F, and the user G are looking at the object 200, while the character of the user H is looking at the object 200. Judge that there is no.
  • the determination unit 54 provides the determination result to the image generation unit 56.
  • the determination processing by the determination unit 54 may be performed periodically, and the determination cycle may be the same as the character's motion control cycle. That is, the character control unit 52 periodically controls the actions of the user A's character and another user's character, but the determination unit 54 may perform the determination process in accordance with the cycle.
  • the image generation unit 56 generates image data including a direction image indicating the direction in which another user's character is looking based on the determination result by the determination unit 54.
  • the direction image may indicate the line-of-sight direction of the other user's character, but the direction from the other user's character toward the object 200 may be It may be shown.
  • the direction image is an image showing the line-of-sight direction of the character.
  • the line-of-sight direction of the character is a direction in which the HMD 100 worn by the user is facing and a direction extending from the center of both eyes of the character.
  • the line-of-sight direction of the character is a direction that cuts the center of the display screen vertically.
  • the display screen shown in FIG. 7 is a screen displayed on the HMD 100 of the user A, but the object 200 is included in the upper left slightly from the screen center. In this case, the direction from the character toward the object 200 is not parallel to the line-of-sight direction.
  • the line-of-sight direction coincides with the direction from the character toward the object 200.
  • FIG. 8 shows an example of a screen including a direction image in an image obtained by rendering a three-dimensional virtual space.
  • the image generation unit 56 includes direction images 202b, 202d, 202f, and 202g that indicate directions from the respective characters of the user B, the user D, the user F, and the user G toward the object 200, and a direction that indicates the line-of-sight direction of the user H character.
  • Image data including the image 202h is generated.
  • the direction images 202b, 202d, 202f, and 202g to be added to the character viewing the object 200 and the direction image 202h to be added to the character not viewing the object 200 are generated so as to have different display modes. Is done.
  • the direction images 202b, 202d, 202f, and 202g are solid line arrow images, and the direction image 202h is a dotted line arrow image, but the display mode is not limited to this.
  • the direction images 202b, 202d, 202f, and 202g may be expressed in different colors such as red and the direction image 202h in blue. In any case, by changing the display mode, the user A can easily recognize which character is looking at the object 200 and which character is not looking at the object 200.
  • the object 200 is already included in the display screen viewed by the user A, but the user A may not notice the object 200.
  • the user A can recognize at a glance which object to focus on. Since the direction image 202h does not face the object 200, the image generation unit 56 may not include the direction image 202h in the image data.
  • FIG. 9 shows another screen example in which a direction image is included in an image obtained by rendering a three-dimensional virtual space.
  • the direction image added to each character is a dotted arrow image indicating that the object of interest is not viewed.
  • the direction image added to the character of the user H is a solid arrow image, which indicates that the object of interest is correctly viewed.
  • the user A who sees the screen shown in FIG. 9 recognizes that the object of interest exists beyond the line of sight of the user H.
  • the direction image is represented by an arrow, but the present invention is not limited to this.
  • a direction image of a cone extending to the object of interest with the character position as a vertex may be used.
  • the direction image may be given a translucent color to ensure the visibility of the spatial image serving as the background of the direction image.
  • the image generation unit 56 adds a direction image indicating the direction toward the object of interest to the character. Also good.
  • the image generation unit 56 may add a direction image indicating a direction toward the target object only within a predetermined time from the time when the character last viewed the target object. This direction image serves as a hint indicating the position of the object of interest, and assists the user in searching for an object that is delayed from the object installation position.
  • the display time of the direction image indicating the direction toward the object of interest is limited to the predetermined time, thereby limiting the assist. You may spend.
  • the image generation unit 56 may add a direction image indicating a direction toward the target object only when the character is within a predetermined distance from the position at the time when the target object was last viewed. If the character stays at the same position, a direction image may be added from that point. For example, when the character moves and walks around, the object of interest can no longer be seen. You may be in a position that is not. Therefore, the image generation unit 56 may determine whether or not to add a direction image indicating the direction toward the target object seen in the past according to the current position of the character.
  • a service in which a plurality of users are travel participants has been described.
  • an operator in the server system 4 or a person equivalent thereto may participate in the tour as a dummy participant.
  • the dummy participant knows the whole of the trip and plays the role of assisting with a comfortable tour behind the scenes. For example, when no user can find the target object, the dummy participant looks at the target object, so that other users see the direction image from the dummy participant character toward the target object, The location of the object of interest can be recognized.
  • the management server 5 may cause a character that operates according to a predetermined rule to participate in the tour instead of actually participating in the tour as a dummy participant.
  • This character is a so-called non-player character (NPC) and is called a “non-operation character” in the embodiment.
  • NPC non-player character
  • the service providing entity does not notify the user that the non-operation characters are mixed in with the participating characters.
  • the management server 5 transmits operation information for moving the non-operation character to the information processing apparatus 10 of each user.
  • the server data receiving unit 26 receives the operation information of the non-operation character from the management server 5
  • the second operation information acquisition unit 44 acquires the operation information of the non-operation character, and the character control unit 52. To supply.
  • the operation information of the non-operation character is handled in the same manner as the operation information of another user.
  • the management server 5 transmits operation information for moving the non-operation character so as to see the object of interest to each information processing apparatus 10. For example, if no user finds the target object within a predetermined time after the start of the explanatory event, the non-operation character operates so as to see the target object. As a result, a direction image indicating the direction from the non-operation character toward the target object is displayed, and the user can recognize the location of the target object.
  • the use of the non-operation object is efficient because it is not necessary to operate the dummy participant character on the management server 5 side.
  • the non-operation character can be freely switched to the operation character by the dummy participant, or the operation character by the dummy participant can be freely switched to the non-operation character.
  • the direction in which the HMD 100 is facing is used as the user's gaze direction.
  • the gaze direction may be used. .
  • the input device 16 may be used so that the user can easily find the object of interest. For example, when a posture sensor is mounted on the input device 16 and the posture of the input device 16 is changed, the posture direction of the input device 16 in the actual three-dimensional space and the user character in the virtual three-dimensional space are directed to the target object. When the direction matches or approximates, the input device 16 may vibrate or a notification sound is output to notify the user of the direction of the object of interest.
  • the advantage of using the input device 16 for object search is that the user wearing the HMD 100 does not have to move the neck to search for the object of interest.
  • the target object can be found quickly by searching for the target object using the input device 16. become.
  • a service such as a treasure hunt that aims to find an object, it is considered that such a function of the input device 16 is usefully used.
  • the processing function shown in FIG. 6 is given to the information processing apparatus 10, but it may be given to the management server 5.
  • the management server 5 becomes a cloud server having the function of the information processing apparatus 10 of the embodiment, and provides each user system 3 with individually generated image data.
  • SYMBOLS 1 Information processing system, 3 ... User system, 4 ... Server system, 5 ... Management server, 6 ... Storage device, 7 ... Content DB, 8 ... User behavior DB DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 15 ... Output device, 20 ... Sensor data receiving part, 22 ... Captured image receiving part, 24 ... Input data receiving part, 26 ... Server data reception , 30... Operation information transmission unit, 32... Image providing unit, 34... Voice providing unit, 40... Acquisition unit, 42. 2 operation information acquisition unit, 46 ... object information acquisition unit, 50 ... processing unit, 52 ... character control unit, 54 ... determination unit, 56 ... image generation unit, 100 ... HMD .
  • the present invention can be used in the field of outputting application image data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

取得部40は、仮想空間においてユーザのキャラクタを動かすための操作情報と、当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得する。キャラクタ制御部52は、仮想空間における当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御する。画像生成部56は、仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタを含む画像データを生成する。画像データには、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像が含まれる。

Description

情報処理装置および画像生成方法
 本発明は、ヘッドマウントディスプレイなどの表示装置にアプリケーションの画像データを出力する技術または表示装置に提供するための画像データを生成する技術に関する。
 特許文献1は、自分と他のユーザとが3次元仮想現実空間を共有するシステムを開示する。このシステムにおいて自分のクライアント端末は、仮想現実空間を構成する基本オブジェクトに関するデータを情報サーバ端末から提供され、また他人のアバタに関するデータを共有サーバ端末から提供されることで、自分のアバタの視点と位置から見える仮想現実空間を表示装置に表示する。特許文献1において基本オブジェクトは、仮想現実空間で複数のユーザが共通して利用するオブジェクト、たとえばビルディングや道路などの、その基本的な状態が変化しないオブジェクトである。
米国特許第6057856号明細書
 複数のユーザが仮想現実空間に参加可能なシステムを構築することで、サービス提供主体は、複数のユーザに様々な体験を提供できる。たとえば仮想現実空間として複数のユーザが参加するクラスルームを構築すれば、ユーザは自宅にいながらにして他のユーザと一緒に授業を受けられるようになる。また仮想現実空間として海外の名所や町並みを構築すると、複数のユーザが一緒に海外旅行を楽しむことができる。
 仮想現実空間(以下「仮想空間」とも呼ぶ)で、各ユーザはそれぞれのキャラクタを自由に動かせる。そのためサービス提供主体が、仮想空間内に注目するべき対象物(オブジェクト)を設定しても、各キャラクタの位置や視線方向がばらばらであるために、複数のユーザを同時にまたは同じ時間帯に当該オブジェクトに注目させることが難しかった。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、仮想空間におけるユーザキャラクタの注目するべき方向を示唆するための技術を提供することにある。
 上記課題を解決するために、本発明のある態様の情報処理装置は、アプリケーションの画像データを表示装置に出力する情報処理装置であって、仮想空間においてユーザのキャラクタを動かすための操作情報を取得する取得部と、当該ユーザとは別のユーザのキャラクタを含む画像データを表示装置に出力する画像提供部と、を備える。画像提供部は、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを、表示装置に出力する。
 本発明の別の態様は、画像生成方法である。この方法は、仮想空間においてユーザのキャラクタを動かすための操作情報を取得するステップと、仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得するステップと、当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御するステップと、仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成するステップと、を有する。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
実施例における情報処理システムを示す図である。 ユーザキャラクタの視点から見た仮想空間の画像の一例を示す図である。 実施例におけるユーザシステムの構成例を示す図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 情報処理装置の機能ブロックを示す図である。 ユーザキャラクタの視点から見た仮想空間の画像の一例を示す図である。 3次元仮想空間をレンダリングした画像に方向画像を含めた画面例を示す図である。 3次元仮想空間をレンダリングした画像に方向画像を含めた画面の別の例を示す図である。
 図1は、実施例における情報処理システム1を示す。情報処理システム1は、複数のユーザが3次元仮想空間を共有するサービスを提供する。情報処理システム1は複数のユーザシステム3a、3b・・・3m、3n(以下、総称する場合には「ユーザシステム3」と呼ぶ)と、サーバシステム4を備える。サーバシステム4は、サービスの提供主体により運営・管理され、各ユーザシステム3は、それぞれのユーザにより使用される。サーバシステム4および複数のユーザシステム3はインターネットなどのネットワーク2に接続し、サーバシステム4と各ユーザシステム3とは、互いにデータを送受信できる。なお複数のユーザシステム3が、互いにデータを送受信できてもよい。
 サーバシステム4は管理サーバ5および記憶装置6を備える。記憶装置6は、3次元仮想空間を生成するための3次元画像データを保持するコンテンツDB7と、3次元仮想空間におけるユーザの挙動情報を蓄積するためのユーザ挙動DB8とを有する。以下、コンテンツDB7が保持する3次元画像データを「コンテンツデータ」と呼ぶ。
 たとえばサーバシステム4はクラスルームの3次元仮想空間をユーザシステム3に提供し、サーバシステム4のオペレータが教師となり、複数のユーザシステム3のユーザが生徒となることで、複数のユーザが一緒に授業を受けられるサービスを提供できる。またサーバシステム4は都市や観光地の3次元仮想空間をユーザシステム3に提供し、オペレータがツアーガイドとなり、複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで旅行を楽しむサービスを提供できる。またサーバシステム4は宝が隠された3次元仮想空間をユーザシステム3に提供し、オペレータが宝探しの案内人となり、複数のユーザがトレジャーハンターとなることで、複数のユーザが案内人からのヒントをもとに宝探しを競うサービスを提供できる。
 このようにサーバシステム4は、3次元仮想空間を複数のユーザで共有するサービスを提供する。コンテンツDB7に記憶されるコンテンツデータは、基本的に位置情報や姿勢情報などが更新されない静的なオブジェクトデータにより構成される。たとえば観光地の仮想空間を表現するコンテンツデータは、相対的な位置関係を定義された建物オブジェクト、道路オブジェクト、街灯オブジェクト、看板オブジェクトなどを含んで構成される。なお仮想空間内でユーザが動かすことのできるオブジェクトが存在してもよい。
 ユーザシステム3は、サービスの提供を受ける前に、コンテンツデータを再生するためのビューワアプリケーションをインストールする。ユーザシステム3がネットワーク2を介してサーバシステム4からコンテンツデータをダウンロードすると、ビューワアプリケーションは、コンテンツデータをもとに仮想空間を構築し、仮想空間内でユーザによる操作情報をもとにキャラクタを動かし、ユーザキャラクタの位置および姿勢(視線方向)に応じて仮想空間をレンダリングする。これによりユーザはユーザキャラクタを通じて、仮想空間内を自由に移動し、自由視点からの画像を見ることができる。
 図2は、あるユーザキャラクタの視点から見た仮想空間の画像の一例を示す。ビューワアプリケーションは、ユーザキャラクタの位置および視線方向に応じて、ユーザキャラクタの視点からの画像を生成する。
 それぞれのユーザシステム3がコンテンツデータをダウンロードすることで、複数のユーザによる仮想空間の共有が実現される。以下、10人のユーザA、B、C、D、E、F、G、H、I、Jが仮想空間を共有する例について説明する。管理サーバ5は、複数ユーザによる仮想空間の共有処理を担当する。各ユーザは、仮想空間内でそれぞれのユーザキャラクタを操作するが、その操作情報は、当該ユーザのユーザシステム3においてビューワアプリケーションによる処理に使用されるとともに、管理サーバ5に送信され、管理サーバ5は、他のユーザのユーザシステム3に転送する。つまりユーザAが自身のキャラクタを操作した操作情報は、他の9人のユーザB~Jのユーザシステム3にも提供されて、それぞれのユーザシステム3のビューワアプリケーションによる処理に使用される。このように各ユーザによるキャラクタの操作情報が全てのユーザに共有されることで、各ユーザシステム3において全ユーザA~Jのユーザキャラクタは、通信遅延の影響を除けば基本的に同じ挙動を示すようになる。
 図3は、実施例におけるユーザシステム3の構成例を示す。ユーザシステム3は情報処理装置10と、ヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。情報処理装置10は、アクセスポイント(AP)17を介してネットワーク2に接続される。AP17は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。
 HMD100はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画面を更新することで、映像世界への没入感を高められる。なお実施例では、レンダリングした画像をHMD100の表示パネルに表示するが、レンダリングした画像は出力装置15に表示されてもよい。
 情報処理装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ビューワアプリケーションを実行する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の姿勢情報をビューワアプリケーションに対するユーザの操作情報として受け付けて、ビューワアプリケーションを実行する機能ももつ。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットである。出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
 撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。
 実施例のユーザシステム3では、HMD100にユーザキャラクタの視点から見た画像を提供するビューワアプリケーションを実行する。実施例ではユーザがHMD100で画像を見るため、ユーザシステム3において出力装置15は必ずしも必要ではないが、変形例ではユーザがHMD100を装着せず、出力制御装置12または処理装置11が、画像を出力装置15から出力させてもよい。
 HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。
 処理装置11、記憶装置13、出力装置15、入力装置16および撮像装置14は、従来型のゲームシステムを構築してよい。この場合、処理装置11はゲームを実行するゲーム装置であり、入力装置16はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置11にユーザによる操作情報を供給する機器である。このゲームシステムの構成要素に、出力制御装置12およびHMD100を追加することで、VRのビューワアプリケーションを実施するユーザシステム3が構築される。
 なお出力制御装置12による機能は、ビューワアプリケーションの一部の機能として処理装置11に組み込まれてもよい。つまり情報処理装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、ビューワアプリケーションの実施に必要な処理装置11および出力制御装置12の機能を、まとめて情報処理装置10の機能として説明する。
 ビューワアプリケーションを実施する前段階として、処理装置11は、サーバシステム4の記憶装置6に記憶されているコンテンツデータを記憶装置13にダウンロードする。またユーザは、ビューワアプリケーションを開始する際に自身のキャラクタを設定し、設定したユーザキャラクタデータは、記憶装置13に記憶されるとともに、サーバシステム4に送信されて、サーバシステム4から他のユーザのユーザシステム3に送信される。
 ビューワアプリケーションは、入力装置16から入力された操作情報にもとづいて仮想空間内でユーザキャラクタを動かし、ユーザの頭部に装着されたHMD100の姿勢情報にもとづいてユーザキャラクタの視線方向を定める。実施例ではビューワアプリケーションが、HMD100の姿勢情報を、ユーザキャラクタの視線方向を操作するための操作情報として利用するが、入力装置16における入力情報を、視線方向を操作するための操作情報として利用してもよい。またユーザキャラクタを移動させるための操作情報は、入力装置16の入力情報を用いずに、HMD100の位置情報を利用してもよい。実施例において、ユーザキャラクタの操作情報は、入力装置16およびHMD100のいずれから取得されてもよく、また他のユーザインタフェースから取得されてもよい。
 情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。
 情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。上記したように情報処理装置10は、HMD100の位置情報をもとにユーザキャラクタの仮想空間内の位置を算出し、HMD100の姿勢情報をもとにユーザキャラクタの視線方向を算出してもよいが、実施例では仮想空間内におけるユーザキャラクタの位置は、入力装置16の操作情報をもとに算出する。
 図4は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
 出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
 筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
 HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
 図5は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
 通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
 制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
 図6は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサデータ受信部20、撮影画像受信部22、入力データ受信部24、サーバデータ受信部26、操作情報送信部30、画像提供部32および音声提供部34を備える。サーバデータ受信部26は、管理サーバ5から送信されるデータを受信する通信インタフェースである。
 情報処理装置10は、さらに取得部40、処理部50および記憶装置13を備える。取得部40は、入出力インタフェースで受信したデータからビューワアプリケーションで使用する情報を取得する機能をもち、第1操作情報取得部42、第2操作情報取得部44およびオブジェクト情報取得部46を有する。処理部50は、取得部40で取得した情報から画像データを生成する機能をもち、キャラクタ制御部52、判定部54および画像生成部56を有する。記憶装置13は、3次元仮想空間を構築するためのコンテンツデータや、情報処理装置10の利用ユーザのキャラクタデータおよび他のユーザのキャラクタデータなどを記憶する。
 図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 以下、「ユーザA」が使用する情報処理装置10の動作について説明する。第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。一方で、第2操作情報取得部44は、仮想空間においてユーザAとは別のユーザ、つまりユーザB、C、D、E、F、G、H、I、Jのキャラクタを動かすための操作情報を取得する。
 なお「ユーザB」が使用する情報処理装置10においては、第1操作情報取得部42が、ユーザBのキャラクタを動かすための操作情報を取得し、第2操作情報取得部44が、ユーザBとは別のユーザのキャラクタを動かすための操作情報を取得する。
 以下、ユーザAによる操作情報について説明する。
 センサデータ受信部20は、ユーザAが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、第1操作情報取得部42に供給する。撮影画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、第1操作情報取得部42に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、撮影画像受信部22は、(1/60)秒ごとに撮影画像を受信する。入力データ受信部24は入力装置16から、ユーザAが入力したキーデータを受信して、第1操作情報取得部42に供給する。
 第1操作情報取得部42は、ユーザの頭部に装着されたHMD100の動きにもとづいてHMD100の姿勢の変化を検出し、仮想空間におけるユーザAのキャラクタの視線方向の変化を示す操作情報を取得する。また第1操作情報取得部42は、入力データ受信部24で受信した入力装置16のキーデータにもとづいて、仮想空間におけるユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。
 第1操作情報取得部42は、姿勢センサ124のセンサデータからHMD100の姿勢の変化を検出する。第1操作情報取得部42は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定してよい。なお第1操作情報取得部42は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。第1操作情報取得部42は、検出したHMD100の姿勢の変化から、ユーザAの視線方向の変化を示す操作情報を取得する。
 また第1操作情報取得部42は、入力装置16に入力されたキーデータから、ユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。入力装置16の操作により仮想空間内のキャラクタを動作させる処理は、既知の技術を利用してよい。実施例ではユーザAがHMD100を装着するため、キャラクタの視線方向を、HMD100を装着したユーザAの視線方向に合わせているが、変形例ではユーザAがHMD100を装着しない実施態様も想定され、この場合はユーザAが、入力装置16から、キャラクタの位置および視線方向を制御するためのキーデータを入力してもよい。
 このようにして第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。この操作情報は、位置および視線方向の変化量を指定する情報であってよいが、位置および視線方向を直接指定する情報であってもよい。第1操作情報取得部42は、ユーザAのキャラクタを動かすための操作情報をキャラクタ制御部52に供給する。第1操作情報取得部42がどのような操作情報を取得するかは、ビューワアプリケーションに依存し、いずれにしてもキャラクタ制御部52が処理できる操作情報であればよい。第1操作情報取得部42は、所定の周期で操作情報を生成してキャラクタ制御部52に供給してよいが、状態変化が生じたとき、つまりHMD100の姿勢が変化したとき又は入力装置16でキー入力が生じたときに操作情報を生成してキャラクタ制御部52に供給してもよい。
 キャラクタ制御部52は、第1操作情報取得部42から供給される操作情報にもとづいて、仮想空間内のユーザAのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。
 画像生成部56は、仮想空間におけるユーザキャラクタの位置(3次元仮想空間座標値)にもとづいて、仮想空間の3次元レンダリングを行う。具体的に画像生成部56は、ユーザキャラクタの位置に、ユーザキャラクタの視線方向を光軸とする仮想カメラを配置して、画像データを生成する。画像提供部32は、生成された画像データをHMD100に出力する。
 実施例のビューワアプリケーションでは、ユーザAが入力装置16のキー入力によりキャラクタを移動させ、また首を傾けてHMD100の向きを変更することで、キャラクタの視線方向を変えることができる。HMD100の表示パネル130には、キャラクタの位置および視線方向に応じた画像が表示される(図2参照)。
 以上はユーザAのキャラクタの動作制御であるが、実施例の情報処理システム1は、3次元仮想空間を複数のユーザで共有するサービスを提供する。そのため第1操作情報取得部42で取得されたユーザAのキャラクタの操作情報は、操作情報送信部30から管理サーバ5に送信され、管理サーバ5から別のユーザB~Jの情報処理装置10に転送される。
 別のユーザB~Jの情報処理装置10においても、それぞれのユーザのキャラクタを動かすための操作情報が取得され、管理サーバ5に送信される。管理サーバ5は、ユーザAの情報処理装置10に、ユーザB~Jの情報処理装置10で取得されたキャラクタの操作情報を送信する。サーバデータ受信部26は、管理サーバ5から送信される別のユーザのキャラクタ操作情報を受信する。
 管理サーバ5は、仮想空間共有サービスに参加するユーザの情報を管理する。ユーザ情報は、ユーザを識別するためのユーザアカウント、ユーザのキャラクタデータを少なくとも含み、管理サーバ5はサービス開始前に、各参加ユーザのユーザ情報を、すべての参加ユーザの情報処理装置10に送信しておく。サービス開始後、管理サーバ5は、ユーザのキャラクタの操作情報をユーザアカウントに紐付けて各情報処理装置10に送信し、したがって情報処理装置10は、サーバデータ受信部26で受信した操作情報がどのユーザのキャラクタの動作に反映させる情報であるかを特定できる。
 第2操作情報取得部44は、サーバデータ受信部26から、別のユーザB~Jのキャラクタを動かすための操作情報を取得し、キャラクタ制御部52に供給する。キャラクタ制御部52は、第2操作情報取得部44から供給される操作情報にもとづいて、仮想空間内の別のユーザのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。なおキャラクタの視線方向の制御は、キャラクタの首の向きを制御することで実施される。
 上記したように画像生成部56は、ユーザAのキャラクタの位置から、キャラクタの視線方向に見える仮想空間の画像を生成する。そのためユーザAのキャラクタの視野に、別のユーザのキャラクタが含まれていれば、画像生成部56は、ユーザAとは別のユーザのキャラクタを含む画像データを生成する。画像提供部32は、生成された画像データを、表示装置であるHMD100に出力する。
 図7は、ユーザAのキャラクタの視点から見た仮想空間の画像の一例を示す。ここでは、ユーザAのキャラクタの視野に、5人のユーザのキャラクタが含まれている様子が示される。それぞれのユーザキャラクタは、左から順に、ユーザB、ユーザD、ユーザF、ユーザG、ユーザHのキャラクタであるとする。なお、それ以外のユーザC、ユーザE、ユーザI、ユーザJのキャラクタについては、ユーザAのキャラクタの後ろにいたり、また建物の中に入っているなどの理由により、ユーザAのキャラクタの視野角内に存在せず、画像データには含まれていない。HMD100において、通信制御部128が情報処理装置10から画像データを受信し、制御部120が仮想空間画像を表示パネル130に表示する。
 実施例ではサーバシステム4が観光地の仮想空間を複数のユーザシステム3に提供し、サーバシステム4のオペレータがツアーガイドとなり、また複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで一緒に旅行するサービスを提供する。オペレータは管理サーバ5を操作して、音声ガイドを各ユーザシステム3に配信し、ユーザが移動する方向や注目する対象(オブジェクト)を音声で指定する。各ユーザシステム3において、サーバデータ受信部26が音声案内用の音声データを受信すると、音声提供部34が音声データをHMD100に送信する。HMD100において通信制御部128が音声データを受信し、制御部120が音声案内を音声出力部132からイヤホン(不図示)に出力する。
 オペレータは、たとえば以下のような音声案内を行う。
「前方に続くアーケードをまっすぐ進んで下さい。」
「通路両脇にある建物は17世紀後半に建築されました。」
「足元の石畳は、当時のままの状態で残っています。」
 各ユーザは音声案内にしたがってキャラクタを操作し、キャラクタが仮想空間を移動する。各ユーザのHMD100には、キャラクタの移動にともない、仮想空間画像が刻々と変化して表示される。
 なおキャラクタの移動は各ユーザの操作によるため、各ユーザキャラクタの仮想空間内の位置は様々である。管理サーバ5は、全てのユーザによるキャラクタの操作情報を受信しており、オペレータは、各ユーザのキャラクタの位置を把握している。そのため規定の移動ルートから外れたり、遅れたり又は先に行きすぎているユーザに対して、オペレータは個別に音声案内を提供できる。
 このような仮想空間において、注目するべきオブジェクトが存在する場合、ツアーガイドであるオペレータは、そのオブジェクトに注目させるように音声案内を行う。それは「通路脇にある看板に注目してください」というものであってよい。この音声案内により「説明イベント」が開始される。図7に示す画面例において、オブジェクト200が注目するべきオブジェクトとして設定されており、オペレータは、全てのユーザがオブジェクト200を見ていることを確認すると、オブジェクト200の注目ポイント(たとえば看板の店の歴史など)を説明する。注目ポイントの説明が終了すると、説明イベントは終了となり、次の注目オブジェクトへの移動案内が行われる。なお説明イベントの開始および終了は、オペレータにより任意のタイミングで行われてよい。
 「通路脇にある看板に注目してください」とする音声案内が行われたときに、キャラクタがオブジェクト200の近傍にいれば、ユーザはオブジェクト200を比較的容易に見つけられるが、キャラクタがオブジェクト200から離れた位置にいる場合、ユーザはただちにオブジェクト200を見つけることが難しい。そこでビューワアプリケーションはユーザキャラクタの注目するべき方向を示唆するための画像を表示画像に含め、ユーザがオブジェクト200の位置を容易に認識できるようにする。
 管理サーバ5のオペレータは、「通路脇にある看板に注目してください」とする音声データを、複数のユーザの情報処理装置10に送信するとき、オブジェクト200の識別子(オブジェクトID)とともに、オブジェクト200の仮想空間内での3次元座標もあわせて送信する。以下、オブジェクトIDおよびオブジェクト3次元座標を「オブジェクト情報」と呼ぶ。
 情報処理装置10において、サーバデータ受信部26が、音声データおよびオブジェクト情報を受信すると、音声提供部34が音声データをHMD100に送信し、オブジェクト情報取得部46がオブジェクト情報を取得して判定部54に供給する。HMD100に送信された音声データは、音声出力部132により出力される。
 判定部54は、別のユーザのキャラクタの位置および視線方向にもとづいて、別のユーザがオブジェクト200を現在見ているか否かを判定する。この判定処理は、別のユーザのキャラクタの位置に、当該キャラクタの視線方向を光軸とする仮想カメラを配置したときに、オブジェクト200が仮想カメラにより撮影されるか否かを判断する処理となる。基本的に判定部54は、キャラクタの視野角内にオブジェクト200の3次元座標が含まれていれば、別のユーザがオブジェクト200を見ていることを判定し、一方で視野角内にオブジェクト200の3次元座標が含まれていなければ、別のユーザがオブジェクト200を見ていないことを判定する。なお判定部54は、キャラクタの視野角内にオブジェクト200の3次元座標が含まれている場合であっても、キャラクタとオブジェクト200との間の別のオブジェクト(障害物)によりオブジェクト200が隠される場合には、別のユーザがオブジェクト200を見ていないことを判定する。
 以上の判定処理により、判定部54は、ユーザAとは別のユーザのキャラクタがオブジェクト200を見ているか否かを特定できる。図7に示す画面例で、判定部54は、ユーザB、ユーザD、ユーザF、ユーザGのキャラクタがオブジェクト200を見ていることを判定し、一方でユーザHのキャラクタがオブジェクト200を見ていないことを判定する。判定部54は判定結果を画像生成部56に提供する。
 判定部54による判定処理は、周期的に実施されてよく、判定周期は、キャラクタの動作制御周期と同じであってよい。つまりキャラクタ制御部52は、ユーザAのキャラクタおよび別のユーザのキャラクタの動作を周期的に制御するが、判定部54は、その周期にあわせて判定処理を実施してよい。
 画像生成部56は、判定部54による判定結果をもとに、別のユーザのキャラクタが見ている方向を示す方向画像を含む画像データを生成する。ここで別のユーザのキャラクタがオブジェクト200を見ている場合、方向画像は、別のユーザのキャラクタの視線方向を示すものであってもよいが、別のユーザのキャラクタからオブジェクト200に向かう方向を示すものであってよい。なお別のユーザのキャラクタがオブジェクト200を見ていない場合、方向画像は、キャラクタの視線方向を示す画像となる。
 キャラクタの視線方向と、キャラクタからオブジェクト200に向かう方向について説明する。実施例においてキャラクタの視線方向は、ユーザが装着しているHMD100が向いている方向であって、且つキャラクタの両眼の中心から延びる方向である。HMD100に表示される画面に関して言えば、キャラクタの視線方向は、表示画面の中心を垂直につらぬく方向である。
 一方、キャラクタからオブジェクト200に向かう方向について説明すると、図7に示す表示画面は、ユーザAのHMD100に表示される画面であるが、オブジェクト200は画面中心よりもやや左上に含まれている。この場合、キャラクタからオブジェクト200に向かう方向は、視線方向に平行とはならない。なおオブジェクト200が表示画面の中心に位置するようにユーザAがHMD100を動かす場合には、視線方向は、キャラクタからオブジェクト200に向かう方向に一致する。
 図8は、3次元仮想空間をレンダリングした画像に方向画像を含めた画面例を示す。画像生成部56は、ユーザB、ユーザD、ユーザF、ユーザGのそれぞれのキャラクタからオブジェクト200に向かう方向を示す方向画像202b、202d、202f、202gと、ユーザHのキャラクタの視線方向を示す方向画像202hを含む画像データを生成する。ここでオブジェクト200を見ているキャラクタに対して付加する方向画像202b、202d、202f、202gと、オブジェクト200を見ていないキャラクタに対して付加する方向画像202hは、異なる表示態様となるように生成される。
 図8に示す画面例で、方向画像202b、202d、202f、202gは、実線の矢印画像であり、方向画像202hは、点線の矢印画像であるが、表示態様はこれに限るものではない。たとえば方向画像202b、202d、202f、202gを赤色、方向画像202hを青色など、異なる色で表現してもよい。いずれにしても表示態様を異ならせることで、ユーザAが、どのキャラクタがオブジェクト200を見ているか、またどのキャラクタがオブジェクト200を見ていないかを容易に認識できる。
 図8に示す画面例では、ユーザAが見ている表示画面にオブジェクト200は既に含まれているが、ユーザAはオブジェクト200に気付かないこともある。表示画面に方向画像202b、202d、202f、202gを含ませることで、ユーザAは、どのオブジェクトに注目するべきかを一目で分かる。なお方向画像202hはオブジェクト200に向いていないため、画像生成部56は、画像データに方向画像202hを含ませないようにしてもよい。
 図9は、3次元仮想空間をレンダリングした画像に方向画像を含めた別の画面例を示す。図8では、画面左上の看板が注目オブジェクトである場合について説明したが、図9では、その看板は実は注目オブジェクトではなく、別の看板が注目オブジェクトであった例について説明する。
 このとき、ユーザB、ユーザD、ユーザF、ユーザGのキャラクタは、間違ったオブジェクトに注目している。そのため各キャラクタに付加される方向画像は、注目オブジェクトを見ていないことを示す点線矢印画像となっている。
 ここでユーザHのキャラクタに付加される方向画像は、実線矢印画像であり、正しく注目オブジェクトを見ていることを示している。これにより図9に示す画面を見たユーザAは、ユーザHの目線の先に注目オブジェクトが存在していることを認識する。
 仮想空間において、あるオブジェクトに注目させたい場合、当該オブジェクトを目立たせるような(たとえば点滅させるような)エフェクトを施すことも有効である。しかしながら、そもそもオブジェクトが表示画面に含まれていない場合には、ユーザがエフェクトを認識できない。そこで図9に示すように、正しくオブジェクトに注目しているユーザのキャラクタに方向画像を付加することで、ユーザは、表示画面に含まれていないオブジェクトの場所を確認できるようになる。
 現実世界でツアーに参加した場合であっても、ツアーガイドの説明をよく聞いていなかったために、なにに注目するべきか分からないことがある。そのような場合、人は、周りの人の動きから注目するべきものが何であるかを想像する。実施例では、別のユーザのキャラクタに方向画像を付加することで、ユーザAが注目オブジェクトを認識しやすくしており、仮想空間のツアー参加者は、現実世界に似た感覚で注目オブジェクトを探し出せる。
 実施例では方向画像を矢印で表現したが、これに限定するものではない。たとえばキャラクタの視野角を表現するべく、キャラクタ位置を頂点として注目オブジェクトに延びる錐体の方向画像を使用してもよい。また方向画像は半透明の色を付されて、方向画像の背景となる空間画像の視認性を確保してもよい。
 なおユーザは一度オブジェクトを認識すると、その後、オペレータからの説明が開始されるまでの間、常にオブジェクトを見続けるとは限らない。他のユーザのオブジェクト設置地点への到着が遅れており、オペレータの説明がまだ開始されないのであれば、周囲の光景を見渡すことも観光の醍醐味である。そのため、あるユーザが遅れてオブジェクト設置地点に到着したときには、他の全てのユーザがオブジェクトを見ていないことも想定される。
 そこで画像生成部56は、キャラクタが現時点で注目オブジェクトを見ていなくても、過去に注目オブジェクトを見ていたことがあれば、そのキャラクタに、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。たとえば画像生成部56は、当該キャラクタが、最後に注目オブジェクトを見た時刻から所定時間内に限って、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。この方向画像は、注目オブジェクトの位置を示すヒントとなり、オブジェクト設置位置に遅れてくるユーザのオブジェクト探索をアシストする。しかしながら、あまりにも遅れてオブジェクト設置位置に到着するユーザは他のユーザに大きな迷惑をかけているため、注目オブジェクトに向かう方向を示す方向画像の表示時間を所定時間に限定することで、アシストに制限をかけてもよい。
 なお画像生成部56は、当該キャラクタが最後に注目オブジェクトを見た時刻における位置から所定距離内にいる場合に限って、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。当該キャラクタが同じ位置にとどまっている場合には、その地点から方向画像を付加すればよいが、たとえば当該キャラクタが移動して、周囲を散策しているような場合は、もはや注目オブジェクトを見られない位置にいる可能性もある。そこで画像生成部56は、当該キャラクタの現在位置にしたがって、過去に見た注目オブジェクトに向かう方向を示す方向画像を付加するか否かを決定してもよい。
 なお実施例では、複数のユーザが旅行参加者となるサービスについて説明したが、サーバシステム4におけるオペレータないしはそれに準ずる者が、ダミー参加者としてツアーに参加してもよい。ダミー参加者は、旅行の全容を把握しており、快適なツアーを陰からアシストする役割を担う。たとえば、どのユーザも注目オブジェクトを見つけられないような場合に、ダミー参加者が注目オブジェクトに視線を向けることで、他のユーザは、ダミー参加者のキャラクタから注目オブジェクトに向かう方向画像を見て、注目オブジェクトの場所を認識できるようになる。
 なお実際にオペレータがダミー参加者としてツアーに参加するのではなく、管理サーバ5が所定のルールにより動作するキャラクタをツアーに参加させてもよい。このキャラクタはいわゆるノンプレイヤーキャラクタ(NPC)であり、実施例では「非操作キャラクタ」と呼ぶ。このときサービス提供主体は、参加するキャラクタに非操作キャラクタが紛れ込んでいることを、ユーザに知らせないことが好ましい。
 管理サーバ5は、非操作キャラクタを動かすための操作情報を、各ユーザの情報処理装置10に送信する。情報処理装置10において、サーバデータ受信部26が、管理サーバ5から非操作キャラクタの操作情報を受信すると、第2操作情報取得部44が、非操作キャラクタの操作情報を取得し、キャラクタ制御部52に供給する。非操作キャラクタの操作情報は、別のユーザの操作情報と同様に扱われる。
 管理サーバ5は、説明イベントの開始後、所定の条件が成立した場合に、非操作キャラクタが注目オブジェクトを見るように動かすための操作情報を、各情報処理装置10に送信する。たとえば説明イベントの開始後から所定時間内に、どのユーザも注目オブジェクトを見つけられない場合に、非操作キャラクタが注目オブジェクトを見るように動作する。これにより非操作キャラクタから注目オブジェクトに向かう方向を示す方向画像が表示されることになり、ユーザは、注目オブジェクトの場所を認識できるようになる。非操作オブジェクトの利用は、管理サーバ5側で、ダミー参加者のキャラクタを操作しなくてよいため効率的である。なお管理サーバ5では、非操作キャラクタをダミー参加者による操作キャラクタに、またはダミー参加者による操作キャラクタを非操作キャラクタに自在に切り替えられることが好ましい。
 以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施例では、HMD100の向いている方向をユーザの視線方向として利用したが、ユーザの目の動きを検出してユーザの真の視線方向を検出できる場合には、その視線方向を利用してよい。
 また実施例で説明したサービスにおいて、ユーザが注目オブジェクトを探しやすくするために、入力装置16を利用できるようにしてもよい。たとえば入力装置16に姿勢センサを搭載し、入力装置16の姿勢を変化させたときに、現実の3次元空間における入力装置16の姿勢方向と、仮想の3次元空間におけるユーザキャラクタから注目オブジェクトに向かう方向とが一致ないしは近似すると、入力装置16が振動したり、報知音が出力されることで、ユーザに注目オブジェクトの向きを知らせてもよい。入力装置16をオブジェクト探索に利用するメリットは、HMD100を装着したユーザが、首を動かして注目オブジェクトを探さなくてもよい点にある。たとえばHMD100の表示パネル130に、別のユーザキャラクタから注目オブジェクトに向かう方向を示す方向画像が表示されていない場合、入力装置16を用いて注目オブジェクトを探索することで、いち早く注目オブジェクトを見つけられるようになる。たとえば宝探しのように、オブジェクトを見つけることを目的とするサービスでは、このような入力装置16の機能が有用に利用されると考えられる。
 また実施例の情報処理システム1では、図6に示す処理機能を情報処理装置10にもたせたが、管理サーバ5にもたせてもよい。この場合、管理サーバ5は、実施例の情報処理装置10の機能を備えたクラウドサーバとなり、各ユーザシステム3に対して個別に生成した画像データを提供する。
1・・・情報処理システム、3・・・ユーザシステム、4・・・サーバシステム、5・・・管理サーバ、6・・・記憶装置、7・・・コンテンツDB、8・・・ユーザ挙動DB、10・・・情報処理装置、15・・・出力装置、20・・・センサデータ受信部、22・・・撮影画像受信部、24・・・入力データ受信部、26・・・サーバデータ受信部、30・・・操作情報送信部、32・・・画像提供部、34・・・音声提供部、40・・・取得部、42・・・第1操作情報取得部、44・・・第2操作情報取得部、46・・・オブジェクト情報取得部、50・・・処理部、52・・・キャラクタ制御部、54・・・判定部、56・・・画像生成部、100・・・HMD。
 本発明は、アプリケーションの画像データを出力する分野において利用できる。

Claims (7)

  1.  アプリケーションの画像データを表示装置に出力する情報処理装置であって、
     仮想空間においてユーザのキャラクタを動かすための操作情報を取得する取得部と、
     当該ユーザとは別のユーザのキャラクタを含む画像データを、表示装置に出力する画像提供部と、を備え、
     前記画像提供部は、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを、前記表示装置に出力する、
     ことを特徴とする情報処理装置。
  2.  前記取得部は、仮想空間において別のユーザのキャラクタを動かすための操作情報を取得し、
     当該情報処理装置は、
     仮想空間における当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、前記取得部が取得したそれぞれの操作情報にもとづいて制御する制御部と、
     仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタを含む画像データを生成する画像生成部と、をさらに備える、
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  仮想空間には、ユーザが注目するべきオブジェクトが設定されており、
     別のユーザのキャラクタが前記オブジェクトを見ているおよび/または見ていた場合に、画像データには、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像が含まれる、
     ことを特徴とする請求項1または2に記載の情報処理装置。
  4.  画像データには、前記オブジェクトを見ているおよび/または見ていたキャラクタに対して付加される方向画像と、前記オブジェクトを見ていないキャラクタに対して付加される方向画像とが、異なる表示態様で含まれている、
     ことを特徴とする請求項3に記載の情報処理装置。
  5.  ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部を、さらに備え、
     前記取得部は、前記検出部により検出されたヘッドマウントディスプレイの姿勢情報を、ユーザのキャラクタを動かすための操作情報として取得する、
     ことを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6.  仮想空間においてユーザのキャラクタを動かすための操作情報を取得するステップと、
     仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得するステップと、
     当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御するステップと、
     仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成するステップと、
     を有することを特徴とする画像生成方法。
  7.  コンピュータに、
     仮想空間においてユーザのキャラクタを動かすための操作情報を取得する機能と、
     仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得する機能と、
     当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御する機能と、
     仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成する機能と、
     を実現させるためのプログラム。
PCT/JP2017/038377 2016-10-31 2017-10-24 情報処理装置および画像生成方法 WO2018079557A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016213117A JP6615732B2 (ja) 2016-10-31 2016-10-31 情報処理装置および画像生成方法
JP2016-213117 2016-10-31

Publications (1)

Publication Number Publication Date
WO2018079557A1 true WO2018079557A1 (ja) 2018-05-03

Family

ID=62025056

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038377 WO2018079557A1 (ja) 2016-10-31 2017-10-24 情報処理装置および画像生成方法

Country Status (2)

Country Link
JP (1) JP6615732B2 (ja)
WO (1) WO2018079557A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161975A1 (ja) * 2019-02-07 2020-08-13 ソニー株式会社 情報処理装置と情報処理方法とプログラム
WO2021153303A1 (ja) * 2020-01-31 2021-08-05 ソニーグループ株式会社 情報処理装置、及び情報処理方法
WO2021153302A1 (ja) * 2020-01-31 2021-08-05 ソニーグループ株式会社 情報処理装置、及び情報処理方法
WO2023189362A1 (ja) * 2022-03-30 2023-10-05 株式会社バンダイナムコエンターテインメント コンピュータシステム、仮想空間制御システムおよび仮想空間制御方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7395172B2 (ja) * 2019-06-07 2023-12-11 株式会社アルファコード 仮想現実空間におけるインセンティブ付与システム、インセンティブ付与装置、インセンティブ付与方法およびインセンティブ管理用プログラム
JP7324469B2 (ja) 2021-06-28 2023-08-10 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム
WO2023276156A1 (ja) * 2021-07-02 2023-01-05 日本電信電話株式会社 空間像表示装置、空間像表示方法、及びプログラム
WO2023026628A1 (ja) * 2021-08-25 2023-03-02 株式会社Nttドコモ 表示制御装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002113261A (ja) * 2000-07-06 2002-04-16 Sony Computer Entertainment Inc ゲームシステム、記憶媒体、エンタテインメント装置
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2016158795A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
US20160300387A1 (en) * 2015-04-09 2016-10-13 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002113261A (ja) * 2000-07-06 2002-04-16 Sony Computer Entertainment Inc ゲームシステム、記憶媒体、エンタテインメント装置
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2016158795A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
US20160300387A1 (en) * 2015-04-09 2016-10-13 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SAKAKIBARA, YUTA ET AL.: "Evaluating the Impact of User Position and Attention Sharing in a VR Space on Appreciative Actions", THE 21ST ANNUAL CONFERENCE OF THE VIRTUAL REALITY SOCIETY OF JAPAN, 14 September 2016 (2016-09-14) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161975A1 (ja) * 2019-02-07 2020-08-13 ソニー株式会社 情報処理装置と情報処理方法とプログラム
WO2021153303A1 (ja) * 2020-01-31 2021-08-05 ソニーグループ株式会社 情報処理装置、及び情報処理方法
WO2021153302A1 (ja) * 2020-01-31 2021-08-05 ソニーグループ株式会社 情報処理装置、及び情報処理方法
WO2023189362A1 (ja) * 2022-03-30 2023-10-05 株式会社バンダイナムコエンターテインメント コンピュータシステム、仮想空間制御システムおよび仮想空間制御方法

Also Published As

Publication number Publication date
JP6615732B2 (ja) 2019-12-04
JP2018073172A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6615732B2 (ja) 情報処理装置および画像生成方法
JP6058184B1 (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6845111B2 (ja) 情報処理装置および画像表示方法
US11094107B2 (en) Information processing device and image generation method
US10410562B2 (en) Image generating device and image generating method
WO2017086263A1 (ja) 情報処理装置および画像生成方法
JP6298561B1 (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP6242473B1 (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019020908A (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2019087226A (ja) 情報処理装置、情報処理システムおよび表情画像出力方法
KR20200060361A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN110851095A (zh) 虚拟和增强现实中的多屏幕交互
JP2019046291A (ja) 情報処理装置および画像表示方法
JP6661756B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2020145654A (ja) 動画表示システム、情報処理装置および動画表示方法
US20190089899A1 (en) Image processing device
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
JP2022015647A (ja) 情報処理装置および画像表示方法
JP6921204B2 (ja) 情報処理装置および画像出力方法
JP2019083029A (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2017162443A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
US20240205513A1 (en) Video display system, information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17864881

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17864881

Country of ref document: EP

Kind code of ref document: A1