WO2019150469A1 - Method of character control in mixed reality space - Google Patents

Method of character control in mixed reality space Download PDF

Info

Publication number
WO2019150469A1
WO2019150469A1 PCT/JP2018/003127 JP2018003127W WO2019150469A1 WO 2019150469 A1 WO2019150469 A1 WO 2019150469A1 JP 2018003127 W JP2018003127 W JP 2018003127W WO 2019150469 A1 WO2019150469 A1 WO 2019150469A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
mixed reality
reality space
control method
controlling
Prior art date
Application number
PCT/JP2018/003127
Other languages
French (fr)
Japanese (ja)
Inventor
義仁 近藤
Original Assignee
株式会社エクシヴィ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エクシヴィ filed Critical 株式会社エクシヴィ
Priority to PCT/JP2018/003127 priority Critical patent/WO2019150469A1/en
Publication of WO2019150469A1 publication Critical patent/WO2019150469A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a method for controlling a character in a mixed reality space. More specifically, the present invention relates to a method for controlling a character displayed in a virtual reality space provided via a device worn on a body such as a user's head, for example, a head mounted display (HMD).
  • HMD head mounted display
  • Mixed reality space means a technology that amplifies the real space by superimposing various information by computer processing on the real space (Mixed Reality: MR), and complements the real space information to the virtual space Technology that emphasizes the virtual space (Augusted Virtuality: AV) and technology that adds information to the real world (Augusted Reality: AR). It also includes a technology (Virtual Reality: VR) that enables interactive interaction with various objects in the space while being buried in the space.
  • HMD Head Mounted Display
  • one or two display panels are arranged with respect to the left and right eyeball positions of the user, and the movement of the user's head, specifically, A sensor group is provided for detecting tilt, left / right swing, clockwise rotation, and counterclockwise rotation.
  • the movement of the user's head detected by the sensor group is transmitted to a host computer such as a PC, and an image suitable for the movement of the user's head is generated in the host computer, and this image signal is transmitted to the HMD.
  • An image is displayed on the display panel provided in the HMD. It is also possible to generate an image in which the background and the object are integrated by generating an object such as a character object as an image element in the host computer and superimposing the object image on the background image.
  • the character object displayed in the mixed reality space is usually arranged at the tip of the user's visual field direction in the initial state immediately after the user wears the HMD and turns on the power.
  • Such a form is exemplified in a battle game disclosed in Patent Document 1 and an interactive game disclosed in Patent Document 2.
  • JP 2017-606611 A JP 2017-0788893
  • an object of the present invention is to realize a character control method that allows a user to enjoy a more immersive feeling in a mixed reality space including a virtual space, which has not been provided in the past.
  • a method for controlling an object in a mixed reality space comprising: a step; detecting a user input in the mixed reality space; and controlling an output of the object at a predetermined position in accordance with the user input.
  • the character object in the initial state, is not placed at a position facing the user but at a position close to the side, so that it is not a pseudo setting like a game space, It is possible to provide a feeling as if a friend or lover is in the real space.
  • the schematic diagram of the external appearance of the head mounted display 110 concerning 1st Embodiment is shown.
  • the schematic diagram of the external appearance of the controller 210 concerning 1st Embodiment is shown.
  • 1 is a configuration diagram of an HMD system 300 according to a first embodiment.
  • the functional block diagram of HMD110 concerning 1st Embodiment is shown.
  • the functional block diagram of the controller 210 concerning 1st Embodiment is shown.
  • 1 is a functional configuration diagram of an image generation apparatus 310 according to a first embodiment.
  • 2 is a functional configuration diagram relating to a control unit of the image generation apparatus 310 according to the first embodiment.
  • FIG. 2 is a functional configuration diagram relating to a storage unit of the image generation apparatus 310 according to the first embodiment.
  • the table which manages the information regarding the character object in 2nd Embodiment is shown.
  • the block diagram of the HMD system 1800 in 2nd Embodiment is shown.
  • the user interface which displayed the time bar 1901 on the screen which shows the mixed reality space in 3rd Embodiment is shown.
  • the storage list 2001 of the moving image file in 3rd Embodiment is shown.
  • the functional block diagram of the image generation apparatus 2100 in 4th Embodiment is shown.
  • 10 shows a flowchart as an example of a method for preventing a user from accessing a mixed reality space in the fourth embodiment.
  • standard in 4th Embodiment is shown.
  • FIG. 10 shows a flowchart as another example of a method for preventing a user from accessing a mixed reality space in the fourth embodiment.
  • An example of the table which stores the event in 4th Embodiment is shown.
  • 15 is a flowchart as still another example of a method for preventing a user from accessing a mixed reality space according to the fourth embodiment.
  • standard in 4th Embodiment is shown.
  • the function example of the image generation apparatus 2800 in 5th Embodiment is shown.
  • the flowchart as an example of the method which provides the mixed reality space in 5th Embodiment is shown.
  • An example of the relevant information of the virtual space object stored in the virtual space object storage unit 2842 in the fifth embodiment is shown.
  • FIG. 1 is a schematic view of the appearance of a head mounted display (hereinafter referred to as HMD) 110 according to the present embodiment.
  • the HMD 110 is mounted on the user's head and includes a display panel 120 so as to be placed in front of the user's left and right eyes.
  • a display panel an optical transmission type and a non-transmission type display are conceivable.
  • a non-transmission type display panel capable of providing a more immersive feeling is exemplified.
  • the display panel 120 displays a left-eye image and a right-eye image, and can provide a user with a stereoscopic effect by using parallax between both eyes. If the image for the left eye and the image for the right eye can be displayed, the display for the left eye and the display for the right eye can be provided separately, or an integrated display for the left eye and the right eye can be provided. is there.
  • the housing part 130 of the HMD 110 includes a sensor 140.
  • the sensor may include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof, in order to detect movements such as the orientation and tilt of the user's head.
  • the direction perpendicular to the ground of the user's head is the Y axis
  • the axis that connects the center of the display panel 120 and the user among the axes orthogonal to the Y axis is the Z axis
  • the Y axis When the X axis is an axis that is orthogonal to the Z axis and corresponds to the left and right direction of the user, the sensor 140 has a rotation angle around the X axis (so-called pitch angle) and an angle around the Y axis (so-called yaw angle). The angle around the Z axis (so-called roll angle) can be detected.
  • the housing unit 130 of the HMD 110 can include a plurality of light sources 150 (for example, infrared light LEDs and visible light LEDs) and is installed outside the HMD 110 (for example, indoors).
  • the detected camera for example, an infrared light camera or a visible light camera detects these light sources, so that the position, orientation, and inclination of the HMD 110 in a specific space can be detected.
  • the HMD 110 may be provided with a camera for detecting a light source installed outside the housing unit 130 of the HMD 110 (for example, indoors).
  • the housing part 130 of the HMD 110 can include an eye tracking sensor.
  • the eye tracking sensor is used to detect the gaze direction and the gazing point of the user's left eye and right eye.
  • Various types of eye tracking sensors are conceivable.
  • the position of the reflected light on the cornea formed by irradiating the left eye and the right eye with weak infrared light is used as a reference point, and depending on the position of the pupil relative to the position of the reflected light.
  • a method of detecting the line-of-sight direction and detecting the intersection of the left-eye and right-eye line-of-sight directions as a gazing point is conceivable.
  • An HMD 110 as shown in FIG. 1 is a representative example, but an HMD applicable to the present embodiment is not limited to this, and other types (for example, other head-mounted type, glasses-type type) are applicable. Such a display is also applicable.
  • FIG. 2 is a schematic diagram of the appearance of the controller 210 according to the present embodiment.
  • the controller 210 can support the user to make a predetermined input in the mixed reality space.
  • the controller 210 may be configured as a set of left hand 220 and right hand 230 controllers.
  • the left hand controller 220 and the right hand controller 230 may each include an operation trigger button 240, an infrared LED 250, a sensor 260, a joystick 270, and a menu button 280.
  • the operation trigger button 240 is arranged as 240a and 240b at positions that are assumed to perform an operation of pulling the trigger with the middle finger and the index finger when the grip 235 of the controller 210 is gripped.
  • a frame 290 formed in a ring shape downward from both sides of the controller 210 is provided with a plurality of infrared LEDs 250, and the position of these infrared LEDs is detected by a camera (not shown) provided outside the controller.
  • a camera not shown
  • the controller 210 can incorporate a sensor 260 in order to detect movements such as the orientation and inclination of the controller 210.
  • the sensor 260 can include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof.
  • a joystick 270 and a menu button 280 can be provided on the upper surface of the controller 210.
  • the joystick 270 can be moved 360 degrees around the reference point, and is assumed to be operated with the thumb when the grip 235 of the controller 210 is gripped.
  • the menu button 280 is operated with the thumb.
  • the controller 210 can incorporate a vibrator (not shown) for applying vibration to the hand of the user who operates the controller 210.
  • the controller 210 In order to output information such as the input contents of the user via a button or joystick, the position, orientation, and tilt of the controller 210 via a sensor or the like, and to receive information from the host computer, the controller 210 has an input / output Part and a communication part.
  • the system determines the movement and posture of the user's hand based on whether the user holds the controller 210 and operates various buttons and joysticks, and information detected by the sensor and the infrared camera, and simulates in the mixed reality space.
  • the user's hand can be displayed and operated.
  • a controller 210 as shown in FIG. 2 is a representative example, but a controller applicable to the present embodiment is not limited to this, and other types (for example, a general-purpose game controller, a keyboard, voice, gesture input)
  • a controller such as a device that enables the above-mentioned is also applicable.
  • FIG. 3 is a configuration diagram of the HMD system 300 according to the present embodiment.
  • the HMD system 300 can be configured by, for example, an HMD 110, a controller 210, and an image generation apparatus 310 that functions as a host computer. Furthermore, an infrared camera (not shown) for detecting the position, orientation, inclination, and the like of the HMD 110 and the controller 210 can be added. These devices can be connected to each other by wired or wireless means. For example, each device is equipped with a USB port, and communication can be established by connecting with a cable. In addition, HDMI, wired LAN, infrared, Bluetooth (registered trademark), the Internet, WiFi (registered trademark), etc. The connection can also be established by wired or wireless communication.
  • the image generation apparatus 310 may be an apparatus having an information processing function such as a general computer, a PC, a game machine, or a mobile communication terminal.
  • FIG. 4 is a functional configuration diagram of the HMD 110 according to the present embodiment.
  • the HMD 110 may include a sensor 140.
  • a sensor although not shown in order to detect movements such as the orientation and inclination of the user's head, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof can be provided.
  • an eye tracking sensor can be provided. The eye tracking sensor is used to detect the gaze direction and the gazing point of the user's left eye and right eye.
  • an LED 150 such as infrared light or ultraviolet light may be provided.
  • a camera 160 for example, a 360-degree omnidirectional camera for photographing the outside scene of the HMD can be provided.
  • voice can also be provided.
  • the sensor for detecting an odor can also be provided.
  • the HMD 110 can include an input / output unit 190 for establishing a wired connection with peripheral devices such as the controller 210 and the image generation device 310, for example, and includes hardware, firmware, TCP / IP driver, PPP A communication unit 115 that is implemented as communication software such as a driver or a combination of these and configured to be able to communicate with the image generation apparatus 310 via a communication network such as the Internet, infrared, Bluetooth (registered trademark), WiFi (registered trademark), or the like. Can be provided.
  • a communication network such as the Internet, infrared, Bluetooth (registered trademark), WiFi (registered trademark), or the like.
  • Information relating to the movement of the user's head, such as the orientation and tilt of the user, acquired by the sensor 140 is transmitted to the image generating apparatus 310 via the input / output unit 190 or the communication unit 115 by the control unit 125 such as a CPU.
  • the image generation device 310 an image generated based on the movement of the user's head is received via the input / output unit 190 or the communication unit 115 of the HMD 110 and output to the display unit 120 by the control unit 125.
  • Each of these components is electrically connected to each other via a bus.
  • FIG. 5 is a functional configuration diagram of the controller 210 according to the present embodiment.
  • the controller 210 can be configured as a set of controllers for the left hand 220 and the right hand 230, but in any of the controllers, the operation trigger button 240, the joystick 270, the menu button 280, etc.
  • An operation unit 245 can be provided.
  • the controller 210 can incorporate a sensor 260 in order to detect movements such as the orientation and inclination of the controller 210.
  • the sensor 260 can include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof.
  • the controller 210 can include, for example, an input / output unit 255 for establishing a wired connection with peripheral devices such as the HMD 110 and the image generation device 310, and includes hardware, firmware, a TCP / IP driver, a PPP driver, or the like.
  • a communication unit 265 configured to be communicable with the terminal device 30 via a communication network such as the Internet, infrared, Bluetooth (registered trademark), WiFi (registered trademark), or the like. Can do.
  • Information input by the user via the operation unit 245 and information such as the orientation and inclination of the controller 210 acquired by the sensor 260 are transmitted to the image generation apparatus 310 via the input / output unit 255 or the communication unit 265.
  • FIG. 6 is a functional configuration diagram of the image generation apparatus 310 according to the present embodiment.
  • the image generation device 310 stores user input information transmitted from the HMD 110 or the controller 210, information on the user's head or controller movement acquired by a sensor, etc., and performs predetermined program processing to generate an image. It is possible to use a device for performing information processing, such as a general computer, a PC, a game machine, and a mobile communication terminal, which has a function for performing the above-described function.
  • the image generation apparatus 310 can include, for example, an input / output unit 320 for establishing a wired connection with peripheral devices such as the HMD 110 and the controller 210, and includes hardware, firmware, a TCP / IP driver, a PPP driver, and the like.
  • the communication unit 330 can be provided.
  • control unit 340 determines control of the view field image and the object, and generates an image.
  • the control unit 340 can be configured by a CPU, but by further providing a GPU specialized for image processing, information processing and image processing can be distributed, and overall processing efficiency can be improved.
  • the image generation apparatus 310 can also communicate with other calculation processing apparatuses and share information processing and image processing with other calculation processing apparatuses.
  • FIG. 7 is a functional configuration diagram relating to the control unit of the image generation apparatus 310 according to the present embodiment.
  • the control unit 340 of the image generation apparatus 310 includes a display control unit 610 that mainly generates a field-of-view image in the mixed reality space, and an object control unit 620 that generates an object image mainly arranged in the mixed reality space.
  • the display control unit 610 detects a user position based on information on the position, orientation, and tilt of the user's head transmitted from a sensor built in the HMD 110 or an infrared camera disposed outside the HMD 110. 611, a user gaze detection unit 612 that detects the user's gaze direction and gazing point, and a user posture detection unit 613 that detects the orientation and inclination of the user's head. When movements such as the user's position and the user's head orientation and inclination are detected, these pieces of information are output to the visual field region determination unit 614.
  • the field-of-view area determination unit 614 determines the user's field-of-view area in the mixed reality space based on information on the user's position, head movement, and the like.
  • the mixed reality space can be realized, for example, by displaying a celestial spherical panoramic space image generated in advance as a background image.
  • the panorama space image generated in advance is prepared as background image data stored in the background image data storage unit 712 in the view image storage unit 710 or in the HMD 110 in the storage unit 350 of the present embodiment shown in FIG. Captured by the camera 160 and stored in the external image data storage unit 713 as real space image data.
  • the field-of-view area 920 is determined based on the user's reference line of sight 940 starting from the reference point 930 in the stereoscopic mixed reality space 910 displayed on the display unit 120.
  • the reference point 930 is arranged to be located on the same XZ plane as the center A of the celestial sphere forming the mixed reality space, functions as a starting point of a virtual camera that images the mixed reality space in the reference line-of-sight direction, and is detected by the sensor 140 It moves in the mixed reality space according to the position to be moved, and the direction and inclination of the reference line of sight 940 are changed according to the direction, inclination and line-of-sight direction or gaze point. As shown in FIG.
  • a range including predetermined angles ⁇ and ⁇ (minus) ⁇ formed in the vertical direction of the cross section is set as the visual field region 920.
  • an area corresponding to the view area of the panorama image is generated as a view area image by the view image generation unit 615.
  • Object image data (for example, a chair or a table) stored in advance in the object image data storage unit 711 of the view field image storage unit 710 can be displayed as a view area image so as to be superimposed on the background image.
  • the object control unit 620 includes detection units 621 to 625 that detect user input from the HMD 110 or the controller 210, an object control determination unit 626 that determines the output content of the object based on the detected input content, and the determination.
  • An object image generation unit 627 for generating an object image.
  • user input for example, the user's speech via the microphone 170 provided in the HMD 110, the user's operation detected via the sensor provided in the HMD 110 or the controller 210, the user's operation via the controller 210, the face Changes in the user's body state acquired via facial expressions of the user acquired through a recognition sensor (not shown), heartbeats and pulses attached to the user's body, body temperature sensors (not shown), etc.
  • the smell etc. which were acquired via the smell sensor (not shown) etc. are mentioned.
  • the user utterance detection unit 621 detects the user's utterance content transmitted from the microphone 170
  • the user operation detection unit 622 is a user's transmission transmitted from a sensor built in the HMD 110, an infrared camera disposed outside the HMD 110, or the like. Based on information on the position, orientation, and tilt of the head and information on the position of the controller 210 transmitted from the controller 210, an infrared camera or the like disposed outside the controller, the user's head or hand movement is detected. Further, the user operation detection unit 623 detects the user operation content based on the information related to the user button operation transmitted from the controller 210.
  • the user facial expression detection unit 624 detects the user's facial expression based on information related to the user's face transmitted from the face recognition sensor (not shown) provided in the HMD 110, and the user physical condition detection unit 625 A change in the user's physical condition is detected based on information such as the heart rate, pulse rate, and body temperature of the user transmitted from the heart rate, pulse rate, body temperature sensor, and the like worn on the body.
  • the user's odor can be detected based on information on the user's odor transmitted by the odor sensor, and the user's odor detection unit (not shown) can also detect a change in the user's odor.
  • the object control determination unit 626 determines the output content of the object based on the input content detected by each of the detection units 621 to 625. As the output of the object, for example, when the object is a character object, speech, movement, facial expression, or change in state of the character object can be cited. Based on the output contents of the character object determined by the object control determination unit 626, the object image generation unit 627 generates an image of the character object.
  • the character object is placed outside the user's field of view in the mixed reality space at a certain distance from the user in the initial state. It is characterized by. More specifically, when the user's field of view is defined as ⁇ , ⁇ (minus) ⁇ around the user's reference line of sight 1010 in the XZ plane in the mixed reality space, a part of the character object 1020 is , And a certain distance from the reference point 930, which is arranged outside the field of view.
  • the character object 1020 in the initial state, can be arranged at a position of 45 degrees and ⁇ (minus) 45 degrees with the user's reference line of sight 1010 as the center in the mixed reality space. .
  • the character object 1020 is stored as object image data stored in the object image data storage unit 721 of the object information storage unit 720 shown in FIG.
  • the character object is characterized in that its movement and facial expression are controlled based on predetermined parameters stored in the parameter data storage unit 722 of the object control information storage unit 720.
  • a character object can be composed of a plurality of part objects like a human body, and motion parameters corresponding to each part object can be set.
  • Each part object can correspond to a human body part, for example, head, chest, hand, foot, and the like.
  • the motion parameters the motion pattern unique to each body part and its size and speed can be set with numerical values in 10 steps.
  • facial expression parameters for parts that make up the head as a part object, such as eyebrows, eyes, nose, mouth, etc., the movement pattern specific to each part and its size and speed should be set with 10 numerical values.
  • a combination of facial expression parameters of each part for expressing emotion parameters for example, “joy”, “anger”, “sorrow”, “easy”
  • an appropriate combination of facial expression parameters can be determined as the output content.
  • FIG. 11 shows a flowchart for object control processing in the present embodiment.
  • the image generation apparatus 310 receives user input from the HMD 110 or the controller 210 via the input / output unit 320 or the communication unit 320 (S1101).
  • the object control unit 620 of the image generation apparatus 310 detects user input content (S1102).
  • the detection of the user input content is detected by the user utterance detection unit 621, the user action detection unit 622, the user operation detection unit 623, the user facial expression detection unit 624, the user physical condition detection unit 625, and the like.
  • the object control determination unit 626 determines the output content of the object (for example, a character object) (S1103).
  • the output contents of the character object include utterances, actions, facial expressions or changes in state.
  • the object image generation unit 627 When the output content of the object is determined, the object image generation unit 627 generates a display of the object image, and the generated content is displayed in an appropriate data format such as MPEG format together with the background image in the visual field of the user.
  • the data is transmitted to a display device such as the HMD 110.
  • a series of these processes is realized by executing an object control program stored in the object control program storage unit 723 of the storage unit 350 such as a ROM, RAM, or HDD of the image generation apparatus 310.
  • FIG. 12 shows a flowchart as an example of the object control process.
  • the image generation apparatus 310 receives user input from the HMD 110 via the input / output unit 320 or the communication unit 320 (S1201).
  • the user action detection unit 622 detects the orientation of the user's head (S1202).
  • the user's line-of-sight direction in the mixed reality space is specified based on information on the orientation and inclination of the user's head transmitted from the HMD 110.
  • the user motion detection unit 622 checks whether or not the orientation of the user's head is directed to the direction of the character / object arranged in the mixed reality space (S1203).
  • the user's view area in the mixed reality space is specified by the xyz coordinates, and the coordinates are compared to determine whether or not this view area overlaps the area where the character object is placed. To confirm.
  • the unit 626 can determine to perform an action based on an action parameter of directing the head of the character object in the direction in which the user is present as the output content of the character object (S1204).
  • the user's head orientation is detected after receiving the user input again.
  • the object control determining unit 626 determines the action of the character object, or in addition to this, the object control determining unit 626 sets the facial expression parameter in order for the character object to show the feeling of “joy”. (S1205).
  • a combination of facial expression parameters indicating “joy”, for example, a combination of lifting the eyebrows part of the character object, meditating one eye, opening the mouth, and the like can be determined as output contents.
  • the object control determination unit 626 determines the motion and / or emotional expression of the character object
  • the object image generation unit 627 generates an image of the character object (S1206).
  • FIG. 13 shows a flowchart as another example of the object control process.
  • the image generation apparatus 310 receives user input from the HMD 110 or an infrared camera disposed outside the HMD 110 via the input / output unit 320 or the communication unit 320 (S1301).
  • the user operation detection unit 622 detects the position of the user (S1302).
  • the displacement ( ⁇ x, ⁇ y, ⁇ z) of the user's position for example, with reference point 930 shown in FIG.
  • the user motion detection unit 622 detects the distance between the user's position and the character object placed in the mixed reality space (S1303). As an example, based on the latest position coordinates of the user in the mixed reality space and the position coordinates where the character object is placed (for example, the coordinates of the position closest to the user in the area where the character object is placed). Calculate the shortest distance. For example, when the user moves by ⁇ x only in the x coordinate direction, the difference between the x coordinate of the latest position of the user and the x coordinate of the character object is calculated as the distance.
  • the object control determination unit 626 When the distance is equal to or less than the predetermined distance, that is, when it is determined that the user is too close to the character object in the mixed reality space, the object control determination unit 626 outputs the character object output content. Then, it is possible to decide to adjust the motion parameter so that the character object is moved away from the position where the user is present (S1304). If the position where the user is located and the position where the character object is located are more than a predetermined distance, the user position detection process is performed after receiving the user input again.
  • the object control determination unit 626 determines the action of the character object, or in addition to this, the object control determination unit 626 displays the facial expression in order for the character object to show the feeling of “anger” or “uncomfortable”.
  • a parameter is set (S1305).
  • a combination of facial expression parameters indicating “uncomfortable”, for example, a combination of the movement of the character object that moves the left and right eyebrows parts, the movement of narrowing the eyes, the movement of closing the mouth, and the like can be determined as the output content.
  • the object image generation unit 627 generates an image of the character object (S1306).
  • FIG. 14 shows a flowchart as still another example of the object control process.
  • the image generating apparatus 310 receives user input from the HMD 110 via the input / output unit 320 or the communication unit 320 (S1401).
  • the user action detection unit 622 detects the gazing point of the user (S1402).
  • xyz coordinates indicating the user's point of interest in the mixed reality space are specified.
  • the user motion detection unit 622 confirms whether or not the user's gaze point is directed toward the second object (for example, a painting canvas) arranged in the mixed reality space (S1403).
  • the second object for example, a painting canvas
  • the object control determination unit 626 determines whether the coordinates indicating the user's point of sight are within the range where the painting canvas is placed in the mixed reality space by comparing with the coordinates indicating the area where the painting canvas is placed To do.
  • the object control determination unit 626 performs the character control. It is possible to determine to perform the action based on the action parameter of directing the line of sight of the character object to the second object as the output contents of the object (S1404).
  • the user's gaze point is detected after receiving the user input again.
  • the object image generation unit 627 When the object control determination unit 626 determines the action of the character object, the object image generation unit 627 generates an image of the character object (S1405). Furthermore, the image generation device continuously detects the user's gaze point in the user motion detection unit 622, and the object control determination unit 626 causes the character object to be displayed when the user turns away from the painting canvas. It is also possible to perform control such as turning the line of sight toward the direction.
  • FIG. 15 shows a flowchart as still another example of the object control process.
  • This example assumes a scene in which a user draws a picture on a painting canvas arranged in the mixed reality space, and a character object close to the user serves as a teacher.
  • the image generation apparatus 310 receives user input from the HMD 110 or the controller 210 via the input / output unit 320 or the communication unit 320 (S1501).
  • the user operation detection unit 623 displays the operation content of the user.
  • the object control determination unit 626 detects and updates the content of the second object, that is, determines the control for drawing the picture on the canvas based on the operation content of the user, and updates the object data updated on the painting canvas. Is stored in the object update data storage unit 733 (S1502). Subsequently, the object control determination unit 626 executes a program stored in the matching program storage unit 724 of the storage unit 350 when determining the action of the character object, and is stored in the object processing reference data storage unit 725. With reference to the reference data, it is confirmed whether or not the content of the updated object matches the predetermined correct data (image data) (similarity) (S1503).
  • the object control determination unit 626 sets the character object to make a predetermined utterance (S1504). For example, it is set to speak such as “You are good”.
  • the object control determination unit 626 refers to the reference data, and the character object is determined to be a predetermined correct data (
  • the image data is set to be drawn on the painting canvas (S1505).
  • the image generation unit 617 and the sound generation unit (not shown) generate an image and sound of the character object (S1506).
  • the object control determining unit 626 moves the character object from outside the user's field of view to a certain position on the painting canvas to draw on the painting canvas, or after the drawing is finished, After the elapse of time, it can be controlled to return again to the same position as the initial state and outside the user's field of view (reference position).
  • reference position the position of the initial state and outside the user's field of view
  • control is performed so that the character object returns to the reference position after a predetermined action is completed or after a predetermined time has elapsed. can do.
  • the sense of solidarity between the user and the character object is enhanced, and the immersive feeling can be further enhanced.
  • FIG. 16 shows a flowchart as an example of character output control.
  • the object control determination unit 626 determines the output content of the character object (S1601)
  • the user is inquired whether to accept the output content (S1602).
  • This inquiry can be provided, for example, by performing a pop-up display in the mixed reality space. For example, assuming that the user normally accepts the output contents of the character object, each time the output contents are executed, only the “No” button is displayed for a predetermined time, and when the output contents are accepted, a pop-up display is displayed. The user may be allowed to select the “No” button only when the button is left unaccepted.
  • the conventional pop-up display in which “Yes” and “No” are selected may hinder the user's behavior in the mixed reality space and reduce the immersive effect.
  • the output content and a record of acceptance are stored as history information in the object output data storage unit 732 of the storage unit 350 (S1603).
  • the output content and a record of the rejection are stored as history information in the object output data storage unit 732 of the storage unit 350 (S1604).
  • the output of the character object may or may not be executed.
  • the object control determining unit 626 refers to the object output data storage unit 732 of the storage unit 350, and how many times the user outputs the output content of the character object including this time. If it is confirmed whether or not it has been accepted a predetermined number of times or more, the object control determination unit 626 refers to the user input data storage unit 731 and executes the user input content executed before and after the output content. Is confirmed (S1606). If the user input content has a certain regularity, the input content and the output content can be stored as a set in the event table or the like (S1607).
  • the character object when the user executes the input content stored in the event table after the next time, the character object can be set so that the same output content can be executed again. If there are regularities in the input content before and after the output content, the user can set the input content and output content as a set and store them in the event table etc. Can be set so that the character object can be executed ahead of the output contents of several hands ahead.
  • the input contents of the user operate the PC in the mixed reality space (input 1), display certain data on the PC screen (input 2), request the character object to print the screen (input 3),
  • an input / output pattern such as a character object performing printing in the mixed reality space (output 1) is repeated several times, by registering this pattern in the event table, the next time Thereafter, at the same time that the user starts operating the PC (input 1), the character object may execute output contents such as turning on the printer power (output 1) without waiting for input 2 or input 3. it can.
  • the character object in the first embodiment is at least partially arranged outside the user's view area in the mixed reality space in the initial state. It was devised.
  • a plurality of character objects can be selected by the user, and the motion parameters and emotion parameters of each character object can be selected and set by the user.
  • FIG. 17 shows a table for managing information related to character objects.
  • the character information management table 1700 is managed by the content server 1810 in the HMD 1800 system according to this embodiment shown in FIG.
  • Character server image data and parameter data are stored in the content server 1810.
  • the content server 1810 receives a character / object acquisition request from the image generation apparatus 310 (for example, a user PC).
  • the image data of the character object and the parameter data can be provided to the image generation apparatus 310.
  • the provided related data of, for example, the downloaded character object is stored in the storage unit 350 of the image generation apparatus 310 (in the example of FIG. 8, the object image data storage unit 721 and the parameter data storage unit of the object control information storage unit 720). 722).
  • character information and image data can be stored in advance in the image generation apparatus 310 without providing a content server.
  • a unique character ID is assigned to each character object, and an IP, that is, a character image, is associated with each character ID.
  • the characters IP associated with the same “A” have the same character image. Even if the character IP is the same, the movement of the character can be set differently depending on the difference of the motion parameters.
  • the character information management table further stores information about motion parameters. For example, the character ID 10001 has IP “A”, but the head, limbs, and torso of the character are set not to move. Has been. On the other hand, in the character ID 10002, the IP is “A”, and the motion parameter is set to “5” for the head and the torso.
  • the motion parameter is “5”.
  • the magnitude and strength of the movement is half the maximum value.
  • the character ID 10003 has the same IP “A”, and the motion parameters of the head, limbs, and trunk are all set to “10”.
  • a character object that is one rank higher when a user performs a predetermined action or satisfies a predetermined condition in the mixed reality space.
  • the character ID “10002” is unlocked with respect to the character ID “10001” held by the user
  • the fee is set step by step
  • the character object is provided to the user through the charging process
  • You can also The charging process can be executed by a charging server 1820 shown in FIG.
  • the facial expression parameters can be similarly set in a stepwise manner, and as described above, emotion parameters such as “joy”, “anger”, “sorrow”, and “easy” can be selectively selected for the user. It can also be provided.
  • the content server 1810 is operated by the user input data stored in the user input data storage unit 731 of the image generation device 310 (for example, user PC), more specifically, by the user facial expression detection unit 624.
  • the user facial expression detection unit 624 may recommend a character / object according to the user's emotion and physical condition. It can.
  • the content server 1810 receives information indicating that the user's facial expression detection unit 624 has detected that the user's feelings are sinking, the content server 1810 displays a character object (for example, soothing user) , A character object having an emotion parameter indicating “sorrow” can be selected and recommended.
  • the content server 1810 can refer to the user's profile data and can recommend a character object that matches the user's profile (age, gender, hobbies, preference type, etc.). It is also possible to manage the object selection history and select a character object with a high probability of being selected by the user using a technique such as collaborative filtering.
  • FIG. 19 shows a user interface in which a time bar 1901 is displayed on a screen showing a mixed reality space. Similar to the follow-up playback of a conventional television program, the user operates an indicator 1902 indicated as a playback position on the time bar 1901 via a controller or the like, thereby allowing the user to play an arbitrary playback position in the mixed reality space.
  • the moving image in the mixed reality space can be reproduced.
  • an area corresponding to 1903 is a buffer area indicating that image data is accumulated in a memory on a reproduction apparatus such as the image generation apparatus 310 or the HMD 110 and can be used by the user.
  • a reproduction apparatus such as the image generation apparatus 310 or the HMD 110
  • the indicator 1902 in the buffer area 1903 By aligning the indicator 1902 in the buffer area 1903, the user can reproduce the mixed reality space at an arbitrary reproduction position.
  • FIG. 20 shows a moving image file storage list 2001.
  • the image generation device 310 stores the images generated by the image generation units 615 and 627 in the history information storage unit 730 as a moving image file.
  • the user selects a desired file from the moving image file list 2001 through a predetermined user interface and reproduces it.
  • a moving image file is stored in the image generation device 310 is illustrated.
  • a server such as the content server 1810 shown in FIG. 18 connected to the image generation device 310 via the Internet.
  • the moving image file can be stored in the server, and if necessary, the moving image file stored in the server can be streamed or downloaded to a user device such as an HMD or a user PC.
  • FIG. 21 is a functional configuration diagram of the image generation apparatus 2100 in the present embodiment.
  • the image generation apparatus 2100 can include an input / output unit 2110 that receives signals from the HMD 110, the controller 210, and the like, and a communication unit 2120 that receives signals via communication such as the Internet. Further, the image generation apparatus 2100 can include a control unit 2130 that executes a program and a storage unit 2140 that stores programs and data.
  • the HMD 110 and the controller 210 described in the first embodiment can be applied. However, the present invention is not limited to this as long as the apparatus can provide a function necessary for realizing the method provided by the present embodiment. However, the HMD and the controller may be in other forms.
  • the storage unit 2140 includes a blocking criterion storage unit 2141 that stores a criterion for blocking a user's access to the mixed reality space input or selected by the user via the HMD 110 or the controller 210, that is, a blocking criterion. Further, a blocking target user storage unit 2142 for storing a blocking target user ID and the like, an event storage unit 2143 for storing an event that triggers access blocking, and a user information storage for registering predetermined user information such as a user ID and an attribute A unit 2144, a program storage unit 2145 for storing a program related to the method provided by this embodiment, and the like can be provided.
  • a blocking criterion storage unit 2141 that stores a criterion for blocking a user's access to the mixed reality space input or selected by the user via the HMD 110 or the controller 210, that is, a blocking criterion.
  • a blocking target user storage unit 2142 for storing a blocking target user ID and the like
  • the control unit 2130 executes a program stored in the program storage unit 2145, and executes a method for preventing a user from accessing the mixed reality space.
  • the blocking criterion determination unit 2131 determines whether or not the blocking criterion is satisfied based on the blocking criterion stored in the blocking criterion storage unit 2141 or the event stored in the event storage unit 2143.
  • the blocking execution unit 2132 If the criteria are met, block access by the user.
  • the event detection unit 2133 detects an event stored in the event storage unit 2143.
  • the user information disclosure availability determination unit 2134 determines the range of information to be disclosed to the mixed reality space for the user information stored in the user information storage unit 2144. When determining the range of information, when there is a user to be blocked stored in the block to be blocked user storage unit 2142, the necessity of disclosure to the user is also determined.
  • FIG. 22 shows a flowchart as an example of a method for preventing the user from accessing the mixed reality space.
  • the image generation device 2100 performs the input or selection on the input / output unit 2110 or the communication unit 2120. And stored in the blocking criterion storage unit 2141 (S2201).
  • the blocking criterion for example, as shown in FIG. 23, the user's stay time (for example, “1 hour”, “2 hours”, “3 hours”, etc.) in the mixed reality space provided via the HMD 110 or the like.
  • Time zone for example, “18: 00-6 o'clock”, “22: 00-6 o'clock”, etc.
  • the number of times of input of commands, posture changes, etc. in applications such as games in the user's mixed reality space for example, “25 times ”,“ 50 times ”,“ 100 times ”, etc.
  • Ratings set by providers or third parties for applications that provide mixed reality space for example,“ PG ”,“ PG16 ”,“ R ”, etc.
  • the image generation device 2100 provides the mixed reality space to the HMD 110 or the like by the image generation device or the like (S2202).
  • the timing before and after the setting of the blocking criterion (S2201) and the provision of the mixed reality space (S2202) is not limited, and the user can set the blocking criterion setting screen or the like at any timing after the presetting or the provision of the mixed reality space.
  • the entity that sets the organization standard is assumed to be a parent of a user (child) who is provided with the mixed reality space.
  • the blocking criterion determination unit 2131 compares the predetermined action of the user in the mixed reality space with the blocking criterion stored in the blocking criterion storage unit 2141 and determines whether the blocking criterion is satisfied (S2203). ).
  • the image generation device includes a timer (not shown), and the timer measures the user's stay time in the mixed reality space after the HMD 110 is turned on or after the mixed reality space is provided, and is set as a blocking criterion.
  • the waiting time for example, 3 hours
  • the blocking criterion determination unit 2131 can determine that the blocking criterion is satisfied.
  • the blocking is performed when the user selects an application set to “R” by the distribution provider or a third party. It can be determined that the standard is satisfied. In this case, since the mixed reality space is not originally provided, S2202 is skipped. If it is determined in S2203 that the blocking criterion is satisfied, provision of the mixed reality space to the user is blocked (S2204). That is, the user cannot view or play all or part of the composite provision space.
  • the blending ratio between the real space and the virtual space is adjusted by performing control to adjust the transmittance,
  • the user can be returned to the real space. It is also possible to associate a preset blocking criterion with the transmittance and set the transmittance according to the blocking criterion when performing blocking.
  • FIG. 24 shows a flowchart as another example of a method for preventing a user from accessing the mixed reality space.
  • the image generation device 2100 performs the input or selection by the input / output unit 2110 or The data is received by the communication unit 2120 and stored in the event storage unit 2143 (S2401).
  • the predetermined event for example, as shown in FIG. 25, “emergency news bulletin” is associated with “notification”, and “earthquake bulletin”, “fire information”, etc. are classified as types.
  • reception of a call or a message such as a telephone or a chat application can be cited.
  • detecting an approach of another person or object to the user can be set as an event.
  • the user can register an event as a blocking criterion by activating each item such as notification and approach detection by selecting “YES” and “NO” on a predetermined setting screen.
  • the image generation device 2100 provides the mixed reality space to the HMD 110 or the like (S2402).
  • the timing of the event setting (S2401) and the provision of the mixed reality space (S2402) is not limited, and the user can set through the blocking criterion setting screen or the like at any timing after the presetting or the provision of the mixed reality space. Blocking criteria can be set.
  • the event detection unit 2133 detects an event such as notification or approach detection (2403).
  • the event is detected via a user's information communication terminal (not shown) connected to the HMD 110 or the like by a wired or wireless communication means or a sensor (not shown) for detecting approach, and the event of the image generation apparatus 2100 is detected.
  • Information indicating an event is detected as a specific event by the event detection unit 2133, and subsequently, the prevention criterion determination unit 2131 determines whether the detected event matches an event stored in advance in the event storage unit 2143, that is, Then, it is determined whether or not the blocking criterion is satisfied (S2404). If it is determined in S2404 that the blocking criterion is satisfied, the provision of the mixed reality space to the user is blocked (S2405). That is, the user cannot view or play all or part of the composite provision space.
  • FIG. 26 shows a flowchart as yet another example of a method for preventing a user from accessing the mixed reality space.
  • a network such as the Internet.
  • the image generation device 2100 performs the input or selection on the input / output unit 2110 or the communication unit. It is received by 2120 and stored in the block criterion storage unit 2141 (S2601).
  • the blocking criteria for example, as shown in FIG.
  • the user can set specific or all users in association with the event. For example, the user can limit the event “approaching” to an event of approaching by a specific user related to the user ID “30008” by predetermined input or selection. Furthermore, a predetermined condition can be associated with the event. For example, for the event “approaching”, for example, “10 m” is set as the approaching distance on the basis of the distance defined in association with the coordinate information in the mixed reality space. “Approaching within 10 m” can be set as a blocking criterion.
  • steps can be provided as “blocking levels” indicating the degree of blocking performed against blocking criteria. For example, when there are three blocking levels, it is possible to set a criterion such as the strictest “3” (for example, the user cannot use the application that provides the mixed reality space).
  • a criterion such as the strictest “3” (for example, the user cannot use the application that provides the mixed reality space).
  • the content of “event” is “utterance”
  • the users who speak are all users
  • “condition” of “utterance” is “Sexual (sexual expression)” in advance.
  • the “blocking level” is set to “2” (eg, the user who made the utterance blocks access to the uttered user, ie , Further communication and can not be taken).
  • the image generation device 2100 provides the mixed reality space to the HMD 110 or the like (S2602).
  • the timing before and after the setting of the blocking criterion (S2601) and provision of the mixed reality space (S2602) is not limited, and the user can set the blocking criterion setting screen or the like at any timing after the presetting or the provision of the mixed reality space. You can set a blocking criterion through
  • the blocking criterion determination unit 2131 compares a predetermined event in the mixed reality space with the blocking criterion stored in the blocking criterion storage unit 2141 and determines whether or not the blocking criterion is satisfied (S2603). For example, when the image generation apparatus 2100 receives that the user associated with the user ID 30008 has detected that the user has approached a distance within 10 m in the mixed reality space, the blocking criterion storage unit 2141 , It is determined that the blocking criterion “a specific user (user ID 30008) approaches the user within 10 m” is satisfied.
  • the blocking criterion stored in the blocking criterion storage unit 2141 is used. It is determined that the blockage criterion “speaking a sexual expression to the user” is satisfied.
  • the blocking criterion determination unit 2131 displays the user who is the target of executing the blocking criterion, the user associated with the user ID 30008 and the user who performed the utterance in the above example. Are stored in the blocked user storage unit 2142 as a so-called black list (S2604).
  • the blocking execution unit 2132 executes blocking for the user stored in the blocking target user storage unit 2142 based on the blocking level stored in the blocking reference storage unit 2141 (S2605).
  • the user associated with the user ID 30008 is stopped using the application that provides the mixed reality space, or depending on the blocking level, the user is prevented from approaching or approached the approaching user. It is possible to prevent the user from seeing.
  • the user who has made an utterance can no longer communicate with the user who made the utterance, such as utterance or chat.
  • the user information disclosure permission determination unit 2134 discloses the user information stored in the user information storage unit 2144 to the mixed reality space.
  • the range of information to be determined can be determined.
  • determining the range of information when there is a user to be blocked stored in the block to be blocked user storage unit 2142, it is also possible to determine whether disclosure is necessary for the user.
  • security in addition to execution of prevention for the user to be blocked, security can be further strengthened, and when replacing with execution of blocking for the user to be blocked, a load is imposed on the calculation processing of the network band and other devices.
  • the user information disclosure availability determination unit 2134 as a default setting, at least the real name of the user or the information that can identify the individual is forcibly disclosed, so that the approach in the mixed reality space can be It can also prevent harassment through remarks.
  • this example is based on the premise that a large number of specific or unspecified users share the same mixed reality space via a network such as the Internet. Therefore, the image generation apparatus 2100 or another server It is assumed that a network connection is established with another user device via the device. Therefore, all or a part of the blocking criteria and user information stored in the image generation device 2100 is shared by the other server device when there is another server device, and the blocking determination or blocking is performed.
  • the function such as execution may be executed by the other server apparatus together with the image generation apparatus 2100 or alternatively.
  • FIG. 28 shows a functional configuration example of the image generation apparatus 2800 in the present embodiment.
  • the HMD 110 and the controller 210 described in the first embodiment can be applied.
  • the present invention is not limited to this as long as the apparatus can provide a function necessary for realizing the method provided by the present embodiment.
  • the HMD and the controller may be in other forms.
  • the image generation apparatus 2800 can include an input / output unit 2810 that receives signals from the HMD 110, the controller 210, and the like, and a communication unit 2820 that receives signals from the apparatus and the like via communication such as the Internet.
  • the image generation apparatus 2800 can include a control unit 2830 that executes a program and a storage unit 2840 that stores programs and data.
  • the control unit 2830 is further imaged by the image generation unit 2831 that generates an image for providing the mixed reality space, and the camera 160 provided in the HMD 110 that is stored in the object determination program storage unit 2843 of the storage unit 2840.
  • An object determination unit 2832 for recognizing an object arranged in an image of the real space and searching for a similar image, executing an object determination program, and performing determination for object recognition.
  • the storage unit 2840 stores a real space image captured by the camera 160 as image data in units of objects, and a real space object storage unit 2841 that superimposes the image on the real space image to superimpose the mixed reality space.
  • the virtual space object storage unit 2842 can be provided with the image of the object in the virtual space used to generate the image as image data in units of objects. Note that the above-described object determination program can also be implemented by accessing an image recognition or image search program provided by a third party via an API.
  • FIG. 29 shows a flowchart as an example of a method for providing a mixed reality space in the present embodiment.
  • the image generating apparatus 2800 receives image data in the real space outside the HMD 110 captured by the camera 160 provided in the HMD 110 via the input / output unit 2810 or the communication unit 2820 (S2901).
  • the object determination unit 2832 executes the object determination program stored in the object determination program storage unit 2835 and recognizes the shape and target of the object data constituting the real space based on the image data of the real space ( S2902).
  • the image data of the object constituting the real space and the related information are stored in the real space object storage unit 2841.
  • the object determination unit 2832 determines whether there is a virtual space object corresponding to the image data of the object constituting the real space stored in the real space object storage unit 2841 and related information, and the virtual space object storage unit 2842. A comparison is made with the image data and related information of the virtual space object stored in (S2903).
  • FIG. 30 An example of the related information of the virtual space object stored in the virtual space object storage unit 2842 is shown in FIG.
  • item IDs are assigned to the categories of each object, and different object IDs are associated with each item ID and managed.
  • the item ID corresponding to the category “Coffee Table” is “70022”
  • the virtual space object storage unit 2842 corresponds to the item ID “70022”.
  • Two objects are stored, and they have object IDs “800001” and “800002”, respectively. This indicates that two different objects are stored for the item coffee table. For example, a round coffee table and a square coffee table are stored.
  • various objects may be stored according to the shape and color of the object.
  • These objects are stored in the same virtual space object storage unit 2842 as image data, and the image data and related information stored in an external database are downloaded in advance to the image generation apparatus 2800, and the virtual data
  • the object can be stored in the space object storage unit 2842, or an object stored in an external database can be downloaded and displayed in response to a user request.
  • the object determination unit 2832 can search for information on the virtual space object stored in the virtual space object storage unit 2842 using, for example, the ID of the recognized real space object as a key as the search process. .
  • the image generation device 2800 can replace the real space object with the user.
  • a list of virtual space objects can be displayed. If a virtual object that matches an object constituting the real space is not stored in the virtual space object storage unit 2842, the process returns to the first process in the flowchart.
  • the image generation unit 2831 When the selection of the virtual space object by the user is received (S2904), the image generation unit 2831 superimposes the selected virtual space object on the position coordinates of the real space object to be replaced in the real space image. (S2905). As a result, it is possible to create a mixed reality space as if the object in the real space was replaced with the object in the virtual space.
  • FIG. 31A and FIG. 31B are diagrams illustrating a mixed reality space generated by replacing a virtual space object with a real space object.
  • FIG. 31A is an image obtained by imaging the real space.
  • FIG. 31B shows that the user can enjoy a mixed reality space different from the real space through the display of the HMD 110 by replacing the virtual space object with the real space object using the object replacement method according to the present embodiment.
  • Can do For example, a square coffee table arranged in the center of the room is replaced with a virtual space object ID 800001 (circular coffee table) in FIG. 30, and a withered flower is replaced with a flower of object ID 890188. Further, by replacing the floor with a beautiful floor having the object ID 810020, the user can live in a clean room through the display of the HMD 110.
  • the control method of the present invention can be suitably used for all applications such as games and entertainment in which objects such as character objects are arranged in the mixed reality space. Further, since the user can stay in the mixed reality space and enjoy interaction with the object, it can be applied to a wide range of industries such as entertainment such as games, nursing care and welfare.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The purpose of the present invention is to realize a conventionally nonexistent character control method with which it is possible for a user to enjoy a greater sense of immersion in a mixed reality space that includes a virtual space. Provided is a method for controlling an object in a mixed reality space, the object control method including the steps of: arranging at least some of objects at a prescribed position apart by a prescribed distance from a user outside the visual-field area of the user in an initial state; detecting the user's input in the mixed reality space; and controlling the output of the object at a prescribed position in accordance with the user's input.

Description

複合現実空間におけるキャラクタの制御方法Character control method in mixed reality space
 本発明は、複合現実空間におけるキャラクタの制御方法に関する。詳しくは、ユーザの頭部等の身体に装着する装置、例えば、ヘッドマウントディスプレイ(Head Mounted Display:HMD)を介して提供される仮想現実空間において表示されるキャラクタの制御方法に関する。 The present invention relates to a method for controlling a character in a mixed reality space. More specifically, the present invention relates to a method for controlling a character displayed in a virtual reality space provided via a device worn on a body such as a user's head, for example, a head mounted display (HMD).
 複合現実空間とは、現実空間に対し、コンピュータ処理による各種情報を重ね合わせることで、現実空間を増幅させる技術(Mixed Reality:MR)を意味し、かつ、仮想空間に現実空間の情報を補完することで仮想空間を強調する技術(Augumented Virtuality:AV)や現実世界に情報を付加する技術(Augumented Reality:AR)を含むが、本明細書においては、仮想空間をコンピュータによって作り出し、人間がその空間に埋没しながら空間内における様々なオブジェクトと双方向の対話を行うことが実現可能な技術(Virtual Reality:VR)をも含むものとする。 Mixed reality space means a technology that amplifies the real space by superimposing various information by computer processing on the real space (Mixed Reality: MR), and complements the real space information to the virtual space Technology that emphasizes the virtual space (Augusted Virtuality: AV) and technology that adds information to the real world (Augusted Reality: AR). It also includes a technology (Virtual Reality: VR) that enables interactive interaction with various objects in the space while being buried in the space.
 近年のヘッドマウントディスプレイ(Head Mounted Display:HMD)の技術的発展とコストダウンにより、一般ユーザが複合現実空間をより身近に体験できるようになった。近年広く一般に提供されるHMDの共通的仕様として、ユーザの左右の眼球位置に対して、一枚または二枚の表示用パネルを配置し、ユーザの頭部の動き、具体的には、上下の傾き、左右の首振り、時計回り、半時計周りの回転を検出するセンサ群が備えられている。センサ群により検出されたユーザの頭部の動きは、PC等のホストコンピュータに伝送され、このユーザの頭部の動きに適合する画像をホストコンピュータにおいて生成し、この画像信号をHMDに伝送して、HMDに備えられた表示用パネルに画像が表示されることになる。画像の要素として、ホストコンピュータにおいてキャラクタ・オブジェクト等のオブジェクトを生成し、背景画像にオブジェクト画像を重畳させることで背景とオブジェクトが一体となった画像を生成させることも可能となる。 Recent technical development and cost reduction of Head Mounted Display (HMD) has made it possible for general users to experience the mixed reality space more closely. As a common specification of HMDs generally provided in recent years, one or two display panels are arranged with respect to the left and right eyeball positions of the user, and the movement of the user's head, specifically, A sensor group is provided for detecting tilt, left / right swing, clockwise rotation, and counterclockwise rotation. The movement of the user's head detected by the sensor group is transmitted to a host computer such as a PC, and an image suitable for the movement of the user's head is generated in the host computer, and this image signal is transmitted to the HMD. An image is displayed on the display panel provided in the HMD. It is also possible to generate an image in which the background and the object are integrated by generating an object such as a character object as an image element in the host computer and superimposing the object image on the background image.
 複合現実空間、とりわけ仮想空間に表示されるキャラクタ・オブジェクトは、ユーザがHMDを装着し、電源を投入した直後の初期状態において、ユーザの視界方向の先に配置されることが通常である。このような形態は、特許文献1に開示されるような対戦型ゲームや特許文献2に開示される対話型ゲームにおいて例示される。 The character object displayed in the mixed reality space, particularly the virtual space, is usually arranged at the tip of the user's visual field direction in the initial state immediately after the user wears the HMD and turns on the power. Such a form is exemplified in a battle game disclosed in Patent Document 1 and an interactive game disclosed in Patent Document 2.
 上記文献に開示されるキャラクタは、ユーザの対戦相手または対話相手となるため、仮想空間内においてユーザに対して容易に識別可能な位置に配置されることが重要となる。なお、本件特許出願人は、本件発明に関連する文献公知発明として、以下の特許文献を提示する。 Since the character disclosed in the above document is a user's opponent or dialogue partner, it is important that the character is arranged at a position that can be easily identified by the user in the virtual space. In addition, this patent applicant presents the following patent documents as literature well-known inventions related to this invention.
特開2017-606611号公報JP 2017-606611 A 特開2017-078893号公報JP 2017-0788893
 しかしながら、上記特許文献に例示されるようなキャラクタを仮想空間に配置させる方法は、一定の臨場感や没入感をユーザに与えることができるものの、従来の二次元ゲーム空間に適用されていたキャラクタ配置方法を踏襲したものであり、仮想空間内において、いかに従来のキャラクタ配置方法を実現するかに技術の重きが置かれている。 However, although the method of arranging characters in the virtual space as exemplified in the above patent document can give the user a certain presence and immersion, the character arrangement applied to the conventional two-dimensional game space This method follows the method, and the emphasis is placed on how to realize the conventional character arrangement method in the virtual space.
 そこで、本発明は、仮想空間を含む複合現実空間において、従来にはない、ユーザがより没入感を享受することができるキャラクタの制御方法を実現することを目的とする。 Accordingly, an object of the present invention is to realize a character control method that allows a user to enjoy a more immersive feeling in a mixed reality space including a virtual space, which has not been provided in the past.
 本発明の一の実施形態では、複合現実空間内におけるオブジェクトの制御方法であって、初期状態において、ユーザの視界領域外においてユーザから所定距離だけ離れた所定位置にオブジェクトの少なくとも一部を配置するステップと、複合現実空間内におけるユーザの入力を検出するステップと、ユーザの入力に応じて、オブジェクトの出力を所定位置において制御するステップを含む、オブジェクトの制御方法を提供する。 In one embodiment of the present invention, there is provided a method for controlling an object in a mixed reality space, and in an initial state, at least a part of an object is arranged at a predetermined position away from the user by a predetermined distance outside the user's view area. There is provided a method for controlling an object, comprising: a step; detecting a user input in the mixed reality space; and controlling an output of the object at a predetermined position in accordance with the user input.
 本発明によれば、初期状態において、キャラクタ・オブジェクトを、ユーザに対峙する位置ではなく、横に寄り添うような位置に配置させることで、ゲーム空間のような擬似的な設定ではなく、ユーザに対し、あたかも現実空間において友達や恋人が傍らにいるような感覚を提供することができる。 According to the present invention, in the initial state, the character object is not placed at a position facing the user but at a position close to the side, so that it is not a pseudo setting like a game space, It is possible to provide a feeling as if a friend or lover is in the real space.
第1の実施形態にかかるヘッドマウントディスプレイ110の外観の模式図を示す。The schematic diagram of the external appearance of the head mounted display 110 concerning 1st Embodiment is shown. 第1の実施形態にかかるコントローラ210の外観の模式図を示す。The schematic diagram of the external appearance of the controller 210 concerning 1st Embodiment is shown. 第1の実施形態にかかるHMDシステム300の構成図を示す。1 is a configuration diagram of an HMD system 300 according to a first embodiment. 第1の実施形態にかかるHMD110の機能構成図を示す。The functional block diagram of HMD110 concerning 1st Embodiment is shown. 第1の実施形態にかかるコントローラ210の機能構成図を示す。The functional block diagram of the controller 210 concerning 1st Embodiment is shown. 第1の実施形態にかかる画像生成装置310の機能構成図を示す。1 is a functional configuration diagram of an image generation apparatus 310 according to a first embodiment. 第1の実施形態にかかる画像生成装置310の制御部に係る機能構成図を示す。2 is a functional configuration diagram relating to a control unit of the image generation apparatus 310 according to the first embodiment. FIG. 第1の実施形態にかかる画像生成装置310の記憶部に係る機能構成図を示す。2 is a functional configuration diagram relating to a storage unit of the image generation apparatus 310 according to the first embodiment. FIG. 視界領域を説明する図である。It is a figure explaining a visual field area. 第1の実施形態における、複合現実空間における視界領域を示す図である。It is a figure which shows the visual field area | region in mixed reality space in 1st Embodiment. 第1の実施形態における、複合現実空間における視界領域を示す図である。It is a figure which shows the visual field area | region in mixed reality space in 1st Embodiment. 第1の実施形態におけるオブジェクト制御の処理のためのフローチャートを示す。3 shows a flowchart for object control processing in the first embodiment. 第1の実施形態におけるオブジェクト制御の処理の一例としてのフローチャートを示す。5 is a flowchart as an example of object control processing in the first embodiment. 第1の実施形態におけるオブジェクト制御の処理の他の一例としてのフローチャートを示す。7 is a flowchart as another example of the object control process in the first embodiment. 第1の実施形態におけるオブジェクト制御の処理のさらに他の一例としてのフローチャートを示す。9 shows a flowchart as still another example of object control processing in the first embodiment. 第1の実施形態におけるオブジェクト制御の処理のさらに別の一例としてのフローチャートを示す。6 shows a flowchart as still another example of object control processing in the first embodiment. 第1の実施形態におけるキャラクタの出力制御の一例としてのフローチャートを示す。The flowchart as an example of the output control of the character in 1st Embodiment is shown. 第2の実施形態におけるキャラクタ・オブジェクトに関する情報を管理するテーブルを示す。The table which manages the information regarding the character object in 2nd Embodiment is shown. 第2の実施形態におけるHMDシステム1800の構成図を示す。The block diagram of the HMD system 1800 in 2nd Embodiment is shown. 第3の実施形態における複合現実空間を示す画面にタイムバー1901を表示したユーザインターフェースを示す。The user interface which displayed the time bar 1901 on the screen which shows the mixed reality space in 3rd Embodiment is shown. 第3の実施形態における動画ファイルの格納リスト2001を示す。The storage list 2001 of the moving image file in 3rd Embodiment is shown. 第4の実施形態における画像生成装置2100の機能構成図を示す。The functional block diagram of the image generation apparatus 2100 in 4th Embodiment is shown. 第4の実施形態における複合現実空間へのユーザによるアクセスを阻止する方法の一例としてのフローチャートを示す。10 shows a flowchart as an example of a method for preventing a user from accessing a mixed reality space in the fourth embodiment. 第4の実施形態における阻止基準を格納するテーブルの一例を示す。An example of the table which stores the prevention reference | standard in 4th Embodiment is shown. 第4の実施形態における複合現実空間へのユーザによるアクセスを阻止する方法の他の一例としてのフローチャートを示す。10 shows a flowchart as another example of a method for preventing a user from accessing a mixed reality space in the fourth embodiment. 第4の実施形態におけるイベントを格納するテーブルの一例を示す。An example of the table which stores the event in 4th Embodiment is shown. 第4の実施形態における複合現実空間へのユーザによるアクセスを阻止する方法のさらに他の一例としてのフローチャートを示す。15 is a flowchart as still another example of a method for preventing a user from accessing a mixed reality space according to the fourth embodiment. 第4の実施形態における阻止基準を格納するテーブルの他の一例を示す。The other example of the table which stores the prevention reference | standard in 4th Embodiment is shown. 第5の実施形態における画像生成装置2800の機能構例を示す。The function example of the image generation apparatus 2800 in 5th Embodiment is shown. 第5の実施形態における複合現実空間を提供する方法の一例としてのフローチャートを示す。The flowchart as an example of the method which provides the mixed reality space in 5th Embodiment is shown. 第5の実施形態における仮想空間オブジェクト格納部2842に格納される仮想空間オブジェクトの関連情報の一例を示す。An example of the relevant information of the virtual space object stored in the virtual space object storage unit 2842 in the fifth embodiment is shown. 現実空間オブジェクトに仮想空間オブジェクトが置換されて複合現実空間が生成されることをイメージした図を示す。The figure which imaged that a virtual space object is substituted by a real space object and a mixed reality space is produced | generated is shown. 現実空間オブジェクトに仮想空間オブジェクトが置換されて複合現実空間が生成されることをイメージした図を示す。The figure which imaged that a virtual space object is substituted by a real space object and a mixed reality space is produced | generated is shown.
<実施形態1>
 本発明の一実施形態に係るヘッドマウントディスプレイシステムを制御するプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
<Embodiment 1>
A specific example of a program for controlling a head mounted display system according to an embodiment of the present invention will be described below with reference to the drawings. In addition, this invention is not limited to these illustrations, is shown by the claim, and intends that all the changes within the meaning and range equivalent to the claim are included. In the following description, the same reference numerals are given to the same elements in the description of the drawings, and redundant descriptions are omitted.
図1は、本実施形態にかかるヘッドマウントディスプレイ(以下:HMD)110の外観の模式図を示す。HMD110はユーザの頭部に装着され、ユーザの左右の眼前に配置されるよう表示パネル120を備える。表示パネルとしては、光学透過型と非透過型のディスプレイが考えられるが、本実施形態では、より没入感を提供可能な非透過型の表示パネルを例示する。表示パネル120には、左目用画像と右目用画像とが表示され、両目の視差を利用することにより立体感のある画像をユーザに提供することができる。左目用画像と右目用画像とを表示することができれば、左目用ディスプレイと右目用ディスプレイとを個別に備えることも可能であるし、左目用及び右目用の一体型のディスプレイを備えることも可能である。 FIG. 1 is a schematic view of the appearance of a head mounted display (hereinafter referred to as HMD) 110 according to the present embodiment. The HMD 110 is mounted on the user's head and includes a display panel 120 so as to be placed in front of the user's left and right eyes. As the display panel, an optical transmission type and a non-transmission type display are conceivable. In this embodiment, a non-transmission type display panel capable of providing a more immersive feeling is exemplified. The display panel 120 displays a left-eye image and a right-eye image, and can provide a user with a stereoscopic effect by using parallax between both eyes. If the image for the left eye and the image for the right eye can be displayed, the display for the left eye and the display for the right eye can be provided separately, or an integrated display for the left eye and the right eye can be provided. is there.
さらに、HMD110の筐体部130は、センサ140を備える。センサは、ユーザの頭部の向きや傾きといった動きを検出するために、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。ユーザの頭部の、地面に対する垂直方向をY軸とし、Y軸と直交する軸のうち、表示パネル120の中心とユーザとを結ぶ、ユーザの前後方向に相当する軸をZ軸とし、Y軸及びZ軸と直交し、ユーザの左右方向に相当する軸をX軸とするとき、センサ140は、X軸まわりの回転角(いわゆる、ピッチ角)、Y軸まわりの角(いわゆる、ヨー角)、Z軸まわりの角(いわゆる、ロール角)を検出することができる。 Furthermore, the housing part 130 of the HMD 110 includes a sensor 140. Although not shown in the figure, the sensor may include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof, in order to detect movements such as the orientation and tilt of the user's head. The direction perpendicular to the ground of the user's head is the Y axis, and the axis that connects the center of the display panel 120 and the user among the axes orthogonal to the Y axis is the Z axis, and the Y axis When the X axis is an axis that is orthogonal to the Z axis and corresponds to the left and right direction of the user, the sensor 140 has a rotation angle around the X axis (so-called pitch angle) and an angle around the Y axis (so-called yaw angle). The angle around the Z axis (so-called roll angle) can be detected.
さらに、またはセンサ140に代えて、HMD110の筐体部130は、複数の光源150(例えば、赤外光LED、可視光LED)を備えることもでき、HMD110の外部(例えば、室内等)に設置されたカメラ(例えば、赤外光カメラ、可視光カメラ)がこれらの光源を検出することで、特定の空間におけるHMD110の位置、向き、傾きを検出することができる。または、同じ目的で、HMD110に、HMD110の筐体部130の外部(例えば、室内等)に設置された光源を検出するためのカメラを備えることもできる。 In addition, or instead of the sensor 140, the housing unit 130 of the HMD 110 can include a plurality of light sources 150 (for example, infrared light LEDs and visible light LEDs) and is installed outside the HMD 110 (for example, indoors). The detected camera (for example, an infrared light camera or a visible light camera) detects these light sources, so that the position, orientation, and inclination of the HMD 110 in a specific space can be detected. Alternatively, for the same purpose, the HMD 110 may be provided with a camera for detecting a light source installed outside the housing unit 130 of the HMD 110 (for example, indoors).
さらに、HMD110の筐体部130は、アイトラッキング・センサを備えることもできる。アイトラッキング・センサは、ユーザの左目及び右目の視線方向及び注視点を検出するために用いられる。アイトラッキング・センサとしては様々な方式が考えられるが、例えば、左目および右目に弱い赤外光を照射してできる角膜上の反射光の位置を基準点とし、反射光の位置に対する瞳孔の位置により視線方向を検出し、左目及び右目の視線方向の交点を注視点として検出する方法などが考えられる。なお、図1に記載のようなHMD110は代表例であるが、本実施形態に適用可能なHMDはこれに限定されず、他のタイプ(例えば、他のヘッドマウント型タイプ、眼鏡型タイプ)のようなディスプレイも適用可能である。 Further, the housing part 130 of the HMD 110 can include an eye tracking sensor. The eye tracking sensor is used to detect the gaze direction and the gazing point of the user's left eye and right eye. Various types of eye tracking sensors are conceivable. For example, the position of the reflected light on the cornea formed by irradiating the left eye and the right eye with weak infrared light is used as a reference point, and depending on the position of the pupil relative to the position of the reflected light. A method of detecting the line-of-sight direction and detecting the intersection of the left-eye and right-eye line-of-sight directions as a gazing point is conceivable. An HMD 110 as shown in FIG. 1 is a representative example, but an HMD applicable to the present embodiment is not limited to this, and other types (for example, other head-mounted type, glasses-type type) are applicable. Such a display is also applicable.
 図2は、本実施形態にかかるコントローラ210の外観の模式図を示す。コントローラ210により、複合現実空間内において、ユーザが所定の入力を行うことをサポートすることができる。コントローラ210は、左手用220及び右手用230のコントローラのセットとして構成することができる。左手用コントローラ220及び右手用コントローラ230は、各々操作用トリガーボタン240、赤外線LED250、センサ260、ジョイスティック270、メニューボタン280を有することができる。 FIG. 2 is a schematic diagram of the appearance of the controller 210 according to the present embodiment. The controller 210 can support the user to make a predetermined input in the mixed reality space. The controller 210 may be configured as a set of left hand 220 and right hand 230 controllers. The left hand controller 220 and the right hand controller 230 may each include an operation trigger button 240, an infrared LED 250, a sensor 260, a joystick 270, and a menu button 280.
 操作用トリガーボタン240は、コントローラ210のグリップ235を把持したときに、中指及び人差し指でトリガーを引くような操作を行うことを想定した位置に240a、240bとして配置される。コントローラ210の両側面から下方にリング状に形成されるフレーム290には、複数の赤外線LED250が備えられ、コントローラ外部に備えられるカメラ(図示せず)により、これらの赤外線LEDの位置を検出することで、特定の空間におけるコントローラ210の位置、向き及び傾きを検出することができる。 The operation trigger button 240 is arranged as 240a and 240b at positions that are assumed to perform an operation of pulling the trigger with the middle finger and the index finger when the grip 235 of the controller 210 is gripped. A frame 290 formed in a ring shape downward from both sides of the controller 210 is provided with a plurality of infrared LEDs 250, and the position of these infrared LEDs is detected by a camera (not shown) provided outside the controller. Thus, the position, orientation and inclination of the controller 210 in a specific space can be detected.
また、コントローラ210は、コントローラ210の向きや傾きといった動きを検出するために、センサ260を内蔵することができる。センサ260として、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、コントローラ210の上面には、ジョイスティック270及びメニューボタン280を備えることができる。ジョイスティック270は、基準点を中心に360度方向に動かすことができ、コントローラ210のグリップ235を把持したときに、親指で操作されることが想定される。メニューボタン280もまた同様に、親指で操作されることが想定される。さらに、コントローラ210は、コントローラ210を操作するユーザの手に振動を与えるためのバイブレータ(図示せず)を内蔵することもできる。ボタンやジョイスティックを介したユーザの入力内容やセンサ等を介したコントローラ210の位置、向き及び傾きといった情報を出力するため、また、ホストコンピュータからの情報を受信するために、コントローラ210は、入出力部及び通信部を有する。 In addition, the controller 210 can incorporate a sensor 260 in order to detect movements such as the orientation and inclination of the controller 210. Although not illustrated, the sensor 260 can include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof. Furthermore, a joystick 270 and a menu button 280 can be provided on the upper surface of the controller 210. The joystick 270 can be moved 360 degrees around the reference point, and is assumed to be operated with the thumb when the grip 235 of the controller 210 is gripped. Similarly, it is assumed that the menu button 280 is operated with the thumb. Furthermore, the controller 210 can incorporate a vibrator (not shown) for applying vibration to the hand of the user who operates the controller 210. In order to output information such as the input contents of the user via a button or joystick, the position, orientation, and tilt of the controller 210 via a sensor or the like, and to receive information from the host computer, the controller 210 has an input / output Part and a communication part.
ユーザがコントローラ210を把持し、各種ボタンやジョイスティックを操作することの有無、及びセンサや赤外線カメラにより検出される情報によって、システムはユーザの手の動きや姿勢を決定し、複合現実空間内において擬似的にユーザの手を表示させ、動作させることができる。なお、図2に記載のようなコントローラ210は代表例であるが、本実施形態に適用可能なコントローラはこれに限定されず、他のタイプ(例えば、汎用のゲームコントローラ、キーボード、音声、ジェスチュア入力を可能とする装置等)のようなコントローラも適用可能である。 The system determines the movement and posture of the user's hand based on whether the user holds the controller 210 and operates various buttons and joysticks, and information detected by the sensor and the infrared camera, and simulates in the mixed reality space. The user's hand can be displayed and operated. A controller 210 as shown in FIG. 2 is a representative example, but a controller applicable to the present embodiment is not limited to this, and other types (for example, a general-purpose game controller, a keyboard, voice, gesture input) A controller such as a device that enables the above-mentioned is also applicable.
図3は、本実施形態にかかるHMDシステム300の構成図を示す。HMDシステム300は、例えば、HMD110、コントローラ210及びホストコンピュータとして機能する画像生成装置310で構成することができる。さらに、HMD110やコントローラ210の位置、向き及び傾き等を検出するための赤外線カメラ(図示せず)等を追加することもできる。これらの装置は、相互に、有線又は無線手段により接続することができる。例えば、各々の装置にUSBポートを備え、ケーブルで接続することで通信を確立することもできるし、他に、HDMI、有線LAN、赤外線、Bluetooth(登録商標)、インターネット、WiFi(登録商標)等の有線又は無線通信により接続を確立することもできる。画像生成装置310は、一般的なコンピュータ、PC、ゲーム機、携帯通信端末等情報処理機能を有する装置であればよい。 FIG. 3 is a configuration diagram of the HMD system 300 according to the present embodiment. The HMD system 300 can be configured by, for example, an HMD 110, a controller 210, and an image generation apparatus 310 that functions as a host computer. Furthermore, an infrared camera (not shown) for detecting the position, orientation, inclination, and the like of the HMD 110 and the controller 210 can be added. These devices can be connected to each other by wired or wireless means. For example, each device is equipped with a USB port, and communication can be established by connecting with a cable. In addition, HDMI, wired LAN, infrared, Bluetooth (registered trademark), the Internet, WiFi (registered trademark), etc. The connection can also be established by wired or wireless communication. The image generation apparatus 310 may be an apparatus having an information processing function such as a general computer, a PC, a game machine, or a mobile communication terminal.
図4は、本実施形態にかかるHMD110の機能構成図を示す。図1において述べたように、HMD110は、センサ140を備えることができる。センサとしては、ユーザの頭部の向きや傾きといった動きを検出するために、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、アイトラッキング・センサを備えることもできる。アイトラッキング・センサは、ユーザの左目及び右目の視線方向及び注視点を検出するために用いられる。さらに精度よく、ユーザの頭部の向きや傾きといった動きを検出したり、ユーザの頭部の位置を検出したりするために、赤外光や紫外光といったLED150を備えることもできる。また、HMDの外景を撮影するためのカメラ160(例えば、360度全天球カメラ)を備えることができる。また、ユーザの発話を集音するためのマイク170、音声を出力するためのヘッドフォン180を備えることもできる。また、図示しないが、においを検出するためのセンサを備えることもできる。 FIG. 4 is a functional configuration diagram of the HMD 110 according to the present embodiment. As described in FIG. 1, the HMD 110 may include a sensor 140. As a sensor, although not shown in order to detect movements such as the orientation and inclination of the user's head, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof can be provided. Further, an eye tracking sensor can be provided. The eye tracking sensor is used to detect the gaze direction and the gazing point of the user's left eye and right eye. Furthermore, in order to detect movements such as the orientation and tilt of the user's head with high accuracy and to detect the position of the user's head, an LED 150 such as infrared light or ultraviolet light may be provided. Further, a camera 160 (for example, a 360-degree omnidirectional camera) for photographing the outside scene of the HMD can be provided. Moreover, the microphone 170 for collecting a user's utterance and the headphone 180 for outputting an audio | voice can also be provided. Moreover, although not shown in figure, the sensor for detecting an odor can also be provided.
さらに、HMD110は、例えば、コントローラ210や画像生成装置310等の周辺装置との有線による接続を確立するための入出力部190を備えることができ、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装され、インターネット、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等の通信網を介して画像生成装置310と通信可能に構成される通信部115を備えることができる。センサ140により取得されたユーザの頭部の向きや傾きといった動きに関する情報は、CPU等の制御部125によって、入出力部190または通信部115を介して画像生成装置310に送信される。画像生成装置310において、ユーザの頭部の動きに基づいて生成された画像は、HMD110の入出力部190または通信部115を介して受信され、制御部125によって表示部120に出力される。また、これらの各構成要素は、バスを介して相互に電気的に接続されている。 Furthermore, the HMD 110 can include an input / output unit 190 for establishing a wired connection with peripheral devices such as the controller 210 and the image generation device 310, for example, and includes hardware, firmware, TCP / IP driver, PPP A communication unit 115 that is implemented as communication software such as a driver or a combination of these and configured to be able to communicate with the image generation apparatus 310 via a communication network such as the Internet, infrared, Bluetooth (registered trademark), WiFi (registered trademark), or the like. Can be provided. Information relating to the movement of the user's head, such as the orientation and tilt of the user, acquired by the sensor 140 is transmitted to the image generating apparatus 310 via the input / output unit 190 or the communication unit 115 by the control unit 125 such as a CPU. In the image generation device 310, an image generated based on the movement of the user's head is received via the input / output unit 190 or the communication unit 115 of the HMD 110 and output to the display unit 120 by the control unit 125. Each of these components is electrically connected to each other via a bus.
図5は、本実施形態にかかるコントローラ210の機能構成図を示す。図2において述べたように、コントローラ210は、左手用220及び右手用230のコントローラのセットとして構成することができるが、いずれのコントローラにおいても、操作用トリガーボタン240、ジョイスティック270、メニューボタン280といった操作部245を備えることができる。また、コントローラ210は、コントローラ210の向きや傾きといった動きを検出するために、センサ260を内蔵することができる。センサ260として、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、複数の赤外線LED250が備えられ、コントローラ外部に備えられるカメラ(図示せず)により、これらの赤外線LEDの位置を検出することで、特定の空間におけるコントローラ210の位置、向き及び傾きを検出することができる。コントローラ210は、例えば、HMD110や画像生成装置310等の周辺装置との有線による接続を確立するための入出力部255を備えることができ、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装され、インターネット、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等の通信網を介して端末装置30と通信可能に構成される通信部265を備えることができる。ユーザにより操作部245を介して入力された情報及びセンサ260によって取得されたコントローラ210の向きや傾きといった情報は、入出力部255または通信部265を介して画像生成装置310に送信される。 FIG. 5 is a functional configuration diagram of the controller 210 according to the present embodiment. As described in FIG. 2, the controller 210 can be configured as a set of controllers for the left hand 220 and the right hand 230, but in any of the controllers, the operation trigger button 240, the joystick 270, the menu button 280, etc. An operation unit 245 can be provided. In addition, the controller 210 can incorporate a sensor 260 in order to detect movements such as the orientation and inclination of the controller 210. Although not illustrated, the sensor 260 can include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, or a combination thereof. Further, a plurality of infrared LEDs 250 are provided, and the position, orientation, and inclination of the controller 210 in a specific space are detected by detecting the positions of these infrared LEDs with a camera (not shown) provided outside the controller. be able to. The controller 210 can include, for example, an input / output unit 255 for establishing a wired connection with peripheral devices such as the HMD 110 and the image generation device 310, and includes hardware, firmware, a TCP / IP driver, a PPP driver, or the like. And a communication unit 265 configured to be communicable with the terminal device 30 via a communication network such as the Internet, infrared, Bluetooth (registered trademark), WiFi (registered trademark), or the like. Can do. Information input by the user via the operation unit 245 and information such as the orientation and inclination of the controller 210 acquired by the sensor 260 are transmitted to the image generation apparatus 310 via the input / output unit 255 or the communication unit 265.
図6は、本実施形態にかかる画像生成装置310の機能構成図を示す。画像生成装置310としては、HMD110やコントローラ210から送信された、ユーザ入力情報やセンサ等により取得されたユーザの頭部やコントローラの動きに関する情報を記憶し、所定のプログラム処理を行い、画像を生成するための機能を有する、一般的なコンピュータ、PC、ゲーム機及び携帯通信端末等といった情報処理を行う装置を使用することができる。画像生成装置310は、例えば、HMD110やコントローラ210等の周辺装置との有線による接続を確立するための入出力部320を備えることができ、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装され、インターネット、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等の通信網を介して他の装置(例えば、HMD110、コントローラ210)と通信可能に構成される通信部330を備えることができる。入出力部320または通信部330を介して、HMD110やコントローラ210から受信されたユーザ入力情報やユーザの頭部やコントローラの動きに関する情報は、制御部340において、ユーザの位置、視線、姿勢等の動作、発話、操作、表情、身体状態等を含めた入力内容として検出され、その入力内容は、履歴情報(ログ)としてROM、RAMやHDD等の記憶部350に格納され、ユーザの入力内容に応じて、記憶部350に格納された、オブジェクトの画像データやパラメータに基づいて、制御部340において視界画像やオブジェクトの制御を決定し、画像を生成するといった処理がなされる。制御部340は、CPUで構成することもできるが、画像処理に特化したGPUをさらに設けることで、情報処理と画像処理を分散化し、全体の処理の効率化を図ることもできる。画像生成装置310はまた、他の計算処理装置と通信を行い、他の計算処理装置に情報処理や画像処理を分担させることもできる。 FIG. 6 is a functional configuration diagram of the image generation apparatus 310 according to the present embodiment. The image generation device 310 stores user input information transmitted from the HMD 110 or the controller 210, information on the user's head or controller movement acquired by a sensor, etc., and performs predetermined program processing to generate an image. It is possible to use a device for performing information processing, such as a general computer, a PC, a game machine, and a mobile communication terminal, which has a function for performing the above-described function. The image generation apparatus 310 can include, for example, an input / output unit 320 for establishing a wired connection with peripheral devices such as the HMD 110 and the controller 210, and includes hardware, firmware, a TCP / IP driver, a PPP driver, and the like. Implemented as communication software or a combination thereof, and configured to be able to communicate with other devices (for example, HMD 110 and controller 210) via a communication network such as the Internet, infrared, Bluetooth (registered trademark), WiFi (registered trademark), etc. The communication unit 330 can be provided. User input information received from the HMD 110 or the controller 210 via the input / output unit 320 or the communication unit 330 and information on the movement of the user's head or controller are transmitted to the control unit 340 such as the user's position, line of sight, and posture. Detected as input content including movement, speech, operation, facial expression, physical condition, etc., and the input content is stored as history information (log) in the storage unit 350 such as ROM, RAM, HDD, etc. Accordingly, based on the image data and parameters of the object stored in the storage unit 350, the control unit 340 determines control of the view field image and the object, and generates an image. The control unit 340 can be configured by a CPU, but by further providing a GPU specialized for image processing, information processing and image processing can be distributed, and overall processing efficiency can be improved. The image generation apparatus 310 can also communicate with other calculation processing apparatuses and share information processing and image processing with other calculation processing apparatuses.
図7は、本実施形態にかかる画像生成装置310の制御部に係る機能構成図を示す。画
像生成装置310の制御部340は、主に複合現実空間における視界画像を生成する表示制御部610と、主に複合現実空間内に配置されるオブジェクト画像を生成するオブジェクト制御部620とを含む。
FIG. 7 is a functional configuration diagram relating to the control unit of the image generation apparatus 310 according to the present embodiment. The control unit 340 of the image generation apparatus 310 includes a display control unit 610 that mainly generates a field-of-view image in the mixed reality space, and an object control unit 620 that generates an object image mainly arranged in the mixed reality space.
表示制御部610は、HMD110に内蔵されるセンサやHMD110外部に配置される赤外線カメラ等から送信されるユーザの頭部の位置、向き及び傾きに関する情報を基にユーザの位置を検出するユーザ位置検出部611、ユーザの視線方向及び注視点を検出するユーザ視線検出部612、及びユーザの頭部の向き及び傾きを検出するユーザ姿勢検出部613を備えることができる。ユーザの位置、ユーザ頭部の向きや傾きといった動きが検出されると、これらの情報は、視界領域決定部614に出力される。 The display control unit 610 detects a user position based on information on the position, orientation, and tilt of the user's head transmitted from a sensor built in the HMD 110 or an infrared camera disposed outside the HMD 110. 611, a user gaze detection unit 612 that detects the user's gaze direction and gazing point, and a user posture detection unit 613 that detects the orientation and inclination of the user's head. When movements such as the user's position and the user's head orientation and inclination are detected, these pieces of information are output to the visual field region determination unit 614.
視界領域決定部614は、ユーザの位置や頭部の動き等に関する情報を基に、複合現実空間内におけるユーザの視界領域を決定する。ここで、複合現実空間は、例えば、予め生成された天球状のパノラマ空間画像を背景画像として表示することで実現することができる。予め生成されたパノラマ空間画像は、図8に示す、本実施形態の記憶部350のうち、視界画像記憶部710に背景画像データ格納部712に格納される背景画像データとして、または、HMD110に備えられるカメラ160により撮影され、外部画像データ格納部713に格納される現実空間の画像データとして格納しておくことができる。 The field-of-view area determination unit 614 determines the user's field-of-view area in the mixed reality space based on information on the user's position, head movement, and the like. Here, the mixed reality space can be realized, for example, by displaying a celestial spherical panoramic space image generated in advance as a background image. The panorama space image generated in advance is prepared as background image data stored in the background image data storage unit 712 in the view image storage unit 710 or in the HMD 110 in the storage unit 350 of the present embodiment shown in FIG. Captured by the camera 160 and stored in the external image data storage unit 713 as real space image data.
視界領域920は、図9に示すように、表示部120に表示された立体的な複合現実空間910内において、基準点930を起点とするユーザの基準視線940に基づいて決定される。基準点930は、複合現実空間を形成する天球の中心Aと同一のXZ平面に位置するように配置され、基準視線方向に複合現実空間を撮像する仮想カメラの起点として機能し、センサ140により検出される位置に応じて複合現実空間内を移動し、また、向き、傾き及び視線方向もしくは注視点に応じて基準視線940の向き及び傾きが変化するよう規定される。図10Aに示すように、センサの複合現実空間内の基準視線940を中心として、XZ断面の左右方向に形成される所定の角度α、-(マイナス)α、及び図10Bに示すように、YZ断面の上下方向に形成される所定の角度β、-(マイナス)βを含む範囲が、視界領域920として設定される。視界領域が設定されると、パノラマ画像のうち、視界領域に相当する領域が視界領域用画像として、視界画像生成部615によって生成される。視界領域画像として、背景画像に重畳させるように、予め視界画像記憶部710のオブジェクト画像データ格納部711に格納されたオブジェクト画像データ(例えば、椅子やテーブル等)を表示させることもできる。 As shown in FIG. 9, the field-of-view area 920 is determined based on the user's reference line of sight 940 starting from the reference point 930 in the stereoscopic mixed reality space 910 displayed on the display unit 120. The reference point 930 is arranged to be located on the same XZ plane as the center A of the celestial sphere forming the mixed reality space, functions as a starting point of a virtual camera that images the mixed reality space in the reference line-of-sight direction, and is detected by the sensor 140 It moves in the mixed reality space according to the position to be moved, and the direction and inclination of the reference line of sight 940 are changed according to the direction, inclination and line-of-sight direction or gaze point. As shown in FIG. 10A, a predetermined angle α, − (minus) α formed in the left-right direction of the XZ section around the reference line of sight 940 in the mixed reality space of the sensor, and YZ as shown in FIG. 10B. A range including predetermined angles β and − (minus) β formed in the vertical direction of the cross section is set as the visual field region 920. When the view area is set, an area corresponding to the view area of the panorama image is generated as a view area image by the view image generation unit 615. Object image data (for example, a chair or a table) stored in advance in the object image data storage unit 711 of the view field image storage unit 710 can be displayed as a view area image so as to be superimposed on the background image.
オブジェクト制御部620は、HMD110またはコントローラ210によるユーザの入力を検出する各検出部621~625、検出された入力内容に基づいて、オブジェクトの出力内容を決定するオブジェクト制御決定部626、及び決定に基づいてオブジェクトの画像を生成するオブジェクト画像生成部627を備える。ユーザの入力として、例えば、HMD110に備えられたマイク170を介したユーザの発話、HMD110またはコントローラ210に備えられたセンサを介して検出されたユーザの動作、コントローラ210を介したユーザの操作、顔認識センサ(図示せず)を介して取得されたユーザの顔の表情、ユーザの身体に装着された心拍、脈拍、体温センサ(図示せず)等を介して取得されたユーザの身体状態の変化、さらに、においセンサ(図示せず)等を介して取得されたにおい等が挙げられる。 The object control unit 620 includes detection units 621 to 625 that detect user input from the HMD 110 or the controller 210, an object control determination unit 626 that determines the output content of the object based on the detected input content, and the determination. An object image generation unit 627 for generating an object image. As user input, for example, the user's speech via the microphone 170 provided in the HMD 110, the user's operation detected via the sensor provided in the HMD 110 or the controller 210, the user's operation via the controller 210, the face Changes in the user's body state acquired via facial expressions of the user acquired through a recognition sensor (not shown), heartbeats and pulses attached to the user's body, body temperature sensors (not shown), etc. Furthermore, the smell etc. which were acquired via the smell sensor (not shown) etc. are mentioned.
ユーザ発話検出部621は、マイク170から送信されたユーザの発話内容を検出し、ユーザ動作検出部622は、HMD110に内蔵されるセンサやHMD110外部に配置される赤外線カメラ等から送信されるユーザの頭部の位置、向き及び傾きに関する情報及びコントローラ210やコントローラ外部に配置される赤外線カメラ等から送信されるコントローラ210の位置等に関する情報を基にユーザの頭部や手の動作を検出する。また、ユーザ操作検出部623は、コントローラ210から送信されたユーザのボタン操作に関する情報を基にユーザの操作内容を検出する。さらに、ユーザ表情検出部624は、HMD110に備えられた顔認識センサ(図示せず)から送信されたユーザの顔に関する情報を基にユーザの表情を検出し、ユーザ身体状態検出部625は、ユーザの身体に装着された心拍、脈拍、体温センサ等から送信されたユーザの心拍数、脈拍数、体温等の情報を基にユーザの身体状態の変化を検出する。その他、においセンサにより送信されたユーザのにおいに関する情報を基にユーザのにおいを検出し、ユーザにおい検出部(図示せず)は、ユーザのにおいの変化を検出することもできる。 The user utterance detection unit 621 detects the user's utterance content transmitted from the microphone 170, and the user operation detection unit 622 is a user's transmission transmitted from a sensor built in the HMD 110, an infrared camera disposed outside the HMD 110, or the like. Based on information on the position, orientation, and tilt of the head and information on the position of the controller 210 transmitted from the controller 210, an infrared camera or the like disposed outside the controller, the user's head or hand movement is detected. Further, the user operation detection unit 623 detects the user operation content based on the information related to the user button operation transmitted from the controller 210. Further, the user facial expression detection unit 624 detects the user's facial expression based on information related to the user's face transmitted from the face recognition sensor (not shown) provided in the HMD 110, and the user physical condition detection unit 625 A change in the user's physical condition is detected based on information such as the heart rate, pulse rate, and body temperature of the user transmitted from the heart rate, pulse rate, body temperature sensor, and the like worn on the body. In addition, the user's odor can be detected based on information on the user's odor transmitted by the odor sensor, and the user's odor detection unit (not shown) can also detect a change in the user's odor.
オブジェクト制御決定部626は、各検出部621~625によって検出された入力内容を基にオブジェクトの出力内容を決定する。オブジェクトの出力として、例えば、オブジェクトがキャラクタ・オブジェクトである場合は、キャラクタ・オブジェクトの発話、動作、表情あるいは状態の変化等が挙げられる。オブジェクト制御決定部626において決定されたキャラクタ・オブジェクトの出力内容に基づいて、オブジェクト画像生成部627が、キャラクタ・オブジェクトの画像を生成する。 The object control determination unit 626 determines the output content of the object based on the input content detected by each of the detection units 621 to 625. As the output of the object, for example, when the object is a character object, speech, movement, facial expression, or change in state of the character object can be cited. Based on the output contents of the character object determined by the object control determination unit 626, the object image generation unit 627 generates an image of the character object.
図10Aに示すように、本実施形態において、キャラクタ・オブジェクトは、初期状態において、複合現実空間内のユーザの視界領域外に、ユーザと一定の距離を置いて、少なくとも一部が配置されることを特徴とする。より具体的には、複合現実空間内のXZ平面において、ユーザの基準視線1010を中心として、ユーザの視界領域をα、-(マイナス)αと規定するときに、キャラクタ・オブジェクト1020の一部が、基準点930から一定の距離を置いて、視界領域外に配置されることを特徴とする。または、初期状態において、キャラクタ・オブジェクト1020を、複合現実空間内のユーザの真横、すなわち、ユーザの基準視線1010を中心として、45度、-(マイナス)45度の位置に配置されることもできる。ユーザのHMD110の電源投入後やアプリケーションの起動後のような初期状態において、キャラクタ・オブジェクトを、ユーザに対峙する位置ではなく、横に寄り添うような位置に配置させることで、ゲーム空間のような擬似的な設定ではなく、ユーザが、あたかも現実空間において友達や恋人が傍らにいるような感覚を提供することができる。キャラクタ・オブジェクト1020は、図8に示す、オブジェクト情報記憶部720のオブジェクト画像データ格納部721に格納されるオブジェクト画像データとして格納される。 As shown in FIG. 10A, in the present embodiment, at least a part of the character object is placed outside the user's field of view in the mixed reality space at a certain distance from the user in the initial state. It is characterized by. More specifically, when the user's field of view is defined as α, − (minus) α around the user's reference line of sight 1010 in the XZ plane in the mixed reality space, a part of the character object 1020 is , And a certain distance from the reference point 930, which is arranged outside the field of view. Alternatively, in the initial state, the character object 1020 can be arranged at a position of 45 degrees and − (minus) 45 degrees with the user's reference line of sight 1010 as the center in the mixed reality space. . In an initial state such as after the user's HMD 110 is turned on or after an application is started, the character object is placed in a position close to the user, not in a position facing the user. Instead of a typical setting, the user can provide a feeling as if a friend or lover is in the real space. The character object 1020 is stored as object image data stored in the object image data storage unit 721 of the object information storage unit 720 shown in FIG.
本実施形態において、キャラクタ・オブジェクトは、オブジェクト制御情報記憶部720のパラメータデータ格納部722に格納される所定のパラメータに基づいて、動作や表情が制御されることを特徴とする。また、本実施形態において、キャラクタ・オブジェクトを、ヒトの身体のように、複数のパーツオブジェクトから構成することができ、各パーツオブジェクトに対応する動作パラメータを設定することができる。各パーツオブジェクトは、ヒトの身体パーツ、例えば、頭部、胸部、手、足等に対応することができる。動作パラメータとして、各身体パーツ固有の動きのパターン及びその大きさや速さを10段階の数値等で設定することができる。表情パラメータとしては、パーツオブジェクトとして頭部を構成するパーツ、例えば、眉、眼、鼻、口等について、各パーツ固有の動きのパターン及びその大きさや早さを10段階の数値等で設定することができる。また、キャラクタ・オブジェクトに対して、感情パラメータ(例えば、「喜」「怒」「哀」「楽」)を表現するための各パーツの表情パラメータの組み合わせを予め格納しておき、ユーザの入力内容に応じて、適切な表情パラメータの組み合わせを出力内容として決定することができる。このように、複数のパーツオブジェクトの動きを組み合わせてキャラクタ・オブジェクトの全体の動きを構成させることで、現実世界に近いキャラクタ・オブジェクトの動きを提供することができる。さらに、各パーツオブジェクトのパラメータを乱数制御とすることで、周期的な動きのない、さらに現実世界に近いキャラクタ・オブジェクトの動きを提供することができる。 In the present embodiment, the character object is characterized in that its movement and facial expression are controlled based on predetermined parameters stored in the parameter data storage unit 722 of the object control information storage unit 720. In this embodiment, a character object can be composed of a plurality of part objects like a human body, and motion parameters corresponding to each part object can be set. Each part object can correspond to a human body part, for example, head, chest, hand, foot, and the like. As the motion parameters, the motion pattern unique to each body part and its size and speed can be set with numerical values in 10 steps. As facial expression parameters, for parts that make up the head as a part object, such as eyebrows, eyes, nose, mouth, etc., the movement pattern specific to each part and its size and speed should be set with 10 numerical values. Can do. Also, a combination of facial expression parameters of each part for expressing emotion parameters (for example, “joy”, “anger”, “sorrow”, “easy”) for the character object is stored in advance, and the user input contents Accordingly, an appropriate combination of facial expression parameters can be determined as the output content. In this way, by combining the movements of a plurality of part objects to form the entire movement of the character object, it is possible to provide the movement of the character object close to the real world. Furthermore, by using random number control as the parameter of each part object, it is possible to provide a motion of a character object that is not a periodic motion and is closer to the real world.
図11に、本実施形態におけるオブジェクト制御の処理のためのフローチャートを示す。画像生成装置310は、入出力部320または通信部320を介して、HMD110やコントローラ210からユーザ入力を受信する(S1101)。次に、画像生成装置310のオブジェクト制御部620は、ユーザの入力内容を検出する(S1102)。ユーザの入力内容の検出は、ユーザ入力内容によって、ユーザ発話検出部621、ユーザ動作検出部622、ユーザ操作検出部623、ユーザ表情検出部624、ユーザ身体状態検出部625等において検出処理が行われる。ユーザの入力内容の検出に応じて、オブジェクト制御決定部626は、オブジェクト(例えば、キャラクタ・オブジェクト)の出力内容を決定する(S1103)。キャラクタ・オブジェクトの出力内容としては、発話、動作、表情あるいは状態の変化等が挙げられる。オブジェクトの出力内容が決定されると、オブジェクト画像生成部627は、オブジェクト画像の表示を生成し、生成された内容は、ユーザの視野領域における背景画像等と共に、MPEG形式等の適切なデータフォーマットでHMD110等の表示装置に表送信される。これらの一連の処理は、画像生成装置310の、ROM、RAMやHDD等の記憶部350のオブジェクト制御プログラム格納部723に格納される、オブジェクト制御プログラムを実行することで実現される。 FIG. 11 shows a flowchart for object control processing in the present embodiment. The image generation apparatus 310 receives user input from the HMD 110 or the controller 210 via the input / output unit 320 or the communication unit 320 (S1101). Next, the object control unit 620 of the image generation apparatus 310 detects user input content (S1102). The detection of the user input content is detected by the user utterance detection unit 621, the user action detection unit 622, the user operation detection unit 623, the user facial expression detection unit 624, the user physical condition detection unit 625, and the like. . In response to the detection of the user input content, the object control determination unit 626 determines the output content of the object (for example, a character object) (S1103). The output contents of the character object include utterances, actions, facial expressions or changes in state. When the output content of the object is determined, the object image generation unit 627 generates a display of the object image, and the generated content is displayed in an appropriate data format such as MPEG format together with the background image in the visual field of the user. The data is transmitted to a display device such as the HMD 110. A series of these processes is realized by executing an object control program stored in the object control program storage unit 723 of the storage unit 350 such as a ROM, RAM, or HDD of the image generation apparatus 310.
図12に、オブジェクト制御の処理の一例としてのフローチャートを示す。まず、画像生成装置310は、入出力部320または通信部320を介して、HMD110からユーザ入力を受信する(S1201)。ユーザ入力が、HMD110からのユーザ頭部の向きや傾き、または視線方向に関する情報である場合、ユーザ動作検出部622は、ユーザ頭部の向き等を検出する(S1202)。一例として、HMD110から送信されるユーザの頭部の向きや傾きに関する情報を基に、複合現実空間におけるユーザの視線方向を特定する。続いて、ユーザ動作検出部622は、そのユーザ頭部の向き等が複合現実空間内に配置されるキャラクタ・オブジェクトの方向を向いているか否かを確認する(S1203)。一例として、ユーザの視線方向を基に、複合現実空間におけるユーザの視界領域がxyz座標により特定され、この視界領域がキャラクタ・オブジェクトが配置される領域と重複するか否かを、座標を比較することにより確認する。複合現実空間内におけるユーザ頭部の向き等がキャラクタ・オブジェクトに向いている場合、すなわち、ユーザが複合現実空間内においてキャラクタ・オブジェクトを見ている、という動作を行っている場合は、オブジェクト制御決定部626は、キャラクタ・オブジェクトの出力内容として、キャラクタ・オブジェクトの頭部をユーザがいる方向に向ける、という動作パラメータに基づいて動作を行うことを決定することができる(S1204)。ユーザの頭部の向きがキャラクタ・オブジェクトに向いていない場合は、再度ユーザ入力を受信したのちに、ユーザ頭部の向き等の検出処理を行う。 FIG. 12 shows a flowchart as an example of the object control process. First, the image generation apparatus 310 receives user input from the HMD 110 via the input / output unit 320 or the communication unit 320 (S1201). When the user input is information related to the orientation and inclination of the user's head from the HMD 110 or the line-of-sight direction, the user action detection unit 622 detects the orientation of the user's head (S1202). As an example, the user's line-of-sight direction in the mixed reality space is specified based on information on the orientation and inclination of the user's head transmitted from the HMD 110. Subsequently, the user motion detection unit 622 checks whether or not the orientation of the user's head is directed to the direction of the character / object arranged in the mixed reality space (S1203). As an example, based on the user's line-of-sight direction, the user's view area in the mixed reality space is specified by the xyz coordinates, and the coordinates are compared to determine whether or not this view area overlaps the area where the character object is placed. To confirm. If the orientation of the user's head in the mixed reality space is facing the character object, that is, if the user is looking at the character object in the mixed reality space, the object control decision is made The unit 626 can determine to perform an action based on an action parameter of directing the head of the character object in the direction in which the user is present as the output content of the character object (S1204). When the orientation of the user's head is not suitable for the character object, the user's head orientation is detected after receiving the user input again.
オブジェクト制御決定部626が、キャラクタ・オブジェクトの動作を決定すると、さらに、またはこれに代えて、オブジェクト制御決定部626は、キャラクタ・オブジェクトが「喜び」という感情を示すために、表情パラメータを設定する(S1205)。「喜び」を示す表情パラメータの組み合わせ、例えば、キャラクタ・オブジェクトの眉パーツを吊り上げる動き、片目を瞑る動き、口を開ける動き等の組み合わせを出力内容として決定することができる。オブジェクト制御決定部626において、キャラクタ・オブジェクトの動作及び/又は感情表現の決定が行われると、オブジェクト画像生成部627において、当該キャラクタ・オブジェクトの画像生成が行われる(S1206)。 When the object control determining unit 626 determines the action of the character object, or in addition to this, the object control determining unit 626 sets the facial expression parameter in order for the character object to show the feeling of “joy”. (S1205). A combination of facial expression parameters indicating “joy”, for example, a combination of lifting the eyebrows part of the character object, meditating one eye, opening the mouth, and the like can be determined as output contents. When the object control determination unit 626 determines the motion and / or emotional expression of the character object, the object image generation unit 627 generates an image of the character object (S1206).
図13に、オブジェクト制御の処理の他の一例としてのフローチャートを示す。まず、画像生成装置310は、入出力部320または通信部320を介して、HMD110やHMD110外部に配置された赤外線カメラ等からユーザ入力を受信する(S1301)。ユーザ入力が、例えば、赤外線カメラから送信されたユーザの位置の変化に関する情報である場合、ユーザ動作検出部622は、ユーザの位置を検出する(S1302)。一例として、赤外線カメラから送信された情報を基に、複合現実空間におけるユーザの位置(例えば、図9に示す基準点930を基準とする)の変位(Δx、Δy、Δz)を特定し、ユーザの最新の位置をxyz座標により特定する。続いて、ユーザ動作検出部622は、そのユーザの位置と、複合現実空間内に配置されるキャラクタ・オブジェクトとの距離を検出する(S1303)。一例として、複合現実空間内の、ユーザの最新の位置座標とキャラクタ・オブジェクトが配置される位置座標(例えば、キャラクタ・オブジェクトは配置される領域のうち、ユーザに最も近接した位置の座標)を基に最短距離を算出する。例えば、ユーザがx座標方向にだけΔx分移動したときは、ユーザの最新位置のx座標とキャラクタ・オブジェクトのx座標との差分が距離として算出される。その距離が所定の距離以下である場合、すなわち、ユーザが複合現実空間内においてキャラクタ・オブジェクトと接近しすぎている、と判別された場合、オブジェクト制御決定部626は、キャラクタ・オブジェクトの出力内容として、キャラクタ・オブジェクトをユーザがいる位置から遠ざけるよう、動作パラメータを調整することを決定することができる(S1304)。ユーザがいる位置とキャラクタ・オブジェクトがいる位置が所定の距離より離れている場合は、再度ユーザ入力を受信したのちに、ユーザの位置検出処理を行う。 FIG. 13 shows a flowchart as another example of the object control process. First, the image generation apparatus 310 receives user input from the HMD 110 or an infrared camera disposed outside the HMD 110 via the input / output unit 320 or the communication unit 320 (S1301). For example, when the user input is information related to a change in the position of the user transmitted from the infrared camera, the user operation detection unit 622 detects the position of the user (S1302). As an example, based on the information transmitted from the infrared camera, the displacement (Δx, Δy, Δz) of the user's position (for example, with reference point 930 shown in FIG. 9 as a reference) in the mixed reality space is specified, and the user Is specified by the xyz coordinates. Subsequently, the user motion detection unit 622 detects the distance between the user's position and the character object placed in the mixed reality space (S1303). As an example, based on the latest position coordinates of the user in the mixed reality space and the position coordinates where the character object is placed (for example, the coordinates of the position closest to the user in the area where the character object is placed). Calculate the shortest distance. For example, when the user moves by Δx only in the x coordinate direction, the difference between the x coordinate of the latest position of the user and the x coordinate of the character object is calculated as the distance. When the distance is equal to or less than the predetermined distance, that is, when it is determined that the user is too close to the character object in the mixed reality space, the object control determination unit 626 outputs the character object output content. Then, it is possible to decide to adjust the motion parameter so that the character object is moved away from the position where the user is present (S1304). If the position where the user is located and the position where the character object is located are more than a predetermined distance, the user position detection process is performed after receiving the user input again.
オブジェクト制御決定部626が、キャラクタ・オブジェクトの動作を決定すると、さらに、またはこれに代えて、オブジェクト制御決定部626は、キャラクタ・オブジェクトが「怒り」または「不快」という感情を示すために、表情パラメータを設定する(S1305)。「不快」を示す表情パラメータの組み合わせ、例えば、キャラクタ・オブジェクトの左右の眉パーツを寄せる動き、目を細める動き、口を閉じる動き等の組み合わせを出力内容として決定することができる。オブジェクト制御決定部626において、キャラクタ・オブジェクトの動作及び/又は感情表現の決定が行われると、オブジェクト画像生成部627において、当該キャラクタ・オブジェクトの画像生成が行われる(S1306)。 When the object control determination unit 626 determines the action of the character object, or in addition to this, the object control determination unit 626 displays the facial expression in order for the character object to show the feeling of “anger” or “uncomfortable”. A parameter is set (S1305). A combination of facial expression parameters indicating “uncomfortable”, for example, a combination of the movement of the character object that moves the left and right eyebrows parts, the movement of narrowing the eyes, the movement of closing the mouth, and the like can be determined as the output content. When the object control determination unit 626 determines the motion and / or emotional expression of the character object, the object image generation unit 627 generates an image of the character object (S1306).
図14に、オブジェクト制御の処理のさらに他の一例としてのフローチャートを示す。まず、画像生成装置310は、入出力部320または通信部320を介して、HMD110からユーザ入力を受信する(S1401)。ユーザ入力が、例えば、HMD110に備えられたセンサ、例えば、アイトラッキング・センサからのユーザ注視点に関する情報である場合、ユーザ動作検出部622は、ユーザの注視点を検出する(S1402)。一例として、複合現実空間内におけるユーザの注視点を示す、xyz座標が特定される。続いて、ユーザ動作検出部622は、そのユーザの注視点が複合現実空間内に配置される第二のオブジェクト(例えば、絵画用キャンバス)の方向に向けられているか否かを確認する(S1403)。一例として、ユーザの注視点を示す座標が、複合現実空間内において絵画キャンバスが配置される領域を範囲内にあるか否かを、絵画キャンバスが配置される領域を示す座標と比較することで確認する。ユーザの注視点が第二のオブジェクトに向けられている場合、すなわち、ユーザが複合現実空間内において絵画用キャンバスを見ている、という動作を行っている場合は、オブジェクト制御決定部626は、キャラクタ・オブジェクトの出力内容として、キャラクタ・オブジェクトの視線を第二オブジェクトに向ける、という動作パラメータに基づいて動作を行うことを決定することができる(S1404)。ユーザの注視点が第二のオブジェクトに向けられていない場合は、再度ユーザ入力を受信したのちに、ユーザの注視点の検出処理を行う。 FIG. 14 shows a flowchart as still another example of the object control process. First, the image generating apparatus 310 receives user input from the HMD 110 via the input / output unit 320 or the communication unit 320 (S1401). For example, when the user input is information on a user gazing point from a sensor provided in the HMD 110, for example, an eye tracking sensor, the user action detection unit 622 detects the gazing point of the user (S1402). As an example, xyz coordinates indicating the user's point of interest in the mixed reality space are specified. Subsequently, the user motion detection unit 622 confirms whether or not the user's gaze point is directed toward the second object (for example, a painting canvas) arranged in the mixed reality space (S1403). . As an example, confirm whether the coordinates indicating the user's point of sight are within the range where the painting canvas is placed in the mixed reality space by comparing with the coordinates indicating the area where the painting canvas is placed To do. When the user's gaze point is directed to the second object, that is, when the user is performing an action of looking at the painting canvas in the mixed reality space, the object control determination unit 626 performs the character control. It is possible to determine to perform the action based on the action parameter of directing the line of sight of the character object to the second object as the output contents of the object (S1404). When the user's gaze point is not directed to the second object, the user's gaze point is detected after receiving the user input again.
オブジェクト制御決定部626が、キャラクタ・オブジェクトの動作を決定すると、オブジェクト画像生成部627において、当該キャラクタ・オブジェクトの画像生成が行われる(S1405)。さらに、画像生成装置は、ユーザ動作検出部622において、ユーザの注視点を継続的に検出し、オブジェクト制御決定部626は、ユーザが、絵画用キャンバスから眼を逸らすと、キャラクタ・オブジェクトがユーザの方へ視線を向ける、といった制御も行うことができる。 When the object control determination unit 626 determines the action of the character object, the object image generation unit 627 generates an image of the character object (S1405). Furthermore, the image generation device continuously detects the user's gaze point in the user motion detection unit 622, and the object control determination unit 626 causes the character object to be displayed when the user turns away from the painting canvas. It is also possible to perform control such as turning the line of sight toward the direction.
図15に、オブジェクト制御の処理のさらに別の一例としてのフローチャートを示す。本例は、ユーザが、複合現実空間内に配置された絵画用キャンバスに絵を描き、ユーザに寄り添うキャラクタ・オブジェクトが教師役を務めるというシーンを想定している。まず、画像生成装置310は、入出力部320または通信部320を介して、HMD110やコントローラ210からユーザ入力を受信する(S1501)。ユーザ入力が、例えば、コントローラ210を介した複合現実空間内の第二のオブジェクト(例えば、絵画用キャンバス)に対して行われた操作である場合、ユーザ操作検出部623は、ユーザの操作内容を検出し、オブジェクト制御決定部626は、第二のオブジェクトの内容を更新、すなわち、ユーザの操作内容を基に絵をキャンバス上に描画する制御を決定し、絵画用キャンバス上で更新されたオブジェクトデータを、オブジェクト更新データ格納部733に格納する(S1502)。続いて、オブジェクト制御決定部626は、キャラクタ・オブジェクトの動作を決定するに際し、記憶部350のマッチング用プログラム格納部724に格納されるプログラムを実行し、オブジェクト処理用参照データ格納部725に格納される参照用データを参照して、更新されたオブジェクトの内容が、予め決められた正解とされるデータ(イメージデータ)とマッチするか(類似度)を確認する(S1503)。更新されたオブジェクト内容が、正解とされるデータとマッチする場合、オブジェクト制御決定部626は、キャラクタ・オブジェクトが所定の発話をするよう設定する(S1504)。例えば、「上手だね」といった発話を行うよう設定する。一方で、更新されたオブジェクト内容が、正解とされるデータとマッチしない場合、オブジェクト制御決定部626は、上記参照データを参照して、キャラクタ・オブジェクトが、予め決められた正解とされるデータ(イメージデータ)を絵画用キャンバスに描画するように設定する(S1505)。画像生成部617及び音声生成部(図示せず)は、キャラクタ・オブジェクトの画像及び音声を生成する(S1506)。さらに、オブジェクト制御決定部626は、例えば、キャラクタ・オブジェクトが、絵画用キャンバスに描画を行うために、ユーザの視界領域外から絵画キャンバスのある位置に移動したのち、描画が終わると、または、所定時間が経過したのちに、再度初期状態と同じ、ユーザの視界領域外の位置(基準位置)に戻るよう制御することができる。他の場合において、キャラクタ・オブジェクトが、複合現実空間内の基準位置とは異なる位置に移動しても、所定の動作が完了したのち、または、所定時間が経過したのちに基準位置に戻るよう制御することができる。これにより、ユーザとキャラクタ・オブジェクトの連帯感が高まり、より一層没入感を高めることができる。 FIG. 15 shows a flowchart as still another example of the object control process. This example assumes a scene in which a user draws a picture on a painting canvas arranged in the mixed reality space, and a character object close to the user serves as a teacher. First, the image generation apparatus 310 receives user input from the HMD 110 or the controller 210 via the input / output unit 320 or the communication unit 320 (S1501). When the user input is, for example, an operation performed on the second object (for example, a painting canvas) in the mixed reality space via the controller 210, the user operation detection unit 623 displays the operation content of the user. The object control determination unit 626 detects and updates the content of the second object, that is, determines the control for drawing the picture on the canvas based on the operation content of the user, and updates the object data updated on the painting canvas. Is stored in the object update data storage unit 733 (S1502). Subsequently, the object control determination unit 626 executes a program stored in the matching program storage unit 724 of the storage unit 350 when determining the action of the character object, and is stored in the object processing reference data storage unit 725. With reference to the reference data, it is confirmed whether or not the content of the updated object matches the predetermined correct data (image data) (similarity) (S1503). When the updated object content matches the correct data, the object control determination unit 626 sets the character object to make a predetermined utterance (S1504). For example, it is set to speak such as “You are good”. On the other hand, when the updated object content does not match the correct data, the object control determination unit 626 refers to the reference data, and the character object is determined to be a predetermined correct data ( The image data is set to be drawn on the painting canvas (S1505). The image generation unit 617 and the sound generation unit (not shown) generate an image and sound of the character object (S1506). Further, the object control determining unit 626, for example, moves the character object from outside the user's field of view to a certain position on the painting canvas to draw on the painting canvas, or after the drawing is finished, After the elapse of time, it can be controlled to return again to the same position as the initial state and outside the user's field of view (reference position). In other cases, even if the character object moves to a position different from the reference position in the mixed reality space, control is performed so that the character object returns to the reference position after a predetermined action is completed or after a predetermined time has elapsed. can do. As a result, the sense of solidarity between the user and the character object is enhanced, and the immersive feeling can be further enhanced.
図16は、キャラクタの出力制御の一例としてのフローチャートを示す。オブジェクト制御決定部626がキャラクタ・オブジェクトの出力内容を決定することに伴い(S1601)、ユーザに対し、出力内容を受け入れるか否かを問い合わせる(S1602)。この問い合わせは、例えば、複合現実空間にポップアップ表示を行うことで提供することができる。例えば、ユーザは、通常はキャラクタ・オブジェクトの出力内容を受諾するものと想定して、出力内容を実行する度に「いいえ」ボタンのみを所定時間表示させ、出力内容を受諾する場合は、ポップアップ表示を放置し、受諾しないときにのみ、ユーザが「いいえ」ボタンを選択できるものとしてもよい。従来の「はい」「いいえ」を選択させる形態のポップアップ表示は、ユーザの複合現実空間内の行動を阻害し、没入効果を低下させる恐れがあるためである。いずれかの方法により、ユーザが、キャラクタ・オブジェクトの出力内容を受け入れると、出力内容と受諾された旨の記録が、記憶部350のオブジェクト出力データ格納部732に履歴情報として格納される(S1603)。ユーザが、キャラクタ・オブジェクトの出力内容を受け入れない場合でも、出力内容と拒否された旨の記録が、記憶部350のオブジェクト出力データ格納部732に履歴情報として格納される(S1604)。ここで、ユーザが、キャラクタ・オブジェクトの出力内容を受諾しない場合、キャラクタ・オブジェクトの出力は実行されても、されなくてもよい。ユーザが、キャラクタ・オブジェクトの出力内容を受諾した場合、オブジェクト制御決定部626は、記憶部350のオブジェクト出力データ格納部732を参照し、ユーザが今回を含め、キャラクタ・オブジェクトの出力内容を何回受け入れたかを確認し(S1605)、所定回数以上受け入れたことが確認された場合、オブジェクト制御決定部626は、ユーザ入力データ格納部731を参照し、当該出力内容の前後に実行されたユーザ入力内容を確認する(S1606)。当該ユーザ入力内容に一定の規則性がある場合、その入力内容と出力内容とをセットとしてイベントテーブル等に格納しておくことができる(S1607)。これにより、次回以降、ユーザがイベントテーブルに格納された入力内容を実行した場合に、キャラクタ・オブジェクトが同じ出力内容を再度実行できるように設定することができる。当該出力内容の前後複数の入力内容に規則性がある場合には、その複数の入力内容と出力内容をセットにしてイベントテーブル等に格納しておくことで、次回以降、ユーザが所定の入力内容を実行すると、キャラクタ・オブジェクトが数手先の出力内容を先回りして実行できるよう設定することもできる。例えば、ユーザの入力内容が、複合現実空間内においてPCを操作し(入力1)、あるデータをPC画面に表示し(入力2)、キャラクタ・オブジェクトに画面の印刷を依頼し(入力3)、これに応じてキャラクタ・オブジェクトが、複合現実空間内において印刷を行う(出力1)、といった入出力パターンが何回か繰りかえされた場合、このパターンをイベントテーブルに登録しておくことで、次回以降、ユーザがPCを操作し始める(入力1)と同時に、入力2や入力3を待たずに、キャラクタ・オブジェクトが、プリンター電源をONにする(出力1)、といった出力内容を実行することができる。 FIG. 16 shows a flowchart as an example of character output control. As the object control determination unit 626 determines the output content of the character object (S1601), the user is inquired whether to accept the output content (S1602). This inquiry can be provided, for example, by performing a pop-up display in the mixed reality space. For example, assuming that the user normally accepts the output contents of the character object, each time the output contents are executed, only the “No” button is displayed for a predetermined time, and when the output contents are accepted, a pop-up display is displayed. The user may be allowed to select the “No” button only when the button is left unaccepted. This is because the conventional pop-up display in which “Yes” and “No” are selected may hinder the user's behavior in the mixed reality space and reduce the immersive effect. When the user accepts the output content of the character object by any of the methods, the output content and a record of acceptance are stored as history information in the object output data storage unit 732 of the storage unit 350 (S1603). . Even when the user does not accept the output content of the character object, the output content and a record of the rejection are stored as history information in the object output data storage unit 732 of the storage unit 350 (S1604). Here, when the user does not accept the output content of the character object, the output of the character object may or may not be executed. When the user accepts the output content of the character object, the object control determining unit 626 refers to the object output data storage unit 732 of the storage unit 350, and how many times the user outputs the output content of the character object including this time. If it is confirmed whether or not it has been accepted a predetermined number of times or more, the object control determination unit 626 refers to the user input data storage unit 731 and executes the user input content executed before and after the output content. Is confirmed (S1606). If the user input content has a certain regularity, the input content and the output content can be stored as a set in the event table or the like (S1607). Thereby, when the user executes the input content stored in the event table after the next time, the character object can be set so that the same output content can be executed again. If there are regularities in the input content before and after the output content, the user can set the input content and output content as a set and store them in the event table etc. Can be set so that the character object can be executed ahead of the output contents of several hands ahead. For example, the input contents of the user operate the PC in the mixed reality space (input 1), display certain data on the PC screen (input 2), request the character object to print the screen (input 3), In response to this, when an input / output pattern such as a character object performing printing in the mixed reality space (output 1) is repeated several times, by registering this pattern in the event table, the next time Thereafter, at the same time that the user starts operating the PC (input 1), the character object may execute output contents such as turning on the printer power (output 1) without waiting for input 2 or input 3. it can.
このように、履歴情報として格納された、ユーザとキャラクタ・オブジェクトとの入出力パターンを基に、機械学習的にキャラクタ・オブジェクトの出力内容を制御するという方法も考えられる。さらに、第三者によって提供される機械学習用のアプリケーション・プログラム・インターフェース(API)と連携して、機械学習に必要な、入出力に関する履歴情報等を参照データとして用いることで、機械学習によりキャラクタ・オブジェクトの動作を自律的に制御することもできる。 In this way, a method of controlling the output contents of the character object by machine learning based on the input / output pattern between the user and the character object stored as history information is also conceivable. Furthermore, in conjunction with an application program interface (API) for machine learning provided by a third party, the history information related to input / output necessary for machine learning is used as reference data, so that characters can be obtained through machine learning.・ It is also possible to autonomously control the movement of objects.
<実施形態2>
本実施形態は、実施形態1における、キャラクタ・オブジェクトが、初期状態において、複合現実空間内のユーザの視界領域外に少なくとも一部が配置される、という特徴を踏まえつつ、更にその効果を高めるために、考案されたものである。本実施形態は、複数のキャラクタ・オブジェクトをユーザに選択可能とするものであり、更に、各キャラクタ・オブジェクトの動作パラメータ及び感情パラメータをユーザにより選択及び設定可能とするものである。
<Embodiment 2>
In order to further enhance the effect of the present embodiment, the character object in the first embodiment is at least partially arranged outside the user's view area in the mixed reality space in the initial state. It was devised. In the present embodiment, a plurality of character objects can be selected by the user, and the motion parameters and emotion parameters of each character object can be selected and set by the user.
図17は、キャラクタ・オブジェクトに関する情報を管理するテーブルを示す。キャラクタ情報管理テーブル1700は、図18に示す、本実施形態におけるHMD1800システムのうち、コンテンツサーバ1810により管理される。コンテンツサーバ1810に、キャラクタ・オブジェクトのイメージデータ及びパラメータデータが格納されており、例えば、画像生成装置310(例えば、ユーザPC)から、ユーザによるキャラクタ・オブジェクトの取得要求を受けて、コンテンツサーバ1810は、キャラクタ・オブジェクトのイメージデータ及びパラメータデータを画像生成装置310に提供することができる。提供された、例えば、ダウンロードされたキャラクタ・オブジェクトの関連データは、画像生成装置310の記憶部350(図8の例では、オブジェクト制御情報記憶部720のオブジェクト画像データ格納部721及びパラメータデータ格納部722)に格納される。また、本実施形態の他の例においては、コンテンツサーバを設けずに、画像生成装置310に予めキャラクタ情報及び画像データを格納しておくこともできる。 FIG. 17 shows a table for managing information related to character objects. The character information management table 1700 is managed by the content server 1810 in the HMD 1800 system according to this embodiment shown in FIG. Character server image data and parameter data are stored in the content server 1810. For example, the content server 1810 receives a character / object acquisition request from the image generation apparatus 310 (for example, a user PC). The image data of the character object and the parameter data can be provided to the image generation apparatus 310. The provided related data of, for example, the downloaded character object is stored in the storage unit 350 of the image generation apparatus 310 (in the example of FIG. 8, the object image data storage unit 721 and the parameter data storage unit of the object control information storage unit 720). 722). In another example of this embodiment, character information and image data can be stored in advance in the image generation apparatus 310 without providing a content server.
図17に示すキャラクタ情報管理テーブルにおいて、キャラクタ・オブジェクト毎に固有のキャラクタIDが割り当てられ、キャラクタID毎にIP、すなわちキャラクタのイメージが対応づけられている。キャラクタ情報管理テーブルにおいて、キャラクタIPが同じ「A」と関連づけられているものは、同じキャラクタのイメージを有する。キャラクタIPが同じであっても、動作パラメータの相違によって、そのキャラクタの動きが異なるよう設定することができる。キャラクタ情報管理テーブルにおいては、さらに、動作パラメータに関する情報が格納されており、例えば、キャラクタID10001は、IPが「A」であるが、そのキャラクタの頭部、手足、胴体、いずれも動作しないよう設定されている。他方で、キャラクタID10002は、IPが「A」であって、頭部と胴体について動作パラメータが各々「5」と設定されている。上述したように、動作パラメータとして、キャラクタの各身体パーツ固有の動きのパターン及びその大きさや速さを10段階の数値等で設定することができるとした場合、動作パラメータが「5」であれば、動きの大きさ及び強さが最大値の半分ということになる。これに対して、キャラクタID10003は、IPが同じ「A」であって、頭部、手足、胴体のいずれの動作パラメータも「10」と設定されている。このように、同じイメージを有しながら、異なる動作パラメータを提供することで、多様多種なキャラクタ・オブジェクトを提供することができる。 In the character information management table shown in FIG. 17, a unique character ID is assigned to each character object, and an IP, that is, a character image, is associated with each character ID. In the character information management table, the characters IP associated with the same “A” have the same character image. Even if the character IP is the same, the movement of the character can be set differently depending on the difference of the motion parameters. The character information management table further stores information about motion parameters. For example, the character ID 10001 has IP “A”, but the head, limbs, and torso of the character are set not to move. Has been. On the other hand, in the character ID 10002, the IP is “A”, and the motion parameter is set to “5” for the head and the torso. As described above, when it is assumed that the motion pattern specific to each body part of the character and its size and speed can be set with 10-stage numerical values as the motion parameter, the motion parameter is “5”. The magnitude and strength of the movement is half the maximum value. On the other hand, the character ID 10003 has the same IP “A”, and the motion parameters of the head, limbs, and trunk are all set to “10”. Thus, by providing different motion parameters while having the same image, a wide variety of character objects can be provided.
このように、各々のキャラクタ・オブジェクトに段階的な設定を設けることで、複合現実空間内でユーザが所定の動作を実行したり、所定の条件を満たした場合に、1ランク上のキャラクタ・オブジェクトを付与したり(例えば、ユーザが保有するキャラクタID「10001」に対して、キャラクタID「10002」をアンロックする)、段階的に料金設定を設け、課金処理を通じて、ユーザにキャラクタ・オブジェクトを提供することもできる。課金処理は、図18に示す課金サーバ1820が実行することができる。図示しないが、表情パラメータについても同様に段階的な設定を行うことができ、また、上述のように、「喜」「怒」「哀」「楽」といった感情パラメータをユーザに対して選択的に提供することもできる。 In this way, by providing stepwise settings for each character object, a character object that is one rank higher when a user performs a predetermined action or satisfies a predetermined condition in the mixed reality space. (For example, the character ID “10002” is unlocked with respect to the character ID “10001” held by the user), the fee is set step by step, and the character object is provided to the user through the charging process You can also The charging process can be executed by a charging server 1820 shown in FIG. Although not shown, the facial expression parameters can be similarly set in a stepwise manner, and as described above, emotion parameters such as “joy”, “anger”, “sorrow”, and “easy” can be selectively selected for the user. It can also be provided.
さらに、本実施形態において、コンテンツサーバ1810は、画像生成装置310(例えば、ユーザPC)のユーザ入力データ格納部731に格納されたユーザの入力データ、より具体的には、ユーザ表情検出部624によって検出されたユーザの表情やユーザ身体状態検出部625によって検出された身体状態(心拍数、脈拍数、体温等)を参照し、ユーザの感情や体調に応じたキャラクタ・オブジェクトの推薦を行うことができる。例えば、ユーザ表情検出部624によりユーザの気持ちが沈んでいることが検出された旨の情報がコンテンツサーバ1810によって受信されると、コンテンツサーバ1810は、ユーザに癒しを与えるようなキャラクタ・オブジェクト(例えば、「哀」を示す感情パラメータを有するキャラクタ・オブジェクト)を選択し、推薦することができる。または、コンテンツサーバ1810は、ユーザのプロフィールデータを参照し、ユーザのプロフィール(年齢、性別、趣味、好みのタイプ等)に適合したキャラクタ・オブジェクトを推薦することもでき、複数のユーザのプロフィールやキャラクタ・オブジェクトの選択履歴を管理し、協調フィルタリング等の手法を用いて、ユーザが選択する確度の高いキャラクタ・オブジェクトを選択することもできる。 Further, in the present embodiment, the content server 1810 is operated by the user input data stored in the user input data storage unit 731 of the image generation device 310 (for example, user PC), more specifically, by the user facial expression detection unit 624. Referencing the detected user's facial expression and the physical condition (heart rate, pulse rate, body temperature, etc.) detected by the user physical condition detection unit 625 may recommend a character / object according to the user's emotion and physical condition. it can. For example, when the content server 1810 receives information indicating that the user's facial expression detection unit 624 has detected that the user's feelings are sinking, the content server 1810 displays a character object (for example, soothing user) , A character object having an emotion parameter indicating “sorrow” can be selected and recommended. Alternatively, the content server 1810 can refer to the user's profile data and can recommend a character object that matches the user's profile (age, gender, hobbies, preference type, etc.). It is also possible to manage the object selection history and select a character object with a high probability of being selected by the user using a technique such as collaborative filtering.
<実施形態3>
本実施形態は、複合現実空間におけるユーザ及びキャラクタ・オブジェクトによる動作を含めた動画像を、複合現実空間内に居ながらオンデマンドで遡って視聴することを実現する。図19は、複合現実空間を示す画面にタイムバー1901を表示したユーザインターフェースを示す。従来のテレビ番組の追いかけ再生と同様に、ユーザは、コントローラ等を介して、タイムバー1901上に再生位置として示されるインジケータ1902を操作することにより、複合現実空間内において、任意の再生位置での、複合現実空間の動画像を再生することができる。タイムバー1901上において、1903に相当する領域は、画像データが画像生成装置310またはHMD110等の再生装置上のメモリに蓄積され、ユーザに利用可能であることを示すバッファ領域である。このバッファ領域1903内にインジケータ1902を合わせることで、ユーザは任意の再生位置での複合現実空間を再生することができる。
<Embodiment 3>
In the present embodiment, it is possible to retrospectively view a moving image including a motion of a user and a character object in a mixed reality space on demand while in the mixed reality space. FIG. 19 shows a user interface in which a time bar 1901 is displayed on a screen showing a mixed reality space. Similar to the follow-up playback of a conventional television program, the user operates an indicator 1902 indicated as a playback position on the time bar 1901 via a controller or the like, thereby allowing the user to play an arbitrary playback position in the mixed reality space. The moving image in the mixed reality space can be reproduced. On the time bar 1901, an area corresponding to 1903 is a buffer area indicating that image data is accumulated in a memory on a reproduction apparatus such as the image generation apparatus 310 or the HMD 110 and can be used by the user. By aligning the indicator 1902 in the buffer area 1903, the user can reproduce the mixed reality space at an arbitrary reproduction position.
図20に、動画ファイルの格納リスト2001を示す。画像生成装置310は、画像生成部615及び627において生成した画像を、動画ファイルとして履歴情報記憶部730に格納する。ユーザは、所定のユーザインタフェースを通じて、動画ファイルのリスト2001の中から所望のファイルを選択し、再生を行う。なお、本実施形態においては、動画ファイルを画像生成装置310内に格納する形態を例示しているが、例えば、画像生成装置310とインターネットで接続された、図18に示すコンテンツサーバ1810等のサーバに動画ファイルを格納しておき、必要に応じて、サーバに格納された動画ファイルを、HMDやユーザPC等のユーザ装置に対して、ストリーミングまたはダウンロード再生を可能とすることもできる。 FIG. 20 shows a moving image file storage list 2001. The image generation device 310 stores the images generated by the image generation units 615 and 627 in the history information storage unit 730 as a moving image file. The user selects a desired file from the moving image file list 2001 through a predetermined user interface and reproduces it. In the present embodiment, an example in which a moving image file is stored in the image generation device 310 is illustrated. However, for example, a server such as the content server 1810 shown in FIG. 18 connected to the image generation device 310 via the Internet. The moving image file can be stored in the server, and if necessary, the moving image file stored in the server can be streamed or downloaded to a user device such as an HMD or a user PC.
<実施形態4>
本実施形態は、ユーザが、複合現実空間に滞留し続けるなど没入しすぎることを防止するための方法を提供する。図21に、本実施形態における、画像生成装置2100の機能構成図を示す。
<Embodiment 4>
The present embodiment provides a method for preventing the user from being over-immersed such as staying in the mixed reality space. FIG. 21 is a functional configuration diagram of the image generation apparatus 2100 in the present embodiment.
画像生成装置2100は、HMD110やコントローラ210等から信号を受信する入出力部2110及びインターネット等の通信と介して信号を受信する通信部2120を備えることができる。また、画像生成装置2100は、プログラムを実行する制御部2130及びプログラムやデータを格納する記憶部2140を備えることができる。なお、本実施形態において、実施形態1で記載したHMD110やコントローラ210を適用可能であるが、本実施形態によって提供される方法の実現に必要な機能を提供可能な装置であれば、これに限定されず、HMDおよびコントローラのいずれについても他の形態のものであってもよい。 The image generation apparatus 2100 can include an input / output unit 2110 that receives signals from the HMD 110, the controller 210, and the like, and a communication unit 2120 that receives signals via communication such as the Internet. Further, the image generation apparatus 2100 can include a control unit 2130 that executes a program and a storage unit 2140 that stores programs and data. In the present embodiment, the HMD 110 and the controller 210 described in the first embodiment can be applied. However, the present invention is not limited to this as long as the apparatus can provide a function necessary for realizing the method provided by the present embodiment. However, the HMD and the controller may be in other forms.
まず、記憶部2140は、HMD110やコントローラ210を介してユーザにより入力または選択された、複合現実空間へのユーザによるアクセスを阻止する基準、すなわち、阻止基準を格納する阻止基準格納部2141を備え、さらに、阻止する対象ユーザID等を格納する阻止対象ユーザ格納部2142、アクセスを阻止するトリガーとなるイベントを格納するイベント格納部2143、ユーザIDや属性等の所定のユーザ情報を登録するユーザ情報格納部2144、本実施形態により提供される方法に関連したプログラムを格納するプログラム格納部2145等を備えることができる。制御部2130は、プログラム格納部2145に格納されたプログラムを実行し、複合現実空間へのユーザによるアクセスを阻止する方法を実行する。阻止基準判定部2131は、阻止基準格納部2141に格納された阻止基準またはイベント格納部2143に格納されたイベントを基に、阻止基準を満たすか否かを判定し、阻止実行部2132は、阻止基準が満たされた場合に、ユーザによるアクセスの阻止を実行する。また、イベント検出部2133は、イベント格納部2143に格納されたイベントを検出する。ユーザ情報公開可否決定部2134は、ユーザ情報格納部2144に格納されたユーザ情報について、複合現実空間に対して公開する情報の範囲を決定する。情報の範囲の決定に際しては、阻止対象ユーザ格納部2142に格納される阻止対象となるユーザが存在する場合に、そのユーザに対する公開要否についても決定する。 First, the storage unit 2140 includes a blocking criterion storage unit 2141 that stores a criterion for blocking a user's access to the mixed reality space input or selected by the user via the HMD 110 or the controller 210, that is, a blocking criterion. Further, a blocking target user storage unit 2142 for storing a blocking target user ID and the like, an event storage unit 2143 for storing an event that triggers access blocking, and a user information storage for registering predetermined user information such as a user ID and an attribute A unit 2144, a program storage unit 2145 for storing a program related to the method provided by this embodiment, and the like can be provided. The control unit 2130 executes a program stored in the program storage unit 2145, and executes a method for preventing a user from accessing the mixed reality space. The blocking criterion determination unit 2131 determines whether or not the blocking criterion is satisfied based on the blocking criterion stored in the blocking criterion storage unit 2141 or the event stored in the event storage unit 2143. The blocking execution unit 2132 If the criteria are met, block access by the user. In addition, the event detection unit 2133 detects an event stored in the event storage unit 2143. The user information disclosure availability determination unit 2134 determines the range of information to be disclosed to the mixed reality space for the user information stored in the user information storage unit 2144. When determining the range of information, when there is a user to be blocked stored in the block to be blocked user storage unit 2142, the necessity of disclosure to the user is also determined.
図22に、複合現実空間へのユーザによるアクセスを阻止する方法の一例としてのフローチャートを示す。まず、ユーザが、HMD110やコントローラ210等のユーザ装置を介して、阻止基準設定画面等を通じて阻止基準を入力または選択すると、画像生成装置2100は、その入力または選択を入出力部2110または通信部2120によって受信し、阻止基準格納部2141に格納する(S2201)。阻止基準として、例えば、図23に示すように、HMD110等を介して提供される複合現実空間内の、ユーザの滞在時間(例えば、「1時間」、「2時間」、「3時間」等)、時間帯(例えば、「18時-6時」、「22時-6時」等)、ユーザの複合現実空間内におけるゲーム等のアプリケーションにおけるコマンドや姿勢変化等の入力回数(例えば、「25回」、「50回」、「100回」等)、複合現実空間を提供するアプリケーションに対して提供者や第三者が設定したレーティング(例えば、「PG」、「PG16」、「R」等)を、ユーザは、選択肢からの選択または自由入力を介して設定することができる。ついで、画像生成装置2100は、複合現実空間を画像生成装置等によってHMD110等に提供する(S2202)。ここで、阻止基準の設定(S2201)と複合現実空間の提供(S2202)のタイミングの前後は限定されず、ユーザは、事前設定または複合現実空間提供後の任意のタイミングで、阻止基準設定画面等を通じて阻止基準を設定することができる。本例において、組織基準を設定する主体は、複合現実空間を提供されるユーザ(子ども)の親等が想定される。 FIG. 22 shows a flowchart as an example of a method for preventing the user from accessing the mixed reality space. First, when a user inputs or selects a blocking criterion through a blocking criterion setting screen or the like via a user device such as the HMD 110 or the controller 210, the image generation device 2100 performs the input or selection on the input / output unit 2110 or the communication unit 2120. And stored in the blocking criterion storage unit 2141 (S2201). As a blocking criterion, for example, as shown in FIG. 23, the user's stay time (for example, “1 hour”, “2 hours”, “3 hours”, etc.) in the mixed reality space provided via the HMD 110 or the like. , Time zone (for example, “18: 00-6 o'clock”, “22: 00-6 o'clock”, etc.), the number of times of input of commands, posture changes, etc. in applications such as games in the user's mixed reality space (for example, “25 times ”,“ 50 times ”,“ 100 times ”, etc.) Ratings set by providers or third parties for applications that provide mixed reality space (for example,“ PG ”,“ PG16 ”,“ R ”, etc.) Can be set through selection from choices or free input. Next, the image generation device 2100 provides the mixed reality space to the HMD 110 or the like by the image generation device or the like (S2202). Here, the timing before and after the setting of the blocking criterion (S2201) and the provision of the mixed reality space (S2202) is not limited, and the user can set the blocking criterion setting screen or the like at any timing after the presetting or the provision of the mixed reality space. You can set a blocking criterion through In this example, the entity that sets the organization standard is assumed to be a parent of a user (child) who is provided with the mixed reality space.
続いて、阻止基準判定部2131は、複合現実空間内のユーザの所定の行動と阻止基準格納部2141に格納された阻止基準とを比較し、阻止基準が満たされたか否かを判定する(S2203)。例えば、画像生成装置には、タイマー(図示せず)が備えられ、タイマーが、HMD110電源投入後または複合現実空間提供後の、複合現実空間におけるユーザの滞在時間を計時し、阻止基準として設定された時間(例えば、3時間)が経過したときに、阻止基準判定部2131は、阻止基準が満たされた、と判断することができる。または、例えば、ユーザが、予め、阻止基準としてのレーティングを「R」と設定した場合に、ユーザが、配信提供者または第三者により「R」と設定されたアプリケーションを選択したときに、阻止基準が満たされた、と判断することができる。この場合、複合現実空間は元から提供されないこととなるため、S2202はスキップされることとなる。S2203において、阻止基準が満たされた、と判断された場合は、ユーザに対する、複合現実空間の提供が阻止される(S2204)。すなわち、ユーザは複合提供空間の全部または一部の視聴や再生ができなくなる。この場合、阻止の実行形態として、HMD110のディスプレイ120として、光学透過型のディスプレイを用いているときに、透過率を調整させる制御を行うことで、現実空間と仮想空間のブレンディング比率を調整し、ユーザを現実空間に寄り戻すことができる。予め設定した阻止基準と透過率とを対応づけておいて、阻止を実行する際に、阻止基準に応じた透過率を設定することもできる。 Subsequently, the blocking criterion determination unit 2131 compares the predetermined action of the user in the mixed reality space with the blocking criterion stored in the blocking criterion storage unit 2141 and determines whether the blocking criterion is satisfied (S2203). ). For example, the image generation device includes a timer (not shown), and the timer measures the user's stay time in the mixed reality space after the HMD 110 is turned on or after the mixed reality space is provided, and is set as a blocking criterion. When the waiting time (for example, 3 hours) elapses, the blocking criterion determination unit 2131 can determine that the blocking criterion is satisfied. Or, for example, when the user has previously set the rating as “R” as the blocking criterion, the blocking is performed when the user selects an application set to “R” by the distribution provider or a third party. It can be determined that the standard is satisfied. In this case, since the mixed reality space is not originally provided, S2202 is skipped. If it is determined in S2203 that the blocking criterion is satisfied, provision of the mixed reality space to the user is blocked (S2204). That is, the user cannot view or play all or part of the composite provision space. In this case, as an execution form of prevention, when an optical transmission type display is used as the display 120 of the HMD 110, the blending ratio between the real space and the virtual space is adjusted by performing control to adjust the transmittance, The user can be returned to the real space. It is also possible to associate a preset blocking criterion with the transmittance and set the transmittance according to the blocking criterion when performing blocking.
図24は、複合現実空間へのユーザによるアクセスを阻止する方法の他の一例としてのフローチャートを示す。まず、ユーザが、HMD110やコントローラ210等のユーザ装置を介して、阻止基準設定画面等を通じて、所定のイベントを入力または選択した場合、画像生成装置2100は、その入力または選択を入出力部2110または通信部2120によって受信し、イベント格納部2143に格納する(S2401)。所定のイベントとしては、例えば、図25に示すように、例えば、「通知」関連として、「緊急ニュース速報」、さらに、その種別として、「地震速報」、「火災情報」等が挙げられる。また、「通知」の他の形態として、電話やチャットアプリケーション等の通話やメッセージ等の受信が挙げられる。また、他に、ユーザに対する他の人物や物体の接近を検知することを、イベントとして設定することもできる。ユーザは、所定の設定画面において、これらの通知や接近検知といったアイテムについて、各々「YES」「NO」を選択することによりアクティベートすることで、阻止基準としてのイベントを登録することができる。ついで、画像生成装置2100は、複合現実空間をHMD110等に提供する(S2402)。ここで、イベントの設定(S2401)と複合現実空間の提供(S2402)のタイミングの前後は限定されず、ユーザは、事前設定または複合現実空間提供後の任意のタイミングで、阻止基準設定画面等を通じて阻止基準を設定することができる。 FIG. 24 shows a flowchart as another example of a method for preventing a user from accessing the mixed reality space. First, when a user inputs or selects a predetermined event via a user device such as the HMD 110 or the controller 210 through a blocking criterion setting screen or the like, the image generation device 2100 performs the input or selection by the input / output unit 2110 or The data is received by the communication unit 2120 and stored in the event storage unit 2143 (S2401). As the predetermined event, for example, as shown in FIG. 25, “emergency news bulletin” is associated with “notification”, and “earthquake bulletin”, “fire information”, etc. are classified as types. In addition, as another form of “notification”, reception of a call or a message such as a telephone or a chat application can be cited. In addition, detecting an approach of another person or object to the user can be set as an event. The user can register an event as a blocking criterion by activating each item such as notification and approach detection by selecting “YES” and “NO” on a predetermined setting screen. Next, the image generation device 2100 provides the mixed reality space to the HMD 110 or the like (S2402). Here, before and after the timing of the event setting (S2401) and the provision of the mixed reality space (S2402) is not limited, and the user can set through the blocking criterion setting screen or the like at any timing after the presetting or the provision of the mixed reality space. Blocking criteria can be set.
続いて、イベント検出部2133は、通知や接近検知等のイベントを検出する(2403)。イベントは、HMD110等と有線あるいは無線等の通信手段により接続された、ユーザの情報通信端末(図示せず)や接近を検知するセンサ(図示せず)を介して検出され、画像生成装置2100の入出力部2110または通信部2120によって、イベントを示す情報として受信される。イベントを示す情報は、イベント検出部2133によって特定のイベントとして検出され、続いて、阻止基準判定部2131は、検出されたイベントが、イベント格納部2143に予め格納されたイベントとマッチするか、すなわち、阻止基準を満たすか否かを判定する(S2404)。S2404において、阻止基準が満たされた、と判断された場合は、ユーザに対する、複合現実空間の提供が阻止される(S2405)。すなわち、ユーザは複合提供空間の全部または一部の視聴や再生ができなくなる。 Subsequently, the event detection unit 2133 detects an event such as notification or approach detection (2403). The event is detected via a user's information communication terminal (not shown) connected to the HMD 110 or the like by a wired or wireless communication means or a sensor (not shown) for detecting approach, and the event of the image generation apparatus 2100 is detected. Received as information indicating an event by the input / output unit 2110 or the communication unit 2120. Information indicating an event is detected as a specific event by the event detection unit 2133, and subsequently, the prevention criterion determination unit 2131 determines whether the detected event matches an event stored in advance in the event storage unit 2143, that is, Then, it is determined whether or not the blocking criterion is satisfied (S2404). If it is determined in S2404 that the blocking criterion is satisfied, the provision of the mixed reality space to the user is blocked (S2405). That is, the user cannot view or play all or part of the composite provision space.
図26は、複合現実空間へのユーザによるアクセスを阻止する方法のさらに他の一例としてのフローチャートを示す。本例においては、インターネット等のネットワークを介して特定または不特定多数のユーザが同じ複合現実空間を共有していることが前提となる。まず、ユーザが、HMD110やコントローラ210等のユーザ装置を介して、阻止基準設定画面等を通じて阻止基準を入力または選択した場合、画像生成装置2100は、その入力または選択を入出力部2110または通信部2120によって受信し、阻止基準格納部2141に格納する(S2601)。阻止基準としては、例えば、図27に示すように、「イベント」の項目として、HMD110等を介して提供される複合現実空間内における、他のユーザによるユーザへの接近、他のユーザによるユーザへの発話またはチャットメッセージ等が挙げられる。さらに、ユーザは、特定または全部のユーザを、当該イベントと関連づけて設定することができる。例えば、ユーザは、所定の入力または選択により、「接近」というイベントについて、ユーザID「30008」に関連した特定のユーザによる接近というイベントに限定することができる。さらに、イベントに対して所定の条件を関連づけさせることができる。例えば、「接近」というイベントについて、接近距離として、複合現実空間内における座標情報に対応づけて定義された距離を基準に、例えば、「10m」と設定することで、「特定のユーザが、ユーザに対して、10m以内に接近すること」を阻止基準として設定することができる。さらに、阻止基準に対して実行される阻止の度合いを示す「阻止レベル」として、段階を設けることができる。例えば、阻止レベルが3段階あるときに、最も厳しい「3」(例えば、そのユーザは、複合現実空間を提供するアプリケーションそのものが利用できなくなる)といった基準を設定することができる。図27に示す例においては、「イベント」内容が、「発話」であるときに、発話を行うユーザは全ユーザであり、「発話」の「条件」としては、予め「Sexual(性的表現)」として登録されたキーワードとマッチするワードを発話することとして設定することができ、「阻止レベル」を「2」(例えば、発話を行ったユーザが、発話されたユーザに対するアクセスを阻止する、すなわち、さらにコミュニケーションと取ることができなくなる)に設定することができる。図27に示すような阻止基準については、その一部をユーザが設定することができ、他についてはアプリケーション提供者によって予め設定することとできてもよい。ついで、画像生成装置2100は、複合現実空間をHMD110等に提供する(S2602)。ここで、阻止基準の設定(S2601)と複合現実空間の提供(S2602)のタイミングの前後は限定されず、ユーザは、事前設定または複合現実空間提供後の任意のタイミングで、阻止基準設定画面等を通じて阻止基準を設定することができる。 FIG. 26 shows a flowchart as yet another example of a method for preventing a user from accessing the mixed reality space. In this example, it is assumed that a large number of specific or unspecified users share the same mixed reality space via a network such as the Internet. First, when a user inputs or selects a blocking criterion through a blocking criterion setting screen or the like via a user device such as the HMD 110 or the controller 210, the image generation device 2100 performs the input or selection on the input / output unit 2110 or the communication unit. It is received by 2120 and stored in the block criterion storage unit 2141 (S2601). As the blocking criteria, for example, as shown in FIG. 27, as an item of “event”, in the mixed reality space provided via the HMD 110 or the like, another user approaches the user, or another user approaches the user. Utterances or chat messages. Furthermore, the user can set specific or all users in association with the event. For example, the user can limit the event “approaching” to an event of approaching by a specific user related to the user ID “30008” by predetermined input or selection. Furthermore, a predetermined condition can be associated with the event. For example, for the event “approaching”, for example, “10 m” is set as the approaching distance on the basis of the distance defined in association with the coordinate information in the mixed reality space. “Approaching within 10 m” can be set as a blocking criterion. Furthermore, steps can be provided as “blocking levels” indicating the degree of blocking performed against blocking criteria. For example, when there are three blocking levels, it is possible to set a criterion such as the strictest “3” (for example, the user cannot use the application that provides the mixed reality space). In the example shown in FIG. 27, when the content of “event” is “utterance”, the users who speak are all users, and “condition” of “utterance” is “Sexual (sexual expression)” in advance. Can be set to utter a word that matches a keyword registered as “”, and the “blocking level” is set to “2” (eg, the user who made the utterance blocks access to the uttered user, ie , Further communication and can not be taken). Some of the blocking criteria as shown in FIG. 27 can be set by the user, and others may be set in advance by the application provider. Next, the image generation device 2100 provides the mixed reality space to the HMD 110 or the like (S2602). Here, the timing before and after the setting of the blocking criterion (S2601) and provision of the mixed reality space (S2602) is not limited, and the user can set the blocking criterion setting screen or the like at any timing after the presetting or the provision of the mixed reality space. You can set a blocking criterion through
続いて、阻止基準判定部2131は、複合現実空間内の所定のイベントと阻止基準格納部2141に格納された阻止基準とを比較し、阻止基準が満たされたか否かを判定する(S2603)。例えば、画像生成装置2100が、ユーザID30008に関連づけられたユーザが、複合現実空間内において、ユーザに対して、10m以内の距離に接近したことを検知したことを受信した場合、阻止基準格納部2141に格納された阻止基準を参照し、「特定のユーザ(ユーザID30008)が、ユーザに対して、10m以内に接近すること」という阻止基準を満たすことと判定する。または、画像生成装置2100が、あるユーザが、ユーザに対して、予め登録された性的なワードを使った発話を行ったことを受信した場合、阻止基準格納部2141に格納された阻止基準を参照し、「Sexualな表現をユーザに対して発話すること」という阻止基準を満たすことと判定する。阻止基準を見たす旨の判定がなされると、阻止基準判定部2131は、阻止基準を実行する対象となるユーザ、前出の例では、ユーザID30008と関連づけられたユーザおよび発話を行ったユーザのIDを、いわゆるブラックリストとして、阻止対象ユーザ格納部2142に格納する(S2604)。続いて、阻止実行部2132は、阻止対象ユーザ格納部2142に格納されたユーザに対して、阻止基準格納部2141に格納された阻止レベルに基づいて、阻止を実行する(S2605)。例えば、前出の例において、ユーザID30008と関連づけられたユーザは、当該複合現実空間を提供するアプリケーションを利用することを停止させられたり、阻止レベルによっては、接近したユーザに対する接近を阻止あるいは接近したユーザを視認することができなくなるようにすることができる。また、発話を行ったユーザは、以降、発話を行った対象のユーザに対して発話やチャット等のコミュニケーションを取ることができなくなるようにすることができる。さらに、S2605における阻止実行部2132の処理に加えて、または、処理に代えて、ユーザ情報公開可否決定部2134は、ユーザ情報格納部2144に格納されたユーザ情報について、複合現実空間に対して公開する情報の範囲を決定することができる。情報の範囲の決定に際しては、阻止対象ユーザ格納部2142に格納される阻止対象となるユーザが存在する場合に、そのユーザに対する公開要否についても決定することができる。これにより、阻止対象ユーザに対する阻止の実行に加えて、さらにセキュリティを強化できるととともに、阻止対象ユーザに対する阻止の実行に代える場合には、ネットワーク帯域や他の装置の計算処理にかかる負荷をかけることなく、実質的に対象ユーザに対する阻止を実行したことに等しい効果を得ることができる。さらに、ユーザ情報公開可否決定部2134において、デフォルト設定として、少なくとも、ユーザの実名、または個人を特定することができる情報を強制的に公開する設定とすることで、そもそも複合現実空間内における接近や発言を通じたハラスメント行為を防止することもできる。 Subsequently, the blocking criterion determination unit 2131 compares a predetermined event in the mixed reality space with the blocking criterion stored in the blocking criterion storage unit 2141 and determines whether or not the blocking criterion is satisfied (S2603). For example, when the image generation apparatus 2100 receives that the user associated with the user ID 30008 has detected that the user has approached a distance within 10 m in the mixed reality space, the blocking criterion storage unit 2141 , It is determined that the blocking criterion “a specific user (user ID 30008) approaches the user within 10 m” is satisfied. Alternatively, when the image generation apparatus 2100 receives that a certain user has made an utterance using a pre-registered sexual word, the blocking criterion stored in the blocking criterion storage unit 2141 is used. It is determined that the blockage criterion “speaking a sexual expression to the user” is satisfied. When it is determined that the blocking criterion is viewed, the blocking criterion determination unit 2131 displays the user who is the target of executing the blocking criterion, the user associated with the user ID 30008 and the user who performed the utterance in the above example. Are stored in the blocked user storage unit 2142 as a so-called black list (S2604). Subsequently, the blocking execution unit 2132 executes blocking for the user stored in the blocking target user storage unit 2142 based on the blocking level stored in the blocking reference storage unit 2141 (S2605). For example, in the above example, the user associated with the user ID 30008 is stopped using the application that provides the mixed reality space, or depending on the blocking level, the user is prevented from approaching or approached the approaching user. It is possible to prevent the user from seeing. In addition, the user who has made an utterance can no longer communicate with the user who made the utterance, such as utterance or chat. Further, in addition to or instead of the processing of the blocking execution unit 2132 in S2605, the user information disclosure permission determination unit 2134 discloses the user information stored in the user information storage unit 2144 to the mixed reality space. The range of information to be determined can be determined. When determining the range of information, when there is a user to be blocked stored in the block to be blocked user storage unit 2142, it is also possible to determine whether disclosure is necessary for the user. As a result, in addition to execution of prevention for the user to be blocked, security can be further strengthened, and when replacing with execution of blocking for the user to be blocked, a load is imposed on the calculation processing of the network band and other devices. However, it is possible to obtain an effect substantially equivalent to the execution of the blocking for the target user. Furthermore, in the user information disclosure availability determination unit 2134, as a default setting, at least the real name of the user or the information that can identify the individual is forcibly disclosed, so that the approach in the mixed reality space can be It can also prevent harassment through remarks.
なお、本例は、前述したように、インターネット等のネットワークを介して特定または不特定多数のユーザが同じ複合現実空間を共有していることが前提となるため、画像生成装置2100または他のサーバ装置を介して、他のユーザ装置とネットワーク接続していることが想定される。したがって、画像生成装置2100に格納される、阻止基準やユーザ情報等の全部または一部は、他のサーバ装置が存在する場合には、当該他のサーバ装置に共有され、また、阻止判定や阻止の実行といった機能も、画像生成装置2100とともに、または、代わりとして、当該他のサーバ装置によって実行されることとしてもよい。 Note that, as described above, this example is based on the premise that a large number of specific or unspecified users share the same mixed reality space via a network such as the Internet. Therefore, the image generation apparatus 2100 or another server It is assumed that a network connection is established with another user device via the device. Therefore, all or a part of the blocking criteria and user information stored in the image generation device 2100 is shared by the other server device when there is another server device, and the blocking determination or blocking is performed. The function such as execution may be executed by the other server apparatus together with the image generation apparatus 2100 or alternatively.
<実施形態5>
本実施形態においては、複合現実空間のうち、現実空間と仮想空間のブレンディング機能を活用することで、ユーザの複合現実空間に対する没入感を高めることを実現する手段を提供する。図28は、本実施形態における画像生成装置2800の機能構成例を示す。なお、本実施形態において、実施形態1で記載したHMD110やコントローラ210を適用可能であるが、本実施形態によって提供される方法の実現に必要な機能を提供可能な装置であれば、これに限定されず、HMDおよびコントローラのいずれについても他の形態のものであってもよい。
<Embodiment 5>
In the present embodiment, there is provided means for realizing a user's immersive feeling in the mixed reality space by utilizing a blending function between the real space and the virtual space in the mixed reality space. FIG. 28 shows a functional configuration example of the image generation apparatus 2800 in the present embodiment. In the present embodiment, the HMD 110 and the controller 210 described in the first embodiment can be applied. However, the present invention is not limited to this as long as the apparatus can provide a function necessary for realizing the method provided by the present embodiment. However, the HMD and the controller may be in other forms.
画像生成装置2800は、HMD110やコントローラ210等から信号を受信する入出力部2810及び同装置等からインターネット等の通信と介して信号を受信する通信部2820を備えることができる。また、画像生成装置2800は、プログラムを実行する制御部2830及びプログラムやデータを格納する記憶部2840を備えることができる。 The image generation apparatus 2800 can include an input / output unit 2810 that receives signals from the HMD 110, the controller 210, and the like, and a communication unit 2820 that receives signals from the apparatus and the like via communication such as the Internet. In addition, the image generation apparatus 2800 can include a control unit 2830 that executes a program and a storage unit 2840 that stores programs and data.
制御部2830は、さらに、複合現実空間を提供するための画像を生成する画像生成部2831と、記憶部2840のオブジェクト判定プログラム格納部2843に格納される、HMD110に備えられたカメラ160によって撮像された現実空間の画像に配置されたオブジェクトを認識し、類似する画像を検索する、オブジェクト判定プログラムを実行し、オブジェクト認識のための判定を行う、オブジェクト判定部2832とを備えることができる。また、記憶部2840は、カメラ160によって撮像された現実空間の画像をオブジェクト単位でイメージデータとして格納する、現実空間オブジェクト格納部2841と、現実空間の画像に対し、画像を重ね合わせて複合現実空間としての画像を生成するために用いられる、仮想空間のオブジェクトの画像をオブジェクト単位でイメージデータとして、仮想空間オブジェクト格納部2842とを備えることができる。なお、上述のオブジェクト判定プログラムは、第三者によって提供される画像認識や画像検索プログラムにAPIを介してアクセスすることで実装することもできる。 The control unit 2830 is further imaged by the image generation unit 2831 that generates an image for providing the mixed reality space, and the camera 160 provided in the HMD 110 that is stored in the object determination program storage unit 2843 of the storage unit 2840. An object determination unit 2832 for recognizing an object arranged in an image of the real space and searching for a similar image, executing an object determination program, and performing determination for object recognition. In addition, the storage unit 2840 stores a real space image captured by the camera 160 as image data in units of objects, and a real space object storage unit 2841 that superimposes the image on the real space image to superimpose the mixed reality space. The virtual space object storage unit 2842 can be provided with the image of the object in the virtual space used to generate the image as image data in units of objects. Note that the above-described object determination program can also be implemented by accessing an image recognition or image search program provided by a third party via an API.
図29に、本実施形態における複合現実空間を提供する方法の一例としてのフローチャートを示す。まず、画像生成装置2800は、HMD110に備えられたカメラ160によって撮像された、HMD110外部の現実空間の画像データを、入出力部2810または通信部2820を介して受信する(S2901)。次に、オブジェクト判定部2832は、オブジェクト判定プログラム格納部2835に格納されたオブジェクト判定プログラムを実行し、現実空間の画像データを基に、現実空間を構成するオブジェクトデータの形状および対象を認識する(S2902)。現実空間を構成するオブジェクトの画像データおよび関連する情報は、現実空間オブジェクト格納部2841に格納される。続いて、オブジェクト判定部2832は、現実空間オブジェクト格納部2841に格納された現実空間を構成するオブジェクトの画像データおよび関連する情報に対応する仮想空間オブジェクトが存在するかを、仮想空間オブジェクト格納部2842に格納された仮想空間オブジェクトの画像データおよび関連する情報と比較して検索する(S2903)。 FIG. 29 shows a flowchart as an example of a method for providing a mixed reality space in the present embodiment. First, the image generating apparatus 2800 receives image data in the real space outside the HMD 110 captured by the camera 160 provided in the HMD 110 via the input / output unit 2810 or the communication unit 2820 (S2901). Next, the object determination unit 2832 executes the object determination program stored in the object determination program storage unit 2835 and recognizes the shape and target of the object data constituting the real space based on the image data of the real space ( S2902). The image data of the object constituting the real space and the related information are stored in the real space object storage unit 2841. Subsequently, the object determination unit 2832 determines whether there is a virtual space object corresponding to the image data of the object constituting the real space stored in the real space object storage unit 2841 and related information, and the virtual space object storage unit 2842. A comparison is made with the image data and related information of the virtual space object stored in (S2903).
仮想空間オブジェクト格納部2842に格納される仮想空間オブジェクトの関連情報の例を図30に示す。仮想空間オブジェクトとして、各オブジェクトのカテゴリに対してアイテムIDが付与されており、各アイテムIDに対して、異なるオブジェクトIDが関連づけられて管理されている。図30のテーブルにおいて管理されるオブジェクトの具体例を挙げると、「Coffee Table」というカテゴリに対応するアイテムIDが「70022」であり、仮想空間オブジェクト格納部2842において、アイテムID「70022」に対応するオブジェクトが2件格納されており、それらはオブジェクトIDが、各々「800001」「800002」である。これは、コーヒーテーブルというアイテムについて、2つの異なるオブジェクトが格納されていることを示す。例えば、円形のコーヒーテーブルと四角形のコーヒーテーブルが格納されている。
その他、オブジェクトの形状や色に応じて、様々なオブジェクトが格納されることが考えられる。これらのオブジェクトはイメージデータとして同じ仮想空間オブジェクト格納部2842に格納されており、イメージデータと関連情報は、外部のデータベースに格納されていたものを、事前に画像生成装置2800にダウンロードして、仮想空間オブジェクト格納部2842に格納しておくこともできるし、また、ユーザの要求に応じて、外部のデータベースに格納されているオブジェクトをダウンロードして表示することもできる。
An example of the related information of the virtual space object stored in the virtual space object storage unit 2842 is shown in FIG. As virtual space objects, item IDs are assigned to the categories of each object, and different object IDs are associated with each item ID and managed. When a specific example of the object managed in the table of FIG. 30 is given, the item ID corresponding to the category “Coffee Table” is “70022”, and the virtual space object storage unit 2842 corresponds to the item ID “70022”. Two objects are stored, and they have object IDs “800001” and “800002”, respectively. This indicates that two different objects are stored for the item coffee table. For example, a round coffee table and a square coffee table are stored.
In addition, various objects may be stored according to the shape and color of the object. These objects are stored in the same virtual space object storage unit 2842 as image data, and the image data and related information stored in an external database are downloaded in advance to the image generation apparatus 2800, and the virtual data The object can be stored in the space object storage unit 2842, or an object stored in an external database can be downloaded and displayed in response to a user request.
図28に戻り、オブジェクト判定部2832は、検索処理として、例えば、認識された現実空間オブジェクトのIDをキーとして、仮想空間オブジェクト格納部2842に格納される仮想空間オブジェクトの情報を検索することができる。現実空間を構成するオブジェクトと一致する仮想オブジェクトが、仮想空間オブジェクト格納部2842(または外部のデータベース)に格納されている場合、画像生成装置2800は、ユーザに対して、現実空間オブジェクトと置換可能な仮想空間オブジェクトのリストを表示することができる。現実空間を構成するオブジェクトと一致する仮想オブジェクトが、仮想空間オブジェクト格納部2842に格納されていない場合は、本フローチャートの最初の処理に戻る。ユーザによる、仮想空間オブジェクトの選択を受信すると(S2904)、画像生成部2831は、現実空間の画像のうち、置換対象となる現実空間オブジェクトの位置座標上に、選択された仮想空間オブジェクトを重ね合わせる(S2905)。これにより、あたかも現実空間のオブジェクトが仮想空間のオブジェクトに置換されたかのような複合現実空間を作り出すことができる。 Returning to FIG. 28, the object determination unit 2832 can search for information on the virtual space object stored in the virtual space object storage unit 2842 using, for example, the ID of the recognized real space object as a key as the search process. . When a virtual object that matches an object constituting the real space is stored in the virtual space object storage unit 2842 (or an external database), the image generation device 2800 can replace the real space object with the user. A list of virtual space objects can be displayed. If a virtual object that matches an object constituting the real space is not stored in the virtual space object storage unit 2842, the process returns to the first process in the flowchart. When the selection of the virtual space object by the user is received (S2904), the image generation unit 2831 superimposes the selected virtual space object on the position coordinates of the real space object to be replaced in the real space image. (S2905). As a result, it is possible to create a mixed reality space as if the object in the real space was replaced with the object in the virtual space.
図31Aおよび図31Bに、現実空間オブジェクトに仮想空間オブジェクトが置換されて複合現実空間が生成されることをイメージした図を示す。図31Aは、現実空間を撮像した画像である。部屋の中央にコーヒーテーブルが配置されており、背景となる壁の近く枯れた花が置かれている。部屋には紙くずや倒れたコーヒーカップが無造作に置かれている。図31Bは、本実施形態によるオブジェクトの置換方法を用いて、現実空間のオブジェクトに仮想空間のオブジェクトを置換させることで、ユーザがHMD110のディスプレイ越しに現実空間とは異なる複合現実空間を享受することができる。例えば、部屋の中央に配置された、四角形のコーヒーテーブルは、図30の仮想空間オブジェクトID800001(円形のコーヒーテーブル)に置き換えられ、枯れた花は、オブジェクトID890188の花に置き換えられている。さらに、床を、オブジェクトID810020の綺麗な床に置換することで、ユーザはHMD110のディスプレイ越しに、あたかも綺麗に掃除された部屋に居住することができる。 FIG. 31A and FIG. 31B are diagrams illustrating a mixed reality space generated by replacing a virtual space object with a real space object. FIG. 31A is an image obtained by imaging the real space. There is a coffee table in the center of the room, with dead flowers near the background wall. In the room, paper scraps and fallen coffee cups are randomly placed. FIG. 31B shows that the user can enjoy a mixed reality space different from the real space through the display of the HMD 110 by replacing the virtual space object with the real space object using the object replacement method according to the present embodiment. Can do. For example, a square coffee table arranged in the center of the room is replaced with a virtual space object ID 800001 (circular coffee table) in FIG. 30, and a withered flower is replaced with a flower of object ID 890188. Further, by replacing the floor with a beautiful floor having the object ID 810020, the user can live in a clean room through the display of the HMD 110.
以上、本発明の実施形態を説明したが、本発明は、上記した実施形態に限定されるものでなく、要旨を逸脱しない条件の変更等は、全て本発明の適用範囲である。 As mentioned above, although embodiment of this invention was described, this invention is not limited to above-described embodiment, The change of the conditions etc. which do not deviate from a summary are all the application scopes of this invention.
本発明の制御方法は、複合現実空間内に、キャラクタ・オブジェクトを始めとするオブジェクトが配置されるゲームやエンターテイメント等のあらゆるアプリケーションに好適に利用することができる。また、ユーザが複合現実空間内滞在し、オブジェクトとのインタラクション等を楽しむことができるので、ゲーム等のエンターテイメント分野をはじめ、介護や福祉分野等広範な産業への適用が可能である。 The control method of the present invention can be suitably used for all applications such as games and entertainment in which objects such as character objects are arranged in the mixed reality space. Further, since the user can stay in the mixed reality space and enjoy interaction with the object, it can be applied to a wide range of industries such as entertainment such as games, nursing care and welfare.
110 ヘッドマウントディスプレイ
115 通信部
120 表示パネル
125 制御部
140 センサ
150 光源
160 カメラ
170 マイク
180 ヘッドフォン
190 入出力部
210 コントローラ
220 左手用コントローラ
230 右手用コントローラ
240a、240b トリガーボタン
245 操作部
250 赤外線LED
255 入出力部
260 センサ
270 ジョイスティック
280 メニューボタン
290 フレーム
310 画像生成装置
320 入出力部
330 通信部
340 制御部
350 記憶部
610 表示制御部
611 ユーザ位置検出部
612 ユーザ視線検出部
613 ユーザ姿勢検出部
614 視界領域決定部
615 視界画像生成部
620 オブジェクト制御部
621 ユーザ発話検出部
622 ユーザ動作検出部
623 ユーザ操作検出
624 ユーザ表情検出部
625 ユーザ身体状態検出部
626 オブジェクト制御決定部
627 オブジェクト画像生成部
710 視界画像記憶部
711 オブジェクト画像データ格納部
712 背景画像データ格納部
713 外部画像データ格納部
720 オブジェクト制御情報記憶部
721 オブジェクト画像データ格納部
722 パラメータデータ格納部
723 オブジェクト制御プログラム格納部
724 マッチング用プログラム格納部
725 オブジェクト処理用参照データ格納部
730 履歴情報記憶部
731 ユーザ入力データ格納部
732 オブジェクト出力データ格納部
733 オブジェクト更新データ格納部
910 複合現実空間
920 視界領域
930 基準点
940 基準視線
1010 基準視線
1020 キャラクタ・オブジェクト
1810 コンテンツサーバ
1820 課金サーバ
1901 タイムバー
1902 インジケータ
1903 バッファ領域
2100 画像生成装置
2110 入出力部
2120 通信部
2130 制御部
2131 阻止基準判定部
2132 阻止基準
2133 イベント検出部
2134 ユーザ情報公開可否決定部
2140 記憶部
2141 阻止基準格納部
2142 阻止対象ユーザ格納部
2143 イベント格納部
2144 ユーザ格納部
2145 プログラム格納部
2800 画像生成装置
2810 入出力部
2820 通信部
2830 制御部
2831 画像生成部
2832 オブジェクト判定部
2840 記憶部
2841 現実空間オブジェクト格納部
2842 仮想空間オブジェクト格納部
2843 オブジェクト判定プログラム格納部
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
110 Head Mount Display 115 Communication Unit 120 Display Panel 125 Control Unit 140 Sensor 150 Light Source 160 Camera 170 Microphone 180 Headphone 190 Input / Output Unit 210 Controller 220 Left Hand Controller 230 Right Hand Controller 240a, 240b Trigger Button 245 Operation Unit 250 Infrared LED
255 Input / output unit 260 Sensor 270 Joystick 280 Menu button 290 Frame 310 Image generation device 320 Input / output unit 330 Communication unit 340 Control unit 350 Storage unit 610 Display control unit 611 User position detection unit 612 User gaze detection unit 613 User posture detection unit 614 Visual field region determination unit 615 Visual field image generation unit 620 Object control unit 621 User speech detection unit 622 User motion detection unit 623 User operation detection 624 User facial expression detection unit 625 User body state detection unit 626 Object control determination unit 627 Object image generation unit 710 Image storage unit 711 Object image data storage unit 712 Background image data storage unit 713 External image data storage unit 720 Object control information storage unit 721 Object image data storage unit 722 Meter data storage unit 723 Object control program storage unit 724 Matching program storage unit 725 Object processing reference data storage unit 730 History information storage unit 731 User input data storage unit 732 Object output data storage unit 733 Object update data storage unit 910 Mixed reality Space 920 Field of view 930 Reference point 940 Reference line of sight 1010 Reference line of sight 1020 Character object 1810 Content server 1820 Billing server 1901 Time bar 1902 Indicator 1903 Buffer area 2100 Image generation device 2110 Input / output unit 2120 Communication unit 2130 Control unit 2131 Blocking reference determination unit 2132 Blocking criterion 2133 Event detection unit 2134 User information disclosure availability determination unit 2140 Storage unit 2141 Blocking criterion storage unit 21 42 Blocking user storage unit 2143 Event storage unit 2144 User storage unit 2145 Program storage unit 2800 Image generation device 2810 Input / output unit 2820 Communication unit 2830 Control unit 2831 Image generation unit 2832 Object determination unit 2840 Storage unit 2841 Real space object storage unit 2842 Virtual space object storage unit 2843 Object determination program storage unit















Claims (53)

  1.  複合現実空間内におけるオブジェクトの制御方法であって、
     初期状態において、ユーザの視界領域外において前記ユーザから所定距離だけ離れた所定位置に前記オブジェクトの少なくとも一部を配置するステップと、
     前記複合現実空間内における前記ユーザの入力を検出するステップと、
     前記ユーザの入力に応じて、前記オブジェクトの出力を前記所定位置において制御するステップを含む、
    オブジェクトの制御方法。
    A method of controlling an object in a mixed reality space,
    In an initial state, disposing at least part of the object at a predetermined position away from the user by a predetermined distance outside the user's field of view;
    Detecting the user's input in the mixed reality space;
    Controlling the output of the object at the predetermined position in response to the input of the user;
    How to control the object.
  2.  請求項1に記載のオブジェクトの制御方法であって、
     前記ユーザの入力は、前記複合現実空間における当該ユーザの発話、動作、操作、表情あるいは身体状態の変化、においのいずれかであることを特徴とするオブジェクトの制御方法。
    The object control method according to claim 1, comprising:
    The object control method according to claim 1, wherein the user input is any one of the user's utterance, motion, operation, facial expression, or change in body condition or smell in the mixed reality space.
  3.  請求項1に記載のオブジェクトの制御方法であって、
     前記オブジェクトの出力は、前記複合現実空間における当該オブジェクトの発話、動作、操作、表情あるいは状態の変化、においのいずれかであることを特徴とするオブジェクトの制御方法。
    The object control method according to claim 1, comprising:
    The object control method according to claim 1, wherein the output of the object is any one of an utterance, an action, an operation, a facial expression or a state change of the object in the mixed reality space.
  4.  請求項1に記載のオブジェクトの制御方法であって、
     前記ユーザの入力を検出するステップにおいて、前記複合現実空間内における前記ユーザの視線方向を検出することを含み、
    前記オブジェクトの出力を制御するステップにおいて、前記オブジェクトの視線方向を制御することを含むことを特徴とするオブジェクトの制御方法。
    The object control method according to claim 1, comprising:
    Detecting the user's input includes detecting the user's line-of-sight direction in the mixed reality space;
    The step of controlling the output of the object includes controlling the line-of-sight direction of the object.
  5.  請求項1に記載のオブジェクトの制御方法であって、
     前記オブジェクトは複数のパーツオブジェクトにより構成されており、
     前記オブジェクトの出力を制御するステップにおいて、当該パーツオブジェクトの動きを制御することを含むことを特徴とするオブジェクトの制御方法。
    The object control method according to claim 1, comprising:
    The object is composed of a plurality of part objects,
    Controlling the output of the object includes controlling the movement of the part object.
  6.  請求項1に記載のオブジェクトの制御方法であって、前記所定位置を、初期状態におけるユーザの視線方向に対し45度又は-45度の位置に設定することを特徴とするオブジェクトの制御方法。 2. The object control method according to claim 1, wherein the predetermined position is set at a position of 45 degrees or −45 degrees with respect to a user's line-of-sight direction in an initial state.
  7. 請求項1に記載のオブジェクトの制御方法であって、前記所定位置を、前記オブジェクトの基準位置として設定することを特徴とする制御方法。 The object control method according to claim 1, wherein the predetermined position is set as a reference position of the object.
  8.  請求項7に記載のオブジェクトの制御方法であって、
    前記オブジェクトの出力を制御するステップにおいて、前記オブジェクトを、前記基準位置とは異なる位置に移動させ、所定時間を経過した後あるいは当該オブジェクトが所定の出力を実行した後に、前記基準位置に移動させることを含むことを特徴とするオブジェクトの制御方法。
    The object control method according to claim 7, comprising:
    In the step of controlling the output of the object, the object is moved to a position different from the reference position and moved to the reference position after a predetermined time has elapsed or after the object has executed a predetermined output. A method for controlling an object comprising:
  9. 請求項2に記載のオブジェクトの制御方法であって、前記オブジェクトの動作を、所定の動作パラメータに基づいて制御することを特徴とするオブジェクトの制御方法。 3. The object control method according to claim 2, wherein the movement of the object is controlled based on a predetermined movement parameter.
  10. 請求項3に記載のオブジェクトの制御方法であって、前記オブジェクトの表情を、所定の感情パラメータに基づいて制御することを特徴とする制御方法。 4. The method for controlling an object according to claim 3, wherein the expression of the object is controlled based on a predetermined emotion parameter.
  11. 請求項2に記載のオブジェクトの制御方法であって、前記オブジェクトの動作を、乱数パラメータに基づいて制御することを特徴とする制御方法。 3. The object control method according to claim 2, wherein the operation of the object is controlled based on a random number parameter.
  12. 請求項2に記載のオブジェクトの制御方法であって、前記オブジェクトの動作を、機械学習プロセスによって習得されたパラメータに基づいて制御することを特徴とする制御方法。 3. The method of controlling an object according to claim 2, wherein the operation of the object is controlled based on a parameter acquired by a machine learning process.
  13. 請求項1に記載のオブジェクトの制御方法であって、前記ユーザの入力を検出するステップにおいて、前記ユーザの、前記オブジェクトに対する入力を検出することを含み、前記オブジェクトの出力を制御するステップにおいて、当該オブジェクトに対する入力に基づいて、前記オブジェクトの出力を制御することを特徴とする制御方法。 2. The object control method according to claim 1, wherein the step of detecting an input of the user includes detecting an input of the user to the object, and the step of controlling the output of the object includes: A control method, comprising: controlling an output of the object based on an input to the object.
  14. 請求項1に記載のオブジェクトの制御方法であって、前記ユーザの入力を検出するステップにおいて、前記複合現実空間内における前記ユーザの注視点を検出することを含み、前記オブジェクトの出力を制御するステップにおいて、当該注視点に基づいて、当該オブジェクトの出力を制御することを含むことを特徴とする制御方法。 The method for controlling an object according to claim 1, wherein the step of detecting the input of the user includes detecting the gazing point of the user in the mixed reality space, and controlling the output of the object. And controlling the output of the object based on the gaze point.
  15. 請求項1に記載のオブジェクトの制御方法であって、前記複合現実空間内における前記ユーザと前記オブジェクトとの距離に基づいて、オブジェクトの出力を制御することを特徴とする制御方法。
     
    The object control method according to claim 1, wherein the output of the object is controlled based on a distance between the user and the object in the mixed reality space.
  16. 請求項1に記載のオブジェクトの制御方法であって、前記複合現実空間に第二のオブジェクトを配置し、
    前記ユーザの入力を検出するステップにおいて、当該複合現実空間内における、当該ユーザの当該オブジェクトに対する注視点を検出することを含み、当該注視点に基づいて前記オブジェクトの動作を制御することを含むことを特徴とする制御方法。
    The object control method according to claim 1, wherein a second object is arranged in the mixed reality space,
    Detecting the user's input includes detecting a gaze point of the user with respect to the object in the mixed reality space, and controlling the operation of the object based on the gaze point. Characteristic control method.
  17. 請求項1に記載のオブジェクトの制御方法であって、
    前記複合現実空間に第二のオブジェクトを配置し、
    前記ユーザの入力を検出するステップにおいて、当該複合現実空間内における、前記ユーザの当該オブジェクトに対する注視点を検出し、前記オブジェクトの出力を制御するステップにおいて、該注視点に基づいて前記オブジェクトの注視点を制御することを含むことを特徴とする制御方法。
    The object control method according to claim 1, comprising:
    Placing a second object in the mixed reality space;
    Detecting the user's input in the mixed reality space, detecting the gazing point of the user with respect to the object, and controlling the output of the object in the step of controlling the output of the object; A control method comprising controlling
  18. 請求項17に記載のオブジェクトの制御方法であって、
    前記ユーザの注視点と前記オブジェクトの注視点とが前記第二のオブジェクトにおける所定の領域内に位置するように制御することを特徴とする制御方法。
    The object control method according to claim 17, comprising:
    A control method comprising: controlling the gaze point of the user and the gaze point of the object so as to be located within a predetermined area in the second object.
  19. 請求項16に記載のオブジェクトの制御方法であって、
    前記複合現実空間における前記ユーザの入力に基づいて、前記第二のオブジェクトに対して所定の処理を実行したことに応じて、前記オブジェクトが所定の動作を実行するよう制御することを特徴とする制御方法。
    The object control method according to claim 16, comprising:
    Control that controls the object to execute a predetermined action in response to executing a predetermined process on the second object based on an input of the user in the mixed reality space Method.
  20. 請求項19に記載のオブジェクトの制御方法であって、
    前記オブジェクトの所定の動作に基づいて、更に前記第二のオブジェクトに対して所定の処理を実行することを特徴とする制御方法。
    The object control method according to claim 19, comprising:
    A control method further comprising: executing a predetermined process on the second object based on a predetermined operation of the object.
  21. 請求項1に記載のオブジェクトの制御方法であって、
    前記オブジェクトのイメージデータを、複数のイメージデータから選択するオプションを前記ユーザに提供することを特徴とする制御方法。
    The object control method according to claim 1, comprising:
    A control method comprising providing the user with an option to select image data of the object from a plurality of image data.
  22. 請求項9に記載のオブジェクトの制御方法であって、
    前記オブジェクトの動作パラメータを、複数の動作パラメータから選択するオプションを前記ユーザに提供することを特徴とする制御方法。
    The object control method according to claim 9, comprising:
    A control method characterized by providing the user with an option of selecting a motion parameter of the object from a plurality of motion parameters.
  23. 請求項10に記載のオブジェクトの制御方法であって、
    前記オブジェクトの感情パラメータを、複数の感情パラメータから選択するオプションを前記ユーザに提供することを特徴とする制御方法。
    The object control method according to claim 10, comprising:
    A control method comprising providing the user with an option of selecting an emotion parameter of the object from a plurality of emotion parameters.
  24. 請求項9に記載のオブジェクトの制御方法であって、
    前記ユーザのプロフィールに基づいて、前記オブジェクトの所定の動作パラメータを推薦することを特徴とする制御方法。
    The object control method according to claim 9, comprising:
    A control method comprising recommending a predetermined operation parameter of the object based on a profile of the user.
  25. 請求項10に記載のオブジェクトの制御方法であって、
    前記ユーザのプロフィールに基づいて、前記オブジェクトの所定の感情パラメータを推薦することを特徴とする制御方法。
    The object control method according to claim 10, comprising:
    A control method comprising recommending a predetermined emotion parameter of the object based on a profile of the user.
  26. 請求項9に記載のオブジェクトの制御方法であって、
    前記ユーザの身体状態の変化を検出し、当該身体状態に基づいて前記オブジェクトの所定の動作パラメータを推薦することを特徴とする制御方法。
    The object control method according to claim 9, comprising:
    A control method characterized by detecting a change in the physical condition of the user and recommending a predetermined motion parameter of the object based on the physical condition.
  27. 請求項10に記載のオブジェクトの制御方法であって、
    前記ユーザの身体状態の変化を検出し、当該身体状態に基づいて前記オブジェクトの所定の感情パラメータを推薦することを特徴とする制御方法。
    The object control method according to claim 10, comprising:
    A control method characterized by detecting a change in the physical condition of the user and recommending a predetermined emotion parameter of the object based on the physical condition.
  28. 請求項5に記載のオブジェクトの制御方法であって、
    前記複数のパーツオブジェクトの動きを制御する動作パラメータを設定し、
    前記複数のパーツオブジェクトの各々に設定された動作パラメータを、ユーザに対して選択的に提供することを特徴とする制御方法。
    The object control method according to claim 5, comprising:
    Set operation parameters to control the movement of the plurality of part objects,
    A control method characterized by selectively providing an operation parameter set to each of the plurality of part objects to a user.
  29. 請求項9または請求項10いずれかに記載のオブジェクトの制御方法であって、
    前記ユーザに対し課金処理を通じて動作パラメータまたは感情パラメータを提供することを特徴とする制御方法。
    An object control method according to claim 9 or claim 10, wherein:
    A control method comprising providing an operation parameter or an emotion parameter to the user through a billing process.
  30.  請求項1に記載のオブジェクトの制御方法であって、
     前記オブジェクトの出力に対する前記ユーザの入力の内容の履歴に基づいて前記オブジェクトの出力を制御することを特徴とする制御方法。
    The object control method according to claim 1, comprising:
    A control method for controlling output of the object based on a history of contents of the user input with respect to the output of the object.
  31.  請求項1に記載のオブジェクトの制御方法であって、
     前記オブジェクトの出力内容を前記ユーザが受け入れるか否かを確認するメッセージを表示することを特徴とする制御方法。
    The object control method according to claim 1, comprising:
    A control method for displaying whether or not the user accepts the output content of the object.
  32.  請求項1に記載のオブジェクトの制御方法であって、
     前記オブジェクトの出力内容をキャンセルするオプションを前記ユーザに提供することを特徴とする制御方法。
    The object control method according to claim 1, comprising:
    A control method comprising: providing the user with an option to cancel the output contents of the object.
  33. 請求項1に記載のオブジェクトの制御方法であって、前記複合現実空間を構成する動画像データを時間情報と対応づけてサーバに格納し、ユーザの要求と関連付けられた時点に対応する動画像データを配信することを特徴とする制御方法。 The object control method according to claim 1, wherein the moving image data constituting the mixed reality space is stored in a server in association with time information, and the moving image data corresponds to a time point associated with a user request. The control method characterized by delivering.
  34. 請求項33に記載のオブジェクトの制御方法であって、前記サーバに格納された動画像データのうち、任意の時点における動画像データを再生することを指示するための転送バーを配置し、該転送バーにおいて、ユーザが指示した位置に関連付けられた時点における動画像データを表示することを特徴とする制御方法。               34. The object control method according to claim 33, wherein a transfer bar for instructing reproduction of moving image data at an arbitrary point of time among moving image data stored in the server is arranged, and the transfer is performed. A control method of displaying moving image data at a time point associated with a position designated by a user on a bar.
  35. 請求項1に記載のオブジェクトの制御方法であって、前記ユーザの入力内容を履歴情報としてサーバに格納することを特徴とする制御方法。 The object control method according to claim 1, wherein the input content of the user is stored in the server as history information.
  36. ユーザの身体に装着されるディスプレイを介して提供される複合現実空間に対するアクセス制御を行う方法であって、
    複合現実空間に対するアクセスを阻止するための阻止基準を入力することと、
    ユーザに対して複合現実空間を提供することと、
    前記阻止基準が満たされたときに、
    前記ユーザに対して複合現実空間を提供することを阻止することを特徴とする方法。
    A method for controlling access to a mixed reality space provided via a display attached to a user's body,
    Entering blocking criteria to block access to the mixed reality space;
    Providing the user with a mixed reality space,
    When the blocking criteria are met,
    Prohibiting providing a mixed reality space to the user.
  37. 請求項36に記載のアクセス制御を行う方法であって、
    前記阻止基準は、前記ユーザに対して複合現実空間内に滞在する滞在時間を含むことを特徴とする方法。
    A method for performing access control according to claim 36, comprising:
    The blocking criterion includes a staying time for staying in the mixed reality space for the user.
  38. ユーザの身体に装着されるディスプレイを介して提供される複合現実空間に対するアクセス制御を行う方法であって、
    ユーザに対して複合現実空間を提供することと、
    現実世界における所定のイベントを検出することと、
    前記所定のイベントを検出したときに、前記ユーザに対して複合現実空間を提供することを阻止することを特徴とする方法。
    A method for controlling access to a mixed reality space provided via a display attached to a user's body,
    Providing the user with a mixed reality space,
    Detecting certain events in the real world,
    Providing a mixed reality space to the user when the predetermined event is detected is prevented.
  39. 請求項38に記載のアクセス制御を行う方法であって、
    前記所定のイベントは、現実世界における緊急ニュース速報を受信したことを含むことを特徴とする方法。
    A method for performing access control according to claim 38, comprising:
    The predetermined event includes receiving an emergency news bulletin in the real world.
  40. 請求項38に記載のアクセス制御を行う方法であって、
    前記所定のイベントは、現実世界における前記ユーザによる所定の動作を含むことを特徴とする方法。
    A method for performing access control according to claim 38, comprising:
    The method according to claim 1, wherein the predetermined event includes a predetermined action by the user in the real world.
  41. 請求項38に記載のアクセス制御を行う方法であって、
    前記所定のイベントは、現実世界における前記ユーザに対する他の人体または物体の接近を含むことを特徴とする方法。
    A method for performing access control according to claim 38, comprising:
    The method, wherein the predetermined event includes an approach of another human body or object to the user in the real world.
  42. 請求項36または請求項38に記載のアクセス制御を行う方法であって、
    前記ユーザに対して複合現実空間を提供する阻止することは、当該複合現実空間における、仮想空間に対する現実空間の透過率を変更することを含むことを特徴とする方法。
    A method for performing access control according to claim 36 or claim 38, comprising:
    Prohibiting providing the user with a mixed reality space includes changing the transparency of the real space to the virtual space in the mixed reality space.
  43. ユーザの身体に装着されるディスプレイを介して複合現実空間に対する特定のユーザのアクセス制御を行う方法であって、
    複合現実空間に対する特定のユーザのアクセスを阻止するための阻止基準を設定することと、
    ユーザに対して複合現実空間を提供することと、
    前記阻止基準が満たされたときに、
    前記ユーザに対して複合現実空間を提供することを阻止することを特徴とする方法。 
    A method for controlling access of a specific user to a mixed reality space via a display attached to a user's body,
    Setting deterrence criteria to deter specific users from accessing the mixed reality space;
    Providing the user with a mixed reality space,
    When the blocking criteria are met,
    Prohibiting providing a mixed reality space to the user.
  44. 請求項43に記載のアクセス制御を行う方法であって、
    前記阻止基準は、前記複合現実空間内のユーザが、当該複合現実空間内の他のユーザに対して所定の距離に接近することを含むことを特徴とする方法。
    A method for performing access control according to claim 43, comprising:
    The blocking criterion includes a user in the mixed reality space approaching a predetermined distance relative to other users in the mixed reality space.
  45. 請求項43に記載のアクセス制御を行う方法であって、
    前記阻止基準は、前記複合現実空間内のユーザが、当該複合現実空間内の他のユーザに対して所定の内容の発話あるいはメッセージを送信することを含むことを特徴とする方法。
    A method for performing access control according to claim 43, comprising:
    The blocking criterion includes a user in the mixed reality space transmitting an utterance or message having a predetermined content to another user in the mixed reality space.
  46. 請求項43に記載のアクセス制御を行う方法であって、
    前記ユーザに対して複合現実空間を提供することを阻止することは、前記ユーザが、当該複合現実空間内の他のユーザに対するアクセスを制御することを含むことを特徴とする方法。
    A method for performing access control according to claim 43, comprising:
    Prohibiting providing a mixed reality space to the user comprises the user controlling access to other users in the mixed reality space.
  47. 請求項43に記載のアクセス制御を行う方法であって、
    前記ユーザに対して複合現実空間を提供することを阻止することは、前記ユーザが、当該複合現実空間内の他の特定のユーザに対するアクセスを制御することを含むことを特徴とする方法。
    A method for performing access control according to claim 43, comprising:
    Prohibiting providing a mixed reality space to the user includes the user controlling access to other specific users in the mixed reality space.
  48. 請求項43に記載のアクセス制御を行う方法であって、
    前記ユーザに対して複合現実空間を提供することを阻止することは、当該複合現実空間内の他のユーザが前記ユーザを視認することを阻止することを含むことを特徴とする方法。
    A method for performing access control according to claim 43, comprising:
    Prohibiting providing the user with a mixed reality space includes preventing other users in the mixed reality space from viewing the user.
  49. (個人情報に基づいて成立する仮想空間)
    請求項44に記載のアクセス制御を行う方法であって、
    前記複合現実空間において、前記特定のユーザの個人情報を公開することを特徴とする方法。
    (Virtual space established based on personal information)
    A method for performing access control according to claim 44, comprising:
    Disclosing personal information of the specific user in the mixed reality space.
  50. ユーザの身体に装着されるディスプレイを介して複合現実空間を提供する方法であって、
    現実空間におけるオブジェクトを検出し、
    当該現実空間におけるオブジェクトに対応する複合現実空間におけるオブジェクトを特定し、
    当該特定されたオブジェクトを当該現実空間におけるオブジェクトに重ねて表示することを特徴とする方法。              
    A method of providing a mixed reality space through a display attached to a user's body,
    Detect objects in real space,
    Identify the object in the mixed reality space corresponding to the object in the real space,
    A method characterized by displaying the identified object superimposed on the object in the real space.
  51. 請求項50に記載の複合現実空間を提供する方法であって、
    前記複合現実空間におけるオブジェクトを、複数のオブジェクトの中から選択可能なオプションをユーザに提供する方法。
    51. A method of providing a mixed reality space according to claim 50, comprising:
    A method of providing an option for a user to select an object in the mixed reality space from a plurality of objects.
  52. 請求項50に記載の複合現実空間を提供する方法であって、
    さらに、前記検出された現実空間におけるオブジェクトに対応する識別子を特定し、
    前記特定された識別子に対応する識別子を有するオブジェクトを、前記複合現実空間におけるオブジェクトとして特定することを含む方法。
    51. A method of providing a mixed reality space according to claim 50, comprising:
    Further, an identifier corresponding to the detected object in the real space is specified,
    Identifying an object having an identifier corresponding to the identified identifier as an object in the mixed reality space.
  53. 請求項50に記載の複合現実空間を提供する方法であって、
    前記検出された現実空間におけるオブジェクトの形状を認識し、前記特定された前記複合現実空間におけるオブジェクトの形状を、前記現実空間におけるオブジェクトの形状と一致するように生成することを含む方法。
    51. A method of providing a mixed reality space according to claim 50, comprising:
    Recognizing the shape of the detected object in the real space and generating the identified shape of the object in the mixed reality space to match the shape of the object in the real space.
PCT/JP2018/003127 2018-01-31 2018-01-31 Method of character control in mixed reality space WO2019150469A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/003127 WO2019150469A1 (en) 2018-01-31 2018-01-31 Method of character control in mixed reality space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/003127 WO2019150469A1 (en) 2018-01-31 2018-01-31 Method of character control in mixed reality space

Publications (1)

Publication Number Publication Date
WO2019150469A1 true WO2019150469A1 (en) 2019-08-08

Family

ID=67479995

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003127 WO2019150469A1 (en) 2018-01-31 2018-01-31 Method of character control in mixed reality space

Country Status (1)

Country Link
WO (1) WO2019150469A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145466A1 (en) * 2016-02-26 2017-08-31 ソニー株式会社 Information processing system, client terminal, information processing method, and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145466A1 (en) * 2016-02-26 2017-08-31 ソニー株式会社 Information processing system, client terminal, information processing method, and recording medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Nagomi's Ear cleaning VR experience review! The ultimate healing spaces were spread out there", VRINFO, 21 October 2016 (2016-10-21), Retrieved from the Internet <URL:vrinfo.jp/%e6%9c%aa%e5%88%86%e9%al%9e/1204> [retrieved on 20180628] *
KUZUSHIMA, KENTO: "Real-time gaze and motion generation of listener agent drawing speaker's natural utterance", PROCEEDINGS OF THE 21ST VIRTUAL REALITY SOCIETY OF JAPAN ANNUAL CONFERENCE, 16 September 2016 (2016-09-16) *

Similar Documents

Publication Publication Date Title
US10341612B2 (en) Method for providing virtual space, and system for executing the method
JP6266736B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6298561B1 (en) Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JP6298563B1 (en) Program and method for providing virtual space by head mounted device, and information processing apparatus for executing the program
US20190026950A1 (en) Program executed on a computer for providing virtual space, method and information processing apparatus for executing the program
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
US11222454B1 (en) Specifying effects for entering or exiting a computer-generated reality environment
US10459599B2 (en) Method for moving in virtual space and information processing apparatus for executing the method
JP6240353B1 (en) Method for providing information in virtual space, program therefor, and apparatus therefor
JP6342024B1 (en) Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6257826B1 (en) Method, program, and information processing apparatus executed by computer to provide virtual space
US20190043263A1 (en) Program executed on a computer for providing vertual space, method and information processing apparatus for executing the program
JP7394158B2 (en) Program and method executed on a computer and information processing apparatus for providing a virtual space via a head-mounted device
JP2016045814A (en) Virtual reality service providing system and virtual reality service providing method
JP6947661B2 (en) A program executed by a computer capable of communicating with the head mount device, an information processing device for executing the program, and a method executed by a computer capable of communicating with the head mount device.
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2019101457A (en) Method executed by computer for providing information via head mount device, program for causing computer to execute the same, and information processing device
JP2023095862A (en) Program and information processing method
WO2019150469A1 (en) Method of character control in mixed reality space
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment
JP2019012509A (en) Program for providing virtual space with head-mounted display, method, and information processing apparatus for executing program
JP2018206340A (en) Method which is executed on computer for providing virtual space, program and information processor
JP2019046250A (en) Program executed by computer to provide virtual space, method thereof, information processing apparatus for executing said program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18903234

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18903234

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP