WO2023162499A1 - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
WO2023162499A1
WO2023162499A1 PCT/JP2023/000785 JP2023000785W WO2023162499A1 WO 2023162499 A1 WO2023162499 A1 WO 2023162499A1 JP 2023000785 W JP2023000785 W JP 2023000785W WO 2023162499 A1 WO2023162499 A1 WO 2023162499A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
display
glasses
unit
virtual space
Prior art date
Application number
PCT/JP2023/000785
Other languages
English (en)
French (fr)
Inventor
佐恵 木村
拓人 木村
勇大 浅井
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023162499A1 publication Critical patent/WO2023162499A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a display control device. More particularly, the present invention relates to a display control device for displaying a virtual space including virtual objects on a display device.
  • a display control device using XR technology including VR (Virtual Reality) technology, AR (Augmented Reality) technology, and MR (Mixed Reality) technology, displays a virtual space on the display device.
  • VR Virtual Reality
  • AR Augmented Reality
  • MR Magnetic Reality
  • a user viewing the virtual space generally communicates with other users sharing the virtual space.
  • Patent Document 1 discloses that in a virtual space environment that supports control using a user's gestures, it is possible to make contact with other users' avatars based on the operation of a PC (Personal Computer) and a mouse.
  • An avatar operation method is disclosed. In the avatar operation method, for example, by placing a hand of a certain user's avatar on any part included in another user's avatar and performing a mouse operation, one user's avatar can be changed to another user's avatar. It is possible to stroke the avatar.
  • an object of the present invention is to provide a display control device that can realize rich communication by cooperating with other users in a virtual space.
  • a display control device is a display control device that controls display on a display device worn by a first user, wherein at least a portion of the first user's body and a second user's body a shape determining unit for determining whether or not the combination with at least a part of matches a predetermined shape, and a predetermined operation when the determination result of the shape determining unit is affirmative. and an operation control unit that controls a virtual space.
  • FIG. 1 is a diagram showing the overall configuration of an information processing system 1;
  • FIG. FIG. 4 is a perspective view showing the appearance of the XR glasses 30-J;
  • FIG. 4 is a block diagram showing a configuration example of the XR glasses 30-J;
  • FIG. 4 is a diagram showing an example of a virtual space VS displayed on a display 38;
  • Block diagram showing a configuration example of the terminal device 20-J 2 is a block diagram showing a configuration example of the server 10;
  • FIG. 3 is a functional block diagram of a determination unit 114;
  • FIG. 3 is a functional block diagram of an operation control unit 115;
  • 4 is a flowchart showing an operation example of the server 10;
  • FIG. 1 First Embodiment
  • a configuration of an information processing system 1 including a server 10 as a display control device according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 10.
  • FIG. 1 First Embodiment
  • FIG. 1 is a diagram showing the overall configuration of an information processing system 1.
  • the information processing system 1 includes a server 10, terminal devices 20-1, 20-2, . . . 20-J, . Equipped with K.
  • N is an integer of 1 or more.
  • J is an integer of 1 or more and N or less.
  • K is 1 or more and N or less, and is an integer different from J.
  • the terminal devices 20-1 to 20-N have the same configuration. However, terminal devices having different configurations may be included.
  • the XR glasses 30-J and 30-K have the same configuration. However, the XR glasses 30-J and 30-K do not have to have the same configuration.
  • the server 10 and the terminal devices 20-1 to 20-N are communicably connected to each other via a communication network NET.
  • the terminal device 20-J and the XR glasses 30-J, and the terminal device 20-K and the XR glasses 30-K are connected so as to be able to communicate with each other.
  • FIG. 1 it is assumed that user UJ uses a set of terminal device 20-J and XR glasses 30-J.
  • user UK uses a set of terminal device 20-K and XR glasses 30-K.
  • user UJ is an example of a first user.
  • User UK is an example of a second user.
  • the terminal devices other than the terminal devices 20-J and 20-K are equipped with XR glasses similar to the XR glasses 30-J and 30-K. It may or may not be connected.
  • the server 10 provides various data and cloud services to the terminal devices 20-1 to 20-N via the communication network NET.
  • the server 10 provides various contents displayed in the XR space to the terminal devices 20-1 to 20-N.
  • the server 10 is an example of a display control device.
  • the server 10 is a display control device that controls the display of the XR glasses 30-J worn by the user UJ and the display of the XR glasses 30-K worn by the user UK .
  • the terminal devices 20-1 to 20-N include displays 25 provided in the terminal devices 20-1 to 20-N, XR glasses 30-J connected to the terminal device 20- J and worn on the head by the user UJ, A virtual space including a virtual object is displayed on the XR glasses 30-K connected to the terminal device 20-K and worn on the head by the user UK .
  • the virtual objects are, for example, virtual objects representing data such as still images, moving images, 3DCG models, HTML files, and text files, and virtual objects representing applications. Examples of text files include memos, source codes, diaries, and recipes. Examples of applications include browsers, applications for using SNS, and applications for generating document files. It should be noted that the terminal devices 20-1 to 20-N are preferably mobile terminal devices such as smartphones and tablets, for example.
  • XR Glasses 30-J is a see-through type wearable display worn on the head of user UJ .
  • the XR glasses 30-J display a virtual object on the display panel provided for each of the binocular lenses.
  • XR Glasses 30-K is a see-through type wearable display worn on the head of user UK .
  • the XR glasses 30-K display a virtual object on the display panel provided for each of the binocular lenses.
  • the XR glasses 30-J and 30-K are examples of display devices. Also, an example in which the XR glasses 30-J and 30-K are MR glasses will be described below.
  • the XR glasses 30-J and 30-K are MR glasses, and the XR glasses 30-J and 30-K may be VR glasses or AR glasses.
  • the XR glass 30-J is an example of a display device, especially a first display device.
  • the XR glass 30-K is an example of the second display device.
  • FIG. 2 is a perspective view showing the appearance of the XR glasses 30-J. As shown in FIG. 2, the XR glasses 30-J have temples 91 and 92, a bridge 93, frames 94 and 95, and lenses 41L and 41R, similar to general spectacles.
  • An imaging device 36 is provided on the bridge 93 .
  • the imaging device 36 images the outside world.
  • the imaging device 36 also outputs imaging information indicating the captured image.
  • Each of the lenses 41L and 41R has a half mirror.
  • a frame 94 is provided with a liquid crystal panel or an organic EL panel for the left eye.
  • a liquid crystal panel or an organic EL panel is hereinafter generically referred to as a display panel.
  • the frame 94 is provided with an optical member that guides the light emitted from the display panel for the left eye to the lens 41L.
  • the half mirror provided in the lens 41L transmits external light and guides it to the left eye, and reflects the light guided by the optical member to enter the left eye.
  • the frame 95 is provided with a right-eye display panel and an optical member that guides light emitted from the right-eye display panel to the lens 41R.
  • the half mirror provided in the lens 41R transmits external light and guides it to the right eye, and reflects the light guided by the optical member to enter the right eye.
  • the display 38 which will be described later, includes a lens 41L, a left-eye display panel, a left-eye optical member, and a lens 41R, a right-eye display panel, and a right-eye optical member.
  • the user UJ can observe the image displayed by the display panel in a see-through state in which the image is superimposed on the appearance of the outside world. Further, in the XR glasses 30-J, of the binocular images with parallax, the image for the left eye is displayed on the display panel for the left eye, and the image for the right eye is displayed on the display panel for the right eye. Therefore, the XR glasses 30-J allow the user UJ to perceive the displayed image as if it had depth and stereoscopic effect.
  • FIG. 3 is a block diagram showing a configuration example of the XR glasses 30-J.
  • the XR glasses 30-J include a processing device 31, a storage device 32, a line-of-sight detection device 33, a GPS device 34, a motion detection device 35, an imaging device 36, a communication device 37, and a display 38.
  • Each element of the XR glasses 30-J is interconnected by one or more buses for communicating information.
  • the term "apparatus" in this specification may be replaced with another term such as a circuit, a device, or a unit.
  • the processing device 31 is a processor that controls the entire XR glasses 30-J.
  • the processing device 31 is configured using, for example, a single chip or multiple chips.
  • the processing device 31 is configured using, for example, a central processing unit (CPU) including an interface with peripheral devices, an arithmetic device, a register, and the like.
  • CPU central processing unit
  • Some or all of the functions of the processing device 31 are implemented by hardware such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA (Field Programmable Gate Array). may be realized.
  • the processing device 31 executes various processes in parallel or sequentially.
  • the storage device 32 is a recording medium that can be read and written by the processing device 31.
  • the storage device 32 also stores a plurality of programs including the control program PR3 executed by the processing device 31 .
  • the line-of-sight detection device 33 detects the line of sight of the user UJ and generates line-of-sight information indicating the detection result. Any method may be used for detection of the line of sight by the line of sight detection device 33 .
  • the line-of-sight detection device 33 may detect line-of-sight information based on, for example, the position of the inner corner of the eye and the position of the iris.
  • the line-of-sight information indicates the line-of-sight direction of the user UJ .
  • the line-of-sight detection device 33 supplies line-of-sight information to the processing device 31, which will be described later.
  • the line-of-sight information supplied to the processing device 31 is transmitted to the terminal device 20 -J via the communication device 37 .
  • the GPS device 34 receives radio waves from multiple satellites. Also, the GPS device 34 generates location information from the received radio waves.
  • the positional information indicates the position of the XR glasses 30-J.
  • the location information may be in any format as long as the location can be specified.
  • the positional information indicates, for example, the latitude and longitude of the XR glasses 30-J.
  • location information is obtained from GPS device 34 .
  • the XR glasses 30-J may acquire position information by any method.
  • the acquired position information is supplied to the processing device 31 .
  • the position information supplied to the processing device 31 is transmitted to the terminal device 20-J via the communication device 37.
  • the motion detection device 35 detects the motion of the XR glasses 30-J.
  • the motion detection device 35 corresponds to an inertial sensor such as an acceleration sensor that detects acceleration and a gyro sensor that detects angular acceleration.
  • the acceleration sensor detects acceleration in orthogonal X-, Y-, and Z-axes.
  • the gyro sensor detects angular acceleration around the X-, Y-, and Z-axes.
  • the motion detection device 35 can generate attitude information indicating the attitude of the XR glasses 30-J based on the output information of the gyro sensor.
  • the motion information includes acceleration data indicating three-axis acceleration and angular acceleration data indicating three-axis angular acceleration.
  • the motion detection device 35 also supplies the processing device 31 with posture information indicating the posture of the XR glasses 30-J and motion information related to the motion of the XR glasses 30-J.
  • the posture information and motion information supplied to the processing device 31 are transmitted to the terminal device 20-J via the communication device 37.
  • the imaging device 36 outputs imaging information obtained by imaging the outside world.
  • the imaging device 36 includes, for example, a lens, an imaging element, an amplifier, and an AD converter.
  • the light condensed through the lens is converted into an image pickup signal, which is an analog signal, by the image pickup device.
  • the amplifier amplifies the imaging signal and outputs it to the AD converter.
  • the AD converter converts the amplified imaging signal, which is an analog signal, into imaging information, which is a digital signal.
  • the converted imaging information is supplied to the processing device 31 .
  • the imaging information supplied to the processing device 31 is transmitted to the terminal device 20 -J via the communication device 37 .
  • the communication device 37 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 37 is also called a network device, a network controller, a network card, a communication module, etc., for example.
  • the communication device 37 may include a connector for wired connection and an interface circuit corresponding to the connector.
  • the communication device 37 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 38 is a device that displays images.
  • a display 38 displays various images under the control of the processing device 31 .
  • the display 38 includes the lens 41L, the left-eye display panel, the left-eye optical member, and the lens 41R, the right-eye display panel, and the right-eye optical member, as described above.
  • Various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display panel.
  • the processing device 31 functions as an acquisition unit 311, an output unit 312, and a display control unit 313, for example, by reading the control program PR1 from the storage device 32 and executing it.
  • the acquisition unit 311 acquires image information indicating an image displayed on the XR glasses 30-J from the terminal device 20-J via the communication device 37. Also, the acquisition unit 311 acquires an operation control signal, a visual control signal, and an audio control signal, which will be described later, from the terminal device 20-J via the communication device 37.
  • FIG. 1 A block diagram illustrating an image displayed on the XR glasses 30-J from the terminal device 20-J via the communication device 37. Also, the acquisition unit 311 acquires an operation control signal, a visual control signal, and an audio control signal, which will be described later, from the terminal device 20-J via the communication device 37.
  • the acquisition unit 311 acquires line-of-sight information input from the line-of-sight detection device 33, position information input from the GPS device 34, motion information input from the motion detection device 35, and imaging information input from the imaging device 36. get.
  • the output unit 312 transmits the line-of-sight information, position information, motion information, and imaging information acquired by the acquisition unit 311 to the terminal device 20-J via the communication device 37.
  • the display control unit 313 Based on the image information acquired by the acquisition unit 311 from the terminal device 20-J, the display control unit 313 causes the display 38 to display an image indicated by the image information. Particularly, in this embodiment, the display control unit 313 causes the display 38 to display the virtual space VS based on the image information that the acquisition unit 311 acquires from the server 10 via the terminal device 20-J.
  • FIG. 4 is a diagram showing an example of the virtual space VS displayed on the display 38.
  • a virtual object AH representing the hand of the avatar corresponding to the user UJ is displayed.
  • Imaging information obtained by imaging the hand of the user UJ by the imaging device 36 is output to the server 10 via the terminal device 20-J, and the server 10 generates the virtual object AH based on the imaging information.
  • Image information indicating the virtual object is output to the XR glasses 30-J via the terminal device 20-J.
  • the display control unit 313 causes the display 38 to display the virtual object AH based on the image information.
  • a virtual object BL representing a ball is displayed in the virtual space VS illustrated in FIG.
  • the virtual object BL is a virtual object generated by the server 10 using image information stored by itself. Image information indicating the virtual object is output to the XR glasses 30-J via the terminal device 20-J. Also, the display control unit 313 causes the display 38 to display the virtual object BL based on the image information.
  • the virtual object AH representing the hand of the avatar corresponding to the user UJ is touched by the virtual object BL representing the ball in conjunction with the movement of the user UJ 's own hand.
  • the virtual object AH can move the virtual object BL representing the ball in conjunction with the movement of the user UJ 's own hand.
  • FIG. 5 is a block diagram showing a configuration example of the terminal device 20-J.
  • the terminal device 20 -J includes a processing device 21 , a storage device 22 , a communication device 23 , an imaging device 24 , a display 25 , an input device 26 and an inertial sensor 27 . Elements of the terminal device 20-J are interconnected by one or more buses for communicating information.
  • the processing device 21 is a processor that controls the entire terminal device 20-J. Also, the processing device 21 is configured using, for example, a single chip or a plurality of chips. The processing unit 21 is configured using, for example, a central processing unit (CPU) including interfaces with peripheral devices, arithmetic units, registers, and the like. A part or all of the functions of the processing device 21 may be realized by hardware such as DSP, ASIC, PLD, and FPGA. The processing device 21 executes various processes in parallel or sequentially.
  • CPU central processing unit
  • the storage device 22 is a recording medium readable and writable by the processing device 21 .
  • the storage device 22 also stores a plurality of programs including the control program PR2 executed by the processing device 21 .
  • the communication device 23 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 23 is also called a network device, a network controller, a network card, or a communication module, for example.
  • the communication device 23 may include a connector for wired connection and an interface circuit corresponding to the connector. Further, the communication device 23 may have a wireless communication interface.
  • Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection.
  • a wireless communication interface there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the imaging device 24 outputs imaging information obtained by imaging the outside world.
  • the imaging device 24 includes, for example, a lens, an imaging element, an amplifier, and an AD converter.
  • the light condensed through the lens is converted into an image pickup signal, which is an analog signal, by the image pickup device.
  • the amplifier amplifies the imaging signal and outputs it to the AD converter.
  • the AD converter converts the amplified imaging signal, which is an analog signal, into imaging information, which is a digital signal.
  • the converted imaging information is supplied to the processing device 21 .
  • the imaging information supplied to the processing device 21 is transmitted to the server 10 via the communication device 23 .
  • the imaging device 24 may not be an essential component. In this case, the XR glasses 30-J further have the same function as the imaging device 24.
  • the display 25 is a device that displays images and character information.
  • the display 25 displays various images under the control of the processing device 21 .
  • various display panels such as a liquid crystal display panel and an organic EL (Electro Luminescence) display panel are preferably used as the display 25 .
  • the display 25 may not be an essential component.
  • the XR glass 30-J further has the same function as the display 25.
  • the input device 26 receives an operation from a user UJ who wears the XR glasses 30-J on his head.
  • the input device 26 includes a pointing device such as a keyboard, touch pad, touch panel, or mouse.
  • the input device 26 may also serve as the display 14 .
  • the inertial sensor 27 is a sensor that detects inertial force.
  • the inertial sensor 27 includes, for example, one or more of an acceleration sensor, an angular velocity sensor, and a gyro sensor.
  • the processing device 21 detects the orientation of the terminal device 20-J based on the output information from the inertial sensor 27. FIG. Further, the processing device 21 accepts selection of virtual objects, input of characters, and input of instructions in the virtual space VS based on the orientation of the terminal device 20-J.
  • the user U J operates the input device 26 with the central axis of the terminal device 20-J directed toward a predetermined area of the virtual space VS, thereby selecting a virtual object placed in the predetermined area.
  • User UJ 's operation on the input device 26 is, for example, a double tap. By operating the terminal device 20-J in this way, the user UJ can select a virtual object without looking at the input device 26 provided in the terminal device 20-J.
  • the terminal device 20-J preferably has a GPS device similar to the GPS device 34 provided in the XR glasses 30-J.
  • the processing device 21 functions as an acquisition unit 211, a display control unit 212, and an output unit 213 by reading the control program PR2 from the storage device 22 and executing it.
  • the acquisition unit 211 acquires image information indicating a virtual object to be displayed on the XR glasses 30 -J or the display 25 from the server 10 via the communication device 23 .
  • the acquisition unit 211 also acquires an operation control signal, a visual control signal, and an audio control signal, which will be described later, from the server 10 .
  • the acquisition unit 211 acquires line-of-sight information, position information, motion information, and imaging information from the XR glasses 30-J via the communication device 23.
  • the display control unit 212 causes the display 25 to display the virtual object using the image information indicating the virtual object acquired from the server 10 by the acquisition unit 211 . Further, the display control unit 212 causes the display 25 to display the image and the character information using the image information and the character information stored in the storage device 22, for example.
  • the output unit 213 transmits the image information acquired from the server 10 by the acquisition unit 211 to the XR glasses 30-J via the communication device 23. Also, the output unit 213 transmits the line-of-sight information, the position information, the movement information, and the imaging information acquired by the acquisition unit 211 from the XR glasses 30 -J to the server 10 via the communication device 23 . Furthermore, the output unit 213 transmits the imaging information acquired by the acquisition unit 211 from the imaging device 24 to the server 10 via the communication device 23 .
  • FIG. 6 is a block diagram showing a configuration example of the server 10. As shown in FIG.
  • the server 10 comprises a processing device 11 , a storage device 12 , a communication device 13 , a display 14 and an input device 15 .
  • Each element of server 10 is interconnected by one or more buses for communicating information.
  • the processing device 11 is a processor that controls the server 10 as a whole. Also, the processing device 11 is configured using, for example, a single chip or a plurality of chips. The processing unit 11 is configured using, for example, a central processing unit (CPU) including interfaces with peripheral devices, arithmetic units, registers, and the like. A part or all of the functions of the processing device 11 may be implemented by hardware such as DSP, ASIC, PLD, and FPGA. The processing device 11 executes various processes in parallel or sequentially.
  • CPU central processing unit
  • the storage device 12 is a recording medium readable and writable by the processing device 11 .
  • the storage device 12 also stores a plurality of programs including the control program PR1 executed by the processing device 11 .
  • the storage device 12 stores a user database UD for registering multiple users who use the information processing system 1 . In particular, it is preferable that each user is associated with a friend or acquaintance of the user and stored in the user database UD.
  • the storage device 12 also stores image information used when the generation unit 112 (to be described later) generates a virtual object.
  • the communication device 13 is hardware as a transmission/reception device for communicating with other devices.
  • the communication device 13 is also called, for example, a network device, a network controller, a network card, or a communication module.
  • the communication device 13 may include a connector for wired connection and an interface circuit corresponding to the connector. Further, the communication device 13 may have a wireless communication interface. Products conforming to wired LAN, IEEE1394, and USB are examples of connectors and interface circuits for wired connection. Also, as a wireless communication interface, there are products conforming to wireless LAN, Bluetooth (registered trademark), and the like.
  • the display 14 is a device that displays images and character information.
  • the display 14 displays various images under the control of the processing device 11 .
  • various display panels such as a liquid crystal display panel and an organic EL display panel are preferably used as the display 14 .
  • the input device 15 is a device that accepts operations by an administrator of the information processing system 1 .
  • the input device 15 includes a pointing device such as a keyboard, touch pad, touch panel, or mouse.
  • the input device 15 may also serve as the display 14 .
  • the processing device 11 functions as an acquisition unit 111, a generation unit 112, an identification unit 113, a determination unit 114, and an operation control unit 115, for example, by reading the control program PR3 from the storage device 12 and executing it.
  • the acquisition unit 111 acquires the line-of-sight information, position information, motion information, and imaging information acquired by the XR glasses 30-J from the terminal device 20-J via the communication device 13.
  • the acquiring unit 111 acquires the imaging information acquired by the terminal device 20 -J from the terminal device 20 -J via the communication device 13 .
  • the acquisition unit 111 acquires imaging information indicating an image in which at least part of the body of the user UJ is captured.
  • the acquisition unit 111 also acquires the position of at least part of the body of the user UJ with respect to the XR glasses 30-J, or the position of the terminal device 20-J held by the user UJ with respect to the XR glasses 30-J.
  • the acquisition unit 111 acquires line-of-sight information, position information, motion information, and imaging information acquired by the XR glasses 30-K from the terminal device 20-K via the communication device 13.
  • the acquiring unit 111 acquires the imaging information acquired by the terminal device 20 -K from the terminal device 20 -K via the communication device 13 .
  • the acquisition unit 111 acquires imaging information indicating an image in which at least part of the body of the user UK is captured.
  • the acquisition unit 111 acquires the position of at least part of the body of the user UK with respect to the XR glasses 30-K, or the position of the terminal device 20-K held by the user UK with respect to the XR glasses 30-K.
  • Various information acquired by the acquisition unit 111 is stored in the storage device 12 .
  • the generation unit 112 uses the image information stored in the storage device 12 to generate a virtual object to be displayed in the virtual space VS.
  • the generation unit 112 uses the imaging information acquired by the acquisition unit 111 in addition to the image information stored in the storage device 12 to create virtual objects that are avatars corresponding to the users UJ and UK .
  • the imaging information acquired by the acquiring unit 111 is imaging information indicating an imaged image of the hand of the user UJ
  • the generating unit 112 stores the imaging information and the storage device 12.
  • a virtual object representing the hand of the user UJ 's avatar is generated using both the image information and the image information obtained.
  • the virtual object representing the hand of the avatar corresponding to user UJ is linked to the shape and movement of user UJ 's hand in the real world.
  • the generation unit 112 combines the imaging information and the image information stored in the storage device 12. may be used to generate a virtual object showing the full body image of the avatar corresponding to user UJ . The same is true for the avatar corresponding to user UK .
  • the specifying unit 113 determines the position of at least part of the body of the user UJ as the first user with respect to the XR glasses 30-J, or the position of the terminal device 20-J possessed by the user UJ with respect to the XR glasses 30-J. is a predetermined relative position, among one or more users who share the virtual space VS with the user UJ , the user who is closest to the user UJ in the virtual space VS is specified as the second user. .
  • the relative position is an example of the "first relative position".
  • the hand of the user UJ is in a predetermined relative position with respect to the XR glasses 30-J worn by the user UJ as a trigger, and the user closest to the user UJ is designated as the second user. can be identified.
  • the server 10 does not need to perform the operation of the present invention while the user UJ 's hand, for example, is not in a predetermined relative position with respect to the XR glasses 30-J worn by the user.
  • the identifying unit 113 identifies the second user by referring to the user database UD stored in the storage device 12 . Specifically, the identifying unit 113 narrows down one or more users who share the virtual space VS with the user UJ from one or more users registered in the user database UD. Next, the specifying unit 113 selects the user U1 closest to the user UJ in the virtual space VS from the one or more narrowed down users. More specifically, the specifying unit 113 selects the user U1 corresponding to the avatar closest to the avatar corresponding to the user UJ in the virtual space VS from the one or more users.
  • the identification unit 113 selects a select user U2 whose distance is close to .
  • the identifying unit 113 identifies the user registered in the user database UD who is closest to the user UJ in the virtual space VS among the users who are friends or acquaintances of the user UJ . is preferably identified as the second user.
  • the identifying unit 113 has identified the user UK as the second user.
  • the server 10 can identify a friend or acquaintance of user UJ as user UK as the second user. Conversely, the server 10 can prevent the virtual object VO1 from being generated with a person who is not an acquaintance of the user UJ .
  • the determination unit 114 performs various determination processes in generating virtual objects.
  • FIG. 7 is a functional block diagram of the determination unit 114. As shown in FIG. The determination unit 114 includes a first determination unit 114A, a second determination unit 114B, and a shape determination unit 114C.
  • the first determination unit 114A determines at least part of the body of the user UK as the second user with respect to the XR glasses 30- K , or the terminal device 20- K possessed by the user UK with respect to the XR glasses 30-K. It is determined whether the position is a predetermined relative position.
  • the relative position is an example of a "second relative position".
  • the determination result of the first determination unit 114A is affirmative, that is, at least part of the body of the user UK as the second user for the XR glasses 30-K, or the user UK for the XR glasses 30- K possesses
  • the shape determination unit 114C executes processing for determining shape, which will be described later.
  • the position of user U J 's hand is the first relative position with respect to XR glasses 30-J
  • the position of user U K 's hand for example, is the second relative position with respect to XR glasses 30-K.
  • the shape determination unit 114C determines whether the combination of at least parts of the bodies of both users matches a predetermined shape, as described later.
  • the server 10 controls at least part of both users' bodies until the hands of both users reach predetermined relative positions with respect to each of the XR glasses 30-J and 30-R. It is no longer necessary to determine whether or not the combination of .
  • the second determination unit 114B determines whether or not the distance between the body of the user UJ as the first user and the body of the user UK as the second user is within the first distance in the virtual space VS. . More specifically, the second determination unit 114B determines whether or not the distance between the avatar corresponding to the user UJ and the avatar corresponding to the user UK is within the first distance in the virtual space VS. . The determination result of the second determination unit 114B is affirmative, that is, the distance between the body of the user UJ as the first user and the body of the user UK as the second user is within the first distance in the virtual space VS. In this case, as described later, the shape determination unit 114C determines whether or not the combination of at least parts of the bodies of both users matches the shape described later.
  • the shape determination unit 114C executes the processing for determining the shape described later.
  • the processing load on the server 10 is suppressed.
  • the shape determination unit 114C may execute processing for determining the shape, which will be described later, regardless of the determination result of the second determination unit 114B.
  • the shape determination unit 114C may perform processing for determining the shape, which will be described later, regardless of the determination result of the first determination unit 114A.
  • the shape determination unit 114C may perform the shape determination process described later only when both the determination result of the first determination unit 114A and the determination result of the second determination unit 114B are positive.
  • the shape determination unit 114C determines whether or not the combination of at least part of the body of the user UJ as the first user and at least part of the body of the user UK as the second user matches a predetermined shape. judge. More specifically, based on the imaging information acquired by the acquiring unit 111, the shape determining unit 114C determines at least part of the body of the user UJ in the physical space and at least part of the body of the user UK in the physical space. matches a predetermined shape. Alternatively, the shape determining unit 114C determines that, in the virtual space VS, the combination of at least part of the body of the avatar corresponding to the user UJ and at least part of the body of the avatar corresponding to the user UK has a predetermined shape. It may be determined whether or not they match.
  • FIG. 7 is a functional block diagram of the operation control section 115. As shown in FIG.
  • the operation control unit 115 includes an effect imparting unit 115A and a display control unit 115B.
  • the effect imparting unit 115A imparts at least one of a predetermined visual effect and a predetermined audio effect to the virtual space VS. That is, the shape determination unit 114C determines that the combination of at least part of the body of the user UJ as the first user and at least part of the body of the user UK as the second user matches the predetermined shape. At least one of a predetermined visual effect and a predetermined audio effect is generated in the virtual space VS.
  • the effect imparting unit 115A provides visual control signals for producing visual effects such as light emission in the virtual space VS, and audio control for emitting BGM (Background Music), which serves as the background of the virtual space VS, from the XR glasses 30-J.
  • the signal is transmitted to the terminal device 20-J via the communication device 13.
  • the terminal device 20-J transmits at least one of these visual control signals and audio control signals obtained from the server 10 to the XR glasses 30-J.
  • the XR glasses 30-J generate a predetermined visual effect and a predetermined audio effect for the virtual space VS displayed on the display 38 based on at least one of these visual control signals and audio control signals. Give at least one of them.
  • the display control unit 115B displays the virtual object corresponding to the predetermined shape in the virtual space VS displayed on the XR glasses 30-J worn by the user UJ as the first user.
  • FIG. 9 is an explanatory diagram of an operation example of the shape determination unit 114C and the display control unit 115B.
  • FIG. 9 shows a virtual object HJ representing the hand of the avatar corresponding to the user UJ and a virtual object HK representing the hand of the avatar corresponding to the user UK .
  • the shape determination unit 114C determines that the index finger and thumb of the hand indicated by the virtual object HJ and the index finger and thumb of the hand indicated by the virtual object HK are heart-shaped as predetermined shapes. It is determined that the shape matches.
  • the display control unit 115B causes the XR glass 30-J to display a heart-shaped virtual object VO1 as a virtual object corresponding to the heart-shaped shape.
  • the display control unit 115B displays the virtual object HJ and the virtual object VO1 on the XR glasses 30-J.
  • the display control unit 115B may also display the virtual object HK on the XR glasses 30-J.
  • the display control unit 115B outputs image information indicating the virtual object H J and the virtual object VO1, and in some cases, image information indicating the virtual object H K to the terminal device 20-J. These virtual objects are displayed on the XR glasses 30-J.
  • the user UJ can realize richer communication by collaborating with other users in the virtual space VS.
  • the virtual object VO1 corresponding to the predetermined shape can be displayed.
  • the server 10 can facilitate physical communication between the user UJ and the user UK .
  • the display control unit 115B changes the virtual space VS in which the virtual object VO1 corresponding to the predetermined shape is arranged to the user UK as the second user. It may be displayed on the XR glasses 30-K attached to the . Further, the display control unit 115B may display the virtual object HJ and the virtual object HK on the XR glasses 30-K.
  • the effect imparting unit 115A may impart a predetermined visual effect to the virtual object displayed on the XR glasses 30-J.
  • the "predetermined visual effect” includes, for example, a visual effect that vibrates the virtual object VO1 shown in FIG.
  • a visual effect of causing the virtual object VO1 shown in FIG. 9 to emit light may be used.
  • FIG. 10 is a flow chart showing an operation example of the server 10 according to the first embodiment. The operation of the server 10 will be described below with reference to FIG.
  • step S ⁇ b>1 the processing device 11 functions as the acquisition unit 111 .
  • the processing device 11 acquires at least a part of the body of the user UJ as the first user or the position of the terminal device 20-J possessed by the user UJ with respect to the XR glasses 30-J as the display device.
  • at least part of the body of the user UJ or the position of the terminal device 20-J carried by the user UJ is called a first position.
  • step S2 the processing device 11 functions as the identification unit 113.
  • the processing device 11 determines whether the first position is the first relative position. When the determination result is affirmative, that is, when the specifying unit 113 determines that the first position is the first relative position, the processing device 11 executes the process of step S3. When the determination result is negative, that is, when the specifying unit 113 determines that the first position is not the first relative position, the processing device 11 executes the process of step S1.
  • step S ⁇ b>3 the processing device 11 functions as the identification unit 113 .
  • the processing device 11 identifies, as the second user, the user who is closest to the user UJ in the virtual space VS, among one or more users sharing the virtual space VS with the user UJ .
  • the processing device 11 has specified the user UK as the second user.
  • step S ⁇ b>4 the processing device 11 functions as the acquisition unit 111 .
  • the processing device 11 acquires at least part of the body of the user UK as the second user or the position of the terminal device 20- K possessed by the user UK with respect to the XR glasses 30-K as the display device.
  • at least part of the body of the user UK or the position of the terminal device 20-K possessed by the user UK is called a second position.
  • step S5 the processing device 11 functions as the first determination unit 114A.
  • the processing device 11 determines whether the second position is the second relative position. If the determination result is affirmative, that is, if it is determined that the second position is the second relative position, the processing device 11 executes the process of step S6. If the determination result is negative, that is, if it is determined that the second position is not the second relative position, the processing device 11 executes the process of step S1.
  • step S6 the processing device 11 functions as the second determination section 114B.
  • the processing device 11 determines whether or not the distance between the body of the user UJ as the first user and the body of the user UK as the second user is within a first distance in the virtual space VS. If the determination result is affirmative, that is, if it is determined that the distance between the body of user UJ as the first user and the body of user UK as the second user is within the first distance, the processing device 11 The process of step S7 is executed. If the determination result is negative, that is, if it is determined that the distance between the body of user UJ as the first user and the body of user UK as the second user is not within the first distance, the processing device 11 The process of step S1 is executed.
  • step S7 the processing device 11 functions as the shape determining section 114C.
  • the processing device 11 determines whether or not a combination of at least part of the body of user UJ as the first user and at least part of the body of user UK as the second user matches a predetermined shape. judge. If the determination result is affirmative, that is, if it is determined that the combination of at least part of the body of user UJ and at least part of the body of user UK matches the predetermined shape, processing device 11 performs step The process of S8 is executed. If the determination result is negative, that is, if it is determined that the combination of at least part of the body of user UJ and at least part of the body of user UK does not match the predetermined shape, the processing device 11 , the process of step S1 is executed.
  • step S8 the processing device 11 functions as the effect imparting unit 115A.
  • the processing device 11 applies at least one of a predetermined visual effect and a predetermined audio effect to the virtual space VS displayed on the XR glasses 30-J.
  • step S9 the processing device 11 functions as the display control section 115B.
  • the processing device 11 displays the virtual object corresponding to the predetermined shape in the virtual space VS. After that, the processing device 11 ends all the operations shown in FIG.
  • the server 10 as the display control device displays the XR glasses 30-J as the display device worn by the user UJ as the first user.
  • the shape determination unit 114C determines whether or not the combination of at least part of the body of the user UJ as the first user and at least part of the body of the user UK as the second user matches a predetermined shape. judge. Further, when the determination result of the shape determination unit 114C is affirmative, the operation control unit 115 executes control over the virtual space displayed on the XR glasses 30-J.
  • the server 10 Since the server 10 has the above configuration, the user UJ can realize richer communication by collaborating with other users in the virtual space VS. Generally, in an online community that shares a virtual space VS, voice communication is the main activity, and physical contact between users is scarce. In particular, when the combination of at least part of the body of user UJ and at least part of the body of user UK matches a predetermined shape, the server 10 executes a predetermined operation so that the server 10 , to encourage physical communication between user UJ and user UK .
  • the operation control unit 115 includes the effect imparting unit 115A.
  • the effect imparting unit 115A imparts at least one of a predetermined visual effect and a predetermined audio effect to the virtual space VS.
  • the server 10 Since the server 10 has the above configuration, the server 10 notifies the user UK that the combination of at least a part of the body of the user UJ and at least a part of the body of the user UK matches a predetermined shape. You can appeal more strongly. Also, the user UK himself can obtain a greater sense of accomplishment from physical communication with the user UJ .
  • the operation control unit 115 includes the display control unit 115B.
  • the display control unit 115B displays the virtual object VO1 corresponding to the predetermined shape in the virtual space VS displayed on the XR glasses 30-J as a display device.
  • the server 10 Since the server 10 has the above configuration, the server 10 notifies the user UK that the combination of at least a part of the body of the user UJ and at least a part of the body of the user UK matches a predetermined shape. You can appeal more strongly. Also, the user UK himself can obtain a greater sense of accomplishment from physical communication with the user UJ .
  • the server 10 further includes the specifying unit 113 .
  • the specifying unit 113 determines the position of at least a part of the body of the user UJ as the first user with respect to the XR glasses 30-J as the display device, or the position of the user UJ with respect to the XR glasses 30-J.
  • the position of the terminal device 20-J that controls the XR glasses 30-J is the first relative position, among one or more users sharing the virtual space VS with the user UJ , the user U A user closest to J is specified as a second user UK .
  • the server 10 Since the server 10 has the above configuration, the user UJ 's hand, for example, is triggered by the first relative position with respect to the XR glasses 30-J worn by the user UJ, and the distance from the user UJ is the maximum. A close user can be identified as the second user. Conversely, the server 10 does not need to perform the operation of the present invention while the hand of the user UJ , for example, is not in the first relative position with respect to the XR glasses 30-J worn by the user. Processing load can be suppressed.
  • the specifying unit 113 specifies a predetermined user as the user UK as the second user from among one or a plurality of users who share the virtual space VS with the user UJ as the first user. do.
  • the server 10 Since the server 10 has the above configuration, a friend or acquaintance of the user UJ can be specified as the user UK as the second user. Conversely, the server 10 can prevent the user UJ from creating the virtual object VO1 with a person who is not an acquaintance of the user.
  • the server 10 further includes the first determination unit 114A.
  • the first determination unit 114A determines whether at least a part of the body of the user UK or the XR glasses 30- K as the second user, with respect to the XR glasses 30-K as the second display device worn by the user UK as the second user. is the second relative position.
  • the shape determination unit 114C selects at least part of the body of the user UJ as the first user and at least one of the body of the user UK as the second user. It is determined whether or not the combination with the part matches a predetermined shape.
  • the server 10 Since the server 10 has the above configuration, the position of user U J 's hand, for example, becomes the first relative position with respect to the XR glasses 30-J, and the position of user U K 's hand, for example, becomes the first relative position to the XR glasses 30-K. , and the combination of at least part of the bodies of both users matches a predetermined shape, the virtual object VO1 is displayed. Conversely, the server 10 controls at least part of both users' bodies until the hands of both users reach predetermined relative positions with respect to each of the XR glasses 30-J and 30-R. It is no longer necessary to determine whether the combination of .
  • the server 10 further includes the second determination unit 114B.
  • the second determination unit 114B determines whether or not the distance between the body of the user UJ as the first user and the body of the user UK as the second user is within the first distance in the virtual space VS. .
  • the shape determination unit 114C determines at least part of the body of the user UJ as the first user and at least the body of the user UK as the second user. It is determined whether or not the combination with the part matches the predetermined shape.
  • the server 10 can display the virtual object VO1 only when the distance between the user UJ and the user UK in the virtual space VS is equal to or less than a predetermined distance. As a result, the processing load on the server 10 is suppressed.
  • the imaging device 36 provided in the XR glasses 30-J captures an image of a part of the body of the user UJ
  • the server 10 captures the captured image.
  • the information was used to generate an avatar body part corresponding to user UJ .
  • the avatar generation method is not limited to this.
  • the imaging device 24 provided in the terminal device 20-J captures a full-body image of the user UJ
  • the generating unit 112 provided in the server 10 captures the whole-body image of the user UJ .
  • the imaging device 24 provided in the terminal device 20-K captures a full-body image of the user UK
  • the generation unit 112 provided in the server 10 captures a captured image of the full-body image of the user UK .
  • the information may be used to generate a full body image of the avatar corresponding to user UK .
  • the shape determination unit 114C provided in the server 10 determines whether or not the combination of the full body image of the user UJ and the full body image of the user UK matches a predetermined shape.
  • the display control unit 115B provided in the server 10 displays the virtual space in which the virtual object corresponding to the predetermined shape is arranged on the XR glasses 30-J worn by the user UJ .
  • FIG. 11 is a diagram showing an example of the virtual space VS displayed on the XR glasses 30-J in Modification 1.
  • FIG. 11 shows an example of the virtual space VS displayed on the XR glasses 30-J in Modification 1.
  • the virtual space VS when the combination of the full-body image of the avatar AJ corresponding to the user UJ and the full-body image of the avatar AK corresponding to the user UK matches the shape illustrated in FIG.
  • a virtual object VO2 showing confetti surrounding the predetermined shape is displayed.
  • the combination of at least part of the body of the user UJ as the first user and at least part of the body of the user UK as the second user has a predetermined shape.
  • the predetermined operation control was executed. That is, in the information processing system 1 according to the first embodiment, when the combination of at least parts of the bodies of the two users matches the predetermined shape, the predetermined motion control is executed.
  • the number of users is not limited to two.
  • the server 10 may control the virtual space VS when a combination of at least part of the bodies of three or more users matches a predetermined shape.
  • the identifying unit 113 identifies three or more users located within a predetermined range centering on the user UJ as the second user and below.
  • both the determination result of at least one of the determination results of the first determination unit 114A and the second determination unit 114B and the determination result of the shape determination unit 114C are affirmative.
  • the motion control unit 115 was executing control over the virtual space VS.
  • the motion control unit 115 may control the virtual space VS.
  • the position of user U J 's hand for example, becomes the first relative position with respect to XR glasses 30-J
  • the position of user U K 's hand for example, becomes the second relative position with respect to XR glasses 30-K.
  • the operation control unit 115 may execute control over the virtual space VS only by the fact that it has become.
  • the server 10 functions as a display control device.
  • the server 10 as a display control device includes a shape determination unit 114C and an operation control unit 115.
  • the shape determination unit 114C determines that the combination of at least part of the body of user UJ as the first user and at least part of the body of user UK as the second user matches a predetermined shape. I was deciding whether to do it or not.
  • the motion control unit 115 executes control over the virtual space VS when the determination result of the shape determination unit 114C is affirmative.
  • the terminal device 20-J may function as the display control device.
  • the same components as the generation unit 112, the identification unit 113, the determination unit 114, the operation control unit 115, and the user database UD provided in the server 10 are
  • the device 20-J may function as a display control device. The same applies to the terminal device 20-K.
  • the specifying unit 113 provided in the server 10 includes the user UJ as the first user and the users in the virtual space VS among one or more users sharing the virtual space VS.
  • the user closest to UJ is identified as the second user.
  • the user identified by the identification unit 113 as the second user may not be the user closest to the user UJ in the virtual space VS.
  • the identifying unit 113 may identify a user closest to the user UJ as the second user in the physical space.
  • the identifying unit 113 may identify the user with the largest amount of communication with the user UJ as the second user.
  • the terminal device 20-J and the XR glasses 30-J are implemented separately.
  • the method of implementing the terminal device 20-J and the XR glasses 30-J in the embodiment of the present invention is not limited to this.
  • the XR glasses 30-J may have the same functions as the terminal device 20-J.
  • the terminal device 20-J and the XR glasses 30-J may be implemented within a single housing. The same applies to the terminal device 20-K and the XR glasses 30-K.
  • the information processing system 1 includes XR glasses 30-J and 30-K.
  • the XR glasses 30-J and 30-K are MR glasses.
  • the XR glasses 30-J and 30-K are not MR glasses, but HMD (Head Mounted Display) employing VR technology, VR glasses employing VR technology, and AR technology. Any one of an HMD that employs AR technology, an AR glass that employs AR technology, and an HMD that employs MR technology.
  • the storage device 12, the storage device 22, and the storage device 32 are ROM and RAM. discs, Blu-ray discs), smart cards, flash memory devices (e.g. cards, sticks, key drives), CD-ROMs (Compact Disc-ROMs), registers, removable discs, hard disks, floppies ) disk, magnetic strip, database, server or other suitable storage medium.
  • the program may be transmitted from a network via an electric communication line. Also, the program may be transmitted from the communication network NET via an electric communication line.
  • the information, signals, etc. described may be represented using any of a variety of different technologies.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
  • input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
  • the determination may be made by a value (0 or 1) represented using 1 bit, or by a true/false value (Boolean: true or false). Alternatively, it may be performed by numerical comparison (for example, comparison with a predetermined value).
  • each function illustrated in FIGS. 1 to 11 is realized by any combination of at least one of hardware and software.
  • the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices.
  • a functional block may be implemented by combining software in the one device or the plurality of devices.
  • software, instructions, information, etc. may be transmitted and received via a transmission medium.
  • the software uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and wireless technology (infrared, microwave, etc.) to website, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.
  • wired technology coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.
  • wireless technology infrared, microwave, etc.
  • system and “network” are used interchangeably.
  • Information, parameters, etc. described in this disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using corresponding other information. may be represented as
  • the server 10 and the terminal devices 20-1 to 20-N may be mobile stations (MS).
  • a mobile station is defined by those skilled in the art as subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be called a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term. Also, in the present disclosure, terms such as “mobile station”, “user terminal”, “user equipment (UE)”, “terminal”, etc. may be used interchangeably.
  • connection refers to any direct or indirect connection between two or more elements. Any connection or coupling is meant, including the presence of one or more intermediate elements between two elements that are “connected” or “coupled” to each other. Couplings or connections between elements may be physical couplings or connections, logical couplings or connections, or a combination thereof. For example, “connection” may be replaced with "access.”
  • two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
  • the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”
  • determining and “determining” as used in this disclosure may encompass a wide variety of actions.
  • “Judgement” and “determination” are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure);
  • "judgment” and “determination” are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment” or “decision” has been made.
  • judgment and “decision” are considered to be “judgment” and “decision” by resolving, selecting, choosing, establishing, comparing, etc. can contain.
  • judgment and “decision” may include considering that some action is “judgment” and “decision”.
  • judgment (decision) may be replaced by "assuming", “expecting”, “considering”, and the like.
  • the term "A and B are different” may mean “A and B are different from each other.” The term may also mean that "A and B are different from C”. Terms such as “separate,” “coupled,” etc. may also be interpreted in the same manner as “different.”
  • notification of predetermined information is not limited to explicit notification, but is performed implicitly (for example, not notification of the predetermined information). good too.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

表示制御装置は、第1ユーザに装着される表示装置の表示を制御する表示制御装置であって、第1ユーザの身体の少なくとも一部と第2ユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する形状判定部と、形状判定部の判定結果が肯定である場合に、表示装置に表示される仮想空間に対する制御を実行する動作制御部と、を備える。

Description

表示制御装置
 本発明は、表示制御装置に関する。とりわけ本発明は、表示装置に仮想オブジェクトを含む仮想空間を表示させる表示制御装置に関する。
 VR(Virtual Reality)技術、AR(Augmented Reality)技術、及びMR(Mixed Reality)技術を含むXR技術を用いた表示制御装置は、表示装置に対し仮想空間を表示させる。当該仮想空間を視認するユーザは、当該仮想空間を共有する他のユーザとの間で、コミュニケーションを行うことが一般的である。
 例えば、特許文献1は、ユーザのジェスチャーを用いた制御に対応している仮想空間の環境において、PC(Personal Computer)とマウスの操作に基づいて、他のユーザのアバターとの接触を可能とするアバター操作方法を開示している。当該アバター操作方法においては、例えば、あるユーザのアバターの手先を、他のユーザのアバターに含まれるいずれかの部位に乗せた上でマウス操作をすることで、あるユーザのアバターは他のユーザのアバターを撫でることが可能である。
特開2020-149515号公報
 しかし、特許文献1に係る技術は、あるユーザのアバターが他のユーザのアバターを一方的に撫でるのみであった。すなわち、特許文献1に係る技術は、あるユーザと他のユーザとが共働することで、コミュニケーションを実現するものではなかった。
 そこで本発明は、仮想空間において他のユーザと共働することで、豊かなコミュニケーションを実現できる表示制御装置を提供することを目的とする。
 本発明の好適な態様に係る表示制御装置は、第1ユーザに装着される表示装置の表示を制御する表示制御装置であって、前記第1ユーザの身体の少なくとも一部と第2ユーザの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する形状判定部と、前記形状判定部の判定結果が肯定である場合に、所定の動作前記表示装置に表示される仮想空間に対する制御を実行する動作制御部と、を備える、表示制御装置である。
 本発明によれば、仮想空間において他のユーザと共働することで、より豊かなコミュニケーションを実現できる。
情報処理システム1の全体構成を示す図。 XRグラス30-Jの外観を示す斜視図。 XRグラス30-Jの構成例を示すブロック図。 ディスプレイ38に表示される仮想空間VSの一例を示す図。 端末装置20-Jの構成例を示すブロック図 サーバ10の構成例を示すブロック図。 判定部114の機能ブロック図。 動作制御部115の機能ブロック図。 形状判定部114C、及び表示制御部115Bの動作例の説明図。 サーバ10の動作例を示すフローチャート。 XRグラス30-Jに表示される仮想空間VSの一例を示す図。
1:第1実施形態
 以下、図1~図10を参照しつつ、本発明の第1実施形態に係る表示制御装置としてのサーバ10を含む情報処理システム1の構成について説明する。
1-1:第1実施形態の構成
1-1-1:全体構成
 図1は、情報処理システム1の全体構成を示す図である。図1に示されるように、情報処理システム1は、サーバ10、端末装置20-1、20-2、…20-J、…20-K、…20-N、XRグラス30-J及び30-Kを備える。Nは1以上の整数である。Jは1以上N以下の整数である。Kは1以上N以下であると共に、Jとは異なる整数である。本実施形態において、端末装置20-1~20-Nは同一の構成である。但し、構成が同一でない端末装置が含まれてもよい。また、XRグラス30-J及び30-Kは同一の構成である。但し、XRグラス30-J及び30-Kは、同一の構成でなくてもよい。
 情報処理システム1において、サーバ10と、端末装置20-1~20-Nとは、通信網NETを介して互いに通信可能に接続される。また、端末装置20-JとXRグラス30-J、及び端末装置20-KとXRグラス30-Kとは互いに通信可能に接続される。なお、図1において、ユーザUは、端末装置20-JとXRグラス30-Jとの組を利用するものとする。同様に、ユーザUは、端末装置20-KとXRグラス30-Kとの組を利用するものとする。ここで、ユーザUは第1ユーザの一例である。また、ユーザUは第2ユーザの一例である。なお、図1において、端末装置20-1~20-Nのうち、端末装置20-J及び端末装置20-K以外の端末装置に、XRグラス30-J及び30-Kと同様のXRグラスが接続されてもよく、接続されなくてもよい。
 サーバ10は、通信網NETを介して、端末装置20-1~20-Nに対して各種データ及びクラウドサービスを提供する。とりわけ、サーバ10は、端末装置20-1~20-Nに対して、XR空間に表示される各種コンテンツを提供する。また、サーバ10は、表示制御装置の一例である。具体的には、サーバ10は、ユーザUに装着されるXRグラス30-Jの表示、及びユーザUに装着されるXRグラス30-Kの表示を制御する表示制御装置である。
 端末装置20-1~20-Nは、当該端末装置20-1~20-Nに備わるディスプレイ25、端末装置20-Jに接続され、ユーザUが頭部に装着するXRグラス30-J、及び端末装置20-Kに接続され、ユーザUが頭部に装着するXRグラス30-Kに対して、仮想オブジェクトを含む仮想空間を表示させる。仮想オブジェクトは、例として、静止画像、動画、3DCGモデル、HTMLファイル、及びテキストファイル等のデータを示す仮想オブジェクト、及びアプリケーションを示す仮想オブジェクトである。ここで、テキストファイルとしては、例として、メモ、ソースコード、日記、及びレシピが挙げられる。また、アプリケーションとしては、例として、ブラウザ、SNSを用いるためのアプリケーション、及びドキュメントファイルを生成するためのアプリケーションが挙げられる。なお、端末装置20-1~20-Nは、例として、スマートフォン、及びタブレット等の携帯端末装置であることが好適である。
 XRグラス30-Jは、ユーザUの頭部に装着するシースルー型のウェアラブルディスプレイである。XRグラス30-Jは、端末装置20-Jが制御することによって、両眼用のレンズの各々に設けられた表示パネルに仮想オブジェクトを表示させる。同様に、XRグラス30-Kは、ユーザUの頭部に装着するシースルー型のウェアラブルディスプレイである。XRグラス30-Kは、端末装置20-Kが制御することによって、両眼用のレンズの各々に設けられた表示パネルに仮想オブジェクトを表示させる。なお、XRグラス30-J及び30-Kは、表示装置の一例である。また、以下ではXRグラス30-J及び30-KがMRグラスである場合の例について説明する。しかし、XRグラス30-J及び30-KがMRグラスであることはあくまで一例であり、XRグラス30-J及び30-Kは、VRグラス又はARグラスであってもよい。なお、XRグラス30-Jは、表示装置、とりわけ第1表示装置の一例である。また、XRグラス30-Kは、第2表示装置の一例である。
1-1-2:XRグラスの構成
 図2は、XRグラス30-Jの外観を示す斜視図である。図2に示されるようにXRグラス30-Jの外観は、一般的な眼鏡と同様にテンプル91及び92、ブリッジ93、フレーム94及び95、並びにレンズ41L及び41Rを有する。
 ブリッジ93には撮像装置36が設けられる。撮像装置36は外界を撮像する。また、撮像装置36は、撮像した画像を示す撮像情報を出力する。
 レンズ41L及び41Rの各々は、ハーフミラーを備えている。フレーム94には、左眼用の液晶パネル又は有機ELパネルが設けられる。液晶パネル又は有機ELパネルは、以下、表示パネルと総称する。また、フレーム94には、左眼用の表示パネルから射出された光をレンズ41Lに導光する光学部材が設けられる。レンズ41Lに設けられるハーフミラーは、外界の光を透過させて左眼に導くと共に、光学部材によって導光された光を反射して、左眼に入射させる。フレーム95には、右眼用の表示パネルと、右眼用の表示パネルから射出された光をレンズ41Rに導光する光学部材が設けられる。レンズ41Rに設けられるハーフミラーは、外界の光を透過させて右眼に導くと共に、光学部材によって導光された光を反射して、右眼に入射させる。
 後述するディスプレイ38は、レンズ41L、左眼用の表示パネル、及び左眼用の光学部材、並びにレンズ41R、右眼用の表示パネル、及び右眼用の光学部材を含む。
 以上の構成において、ユーザUは表示パネルが表示する画像を、外界の様子と重ね合わせたシースルーの状態で観察できる。また、XRグラス30-Jにおいて、視差を伴う両眼画像のうち、左眼用画像を左眼用の表示パネルに表示させ、右眼用画像を右眼用の表示パネルに表示させる。このため、XRグラス30-Jは、ユーザUに対し、表示された画像があたかも奥行き、及び立体感を持つかのように知覚させる。
 図3は、XRグラス30-Jの構成例を示すブロック図である。XRグラス30-Jは、処理装置31、記憶装置32、視線検出装置33、GPS装置34、動き検出装置35、撮像装置36、通信装置37、及びディスプレイ38を備える。XRグラス30-Jが有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。
 処理装置31は、XRグラス30-Jの全体を制御するプロセッサである。処理装置31は、例えば、単数又は複数のチップを用いて構成される。また、処理装置31は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)を用いて構成される。なお、処理装置31が有する機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及びFPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置31は、各種の処理を並列的又は逐次的に実行する。
 記憶装置32は、処理装置31による読取及び書込が可能な記録媒体である。また、記憶装置32は、処理装置31が実行する制御プログラムPR3を含む複数のプログラムを記憶する。
 視線検出装置33は、ユーザUの視線を検出して、検出結果を示す視線情報を生成する。視線検出装置33による視線の検出は、どのような方法を用いてもよい。視線検出装置33は、例えば、目頭の位置と虹彩の位置に基づいて視線情報を検出してもよい。視線情報はユーザUの視線の方向を示す。視線検出装置33は、視線情報を後述の処理装置31に供給する。処理装置31に供給された視線情報は、通信装置37を介して、端末装置20-Jに送信される。
 GPS装置34は、複数の衛星からの電波を受信する。また、GPS装置34は、受信した電波から位置情報を生成する。位置情報は、XRグラス30-Jの位置を示す。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。位置情報は、例えば、XRグラス30-Jの緯度と経度とを示す。一例として、位置情報はGPS装置34から得られる。しかし、XRグラス30-Jは、どのような方法によって位置情報を取得してもよい。取得された位置情報は、処理装置31に供給される。処理装置31に供給された位置情報は、通信装置37を介して、端末装置20-Jに送信される。
 動き検出装置35は、XRグラス30-Jの動きを検出する。動き検出装置35としては、加速度を検出する加速度センサ及び角加速度を検出するジャイロセンサなどの慣性センサが該当する。加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。ジャイロセンサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。動き検出装置35は、ジャイロセンサの出力情報に基づいて、XRグラス30-Jの姿勢を示す姿勢情報を生成できる。動き情報は、3軸の加速度を各々示す加速度データ及び3軸の角加速度を各々示す角加速度データを含む。また、動き検出装置35は、XRグラス30-Jの姿勢を示す姿勢情報、及びXRグラス30-Jの動きに係る動き情報を処理装置31に供給する。処理装置31に供給された姿勢情報及び動き情報は、通信装置37を介して、端末装置20-Jに送信される。
 撮像装置36は、外界を撮像して得られた撮像情報を出力する。また、撮像装置36は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備える。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は撮像信号を増幅した上でAD変換器に出力する。AD変換器はアナログ信号である増幅された撮像信号をデジタル信号である撮像情報に変換する。変換された撮像情報は、処理装置31に供給される。処理装置31に供給された撮像情報は、通信装置37を介して、端末装置20-Jに送信される。
 通信装置37は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。また、通信装置37は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置37は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置37は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ38は、画像を表示するデバイスである。ディスプレイ38は、処理装置31による制御のもとで各種の画像を表示する。ディスプレイ38は、上記のように、レンズ41L、左眼用の表示パネル、及び左眼用の光学部材、並びにレンズ41R、右眼用の表示パネル、及び右眼用の光学部材を含む。表示パネルとしては、例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルが好適に利用される。
 処理装置31は、例えば、記憶装置32から制御プログラムPR1を読み出して実行することによって、取得部311、出力部312、及び表示制御部313として機能する。
 取得部311は、通信装置37を介して、端末装置20-JからXRグラス30-Jに表示される画像を示す画像情報を取得する。また、取得部311は、通信装置37を介して、端末装置20-Jから、後述の動作制御信号、視覚制御信号、及び音声制御信号を取得する。
 また、取得部311は、視線検出装置33から入力される視線情報、GPS装置34から入力される位置情報、動き検出装置35から入力される動き情報、及び撮像装置36から入力される撮像情報を取得する。
 出力部312は、取得部311が取得した視線情報、位置情報、動き情報、及び撮像情報を、通信装置37を介して端末装置20-Jに送信する。
 表示制御部313は、取得部311が端末装置20-Jから取得した画像情報に基づいて、ディスプレイ38に対して、当該画像情報によって示される画像を表示させる。とりわけ、本実施形態において、表示制御部313は、取得部311が端末装置20-Jを介してサーバ10から取得した画像情報に基づいて、ディスプレイ38に対して、仮想空間VSを表示させる。
 図4は、ディスプレイ38に表示される仮想空間VSの一例を示す図である。図4に例示される仮想空間VSにおいて、ユーザUに対応するアバターの手を示す仮想オブジェクトAHが表示される。当該仮想オブジェクトAHは、撮像装置36がユーザUの手を撮像して得られた撮像情報が、端末装置20-Jを介してサーバ10に出力され、サーバ10が当該撮像情報に基づいて生成した仮想オブジェクトである。当該仮想オブジェクトを示す画像情報は、端末装置20-Jを介してXRグラス30-Jに出力される。また、表示制御部313は、当該画像情報に基づいて、ディスプレイ38に仮想オブジェクトAHを表示させる。また、図4に例示される仮想空間VSにおいて、ボールを示す仮想オブジェクトBLが表示される。当該仮想オブジェクトBLは、サーバ10が、自身が記憶する画像情報を用いて生成した仮想オブジェクトである。当該仮想オブジェクトを示す画像情報は、端末装置20-Jを介してXRグラス30-Jに出力される。また、表示制御部313は、当該画像情報に基づいて、ディスプレイ38に仮想オブジェクトBLを表示させる。
 図4に例示される仮想空間VSにおいて、例えばユーザUに対応するアバターの手を示す仮想オブジェクトAHは、ユーザU自身の手の動きに連動して、ボールを示す仮想オブジェクトBLに触れられる。また、当該仮想オブジェクトAHは、ユーザU自身の手の動きに連動して、ボールを示す仮想オブジェクトBLを動かせる。
1-1-3:端末装置の構成
 図5は、端末装置20-Jの構成例を示すブロック図である。端末装置20-Jは、処理装置21、記憶装置22、通信装置23、撮像装置24、ディスプレイ25、入力装置26、及び慣性センサ27を備える。端末装置20-Jが有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
 処理装置21は、端末装置20-Jの全体を制御するプロセッサである。また、処理装置21は、例えば、単数又は複数のチップを用いて構成される。処理装置21は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置21が有する機能の一部又は全部を、DSP、ASIC、PLD、及びFPGA等のハードウェアによって実現してもよい。処理装置21は、各種の処理を並列的又は逐次的に実行する。
 記憶装置22は、処理装置21が読取及び書込が可能な記録媒体である。また、記憶装置22は、処理装置21が実行する制御プログラムPR2を含む複数のプログラムを記憶する。
 通信装置23は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置23は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、又は通信モジュール等とも呼ばれる。通信装置23は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置23は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、及びUSBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 撮像装置24は、外界を撮像して得られた撮像情報を出力する。また、撮像装置24は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備える。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は撮像信号を増幅した上でAD変換器に出力する。AD変換器はアナログ信号である増幅された撮像信号をデジタル信号である撮像情報に変換する。変換された撮像情報は、処理装置21に供給される。処理装置21に供給された撮像情報は、通信装置23を介して、サーバ10に送信される。なお、端末装置20-JにXRグラス30-Jが接続される場合、撮像装置24は、必須の構成要素としなくてもよい。この場合、当該XRグラス30-Jが、撮像装置24と同一の機能を更に有することとなる。
 ディスプレイ25は、画像及び文字情報を表示するデバイスである。ディスプレイ25は、処理装置21による制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL(Electro Luminescence)表示パネル等の各種の表示パネルがディスプレイ25として好適に利用される。なお、端末装置20-JにXRグラス30-Jが接続される場合、ディスプレイ25は、必須の構成要素としなくてもよい。この場合、当該XRグラス30-Jが、ディスプレイ25と同一の機能を更に有することとなる。
 入力装置26は、XRグラス30-Jを頭部に装着したユーザUからの操作を受け付ける。例えば、入力装置26は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置26は、タッチパネルを含んで構成される場合、ディスプレイ14を兼ねてもよい。
 慣性センサ27は、慣性力を検出するセンサである。慣性センサ27は、例えば、加速度センサ、角速度センサ、及びジャイロセンサのうち、1以上のセンサを含む。処理装置21は、慣性センサ27の出力情報に基づいて、端末装置20-Jの姿勢を検出する。更に、処理装置21は、端末装置20-Jの姿勢に基づいて、仮想空間VSにおいて、仮想オブジェクトの選択、文字の入力、及び指示の入力を受け付ける。例えば、ユーザUが端末装置20-Jの中心軸を仮想空間VSの所定領域に向けた状態で、入力装置26を操作することによって、所定領域に配置される仮想オブジェクトが選択される。入力装置26に対するユーザUの操作は、例えば、ダブルタップである。このようにユーザUは端末装置20-Jを操作することによって、端末装置20-Jに備わる入力装置26を見なくても仮想オブジェクトを選択できる。
 なお、端末装置20-JにXRグラス30-Jが接続されない場合、端末装置20-Jは、XRグラス30-Jに備わるGPS装置34と同様のGPS装置を備えることが好適である。
 処理装置21は、記憶装置22から制御プログラムPR2を読み出して実行することによって、取得部211、表示制御部212、及び出力部213として機能する。
 取得部211は、サーバ10から、通信装置23を介して、XRグラス30-J又はディスプレイ25に表示する仮想オブジェクトを示す画像情報を取得する。また、取得部211は、サーバ10から、後述の動作制御信号、視覚制御信号、及び音声制御信号を取得する。更に、取得部211は、XRグラス30-Jから、通信装置23を介して、視線情報、位置情報、動き情報、及び撮像情報を取得する。
 表示制御部212は、取得部211がサーバ10から取得した仮想オブジェクトを示す画像情報を用いて、ディスプレイ25に仮想オブジェクトを表示させる。また、表示制御部212は、例えば記憶装置22に記憶される画像情報及び文字情報を用いて、ディスプレイ25に画像及び文字情報を表示させる。
 出力部213は、取得部211がサーバ10から取得した画像情報を、通信装置23を介して、XRグラス30-Jに送信する。また、出力部213は、取得部211がXRグラス30-Jから取得した、視線情報、位置情報、動き情報、及び撮像情報を、通信装置23を介して、サーバ10に送信する。更に、出力部213は、取得部211が撮像装置24から取得した撮像情報を、通信装置23を介して、サーバ10に送信する。
1-1-4:サーバの構成
 図6は、サーバ10の構成例を示すブロック図である。サーバ10は、処理装置11、記憶装置12、通信装置13、ディスプレイ14、及び入力装置15を備える。サーバ10が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
 処理装置11は、サーバ10の全体を制御するプロセッサである。また、処理装置11は、例えば、単数又は複数のチップを用いて構成される。処理装置11は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置11が有する機能の一部又は全部を、DSP、ASIC、PLD、及びFPGA等のハードウェアによって実現してもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
 記憶装置12は、処理装置11が読取及び書込が可能な記録媒体である。また、記憶装置12は、処理装置11が実行する制御プログラムPR1を含む複数のプログラムを記憶する。更に、記憶装置12は、情報処理システム1を利用する複数のユーザを登録するためのユーザデータベースUDを記憶する。とりわけ、ユーザデータベースUDには、各ユーザと、当該各ユーザにとっての友人又は知り合いのユーザとが対応付けられて格納されると好適である。また、記憶装置12は、後述の生成部112が仮想オブジェクトを生成する際に用いる画像情報を記憶する。
 通信装置13は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置13は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、又は通信モジュール等とも呼ばれる。通信装置13は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置13は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、及びUSBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
 ディスプレイ14は、画像及び文字情報を表示するデバイスである。ディスプレイ14は、処理装置11による制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルがディスプレイ14として好適に利用される。
 入力装置15は、情報処理システム1の管理者による操作を受け付ける機器である。例えば、入力装置15は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置15は、タッチパネルを含んで構成される場合、ディスプレイ14を兼ねてもよい。
 処理装置11は、例えば、記憶装置12から制御プログラムPR3を読み出して実行することによって、取得部111、生成部112、特定部113、判定部114、及び動作制御部115として機能する。
 取得部111は、端末装置20-Jから、XRグラス30-Jが取得した、視線情報、位置情報、動き情報、及び撮像情報を、通信装置13を介して取得する。また、取得部111は、端末装置20-Jから、当該端末装置20-Jが取得した撮像情報を、通信装置13を介して取得する。とりわけ、取得部111は、ユーザUの身体の少なくとも一部が撮像された画像を示す撮像情報を取得する。また、取得部111は、XRグラス30-Jに対するユーザUの身体の少なくとも一部の位置、又は、XRグラス30-Jに対するユーザUが把持する端末装置20-Jの位置を取得する。
 同様に、取得部111は、端末装置20-Kから、XRグラス30-Kが取得した、視線情報、位置情報、動き情報、及び撮像情報を、通信装置13を介して取得する。また、取得部111は、端末装置20-Kから、当該端末装置20-Kが取得した撮像情報を、通信装置13を介して取得する。とりわけ、取得部111は、ユーザUの身体の少なくとも一部が撮像された画像を示す撮像情報を取得する。また、取得部111は、XRグラス30-Kに対するユーザUの身体の少なくとも一部の位置、又は、XRグラス30-Kに対する、ユーザUが把持する端末装置20-Kの位置を取得する。取得部111が取得した各種情報は、記憶装置12に記憶される。
 生成部112は、記憶装置12に記憶される画像情報を用いて、仮想空間VSに表示させる仮想オブジェクトを生成する。とりわけ生成部112は、記憶装置12に記憶される画像情報に加えて、取得部111が取得した撮像情報を用いて、ユーザU及びユーザUに対応するアバターとなる仮想オブジェクトを生成する。具体的には、例えば、取得部111が取得した撮像情報が、ユーザUの手を撮像した撮像画像を示す撮像情報である場合、生成部112は、当該撮像情報と、記憶装置12に記憶される画像情報との双方を用いて、ユーザUのアバターの手を示す仮想オブジェクトを生成する。すなわち、ユーザUに対応するアバターの手を示す仮想オブジェクトは、現実世界におけるユーザUの手の形状と動きに連動する。また、取得部111が取得した撮像情報が、ユーザUの全身を撮像した撮像画像を示す撮像情報である場合、生成部112は、当該撮像情報と、記憶装置12に記憶される画像情報との双方を用いて、ユーザUに対応するアバターの全身像を示す仮想オブジェクトを生成してもよい。ユーザUに対応するアバターについても同様である。
 特定部113は、XRグラス30-Jに対する、第1ユーザとしてのユーザUの身体の少なくとも一部の位置、又はXRグラス30-Jに対する、ユーザUが所持する端末装置20-Jの位置が、所定の相対位置である場合に、ユーザUと仮想空間VSを共有する1又は複数のユーザのうち、仮想空間VSにおけるユーザUからの距離が最も近いユーザを第2ユーザとして特定する。当該相対位置は、「第1相対位置」の一例である。
 この結果、ユーザUの例えば手が、自身の装着するXRグラス30-Jに対して所定の相対位置であることをトリガーとして、ユーザUからの距離が最も近いユーザを第2のユーザとして特定できる。逆に言えば、ユーザUの例えば手が、自身の装着するXRグラス30-Jに対して、所定の相対位置ではない間は、サーバ10は、本発明の動作を実行しないで済む。
 とりわけ、特定部113は、記憶装置12に記憶されるユーザデータベースUDを参照して、第2ユーザを特定することが好適である。具体的には、特定部113は、ユーザデータベースUDに登録されている1又は複数のユーザから、ユーザUと仮想空間VSを共有する1又は複数のユーザを絞り込む。次に、特定部113は、絞り込んだ1又は複数のユーザから、仮想空間VSにおけるユーザUからの距離が最も近いユーザUを選択する。より詳細には、特定部113は、当該1又は複数のユーザから、仮想空間VSにおいて、ユーザUに対応するアバターからの距離が最も近いアバターに対応するユーザUを選択する。しかし、ユーザデータベースUDにおいて、選択したユーザUが、ユーザUの友人又は知り合いとして登録されていない場合には、特定部113は、仮想空間VSにおいて、ユーザUの次にユーザUからの距離が近いユーザUを選択する。特定部113は、この処理を繰り返すことで、ユーザデータベースUDに登録されていると共に、ユーザUの友人又は知り合いであるユーザの中で、仮想空間VSにおいてユーザUからの距離が最も近いユーザを、第2ユーザとして特定することが好適である。ここでは、特定部113が、ユーザUを第2ユーザとして特定したものとする。
 この結果、サーバ10は、ユーザUにとっての友人又は知り合いを、第2ユーザとしてのユーザUとして特定できる。逆に言えば、サーバ10は、ユーザUにとって知り合いではない人間との間で、仮想オブジェクトVO1を生成することを防止できる。
 判定部114は、仮想オブジェクトの生成における各種の判定処理を行う。図7は、判定部114の機能ブロック図である。判定部114は、第1判定部114A、第2判定部114B、及び形状判定部114Cを備える。
 第1判定部114Aは、XRグラス30-Kに対する、第2ユーザとしてのユーザUの身体の少なくとも一部、又は、XRグラス30-Kに対する、ユーザUが所持する端末装置20-Kの位置が、所定の相対位置であるか否かを判定する。当該相対位置は「第2相対位置」の一例である。第1判定部114Aの判定結果が肯定、すなわち、XRグラス30-Kに対する、第2ユーザとしてのユーザUの身体の少なくとも一部、又は、XRグラス30-Kに対する、ユーザUが所持する端末装置20-Kの位置が、所定の相対位置にである場合に、形状判定部114Cは、後述の形状を判定する処理を実行する。
 この結果、ユーザUの例えば手の位置が、XRグラス30-Jに対して第1相対位置であり、ユーザUの例えば手の位置が、XRグラス30-Kに対して第2相対位置である場合に、後述のように、形状判定部114Cが、双方のユーザの身体の少なくとも一部の組み合わせが所定の形状と一致するか否かを判定する。逆に言えば、サーバ10は、双方のユーザの手の位置が、XRグラス30-J及び30-Rの各々に対して所定の相対位置となるまでは、双方のユーザの身体の少なくとも一部の組み合わせが所定の形状となったか否かを判定する必要はなくなり、処理負荷が抑制される。
 第2判定部114Bは、仮想空間VSにおいて、第1ユーザとしてのユーザUの身体と、第2ユーザとしてのユーザUの身体との距離が第1距離以内であるか否かを判定する。より具体的には、第2判定部114Bは、仮想空間VSにおいて、ユーザUに対応するアバターと、ユーザUに対応するアバターとの距離が第1距離以内であるか否かを判定する。第2判定部114Bの判定結果が肯定、すなわち、仮想空間VSにおいて、第1ユーザとしてのユーザUの身体と、第2ユーザとしてのユーザUの身体との距離が第1距離以内である場合に、後述のように、形状判定部114Cが、双方のユーザの身体の少なくとも一部の組み合わせが後述の形状と一致したか否かを判定する。
 この結果、仮想空間VSにおいて、ユーザUとユーザUとの間の距離が所定距離以下であって初めて、後述のように、形状判定部114Cが、後述の形状を判定する処理を実行することで、サーバ10の処理負荷は抑制される。
 なお、第1判定部114Aの判定結果が肯定の場合には、第2判定部114Bの判定結果に拘らず、形状判定部114Cは、後述の形状を判定する処理を実行してもよい。同様に、第2判定部114Bの判定結果が肯定の場合には、第1判定部114Aの判定結果に拘らず、形状判定部114Cは、後述の形状を判定する処理を実行してもよい。あるいは、第1判定部114Aの判定結果と、第2判定部114Bの判定結果との双方が肯定の場合にのみ、形状判定部114Cは、後述の形状を判定する処理を実行してもよい。
 形状判定部114Cは、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する。より具体的には、形状判定部114Cは、取得部111が取得した撮像情報に基づいて、現実空間におけるユーザUの身体の少なくとも一部と、現実空間におけるユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定してもよい。あるいは、形状判定部114Cは、仮想空間VSにおいて、ユーザUに対応するアバターの身体の少なくとも一部と、ユーザUに対応するアバターの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定してもよい。
 ここで、「第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否か」とは、「第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との双方を組み合わせることで、一つの形状を形成するか否か」ということを意味してもよい。あるいは、「第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否か」とは、「第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との各々が、所定のポーズと一致するか否か」ということを意味してもよい。例えば、「第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否か」とは、「第1ユーザとしてのユーザUの身体の少なくとも一部のポーズ」と、「第2ユーザとしてのユーザUの身体の少なくとも一部のポーズ」とが一致して、所定の形状と一致することを意味してもよい。
 説明を図6に戻すと、動作制御部115は、形状判定部114Cの判定結果が肯定である場合に、仮想空間VSに対する制御をする。図7は、動作制御部115の機能ブロック図である。動作制御部115は、効果付与部115A、及び表示制御部115Bを備える。
 効果付与部115Aは、仮想空間VSに対して、所定の視覚効果及び所定の音声効果のうち少なくとも一方を付与する。すなわち、形状判定部114Cが、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致すると判定した場合に、仮想空間VSにおいて、所定の視覚効果及び所定の音声効果のうち少なくとも一方が発生する。
 効果付与部115Aは、仮想空間VSにおける発光等の視覚効果をもたらすための視覚制御信号、及び仮想空間VSの背景となるBGM(Background Music)をXRグラス30-Jから放音させるための音声制御信号を、通信装置13を介して端末装置20-Jに送信する。端末装置20-Jは、サーバ10から取得した、これらの視覚制御信号、及び音声制御信号のうち少なくとも1つを、XRグラス30-Jに送信する。XRグラス30-Jは、これらの視覚制御信号、及び音声制御信号のうち少なくとも1つに基づいて、ディスプレイ38に表示されている仮想空間VSに対して、所定の視覚効果及び所定の音声効果のうち少なくとも一方を付与する。
 この結果、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが所定の形状と一致することを、ユーザUに対してより強くアピールできる。また、ユーザU自身も、ユーザUとの間の体を使ったコミュニケーションから、より大きな達成感が得られる。
 表示制御部115Bは、第1ユーザとしてのユーザUに装着されるXRグラス30-Jに表示される仮想空間VSに対して、上記の所定の形状に対応する仮想オブジェクトを、表示させる。
 図9は、形状判定部114C、及び表示制御部115Bの動作例の説明図である。図9には、ユーザUに対応するアバターの手を示す仮想オブジェクトHと、ユーザUに対応するアバターの手を示す仮想オブジェクトHとが示される。図9に示されるように、形状判定部114Cが、仮想オブジェクトHによって示される手の人差し指と親指、及び仮想オブジェクトHによって示される手の人差し指と親指とが、所定の形状としてハート型の形状に一致すると判定する。すると、表示制御部115Bは、ハート型の形状に対応する仮想オブジェクトとして、ハートマークの仮想オブジェクトVO1を、XRグラス30-Jに表示させる。
 より詳細には、表示制御部115Bは、上記の仮想オブジェクトHと仮想オブジェクトVO1を、XRグラス30-Jに表示させる。表示制御部115Bは、更に、仮想オブジェクトHも、XRグラス30-Jに表示させてもよい。これらの場合、表示制御部115Bは、仮想オブジェクトH、及び仮想オブジェクトVO1を示す画像情報、更には、場合によって、仮想オブジェクトHを示す画像情報を端末装置20-Jに出力することで、これらの仮想オブジェクトをXRグラス30-Jに表示させる。
 この結果、ユーザUは、仮想空間VSにおいて他のユーザと共働することで、より豊かなコミュニケーションを実現できる。とりわけ、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが所定の形状と一致する場合に、当該所定の形状に対応する仮想オブジェクトVO1を表示させることで、サーバ10は、ユーザUとユーザUとの間での、体を使ったコミュニケーションを促せる。
 なお、表示制御部115Bは、形状判定部114Cの判定結果が肯定である場合に、上記の所定の形状に対応する仮想オブジェクトVO1が配置された仮想空間VSを、第2ユーザとしてのユーザUに装着されるXRグラス30-Kに表示させてもよい。更に、表示制御部115Bは、仮想オブジェクトH及び仮想オブジェクトHを、XRグラス30-Kに表示させてもよい。
 説明を図8に戻すと、上記の効果付与部115Aは、XRグラス30-Jに表示される、上記の仮想オブジェクトに対して、所定の視覚効果を付与してもよい。ここで、「所定の視覚効果」としては、例えば、図9に示される仮想オブジェクトVO1を振動させる視覚効果が挙げられる。あるいは、図9に示される仮想オブジェクトVO1を、例えば発光させる視覚効果が挙げられる。
1-2:第1実施形態の動作
 図10は、第1実施形態に係るサーバ10の動作例を示すフローチャートである。以下、図10を参照して、サーバ10の動作について説明する。
 ステップS1において、処理装置11は、取得部111として機能する。処理装置11は、表示装置としてのXRグラス30-Jに対する、第1ユーザとしてのユーザUの身体の少なくとも一部、又はユーザUが所持する端末装置20-Jの位置を取得する。ここで、ユーザUの身体の少なくとも一部、又はユーザUが所持する端末装置20-Jの位置を第1位置と呼称する。
 ステップS2において、処理装置11は、特定部113として機能する。処理装置11は、第1位置が第1相対位置であるか否かを判定する。判定結果が肯定、すなわち特定部113が、第1位置が第1相対位置であると判定した場合には、処理装置11は、ステップS3の処理を実行する。判定結果が否定、すなわち特定部113が、第1位置が第1相対位置ではないと判定した場合には、処理装置11は、ステップS1の処理を実行する。
 ステップS3において、処理装置11は、特定部113として機能する。処理装置11は、ユーザUと仮想空間VSを共有する1又は複数のユーザのうち、仮想空間VSにおけるユーザUからの距離が最も近いユーザを第2ユーザとして特定する。ここでは、処理装置11は、ユーザUを第2ユーザとして特定したものとする。
 ステップS4において、処理装置11は、取得部111として機能する。処理装置11は、表示装置としてのXRグラス30-Kに対する、第2ユーザとしてのユーザUの身体の少なくとも一部、又はユーザUが所持する端末装置20-Kの位置を取得する。ここで、ユーザUの身体の少なくとも一部、又はユーザUが所持する端末装置20-Kの位置を第2位置と呼称する。
 ステップS5において、処理装置11は、第1判定部114Aとして機能する。処理装置11は、第2位置が第2相対位置である否かを判定する。判定結果が肯定、すなわち第2位置が第2相対位置であると判定した場合には、処理装置11は、ステップS6の処理を実行する。判定結果が否定、すなわち、第2位置が第2相対位置ではないと判定した場合には、処理装置11は、ステップS1の処理を実行する。
 ステップS6において、処理装置11は、第2判定部114Bとして機能する。処理装置11は、仮想空間VSにおいて、第1ユーザとしてのユーザUの身体と、第2ユーザとしてのユーザUの身体との距離が第1距離以内であるか否かを判定する。判定結果が肯定、すなわち第1ユーザとしてのユーザUの身体と、第2ユーザとしてのユーザUの身体との距離が第1距離以内であると判定した場合には、処理装置11は、ステップS7の処理を実行する。判定結果が否定、すなわち第1ユーザとしてのユーザUの身体と、第2ユーザとしてのユーザUの身体との距離が第1距離以内ではないと判定した場合には、処理装置11は、ステップS1の処理を実行する。
 ステップS7において、処理装置11は、形状判定部114Cとして機能する。処理装置11は、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する。判定結果が肯定、すなわち、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致すると判定した場合には、処理装置11は、ステップS8の処理を実行する。判定結果が否定、すなわち、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが、所定の形状とは一致しないと判定した場合には、処理装置11は、ステップS1の処理を実行する。
 ステップS8において、処理装置11は、効果付与部115Aとして機能する。処理装置11は、XRグラス30-Jに表示される、仮想空間VSに対して、所定の視覚効果及び所定の音声効果のうち少なくとも一方を付与する。
 ステップS9において、処理装置11は、表示制御部115Bとして機能する。処理装置11は、上記の所定の形状に対応する仮想オブジェクトを、仮想空間VSに表示させる。その後、処理装置11は、図10に示される全ての動作を終了する。
1-3:第1実施形態が奏する効果
 以上の説明によれば、表示制御装置としてのサーバ10は、第1ユーザとしてのユーザUが装着する、表示装置としてのXRグラス30-Jの表示を制御する表示制御装置であって、形状判定部114Cと、動作制御部115とを備える。形状判定部114Cは、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する。また、動作制御部115は、形状判定部114Cの判定結果が肯定である場合に、XRグラス30-Jに表示される仮想空間に対する制御を実行する。
 サーバ10は、上記の構成を備えるので、ユーザUは、仮想空間VSにおいて他のユーザと共働することで、より豊かなコミュニケーションを実現できる。通常、仮想空間VSを共有するオンラインのコミュニティーでは、音声での通話が主要となり、ユーザ間での体を使った触れあいに乏しい。とりわけ、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが所定の形状と一致する場合に、サーバ10が所定の動作を実行することで、サーバ10は、ユーザUとユーザUとの間での、体を使ったコミュニケーションを促せる。
 また以上の説明によれば、動作制御部115は、効果付与部115Aを備える。効果付与部115Aは、仮想空間VSに対して、所定の視覚効果及び所定の音声効果のうち少なくとも一方を付与する。
 サーバ10は、上記の構成を備えるので、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが所定の形状と一致することを、ユーザUに対してより強くアピールできる。また、ユーザU自身も、ユーザUとの間の体を使ったコミュニケーションから、より大きな達成感が得られる。
 また以上の説明によれば、動作制御部115は、表示制御部115Bを備える。表示制御部115Bは、表示装置としてのXRグラス30-Jに表示される仮想空間VSに対して、上記の所定の形状に対応する仮想オブジェクトVO1を表示させる。
 サーバ10は、上記の構成を備えるので、ユーザUの身体の少なくとも一部と、ユーザUの身体の少なくとも一部との組み合わせが所定の形状と一致することを、ユーザUに対してより強くアピールできる。また、ユーザU自身も、ユーザUとの間の体を使ったコミュニケーションから、より大きな達成感が得られる。
 また以上の説明によれば、サーバ10は、特定部113を更に備える。特定部113は、表示装置としてのXRグラス30-Jに対する、第1ユーザとしてのユーザUの身体の少なくとも一部の位置、又は、当該XRグラス30-Jに対するユーザUが所持する、当該XRグラス30-Jを制御する端末装置20-Jの位置が、第1相対位置である場合に、ユーザUと仮想空間VSを共有する1又は複数のユーザのうち、仮想空間VSにおけるユーザUからの距離が最も近いユーザを第2ユーザとしてのユーザUとして特定する。
 サーバ10は、上記の構成を備えるので、ユーザUの例えば手が、自身の装着するXRグラス30-Jに対して第1相対位置であることをトリガーとして、ユーザUからの距離が最も近いユーザを第2のユーザとして特定できる。逆に言えば、ユーザUの例えば手が、自身の装着するXRグラス30-Jに対して、第1相対位置ではない間は、サーバ10は、本発明の動作を実行しないで済むので、処理負荷を抑制できる。
 また以上の説明によれば、特定部113は、第1ユーザとしてのユーザUと仮想空間VSを共有する1又は複数のユーザのうち、所定のユーザを第2ユーザとしてのユーザUとして特定する。
 サーバ10は、上記の構成を備えるので、ユーザUにとっての友人又は知り合いを、第2ユーザとしてのユーザUとして特定できる。逆に言えば、サーバ10は、ユーザUJにとって知り合いではない人間との間で、仮想オブジェクトVO1を生成することを防止できる。
 また以上の説明によれば、サーバ10は、第1判定部114Aを更に備える。第1判定部114Aは、第2ユーザとしてのユーザUに装着される第2表示装置としてのXRグラス30-Kに対する、ユーザUの身体の少なくとも一部、又は、当該XRグラス30-Kに対するユーザUが所持する端末装置20-Kの位置が、第2相対位置である否かを判定する。形状判定部114Cは、第1判定部114Aの判定結果が肯定である場合に、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する。
 サーバ10は、上記の構成を備えるので、ユーザUの例えば手の位置が、XRグラス30-Jに対して第1相対位置となり、ユーザUの例えば手の位置が、XRグラス30-Kに対して第2相対位置になると共に、双方のユーザの身体の少なくとも一部の組み合わせが所定の形状と一致する場合に、仮想オブジェクトVO1を表示させられる。逆に言えば、サーバ10は、双方のユーザの手の位置が、XRグラス30-J及び30-Rの各々に対して所定の相対位置となるまでは、双方のユーザの身体の少なくとも一部の組み合わせが所定の形状と一致するか否かを判定する必要はなくなり、処理負荷が抑制される。
 また以上の説明によれば、サーバ10は、第2判定部114Bを更に備える。第2判定部114Bは、仮想空間VSにおいて、第1ユーザとしてのユーザUの身体と、第2ユーザとしてのユーザUの身体との距離が第1距離以内であるか否かを判定する。形状判定部114Cは、少なくとも第2判定部114Bの判定結果が肯定である場合に、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する。
 サーバ10は、上記の構成を備えるので、仮想空間VSにおいて、ユーザUとユーザUとの間の距離が所定距離以下であって初めて、サーバ10は、仮想オブジェクトVO1を表示させられる。この結果、サーバ10の処理負荷は抑制される。
2:変形例
 本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
2-1:変形例1
 第1実施形態に係る情報処理システム1においては、主として、XRグラス30-Jに備わる撮像装置36が、ユーザUの身体の一部を撮像すると共に、サーバ10が、当該撮像画像を示す撮像情報を用いて、ユーザUに対応するアバターの身体の一部を生成していた。しかし、アバターの生成方法は、これに限定されない。
 例えば、端末装置20-Jに備わる撮像装置24が、ユーザUの全身像を撮像すると共に、サーバ10に備わる生成部112が、当該ユーザUの全身像を撮像した撮像画像を示す撮像情報を用いて、ユーザUに対応するアバターの全身像を生成してもよい。同様に、端末装置20-Kに備わる撮像装置24が、ユーザUの全身像を撮像すると共に、サーバ10に備わる生成部112が、当該ユーザUの全身像を撮像した撮像画像を示す撮像情報を用いて、ユーザUに対応するアバターの全身像を生成してもよい。この場合、サーバ10に備わる形状判定部114Cは、ユーザUの全身像と、ユーザUの全身像との組み合わせが所定の形状と一致するか否かを判定する。判定結果が肯定である場合に、サーバ10に備わる表示制御部115Bが、当該所定の形状に対応する仮想オブジェクトが配置された仮想空間を、ユーザUに装着されるXRグラス30-Jに表示させる。
 図11は、本変形例1において、XRグラス30-Jに表示される仮想空間VSの一例を示す図である。当該仮想空間VSにおいて、ユーザUに対応するアバターAの全身像と、ユーザUに対応するアバターAの全身像との組み合わせが、図11に例示される形状と一致する場合に、当該所定の形状を囲むような紙吹雪を示す仮想オブジェクトVO2が表示される。
2-2:変形例2
 第1実施形態に係る情報処理システム1においては、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが所定の形状と一致する場合に、所定の動作制御を実行していた。すなわち、第1実施形態に係る情報処理システム1においては、2人のユーザの身体の少なくとも一部の組み合わせが所定の形状と一致する場合に、所定の動作制御を実行していた。しかし、ユーザの人数は2人に限定されない。具体的には、3人以上のユーザの身体の少なくとも一部の組み合わせが所定の形状と一致する場合に、サーバ10は、仮想空間VSに対する制御を実行してもよい。この場合、特定部113は、ユーザUを中心とする所定範囲に位置する3人以上のユーザを、第2ユーザ以下のユーザとして特定する。
2-3:変形例3
 第1実施形態に係る情報処理システム1においては、第1判定部114A及び第2判定部114Bの判定結果のうち少なくとも一方の判定結果と、形状判定部114Cの判定結果の双方の判定結果が肯定となった場合に、動作制御部115は、仮想空間VSに対する制御を実行していた。しかし、双方の判定結果のうち一方のみの判定結果が肯定となった場合に、動作制御部115は、仮想空間VSに対する制御を実行してもよい。例えば、ユーザUの例えば手の位置が、XRグラス30-Jに対して第1相対位置となると共に、ユーザUの例えば手の位置が、XRグラス30-Kに対して第2相対位置になったことのみをもって、動作制御部115は、仮想空間VSに対する制御を実行してもよい。
2-4:変形例4
 第1実施形態に係る情報処理システム1においては、サーバ10が、表示制御装置として機能していた。具体的には、表示制御装置としてのサーバ10が、形状判定部114Cと動作制御部115とを備えていた。その上で、形状判定部114Cは、第1ユーザとしてのユーザUの身体の少なくとも一部と、第2ユーザとしてのユーザUの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定していた。また、動作制御部115は、形状判定部114Cの判定結果が肯定である場合に、仮想空間VSに対する制御を実行していた。
 しかし、サーバ10ではなく、端末装置20-Jが、表示制御装置として機能してもよい。具体的には、第1実施形態に係る情報処理システム1において、サーバ10に備わる生成部112、特定部113、判定部114、動作制御部115、及びユーザデータベースUDと同様の構成要素を、端末装置20-Jが備えることで、表示制御装置として機能してもよい。端末装置20-Kについても同様である。
2-5:変形例5
 第1実施形態に係る情報処理システム1において、サーバ10に備わる特定部113は、第1ユーザとしてのユーザUと、仮想空間VSを共有する1又は複数のユーザのうち、仮想空間VSにおけるユーザUからの距離が最も近いユーザを第2ユーザとして特定する。しかし、特定部113が第2ユーザとして特定するユーザは、仮想空間VSにおいて、ユーザUからの距離が最も近いユーザでなくてもよい。例えば、特定部113は、現実空間において、ユーザUからの距離が最も近いユーザを第2ユーザとして特定してもよい。あるいは、特定部113は、ユーザUとの間でのコミュニケーション量が最も多いユーザを、第2ユーザとして特定してもよい。
2-6:変形例6
 第1実施形態に係る情報処理システム1において、端末装置20-JとXRグラス30-Jとは別体として実現されている。しかし、本発明の実施形態における、端末装置20-JとXRグラス30-Jの実現方法は、これには限定されない。例えば、XRグラス30-Jが、端末装置20-Jと同一の機能を備えてもよい。換言すれば、端末装置20-JとXRグラス30-Jとが単一の筐体内において実現されてもよい。端末装置20-KとXRグラス30-Kについても同様である。
2-7:変形例7
 第1実施形態に係る情報処理システム1は、XRグラス30-J及び30-Kを備える。上記の説明では、一例としてXRグラス30-J及び30-KがMRグラスである場合について述べた。しかし、情報処理システム1において、XRグラス30-J及び30-Kは、MRグラスではなく、VR技術が採用されたHMD(Head Mounted Display)、VR技術が採用されたVRグラス、AR技術が採用されたHMD、及びAR技術が採用されたARグラス、MR技術が採用されたHMDのうちいずれか1つであってもよい。
3:その他
(1)上述した実施形態では、記憶装置12、記憶装置22、及び記憶装置32は、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NETから送信されてもよい。
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1~図11に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
(10)上述した実施形態において、サーバ10、及び端末装置20-1~20-Nは、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語によって呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含められる。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えられる。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などによって読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
1…情報処理システム、10…サーバ、11…処理装置、12…記憶装置、13…通信装置、14…ディスプレイ、15…入力装置、20…端末装置、21…処理装置、22…記憶装置、23…通信装置、24…撮像装置、25…ディスプレイ、26…入力装置、27…慣性センサ、30…XRグラス、31…処理装置、32…記憶装置、33…視線検出装置、34…GPS装置、35…動き検出装置、36…撮像装置、37…通信装置、38…ディスプレイ、41L、41R…レンズ、91、92…テンプル、93…ブリッジ、94…フレーム、95…フレーム、111…取得部、112…生成部、113…特定部、114…判定部、114A…第1判定部、114B…第2判定部、114C…形状判定部、115…動作制御部、115A…効果付与部、115B…表示制御部、211…取得部、212…表示制御部、213…出力部、311…取得部、312…出力部、313…表示制御部、PR1~PR3…制御プログラム、VO1~VO2…仮想オブジェクト

Claims (7)

  1.  第1ユーザに装着される表示装置の表示を制御する表示制御装置であって、
     前記第1ユーザの身体の少なくとも一部と第2ユーザの身体の少なくとも一部との組み合わせが、所定の形状と一致するか否かを判定する形状判定部と、
     前記形状判定部の判定結果が肯定である場合に、前記表示装置に表示される仮想空間に対する制御を実行する動作制御部と、
    を備える、表示制御装置。
  2.  前記動作制御部は、前記仮想空間に対して、所定の視覚効果及び所定の音声効果のうち少なくとも一方を付与する効果付与部を備える、請求項1に記載の表示制御装置。
  3.  前記動作制御部は、前記仮想空間に対して、前記所定の形状に対応する仮想オブジェクトを表示させる表示制御部を備える、請求項1又は請求項2に記載の表示制御装置。
  4.  特定部を更に備え、
     前記表示装置に対する、前記第1ユーザの前記身体の少なくとも一部の位置又は、前記表示装置に対する、前記第1ユーザが所持する、当該表示装置を制御する端末装置の位置が、第1相対位置である場合に、
     前記特定部は、前記第1ユーザと前記仮想空間を共有する1又は複数のユーザのうち、前記仮想空間における前記第1ユーザからの距離が最も近いユーザを前記第2ユーザとして特定する、請求項1から請求項3のいずれか1項に記載の表示制御装置。
  5.  前記特定部は、前記第1ユーザと前記仮想空間を共有する前記1又は複数のユーザのうち、所定のユーザを前記第2ユーザとして特定する、請求項4に記載の表示制御装置。
  6.  第1判定部を更に備え、
     前記表示装置は第1表示装置であり、
     前記第1判定部は、前記第2ユーザに装着される第2表示装置に対する、前記第2ユーザの前記身体の少なくとも一部の位置、又は、前記第2表示装置に対する、前記第2ユーザが所持する、前記第2表示装置を制御する端末装置の位置が第2相対位置であるか否かを判定し、
     前記形状判定部は、前記第1判定部の判定結果が肯定である場合に、前記第1ユーザの前記身体の少なくとも一部と前記第2ユーザの前記身体の少なくとも一部との前記組み合わせが、前記所定の形状と一致するか否かを判定する、請求項1から請求項5のいずれか1項に記載の表示制御装置。
  7.  前記仮想空間において、前記第1ユーザの前記身体と、前記第2ユーザの前記身体との距離が第1距離以内であるか否かを判定する第2判定部を更に備え、
     前記形状判定部は、前記第2判定部の判定結果が肯定である場合に、前記第1ユーザの前記身体の少なくとも一部と前記第2ユーザの前記身体の少なくとも一部との組み合わせが、前記所定の形状と一致するか否かを判定する、請求項1から請求項6のいずれか1項に記載の表示制御装置。
PCT/JP2023/000785 2022-02-24 2023-01-13 表示制御装置 WO2023162499A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-026498 2022-02-24
JP2022026498 2022-02-24

Publications (1)

Publication Number Publication Date
WO2023162499A1 true WO2023162499A1 (ja) 2023-08-31

Family

ID=87765403

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/000785 WO2023162499A1 (ja) 2022-02-24 2023-01-13 表示制御装置

Country Status (1)

Country Link
WO (1) WO2023162499A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128966A (ja) * 2017-02-10 2018-08-16 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018136766A (ja) * 2017-02-22 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP2019087262A (ja) * 2018-12-14 2019-06-06 株式会社コロプラ プログラム、情報処理装置、および方法
JP2021002145A (ja) * 2019-06-20 2021-01-07 パルス株式会社 仮想空間提供システム、仮想空間提供方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128966A (ja) * 2017-02-10 2018-08-16 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018136766A (ja) * 2017-02-22 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP2019087262A (ja) * 2018-12-14 2019-06-06 株式会社コロプラ プログラム、情報処理装置、および方法
JP2021002145A (ja) * 2019-06-20 2021-01-07 パルス株式会社 仮想空間提供システム、仮想空間提供方法及びプログラム

Similar Documents

Publication Publication Date Title
US11127210B2 (en) Touch and social cues as inputs into a computer
CN109074164B (zh) 使用视线追踪技术标识场景中的对象
US10168981B2 (en) Method for sharing images and electronic device performing thereof
US9390561B2 (en) Personal holographic billboard
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
US20180189354A1 (en) Replacing pronouns with focus-specific objects in search queries
KR20160148557A (ko) 월드 락 디스플레이의 품질 피드백 기법
US11532227B2 (en) Discovery of and connection to remote devices
US20180321755A1 (en) Remote control of a desktop application via a mobile device
JP2021043476A (ja) 情報処理装置
WO2023162499A1 (ja) 表示制御装置
WO2023149256A1 (ja) 表示制御装置
WO2023112838A1 (ja) 情報処理装置
WO2023145890A1 (ja) 端末装置
WO2023149498A1 (ja) 表示制御装置
WO2023145892A1 (ja) 表示制御装置及びサーバ
WO2023120472A1 (ja) アバター生成装置
WO2023176317A1 (ja) 表示制御装置
WO2023139961A1 (ja) 情報処理装置
WO2023145265A1 (ja) メッセージ送信装置及びメッセージ受信装置
CN111859199A (zh) 在环境中定位内容
WO2023079875A1 (ja) 情報処理装置
WO2023145273A1 (ja) 表示制御装置
WO2023149379A1 (ja) 情報処理装置
JP2024004019A (ja) 制御装置及び制御システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23759505

Country of ref document: EP

Kind code of ref document: A1