WO2023162457A1 - 仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラム - Google Patents

仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラム Download PDF

Info

Publication number
WO2023162457A1
WO2023162457A1 PCT/JP2022/047978 JP2022047978W WO2023162457A1 WO 2023162457 A1 WO2023162457 A1 WO 2023162457A1 JP 2022047978 W JP2022047978 W JP 2022047978W WO 2023162457 A1 WO2023162457 A1 WO 2023162457A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
virtual space
unit
space image
Prior art date
Application number
PCT/JP2022/047978
Other languages
English (en)
French (fr)
Inventor
智之 宍戸
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2023162457A1 publication Critical patent/WO2023162457A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present disclosure relates to a virtual space image display device, a virtual space image display method, and a virtual space image display program.
  • An immersive HMD Head Mounted Display
  • AR Augmented Reality
  • the real space is cut off for the user viewing the virtual space with the immersive HMD. For this reason, objects such as coffee cups placed around the user cannot be seen, and it is difficult for the user to drink from the coffee cup. In some cases, the coffee cup is overturned or dropped, resulting in breakage. Furthermore, the user himself may be injured.
  • Patent Document 1 proposes drawing an object in a virtual space by the user touching an object placed in the surroundings.
  • an immersive HMD since the user's real space is blocked, it is difficult to intentionally touch objects existing in the surroundings.
  • the user wearing the immersive HMD cannot see the real space, and it is difficult to take a drink from a coffee cup placed around the user, for example.
  • the present disclosure has been made to solve such conventional problems, and the purpose thereof is to enable a user to recognize surrounding objects without making others feel uncomfortable. It is an object of the present invention to provide a virtual space image display device, a virtual space image display method, and a virtual space image display program.
  • a virtual space image display device includes a detection unit that detects an object existing within a predetermined distance from one user, and generates a first virtual space image including an image of the object. and a second image generator for superimposing the first virtual space image on a second virtual space image visible to the one user and other users. .
  • a virtual space image display method includes steps of detecting an object existing within a predetermined distance from one user; generating a first virtual space image including an image of the object; and superimposing the first virtual space image on a second virtual space image visible to other users.
  • a virtual space image display program includes steps of detecting an object existing within a predetermined distance from one user, generating a first virtual space image including an image of the object, and superimposing the first virtual space image on a second virtual space image visible to other users.
  • FIG. 1 is a block diagram showing the configuration of the virtual space image display system according to the first embodiment.
  • FIG. 2 is a block diagram showing the detailed configuration of the edge device.
  • FIG. 3 is a block diagram showing the detailed configuration of the cloud server.
  • FIG. 4 is an explanatory diagram showing a peripheral image of a user operating an edge device.
  • FIG. 5A is an explanatory diagram showing an example in which an opaque object image is displayed in the three-dimensional virtual space image displayed on the edge device.
  • FIG. 5B is an explanatory diagram showing an example in which a translucent object image is displayed in the three-dimensional virtual space image displayed on the edge device.
  • FIG. 6A is an explanatory diagram showing an example of a 3D virtual space image displayed on another edge device.
  • FIG. 6B is an explanatory diagram showing an example in which a contour-enhanced image is superimposed on a three-dimensional virtual space image displayed on another edge device.
  • FIG. 7 is a flowchart showing a first processing procedure by an edge device in the virtual space image system according to the first embodiment;
  • FIG. 8 is a flow chart showing a processing procedure by the cloud server of the virtual space image system according to the first embodiment.
  • FIG. 9 is a flowchart showing a second processing procedure by the edge device of the virtual space image system according to the first embodiment.
  • FIG. 10 is a block diagram showing the configuration of the virtual space image display device according to the second embodiment.
  • FIG. 11 is a flow chart showing the processing procedure of the virtual space image display device according to the second embodiment.
  • FIG. 1 is a block diagram showing the configuration of a virtual space image display system 100 according to the first embodiment.
  • FIG. 2 is a block diagram showing the detailed configuration of the edge device 1 (virtual space image display device), and
  • FIG. 3 is a block diagram showing the detailed configuration of the cloud server 2.
  • FIG. 4 is an explanatory diagram showing a peripheral image of a user (one user) who operates the edge device 1. As shown in FIG.
  • the virtual space image display system 100 includes a plurality of edge devices 1 and 1A and a cloud server 2. Each edge device 1, 1A and the cloud server 2 are connected by a network 3, for example.
  • FIG. 1 The configuration of the edge device 1 will be described below with reference to FIG. Another edge device 1A also has a configuration similar to that of the edge device 1.
  • FIG. 1 Another edge device 1A also has a configuration similar to that of the edge device 1.
  • the edge device 1 includes a synchronization signal generation unit 11, an acquisition unit 12, a detection unit 13, a determination unit 14, an image generation unit 15, an image drawing unit 16, an image display unit 17, a transmission unit 18, A receiver 19 is provided.
  • the edge device 1 can be implemented using a microcomputer having a CPU (central processing unit), memory, and input/output unit.
  • a plurality of information processing units (synchronization signal generation unit 11, acquisition unit 12, detection unit 13, determination unit 14, image generation unit 15, image drawing unit 16, image display unit 17, transmission unit 18, reception unit 19) are connected to a microcomputer. Install and run a computer program on a microcomputer to function as Thereby, the microcomputer functions as a plurality of information processing units included in the edge device 1 .
  • the edge device 1 may be configured by preparing dedicated hardware for executing each information processing. Information processing executed by each information processing unit included in the edge device 1 may be configured by individual hardware. The same applies to the edge device 1A.
  • the synchronization signal generator 11 counts a predetermined image acquisition time and outputs a synchronization signal each time this image acquisition time elapses.
  • the image acquisition time is, for example, 1/60 second.
  • the acquisition unit 12 acquires images of the surroundings of the user who operates the edge device 1 .
  • the acquisition unit 12 is, for example, one or a plurality of cameras installed around the user. Specifically, as shown in FIG. 4, two cameras 55 are installed on the ceiling of the room where the user 50 is present. Peripheral images and depth information of the user 50 can be acquired by each camera 55 .
  • the acquisition unit 12 can also be a depth sensor provided in an immersive HMD other than the camera 55 .
  • the detection unit 13 includes a person detection unit 131 and an object detection unit 132.
  • the person detection unit 131 detects the user operating the edge device 1 from the image acquired by the acquisition unit 12 . Specifically, the person detection unit 131 detects the position information of the user 50 from the peripheral image shown in FIG.
  • the position information is three-dimensional coordinate information, and includes motion information indicated by vertex coordinates and vectors of the user 50 .
  • the object detection unit 132 detects various objects existing around the user from the image acquired by the acquisition unit 12 . Specifically, the object detection unit 132 detects the position information of the coffee cup 51 and the personal computer 52 shown in FIG. Hereinafter, objects such as the coffee cup 51 and the personal computer 52 placed around the user 50 may be collectively referred to as objects 60 .
  • the object detection unit 132 has a function of detecting an object existing within a predetermined distance from the user (one user) of the edge device 1 .
  • the object detection unit 132 can set objects that are not to be detected as objects in advance according to preset conditions or user operations.
  • the table 53 shown in FIG. 4 can be excluded from the objects to be hidden. Therefore, in the peripheral image shown in FIG. 4, the coffee cup 51 and the personal computer 52 are recognized as the object 60, and the table 53 is not recognized as the object 60.
  • the determination unit 14 includes a distance determination unit 141 and a contact determination unit 142.
  • the distance determination unit 141 measures the distance between the user and the object based on the user position information detected by the person detection unit 131 and the object position information detected by the object detection unit 132 . For example, as shown in FIG. 4, when there is a table 53 near the user 50 and the coffee cup 51 is placed on the table 53, the distance determination unit 141 detects the distance from the user 50 to the coffee cup 51 (object 60 ). The distance determination unit 141 determines whether or not the distance from the user to the object is within a predetermined threshold distance L1.
  • the contact determination unit 142 determines whether the user has touched an object based on the user's position information detected by the person detection unit 131 and the object position information detected by the object detection unit 132 . For example, when the user 50 shown in FIG. 4 holds the coffee cup 51 placed on the table 53, it is determined that the user and the object (coffee cup) have come into contact with each other.
  • the contact determination unit 142 measures the number of times the user contacts the object, and determines that the user contacts the object when the number of contacts between the user and the object reaches a predetermined number (for example, three times). You may Further, the contact determination unit 142 may determine that the user and the object have contacted each other when the contact time reaches a predetermined time (for example, 3 seconds) after the time of contact between the user and the object has elapsed.
  • a predetermined number for example, three times.
  • the contact determination unit 142 has a function of detecting at least one of contact between one user and an object for a predetermined time or more and contact between one user and an object for a predetermined number of times or more. may be
  • the image generator 15 includes an object image generator 151 and a transparency processor 152 .
  • the object image generator 151 has a virtual space for object images (hereinafter referred to as "first virtual space").
  • the first virtual space is a three-dimensional space.
  • the object image generator 151 generates a three-dimensional image of the object detected by the object detector 132 and writes it in the first virtual space.
  • the object image generator 151 has a function as a first image generator that generates a first virtual space image including an image of an object (body).
  • the object image generation unit 151 performs processing for reconstructing the object image when the object detection unit 132 detects a change in the shape of the object. For example, when the user drinks the coffee in the coffee cup and the remaining amount of coffee in the cup changes, that is, when the shape of the entire coffee cup changes, the three-dimensional image of the coffee cup is reconstructed. , is written into the first virtual space.
  • the object detection unit 132 of the detection unit 13 detects a shape change of an object (object), and the first image generation unit is included in the first virtual space when the shape change of the object is detected. It has the ability to reconstruct an image of an object.
  • the transparency processing unit 152 converts the object image generated by the object image generation unit 151 into a semi-transparent object image, that is, an image in which the object is displayed semi-transparently.
  • a “semi-transparent object image” is an image in which at least a part of an object is transparent and an image on the depth side of the object can be visually recognized.
  • the transparency processing unit 152 generates an image 51a in which the coffee cup is translucent and an image 52a in which the personal computer is translucent, as shown in FIG. 5B, which will be described later.
  • a semi-transparent image is indicated by a dotted line.
  • the image drawing unit 16 acquires an image of the three-dimensional virtual space for display (hereinafter referred to as "second virtual space image") transmitted from the cloud server 2.
  • the image drawing unit 16 acquires an opaque object image (an opaque object image whose contour is not emphasized) generated by the object image generating unit 151 and a translucent object image generated by the transparency processing unit 152. .
  • the image drawing unit 16 superimposes the first virtual space image including an opaque object image or a translucent object image on the second virtual space image according to the conditions described later.
  • the image drawing unit 16 controls the image display unit 17 to display a second virtual space image on which an opaque object image is superimposed.
  • the image rendering unit 16 renders the first virtual space image into the second virtual space image visible to the user of the edge device 1 (one user) and the user of the other edge device 1A (other user). It has a function as a second image generating section that superimposes an image. Further, when at least one of the contact between the one user and the object for a predetermined time or more and the contact between the one user and the object for a predetermined number of times or more is detected, the image drawing unit 16 performs a second It has a function of displaying the first virtual space image superimposed on the virtual space image.
  • the image display unit 17 is, for example, an immersive HMD 54 worn by the user 50 shown in FIG.
  • the image display unit 17 displays the image drawn by the image drawing unit 16 on the screen.
  • the user can view the second virtual space image drawn by the image drawing unit 16 while blocking the real space image.
  • the user can communicate with other users in the second virtual space (three-dimensional virtual space).
  • the transmission unit 18 transmits the location information of the user detected by the person detection unit 131 to the cloud server 2 via the network 3 .
  • the transmission unit 18 transmits the position information of the object determined by the contact determination unit 142 to be in contact with the user via the network 3 to the cloud server 2 .
  • the position information includes motion information indicated by vertex coordinates and vectors of the user and objects.
  • the location information may be transmitted to the cloud server 2 only when the user permits transmission of the location information of the user and the object.
  • the receiving unit 19 receives the second virtual space image transmitted from the cloud server 2 via the network 3.
  • the cloud server 2 includes a synchronization signal generator 21 , a virtual space controller 22 , an image processor 23 , a transmitter 24 and a receiver 25 .
  • the cloud server 2 can be implemented using a microcomputer that includes a CPU (central processing unit), memory, and input/output unit.
  • a computer program for causing the microcomputer to function as a plurality of information processing units (synchronization signal generation unit 21, virtual space control unit 22, image processing unit 23, transmission unit 24, reception unit 25) is installed in the microcomputer and executed. do.
  • the microcomputer functions as a plurality of information processing units included in the cloud server 2 .
  • the cloud server 2 may be configured by preparing dedicated hardware for executing each information processing. Information processing executed by each information processing unit included in the cloud server 2 may be configured by individual hardware.
  • the synchronization signal generation unit 21 counts a predetermined image acquisition time (for example, 1/60 second) and outputs a synchronization signal each time this image acquisition time elapses. do.
  • a predetermined image acquisition time for example, 1/60 second
  • the receiving unit 25 receives the location information of the user and the object transmitted from the transmitting unit 18 of the edge device 1.
  • the receiving unit 25 similarly receives the location information of the user and the object transmitted from the transmitting unit (not shown) for the other edge device 1A.
  • the image processing unit 23 includes an image generation unit 231 and a contour processing unit 232.
  • the image generation unit 231 generates a user image and an opaque object image existing within a threshold distance L1 from the user based on the position information of the user and the object received by the reception unit 25 .
  • the user image and the opaque object image may be three-dimensional images.
  • the contour processing unit 232 generates a contour-enhanced image in which the contour of the opaque object image is emphasized. For example, when the coffee cup 51 and the personal computer 52 shown in FIG. 4 are detected as the objects 60, outline-enhanced images of these objects 60 are generated. Specifically, as shown in FIG. 6B, which will be described later, an image 51b of a coffee cup and an image 52b of a personal computer with emphasized outlines are generated.
  • the virtual space control unit 22 has a second virtual space that is a three-dimensional virtual space.
  • the second virtual space there are avatar images of users of a plurality of edge devices 1 and 1A connected to the cloud server 2 via the network 3, for example.
  • the second virtual space is a space where users of the edge devices 1 and 1A can virtually communicate with each other.
  • the virtual space control section 22 controls the second virtual space image.
  • the virtual space control unit 22 outputs the second virtual space image to the transmission unit 24 each time the synchronization signal is output from the synchronization signal generation unit 21 .
  • the virtual space control unit 22 writes this user image into the second virtual space.
  • an opaque object image is transmitted from the image generating unit 231
  • the virtual space control unit 22 writes this opaque object image in the second virtual space.
  • the contour-enhanced image is output from the contour processing unit 232
  • the virtual space control unit 22 writes the contour-enhanced image in the second virtual space.
  • the virtual space control unit 22 outputs to the transmission unit 24 a second virtual space image on which the user image and the contour-enhanced image are superimposed.
  • the transmission unit 24 transmits the second virtual space image output from the virtual space control unit 22 to each of the edge devices 1 and 1A via the network 3.
  • FIG. 7 the operation of the virtual space image display system 100 according to the first embodiment will be described with reference to the flowcharts shown in FIGS. 7, 8, and 9.
  • FIG. 7 the operation of the virtual space image display system 100 according to the first embodiment will be described with reference to the flowcharts shown in FIGS. 7, 8, and 9.
  • FIG. 7 is a flowchart showing the first processing procedure executed by the edge device 1.
  • FIG. Similar processing is executed for the other edge device 1A.
  • step S11 of FIG. 7 the synchronization signal generator 11 of the edge device 1 measures a predetermined image acquisition time and determines whether or not it is the image acquisition time.
  • step S12 the acquisition unit 12 acquires an image and depth information around the user who operates the edge device 1.
  • an image and depth information can be acquired by an image captured by a camera installed around the user, a depth sensor, or the like.
  • step S13 the person detection unit 131 determines whether or not a person has been detected from the image around the user. If a person is detected (S13: YES), the process proceeds to step S14; otherwise (S13: NO), the process proceeds to step S20.
  • step S14 the person detection unit 131 recognizes that the detected person is the user, and acquires the user's position information.
  • the position information is, for example, motion information indicated by vertex coordinates and vectors of the user.
  • the person detection unit 131 outputs the acquired position information of the user to the transmission unit 18 .
  • the transmission unit 18 transmits the user's location information to the cloud server 2 .
  • step S15 the object detection unit 132 determines whether an object has been detected from the image around the user. If an object is detected (S15: YES), the process proceeds to step S16; otherwise (S15: NO), the process proceeds to step S20.
  • step S16 the distance determination unit 141 measures the distance between the user and the object.
  • the distance determination unit 141 determines whether or not the distance between the user and the object is within a predetermined threshold distance L1.
  • the threshold distance L1 may be a distance that the user can reach by reaching out.
  • the threshold distance L1 can be, for example, 30 cm. If the distance between the user and the object is within the threshold distance L1 (S16: YES), the process proceeds to step S17; otherwise (S16: NO), the process proceeds to step S20.
  • step S17 the contact determination unit 142 determines whether or not the user has come into contact with the object. If it is determined that there is contact (S17: YES), the process proceeds to step S18, otherwise (S18: NO), the process proceeds to step S19.
  • the determination of contact between the user and the object is made simply when the two are in contact, when the number of times of contact between the two reaches a predetermined number of times (for example, three times), and when the contact between the user and the object reaches a predetermined number of times (for example, three times). 3 seconds), contact can be determined.
  • step S18 the object image generation unit 151 outputs the position information of the object that has touched the user to the transmission unit 18.
  • the position information includes motion information indicated by vertex coordinates and vectors of the object.
  • the transmission unit 18 transmits the position information of the object to the cloud server 2 . After that, the process proceeds to step S20.
  • step S19 the transparency processing unit 152 generates a three-dimensional image (semi-transparent object image) of an object that exists within the threshold distance L1 from the user and is not in contact with the user. After that, the process proceeds to step S20.
  • step S20 it is determined whether or not the condition for terminating the process is met. If the process is not to be terminated, the process returns to step S11, otherwise the process is terminated.
  • FIG. 8 is a flowchart showing the processing procedure of the cloud server 2.
  • the synchronizing signal generator 21 determines whether or not it is drawing update time.
  • step S32 the reception unit 25 of the cloud server 2 determines whether the user's position information (vertex coordinates, motion information) transmitted from the edge device 1 has been received. judge. If the user's location information has been received (S32: YES), the process proceeds to step S33; otherwise (S32: NO), the process proceeds to step S34.
  • the cloud server 2 also receives location information transmitted from the other edge device 1A, here, the case of receiving location information transmitted from the edge device 1 is shown.
  • step S33 the image generator 231 generates a three-dimensional image of the user based on the user's position information transmitted from the edge device 1.
  • step S34 the receiving unit 25 determines whether or not the object position information (vertex coordinates, motion information) transmitted from the edge device 1 has been received. If the position information of the object has been received (S34: YES), the process proceeds to step S35; otherwise (S34: NO), the process proceeds to step S37.
  • object position information verex coordinates, motion information
  • step S35 the image generator 231 generates a three-dimensional image of the object (opaque object image) based on the position information of the object.
  • step S36 the contour processing unit 232 generates a contour-enhanced image in which the contour of the three-dimensional image of the object is emphasized.
  • step S37 the virtual space control unit 22 acquires the user's three-dimensional image and the contour-enhanced image of the object.
  • step S38 the virtual space control unit 22 generates a three-dimensional virtual space image (second virtual space image) by superimposing the user's three-dimensional image and the contour-enhanced image of the object on the second virtual space.
  • second virtual space image For example, assume that an avatar 71 representing the user of the edge device 1 and a table 61 are displayed in the initial second virtual space image as shown in FIG. 6A.
  • contour-enhanced images 51b and 52b of the coffee cup and the personal computer are displayed on the table 61 as shown in FIG. 6B.
  • step S ⁇ b>39 the transmission unit 24 transmits the second virtual space image generated by the virtual space control unit 22 to the edge device 1 .
  • step S40 it is determined whether or not the condition for terminating the process is met. If the process is not to be terminated, the process returns to step S31, otherwise the process is terminated.
  • step S51 the receiving unit 19 of the edge device 1 determines whether or not the second virtual space image transmitted from the cloud server 2 has been received.
  • step S52 the image rendering unit 16 determines whether or not there is a translucent object image generated by the transparency processing unit 152. . If a translucent object image exists (S52: YES), the process proceeds to step S53; otherwise (S52: NO), the process proceeds to step S54.
  • step S53 the image drawing unit 16 draws a translucent object image on the second virtual space image received from the cloud server 2.
  • step S54 the image drawing unit 16 determines whether or not the opaque object image generated by the object image generating unit 151 exists. If an opaque object image exists (S54: YES), the process proceeds to step S55; otherwise (S54: NO), the process proceeds to step S58.
  • step S55 the image drawing unit 16 determines whether or not to delete the display of the contour-enhanced image.
  • the contour-enhanced image generated by the contour processing unit 232 of the cloud server 2 is displayed as it is, or an image without contour emphasis, that is, an opaque object image is displayed. It is determined whether or not to delete the display of the contour-enhanced image according to the result of the input operation. If the display of the contour-enhanced image is to be deleted (S55: YES), the process proceeds to step S56; otherwise (S55: NO), the process proceeds to step S58.
  • step S56 the image drawing unit 16 erases the contour-enhanced image displayed in the second virtual space image.
  • step S57 the image drawing unit 16 superimposes the opaque object image generated by the object image generating unit 151 on the second virtual space image from which the contour-enhanced image has been erased. For example, if the second virtual space image includes contour-enhanced images of objects indicated by reference numerals 51b and 52b in FIG. Then, an opaque object image whose outline is not emphasized is superimposed.
  • the second virtual space image contains an edge-enhanced image in which the outline of the object is enhanced, and if deletion of the edge-enhanced display is selected by the user's input operation, the edge-enhanced An image is generated in which the image is deleted and rewritten to an opaque object image.
  • the image drawing section 16 outputs the generated image to the image display section 17 .
  • the virtual space control unit 22 of the cloud server 2 superimposes the contour-enhanced image of the object on the second virtual space image. Therefore, in the second virtual space image transmitted from the cloud server 2, the object in contact with the user of the edge device 1 is displayed as an edge-enhanced image.
  • the image drawing unit 16 of the edge device 1 deletes the contour-enhanced image from the second virtual space image transmitted from the cloud server 2 when the user sets deletion of the contour-enhanced display, and generates an object image.
  • the opaque object image generated in section 151 is displayed superimposed on the second virtual space image.
  • FIG. 5A opaque object images such as the coffee cup 51 and the personal computer 52 are displayed on the table 61 existing in the second virtual space image. Further, if the user does not set deletion of the contour emphasis display, the contour emphasis image is not deleted from the second virtual space image and remains as it is.
  • the object image generation unit 151 reconstructs an opaque object image. That is, an object that has been imaged once is controlled to move in the second virtual space by detecting movement information of the object when the position or shape of the object changes thereafter. However, for example, if the object is a coffee cup and the beverage in the coffee cup is reduced, or if the coffee cup is broken and crushed, the shape of the object itself changes. In such a case, by reconstructing an opaque object image and superimposing it on the second virtual space image, a natural three-dimensional virtual space image is displayed.
  • step S58 the image display unit 17 displays the second virtual space image. That is, when there is no semi-transparent object image and no opaque object image exists in the second virtual space image (NO in S52 and S54), the second image received from the cloud server 2 is displayed on the image display unit 17 as it is.
  • the image is received from the cloud server 2.
  • the image display unit 17 displays an image in which a translucent object image is drawn in the second virtual space image.
  • translucent images 51a and 52a of the personal computer and the coffee cup detected as objects are displayed on the image display unit 17, for example, as shown in FIG. 5B.
  • the second virtual space image in which the contour emphasized image is drawn is displayed as an image. Displayed on the display unit 17 .
  • the opaque object image whose outline is not highlighted is drawn. 2 is displayed on the image display unit 17 .
  • the objects displayed as translucent object images are not in contact with the user, so the position information of these objects is not transmitted to the cloud server 2. Therefore, images of these objects (opaque and translucent object images) are not displayed in the second virtual space image transmitted from the cloud server 2 . That is, the edge device 1A other than the edge device 1 does not display a translucent object image in the second virtual space image.
  • step S59 it is determined whether or not the condition for terminating the process is met. If the process is not to be terminated, the process returns to step S51, otherwise the process is terminated.
  • the edge device 1 of the virtual space image display system 100 when an object exists within the predetermined threshold distance L1 from the user of the edge device 1 and is not in contact with the user, produces a semi-transparent object image of this object.
  • a semi-transparent object image is superimposed on the second virtual space image received by the edge device 1 .
  • the user can recognize the presence of objects such as coffee cups and personal computers around the user.
  • the user can easily hold the coffee cup at hand and drink coffee.
  • an image of an object that does not exist within the range of the threshold distance L1 from the user is not displayed on the image display section 17 . Therefore, it is possible to prevent unnecessary objects from being displayed on the image display section 17 .
  • the semi-transparent object image is not displayed on the other edge devices 1A, other users do not feel uncomfortable.
  • another edge device 1A connected to the cloud server 2 displays the contour-enhanced image of the object superimposed on the second virtual space image. Also, in the edge device 1, an opaque object image is superimposed on the second virtual space image. Therefore, the user of the other edge device 1A can recognize the object that the user of the edge device 1 has touched.
  • the user of the edge device 1 takes a coffee cup and drinks coffee
  • the user of the other edge device 1A does not feel unnatural about this action, and the second virtual space image is displayed. It can be visually recognized without discomfort. Also, since the outline of the object is highlighted, it can be recognized that the object does not exist in the virtual space.
  • the opaque object image is reconstructed, so it is possible to recognize the correct image of the object. For example, when the amount of coffee remaining in the coffee cup changes due to the user drinking coffee, or when the coffee cup falls off the table and is damaged, an opaque object image is reconstructed and each edge device 1, Displayed in 1A. Therefore, the user of each edge device 1, 1A can instantly recognize the shape change of the object.
  • a specific object existing in the real space near the user can be set as an object to be hidden. Therefore, by setting, for example, a table existing near the user as an object to be hidden, it is possible to prevent unnecessary objects from being disclosed to other users.
  • FIG. 10 is a block diagram showing the configuration of a virtual space image display device 91 according to the second embodiment.
  • the virtual space image display device 91 according to the second embodiment includes a synchronization signal generation unit 81, an acquisition unit 82, a detection unit 83, a determination unit 84, an image processing unit 85, an image A drawing unit 86 and an image display unit 87 are provided.
  • the virtual space image display device 91 can be realized using a microcomputer having a CPU (central processing unit), memory, and input/output unit.
  • a computer program for causing a microcomputer to function as a plurality of information processing units (synchronization signal generation unit 81, acquisition unit 82, detection unit 83, determination unit 84, image processing unit 85, image drawing unit 86, image display unit 87). , installed and run on a microcomputer.
  • the microcomputer functions as a plurality of information processing units included in the virtual space image display device 91 .
  • An example in which the image processing unit 85 and the image drawing unit 86 are realized by software is shown here. may be configured. Further, information processing executed by each information processing section included in the image processing section 85 and the image drawing section 86 may be configured by separate hardware.
  • the image processing section 85 shown in FIG. 10 includes an image generation section 851 and a transparency processing section 852 .
  • the image generator 851 has a three-dimensional virtual space for object images (hereinafter referred to as "first virtual space").
  • the image generation unit 851 generates an image of the object detected by the object detection unit 832 and an image of the user detected by the person detection unit 831, and writes them in the first virtual space.
  • the image generator 851 reconstructs an opaque object image when the shape of the object changes.
  • the transparency processing unit 852 converts the opaque object image generated by the image generating unit 851 into a translucent object image.
  • the transparency processing unit 852 writes a translucent object image into the first virtual space.
  • the image drawing unit 86 writes the user image generated by the image generating unit 851 in a preset three-dimensional virtual space for display (hereinafter referred to as "second virtual space").
  • the image drawing unit 86 writes the opaque object image generated by the image generating unit 851 or the translucent object image generated by the transparency processing unit 852 into the second virtual space. That is, the image drawing unit 86 performs processing for superimposing the first virtual space image on the second virtual space image.
  • the image drawing section performs control to display the second virtual space image on the image display section 87 .
  • the image display unit 87 is, for example, an immersive HMD worn by the user.
  • the image display unit 87 displays the image drawn by the image drawing unit 86 on the immersive HMD.
  • the user can view the three-dimensional virtual space image drawn by the image drawing unit 86 while blocking the real space image.
  • the synchronization signal generator 81 counts a predetermined image acquisition time and determines whether or not it is the image acquisition time.
  • the acquisition unit 12 acquires an image and depth information around the user who operates the virtual space image display device 91 in step S72.
  • the image and the depth information can be acquired by an image captured by a camera installed around the user, a depth sensor, or the like.
  • step S73 the person detection unit 831 determines whether or not a person has been detected from the image around the user. If a person is detected (S73: YES), the process proceeds to step S74; otherwise (S73: NO), the process proceeds to step S81.
  • step S74 the person detection unit 831 recognizes that the detected person is the user, acquires the user's position information, and generates a three-dimensional image of the user based on the user's position information.
  • the position information is, for example, motion information indicated by vertex coordinates and vectors of the user.
  • step S75 the object detection unit 832 determines whether an object has been detected from the image around the user. If an object is detected (S75: YES), the process proceeds to step S76; otherwise (S75: NO), the process proceeds to step S81.
  • step S76 the distance determination unit 841 measures the distance between the user and the object.
  • the distance determination unit 841 determines whether or not the distance between the user and the object is within a predetermined threshold distance L1. If the distance between the user and the object is within the threshold distance L1 (S76: YES), the process proceeds to step S77; otherwise (S76: NO), the process proceeds to step S81.
  • step S77 the contact determination unit 842 determines whether or not the user and the object have come into contact. If it is determined that there is contact (S77: YES), the process proceeds to step S78, otherwise (S77: NO), the process proceeds to step S79.
  • the determination of contact between the user and the object is made simply when the two are in contact, when the number of times of contact between the two reaches a predetermined number of times (for example, three times), and when the contact between the user and the object reaches a predetermined number of times (for example, three times). 3 seconds), contact can be determined.
  • step S78 the image generator 851 generates a three-dimensional image of the object (opaque object image).
  • step S79 the transparency processing unit 852 generates a three-dimensional image of the object (translucent object image).
  • step S80 the image drawing unit 86 superimposes the opaque object image generated in the process of step S78 or the translucent object image of the object generated in the process of step S79 on the second virtual space image.
  • images of objects such as a coffee cup 51 and a personal computer 52 are displayed on the table 61 existing in the second virtual space image, as shown in FIG. 5A, for example. Therefore, the user can recognize that he or she is touching an object existing in the real space.
  • the semi-transparent object images such as the coffee cup 51 and the personal computer 52 are displayed on the table 61 existing in the second virtual space image, as shown in FIG. 5B, for example. be done. Therefore, objects existing near the user in the real space can be recognized.
  • the image drawing unit 86 does not display the object image (opaque and translucent object image) in the second virtual space image when there is no object in the area within the threshold distance L1 around the user.
  • step S81 the image display unit 87 displays the second virtual space image generated by the image drawing unit 86.
  • step S82 it is determined whether or not the condition for terminating the process is met. If the process is not to be terminated, the process returns to step S71, otherwise the process is terminated.
  • the semitransparent object is displayed. Generate an object image.
  • the semi-transparent object image is superimposed on the second virtual space image and displayed on the image display section 87 .
  • the user can recognize the presence of objects such as coffee cups and personal computers around the user.
  • the user can easily hold the coffee cup at hand and drink coffee.
  • an image of an object that does not exist within the range of the threshold distance L1 from the user is not superimposed on the second virtual space image. Therefore, it is possible to prevent unnecessary objects from being displayed on the image display section 17 .
  • an opaque image of this object is generated.
  • the opaque object image is superimposed on the second virtual space image and displayed on the image display section 87 .
  • the user can recognize the presence of objects in the real space that are in contact with the user. Therefore, the user can easily hold the coffee cup at hand and drink coffee.
  • the opaque object image is reconstructed, so it is possible to immediately recognize the change in the shape of the object.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザの周囲画像を取得する取得部(12)と、周囲画像に含まれるユーザを検出する人物検出部(131)と、周囲画像に含まれるオブジェクトを検出するオブジェクト検出部(132)を備える。また、ユーザとオブジェクトとの距離を判定する距離判定部(141)と、ユーザとオブジェクトとの接触を判定する接触判定部(142)を備える。ユーザから閾値距離以内にオブジェクトが存在する場合には、ユーザのみが視認する第2の仮想空間画像に、半透明のオブジェクト画像を重畳表示する。ユーザとオブジェクトが接触した場合には、他のエッジデバイス(1A)のユーザが視認可能な第2の仮想空間画像に不透明のオブジェクト画像を重畳表示する。

Description

仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラム
 本開示は、仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラムに関する。
 拡張現実(AR:Augmented Reality)を体験する装置として、没入型HMD(Head Mounted Display)が用いられている。没入型HMDで仮想空間を閲覧しているユーザは、実空間が遮断される。このため、ユーザの周囲に置かれているコーヒーカップなどの物体が見えなくなり、ユーザはコーヒーカップに入れられた飲み物を飲むことが難しい。コーヒーカップを転倒、或いは落下させて破損に至ってしまうこともある。更には、ユーザ自身が負傷する可能性がある。
 特許文献1には、ユーザが周囲に置かれた物体に触れることにより、この物体を仮想空間内に描画することが提案されている。しかし、没入型HMDでは、ユーザの実空間が遮断されているので、周囲に存在する物体に意図して触れること自体が難しい。
国際公開2020/080107号
 上述したように、没入型HMDを装着しているユーザは実空間を見ることができず、例えば周囲に置かれているコーヒーカップを持って飲み物を飲むという行為を行うことが難しい。
 また、ユーザが周囲の物体を認識できるように、コーヒーカップなどのユーザの周囲に置かれている物体を仮想空間内に描画すると、ユーザ以外の他者に対してもこの物体が見えてしまい、他者に対して違和感を感じさせるという問題が生じる。
 本開示は、このような従来の課題を解決するためになされたものであり、その目的とするところは、他者に対して違和感を感じさせることなく、ユーザが周囲の物体を認識することが可能な仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラムを提供することにある。
 上記目的を達成するため、本開示に係る仮想空間画像表示装置は、一のユーザから所定距離以内に存在する物体を検出する検出部と、前記物体の画像を含む第1の仮想空間画像を生成する第1の画像生成部と、前記一のユーザ及び他のユーザが視認可能である第2の仮想空間画像に、前記第1の仮想空間画像を重畳する第2の画像生成部と、を備える。
 本開示に係る仮想空間画像表示方法は、一のユーザから所定距離以内に存在する物体を検出するステップと、前記物体の画像を含む第1の仮想空間画像を生成するステップと、前記一のユーザ及び他のユーザが視認可能である第2の仮想空間画像に、前記第1の仮想空間画像を重畳するステップと、を備える。
 本開示に係る仮想空間画像表示プログラムは、一のユーザから所定距離以内に存在する物体を検出するステップと、前記物体の画像を含む第1の仮想空間画像を生成するステップと、前記一のユーザ及び他のユーザが視認可能である第2の仮想空間画像に、前記第1の仮想空間画像を重畳するステップと、をコンピュータに実行させる。
 本開示によれば、他者に対して違和感を感じさせることなく、ユーザが周囲の物体を認識することが可能になる。
図1は、第1実施形態に係る仮想空間画像表示システムの構成を示すブロック図である。 図2は、エッジデバイスの詳細な構成を示すブロック図である。 図3は、クラウドサーバの詳細な構成を示すブロック図である。 図4は、エッジデバイスを操作するユーザの周辺画像を示す説明図である。 図5Aは、エッジデバイスに表示される3次元仮想空間画像に、不透明のオブジェクト画像が表示された例を示す説明図である。 図5Bは、エッジデバイスに表示される3次元仮想空間画像に、半透明のオブジェクト画像が表示された例を示す説明図である。 図6Aは、他のエッジデバイスに表示される3次元仮想空間画像の例を示す説明図である。 図6Bは、他のエッジデバイスに表示される3次元仮想空間画像に、輪郭線強調画像が重畳した例を示す説明図である。 図7は、第1実施形態に係る仮想空間画像システムの、エッジデバイスによる第1の処理手順を示すフローチャートである。 図8は、第1実施形態に係る仮想空間画像システムの、クラウドサーバによる処理手順を示すフローチャートである。 図9は、第1実施形態に係る仮想空間画像システムの、エッジデバイスによる第2の処理手順を示すフローチャートである。 図10は、第2実施形態に係る仮想空間画像表示装置の構成を示すブロック図である。 図11は、第2実施形態に係る仮想空間画像表示装置の処理手順を示すフローチャートである。
[第1実施形態の説明]
 以下、本開示の実施形態を図面を参照して説明する。図1は、第1実施形態に係る仮想空間画像表示システム100の構成を示すブロック図である。図2はエッジデバイス1(仮想空間画像表示装置)の詳細な構成を示すブロック図、図3はクラウドサーバ2の詳細な構成を示すブロック図である。図4はエッジデバイス1を操作するユーザ(一のユーザ)の周辺画像を示す説明図である。
 図1に示すように、本実施形態に係る仮想空間画像表示システム100は、複数のエッジデバイス1、1Aと、クラウドサーバ2を備えている。各エッジデバイス1、1Aとクラウドサーバ2は例えばネットワーク3により接続されている。
 以下、図2を参照してエッジデバイス1の構成について説明する。他のエッジデバイス1Aについてもエッジデバイス1と同様の構成を備えている。
 エッジデバイス1は、同期信号生成部11と、取得部12と、検出部13と、判定部14と、画像生成部15と、画像描画部16と、画像表示部17と、送信部18と、受信部19を備えている。
 エッジデバイス1は、CPU(中央処理装置)、メモリ、及び入出力部を備えるマイクロコンピュータを用いて実現可能である。マイクロコンピュータを複数の情報処理部(同期信号生成部11、取得部12、検出部13、判定部14、画像生成部15、画像描画部16、画像表示部17、送信部18、受信部19)として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、エッジデバイス1が備える複数の情報処理部として機能する。また、ここではソフトウェアによってエッジデバイス1を実現する例を示すが、各情報処理を実行するための専用のハードウェアを用意して、エッジデバイス1を構成してもよい。また、エッジデバイス1に含まれる各情報処理部が実行する情報処理を個別のハードウェアにより構成してもよい。エッジデバイス1Aについても同様である。
 同期信号生成部11は、所定の画像取得時間を計時しこの画像取得時間が経過する毎に同期信号を出力する。画像取得時間は、例えば1/60秒である。
 取得部12は、エッジデバイス1を操作するユーザの周辺画像を取得する。取得部12は、例えばユーザの周辺に設置した1台或いは複数台のカメラである。具体的には図4に示すように、ユーザ50が居る部屋の天井に設置された2台のカメラ55である。各カメラ55によりユーザ50の周辺画像及び奥行き情報を取得することができる。取得部12は、カメラ55以外にも没入型HMDに設けられたデプスセンサとすることもできる。
 検出部13は、人物検出部131及びオブジェクト検出部132を備えている。
 人物検出部131は、取得部12で取得された画像から、エッジデバイス1を操作するユーザを検出する。具体的には人物検出部131は、図4に示す周辺画像からユーザ50の位置情報を検出する。位置情報は3次元の座標情報であり、ユーザ50の頂点座標及びベクトルで示される動き情報を含む。
 オブジェクト検出部132は、取得部12で取得された画像から、ユーザの周辺に存在する種々の物体を検出する。具体的にはオブジェクト検出部132は、図4に示すコーヒーカップ51、パソコン52の位置情報を検出する。以下では、ユーザ50の周辺に置かれているコーヒーカップ51、パソコン52などの物体を総称してオブジェクト60と称することがある。オブジェクト検出部132は、エッジデバイス1のユーザ(一のユーザ)から所定距離以内に存在する物体(オブジェクト)を検出する機能を備えている。
 オブジェクト検出部132は、予め設定した条件或いはユーザの操作により予めオブジェクトとして検出しないものを設定することができる。例えば、図4に示すテーブル53をオブジェクトから除外して、非表示対象とすることができる。このため、図4に示す周辺画像では、コーヒーカップ51及びパソコン52はオブジェクト60として認識され、テーブル53はオブジェクト60として認識されない。
 判定部14は、距離判定部141と、接触判定部142を備えている。
 距離判定部141は、人物検出部131で検出されたユーザの位置情報、及びオブジェクト検出部132で検出されたオブジェクトの位置情報に基づき、ユーザとオブジェクトとの距離を測定する。例えば図4に示すように、ユーザ50の近傍にテーブル53が存在し、このテーブル53上にコーヒーカップ51が置かれている場合には、距離判定部141はユーザ50からコーヒーカップ51(オブジェクト60)までの距離を測定する。距離判定部141は、ユーザからオブジェクトまでの距離が所定の閾値距離L1以内であるか否かを判定する。
 接触判定部142は、人物検出部131で検出されたユーザの位置情報、及びオブジェクト検出部132で検出されたオブジェクトの位置情報に基づき、ユーザがオブジェクトに接触したか否かを判定する。例えば、図4に示すユーザ50がテーブル53上に置かれているコーヒーカップ51を持った場合には、ユーザとオブジェクト(コーヒーカップ)が接触したものと判定する。
 また、接触判定部142は、ユーザとオブジェクトが接触した回数を測定し、ユーザとオブジェクトとの接触回数が所定回数(例えば、3回)に達したときに、ユーザとオブジェクトが接触したものと判定してもよい。また、接触判定部142は、ユーザとオブジェクトが接触した時間を経時し、接触時間が所定時間(例えば、3秒間)に達したときに、ユーザとオブジェクトが接触したものと判定してもよい。
 即ち、接触判定部142は、一のユーザとオブジェクト(物体)との所定時間以上の接触、及び、一のユーザとオブジェクトとの所定回数以上の接触、のうちの少なくとも一方を検出する機能を備えていてもよい。
 画像生成部15は、オブジェクト画像生成部151と、透過処理部152を備えている。
 オブジェクト画像生成部151は、オブジェクト画像用の仮想空間(以下、「第1の仮想空間」という)を有している。第1の仮想空間は3次元空間である。オブジェクト画像生成部151は、オブジェクト検出部132で検出されたオブジェクトの3次元画像を生成して第1の仮想空間に書き込む。
 即ち、オブジェクト画像生成部151は、オブジェクト(物体)の画像を含む第1の仮想空間画像を生成する第1の画像生成部としての機能を備えている。
 オブジェクト画像生成部151は、オブジェクト検出部132にてオブジェクトの形状変化が検出された際に、オブジェクト画像を再構成する処理を行う。例えばユーザがコーヒーカップ内に入っているコーヒーを飲むことによりカップ内のコーヒー残量が変化した場合、即ちコーヒーカップ全体の形状が変化した場合には、コーヒーカップの3次元画像が再構成されて、第1の仮想空間に書き込まれる。
 即ち、検出部13のオブジェクト検出部132は、オブジェクト(物体)の形状変化を検出し、第1の画像生成部は、オブジェクトの形状変化が検出された際に、第1の仮想空間に含まれる物体の画像を再構成する機能を備えている。
 透過処理部152は、オブジェクト画像生成部151で生成されたオブジェクト画像を、半透明のオブジェクト画像、即ち、物体を半透明に表示した画像に変換する。「半透明のオブジェクト画像」とは、オブジェクトの少なくとも一部が透過して、オブジェクトの奥行き側の画像が視認できる画像である。透過処理部152は、例えば後述する図5Bに示すように、コーヒーカップを半透明にした画像51a、パソコンを半透明にした画像52aを生成する。なお、図5Bでは半透明の画像を点線で示している。
 画像描画部16は、クラウドサーバ2から送信される表示用の3次元仮想空間の画像(以下、「第2の仮想空間画像」という)を取得する。画像描画部16は、オブジェクト画像生成部151で生成された不透明のオブジェクト画像(輪郭が強調されていない不透明のオブジェクト画像)、及び、透過処理部152で生成された半透明のオブジェクト画像を取得する。
 画像描画部16は、第2の仮想空間画像に対し、後述する条件に応じて不透明のオブジェクト画像、或いは半透明のオブジェクト画像を含む第1の仮想空間画像を重畳する。画像描画部16は、不透明のオブジェクト画像を重畳した第2の仮想空間画像を画像表示部17に表示する制御を行う。
 即ち、画像描画部16は、エッジデバイス1のユーザ(一のユーザ)、及び他のエッジデバイス1Aのユーザ(他のユーザ)が視認可能である第2の仮想空間画像に、第1の仮想空間画像を重畳する第2の画像生成部としての機能を備えている。また、画像描画部16は、一のユーザとオブジェクトとの所定時間以上の接触、及び、一のユーザとオブジェクトとの所定回数以上の接触、のうち少なくとも一方が検出された際に、第2の仮想空間画像に第1の仮想空間画像を重畳表示する機能を備えている。
 画像表示部17は、例えば図4に示すユーザ50が装着する没入型HMD54である。画像表示部17は、画像描画部16で描画された画像を画面表示する。ユーザは没入型HMD54を装着することにより、画像描画部16で描画された第2の仮想空間画像を、実空間の画像を遮断した状態で視認することができる。ユーザは、第2の仮想空間(3次元仮想空間)において、他のユーザとの間でコミュニケーションをとることができる。
 送信部18は、人物検出部131で検出されたユーザの位置情報を、ネットワーク3を経由してクラウドサーバ2に送信する。送信部18は、接触判定部142でユーザとオブジェクトの接触が判定されたオブジェクトの位置情報を、ネットワーク3を経由してクラウドサーバ2に送信する。上述したように位置情報は、ユーザやオブジェクトの頂点座標及びベクトルで示される動き情報を含む。
 また、ユーザの手動操作により、ユーザ及びオブジェクトの位置情報の送信の可否を変更するように設定してもよい。例えばユーザが、ユーザ及びオブジェクトの位置情報の送信を許可したときにのみ、位置情報がクラウドサーバ2に送信されるように設定してもよい。
 受信部19は、クラウドサーバ2からネットワーク3を経由して送信される第2の仮想空間画像を受信する。
 次に、クラウドサーバ2の構成について説明する。図3に示すようにクラウドサーバ2は、同期信号生成部21と、仮想空間制御部22と、画像処理部23と、送信部24と、受信部25と、を備えている。
 クラウドサーバ2は、CPU(中央処理装置)、メモリ、及び入出力部を備えるマイクロコンピュータを用いて実現可能である。マイクロコンピュータを複数の情報処理部(同期信号生成部21、仮想空間制御部22、画像処理部23、送信部24、受信部25)として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、クラウドサーバ2が備える複数の情報処理部として機能する。また、ここではソフトウェアによってクラウドサーバ2を実現する例を示すが、各情報処理を実行するための専用のハードウェアを用意して、クラウドサーバ2を構成してもよい。また、クラウドサーバ2に含まれる各情報処理部が実行する情報処理を個別のハードウェアにより構成してもよい。
 同期信号生成部21は、前述したエッジデバイス1の同期信号生成部11と同様に、所定の画像取得時間(例えば1/60秒)を計時しこの画像取得時間が経過する毎に同期信号を出力する。
 受信部25は、エッジデバイス1の送信部18から送信されるユーザ及びオブジェクトの位置情報を受信する。受信部25は、他のエッジデバイス1Aについても同様に、送信部(図示省略)から送信されるユーザ及びオブジェクトの位置情報を受信する。
 画像処理部23は、画像生成部231と、輪郭処理部232を備えている。
 画像生成部231は、受信部25で受信されたユーザ及びオブジェクトの位置情報に基づいて、ユーザ画像、及びユーザから閾値距離L1以内に存在する不透明のオブジェクト画像を生成する。ユーザ画像及び不透明のオブジェクト画像は、3次元画像であってもよい。
 輪郭処理部232は、不透明のオブジェクト画像の輪郭線を強調した輪郭線強調画像を生成する。例えば、図4に示したコーヒーカップ51及びパソコン52がオブジェクト60として検出された場合には、これらのオブジェクト60の輪郭線強調画像を生成する。具体的には、後述する図6Bに示すように輪郭線を強調したコーヒーカップの画像51b、パソコンの画像52bを生成する。
 仮想空間制御部22は、3次元仮想空間である第2の仮想空間を有している。第2の仮想空間には、例えばネットワーク3を介してクラウドサーバ2に接続された複数のエッジデバイス1、1Aのユーザのアバター画像が存在している。第2の仮想空間は、各エッジデバイス1、1Aのユーザどうしが仮想的にコミュニケーションをとることができる空間である。仮想空間制御部22は、第2の仮想空間画像を制御する。
 仮想空間制御部22は、同期信号生成部21から同期信号が出力される毎に、第2の仮想空間画像を送信部24に出力する。仮想空間制御部22は、画像生成部231からユーザ画像が出力された際には、このユーザ画像を第2の仮想空間に書き込む。仮想空間制御部22は、画像生成部231から不透明のオブジェクト画像が送信された際には、この不透明のオブジェクト画像を第2の仮想空間に書き込む。仮想空間制御部22は、輪郭処理部232から輪郭線強調画像が出力された際には、この輪郭線強調画像を第2の仮想空間に書き込む。仮想空間制御部22は、ユーザ画像、輪郭線強調画像が重畳された第2の仮想空間画像を送信部24に出力する。
 送信部24は、仮想空間制御部22から出力された第2の仮想空間画像を、ネットワーク3を経由して各エッジデバイス1、1Aに送信する。
 次に、第1実施形態に係る仮想空間画像表示システム100の動作を、図7、図8、図9に示すフローチャートを参照して説明する。
 図7は、エッジデバイス1で実行される第1の処理手順を示すフローチャートである。なお、他のエッジデバイス1Aについても同様の処理が実行される。
 初めに、図7のステップS11においてエッジデバイス1の同期信号生成部11は、所定の画像取得時間を計時し、画像取得時刻であるか否かを判定する。
 画像取得時刻である場合には(S11:YES)、ステップS12において取得部12は、エッジデバイス1を操作するユーザ周辺の画像及び奥行き情報を取得する。例えば、ユーザ周辺に設置されたカメラで撮像された画像及びデプスセンサなどにより、画像及び奥行き情報を取得することができる。
 ステップS13において人物検出部131は、ユーザ周辺の画像から人物が検出されたか否かを判定する。人物が検出された場合には(S13:YES)、ステップS14に処理を進め、そうでなければ(S13:NO)、ステップS20に処理を進める。
 ステップS14において人物検出部131は、検出した人物がユーザであるものと認識し、このユーザの位置情報を取得する。位置情報は、例えばユーザの頂点座標及びベクトルで示される動き情報である。人物検出部131は、取得したユーザの位置情報を送信部18に出力する。送信部18は、ユーザの位置情報をクラウドサーバ2に送信する。
 ステップS15においてオブジェクト検出部132は、ユーザ周辺の画像からオブジェクトが検出されたか否かを判定する。オブジェクトが検出された場合には(S15:YES)、ステップS16に処理を進め、そうでなければ(S15:NO)、ステップS20に処理を進める。
 ステップS16において距離判定部141は、ユーザとオブジェクトとの距離を測定する。距離判定部141は、ユーザとオブジェクトとの距離が所定の閾値距離L1以内であるか否かを判定する。閾値距離L1は、ユーザが手を伸ばして届く程度の距離としてもよい。閾値距離L1は例えば30cmとすることができる。ユーザとオブジェクトとの距離が閾値距離L1以内である場合には(S16:YES)、ステップS17に処理を進め、そうでなければ(S16:NO)、ステップS20に処理を進める。
 ステップS17において接触判定部142は、ユーザとオブジェクトが接触したか否かを判定する。接触したと判定した場合には(S17:YES)、ステップS18に処理を進め、そうでなければ(S18:NO)、ステップS19に処理を進める。
 なお、ユーザとオブジェクトとの接触判定は前述したように、単に両者が接触したとき、両者の接触回数が所定回数(例えば、3回)に達したとき、両者の接触時間が所定時間(例えば、3秒間)に達したときに、接触したものと判定することができる。
 ステップS18においてオブジェクト画像生成部151は、ユーザに接触したオブジェクトの位置情報を送信部18に出力する。位置情報は、オブジェクトの頂点座標及びベクトルで示される動き情報を含む。送信部18は、オブジェクトの位置情報をクラウドサーバ2に送信する。その後、ステップS20に処理を進める。
 ステップS19において透過処理部152は、ユーザに対して閾値距離L1以内に存在し、ユーザに接触していないオブジェクトの3次元画像(半透明のオブジェクト画像)を生成する。その後、ステップS20に処理を進める。
 ステップS20において、処理の終了条件であるか否かを判定し、処理を終了しない場合には、ステップS11に処理を戻し、そうでなければ本処理を終了する。
 図8は、クラウドサーバ2の処理手順を示すフローチャートである。初めにステップS31において同期信号生成部21は、描画更新時刻であるか否かを判定する。
 描画更新時刻である場合には(S31:YES)、ステップS32においてクラウドサーバ2の受信部25は、エッジデバイス1から送信されるユーザの位置情報(頂点座標、動き情報)を受信したか否かを判定する。ユーザの位置情報を受信した場合には(S32:YES)、ステップS33に処理を進め、そうでなければ(S32:NO)、ステップS34に処理を進める。なお、クラウドサーバ2は他のエッジデバイス1Aから送信される位置情報についても受信するが、ここでは、エッジデバイス1から送信される位置情報を受信する場合について示す。
 ステップS33において画像生成部231は、エッジデバイス1から送信されたユーザの位置情報に基づいて、ユーザの3次元画像を生成する。
 ステップS34において受信部25は、エッジデバイス1から送信されるオブジェクトの位置情報(頂点座標、動き情報)を受信したか否かを判定する。オブジェクトの位置情報を受信した場合には(S34:YES)、ステップS35に処理を進め、そうでなければ(S34:NO)ステップS37に処理を進める。
 ステップS35において画像生成部231はオブジェクトの位置情報に基づいて、オブジェクトの3次元画像(不透明のオブジェクト画像)を生成する。
 ステップS36において輪郭処理部232は、オブジェクトの3次元画像の輪郭線を強調した輪郭線強調画像を生成する。
 ステップS37において、仮想空間制御部22は、ユーザの3次元画像、及びオブジェクトの輪郭線強調画像を取得する。
 ステップS38において仮想空間制御部22は、第2の仮想空間にユーザの3次元画像及びオブジェクトの輪郭線強調画像を重畳した3次元仮想空間画像(第2の仮想空間画像)を生成する。例えば、図6Aに示すように初期的な第2の仮想空間画像に、エッジデバイス1のユーザを示すアバター71、及びテーブル61が表示されているものとする。この画像に対して、オブジェクトの輪郭線強調画像を重畳することにより、図6Bに示すように、テーブル61の上にコーヒーカップ及びパソコンの輪郭線強調画像51b、52bが表示される。
 ステップS39において送信部24は、仮想空間制御部22で生成された第2の仮想空間画像をエッジデバイス1に送信する。
 ステップS40において、処理の終了条件であるか否かを判定し、処理を終了しない場合には、ステップS31に処理を戻し、そうでなければ本処理を終了する。
 次に、図9を参照してエッジデバイス1における第2の処理について説明する。初めにステップS51においてエッジデバイス1の受信部19は、クラウドサーバ2から送信される第2の仮想空間画像を受信したか否かを判定する。
 第2の仮想空間画像を受信した場合には(S51:YES)、ステップS52において画像描画部16は、透過処理部152にて生成された半透明のオブジェクト画像が存在するか否かを判定する。半透明のオブジェクト画像が存在する場合には(S52:YES)、ステップS53に処理を進め、そうでなければ(S52:NO)、ステップS54に処理を進める。
 ステップS53において画像描画部16は、クラウドサーバ2から受信した第2の仮想空間画像に半透明のオブジェクト画像を描画する。
 ステップS54において画像描画部16は、オブジェクト画像生成部151にて生成された不透明のオブジェクト画像が存在するか否かを判定する。不透明のオブジェクト画像が存在する場合には(S54:YES)、ステップS55に処理を進め、そうでなければ(S54:NO)、ステップS58に処理を進める。
 ステップS55において、画像描画部16は、輪郭線強調画像の表示を削除するか否かを判定する。この処理では、ユーザによる入力操作により、クラウドサーバ2の輪郭処理部232にて生成された輪郭線強調画像をそのまま表示するか、或いは、輪郭線を強調しない画像、即ち、不透明のオブジェクト画像を表示するかの選択を受け付け、入力操作の結果により輪郭線強調画像の表示を削除するか否かを判定する。輪郭線強調画像の表示を削除する場合には(S55:YES)、ステップS56に処理を進め、そうでなければ(S55:NO)、ステップS58に処理を進める。
 ステップS56において画像描画部16は、第2の仮想空間画像に表示されている輪郭線強調画像を消去する。
 ステップS57において画像描画部16は、輪郭線強調画像が消去された後の第2の仮想空間画像に、オブジェクト画像生成部151で生成された不透明のオブジェクト画像を重畳表示する。例えば第2の仮想空間画像に、図6Bの符号51b、52bに示したオブジェクトの輪郭線強調画像が含まれている場合には、この輪郭線強調画像を消去し、オブジェクト画像生成部151で生成された不透明のオブジェクト画像、即ち、輪郭線が強調されていない不透明のオブジェクト画像を重畳する。
 従って、第2の仮想空間画像内にオブジェクトの輪郭を強調した輪郭線強調画像が含まれており、更に、ユーザの入力操作により輪郭線強調表示の削除が選択された場合には、輪郭線強調画像を削除して不透明のオブジェクト画像に書き換えた画像が生成される。画像描画部16は、生成した画像を画像表示部17に出力する。
 即ち、ユーザとオブジェクトが接触している場合には、クラウドサーバ2の仮想空間制御部22において、第2の仮想空間画像に、オブジェクトの輪郭線強調画像が重畳される。このため、クラウドサーバ2から送信される第2の仮想空間画像には、エッジデバイス1のユーザと接触したオブジェクトが、輪郭線強調画像として表示されている。
 エッジデバイス1の画像描画部16は、ユーザによる輪郭線強調表示の削除が設定された際に、クラウドサーバ2から送信された第2の仮想空間画像から輪郭線強調画像を消去し、オブジェクト画像生成部151で生成された不透明のオブジェクト画像を第2の仮想空間画像に重畳表示する。
 その結果、図5Aに示すように第2の仮想空間画像に存在するテーブル61の上にコーヒーカップ51、パソコン52などの不透明のオブジェクト画像が表示される。また、ユーザにより輪郭線強調表示の削除が設定されない場合には、輪郭線強調画像は第2の仮想空間画像から削除されず、残されたままとなる。
 また、オブジェクト検出部132において、オブジェクトの位置や形状の変化が検出された際には、オブジェクト画像生成部151は、不透明のオブジェクト画像を再構成する。即ち、一度画像化されたオブジェクトは、その後オブジェクトの位置や形状が変化した場合において、オブジェクトの動き情報を検出して第2の仮想空間内を移動するように表示制御される。しかし、例えばオブジェクトがコーヒーカップであり、コーヒーカップ内の飲料が減少したり、コーヒーカップが破損して粉砕した場合には、オブジェクト自体の形状が変化する。このような場合には、不透明のオブジェクト画像を再構成して第2の仮想空間画像内に重畳表示することにより、違和感のない3次元仮想空間画像を表示する。
 ステップS58において画像表示部17は、第2の仮想空間画像を表示する。即ち、半透明のオブジェクト画像が存在せず、且つ、第2の仮想空間画像に不透明のオブジェクト画像が存在しない場合(S52及びS54でNO判定の場合)には、クラウドサーバ2から受信した第2の仮想空間画像をそのまま画像表示部17に表示する。
 また、半透明のオブジェクト画像が存在しており、且つ、第2の仮想空間画像に不透明のオブジェクト画像が存在しない場合(S52でYES、S54でNO判定の場合)には、クラウドサーバ2から受信した第2の仮想空間画像に、半透明のオブジェクト画像が描画された画像を画像表示部17に表示する。その結果、例えば図5Bに示すように、オブジェクトとして検出されたパソコン及びコーヒーカップが半透明とされた画像51a、52aが画像表示部17に表示される。
 また、オブジェクト画像生成部151にて生成された不透明のオブジェクト画像が存在し、且つ、輪郭線強調表示が削除されない場合には、輪郭線強調画像が描画されている第2の仮想空間画像を画像表示部17に表示する。
 また、オブジェクト画像生成部151にて生成された不透明のオブジェクト画像が存在し、且つ、輪郭線強調表示が削除された場合には、輪郭線が強調表示されていない不透明のオブジェクト画像を描画した第2の仮想空間画像を画像表示部17に表示する。
 なお、半透明のオブジェクト画像として表示されるオブジェクトは、ユーザと接触していないので、これらのオブジェクトの位置情報はクラウドサーバ2に送信されない。従って、クラウドサーバ2から送信される第2の仮想空間画像には、これらのオブジェクトの画像(不透明及び半透明のオブジェクト画像)は表示されない。即ち、エッジデバイス1以外の他のエッジデバイス1Aでは、第2の仮想空間画像に半透明のオブジェクト画像は表示されない。
 ステップS59において、処理の終了条件であるか否かを判定し、処理を終了しない場合には、ステップS51に処理を戻し、そうでなければ本処理を終了する。
 このように、第1実施形態に係る仮想空間画像表示システム100のエッジデバイス1では、エッジデバイス1のユーザから所定の閾値距離L1以内に存在し、ユーザに接触していないオブジェクトが存在する場合には、このオブジェクトの半透明のオブジェクト画像を生成する。半透明のオブジェクト画像は、エッジデバイス1で受信される第2の仮想空間画像上に重畳表示される。
 従って、ユーザは没入型HMD54を装着している場合でも、ユーザの周囲に存在するコーヒーカップ、パソコンなどのオブジェクトの存在を認識することができる。ユーザは手元にあるコーヒーカップを容易に持ってコーヒーを飲むことができる。また、ユーザから閾値距離L1の範囲内に存在しないオブジェクトの画像は画像表示部17に表示されない。このため、不要なオブジェクトが画像表示部17に表示されることを回避できる。また、半透明のオブジェクト画像は他のエッジデバイス1Aには表示されないので、他のユーザに違和感を与えることはない。
 ユーザとオブジェクトが接触している場合には、クラウドサーバ2に接続された他のエッジデバイス1Aにおいて、第2の仮想空間画像にオブジェクトの輪郭線強調画像が重畳表示される。また、エッジデバイス1において、第2の仮想空間画像に不透明のオブジェクト画像が重畳表示される。従って、他のエッジデバイス1Aのユーザは、エッジデバイス1のユーザに接触したオブジェクトを認識することができる。
 このため、エッジデバイス1のユーザがコーヒーカップを持ってコーヒーを飲む動作を行った場合に、他のエッジデバイス1Aのユーザはこの動作を不自然に感じることはなく、第2の仮想空間画像を違和感なく視認することができる。また、オブジェクトの輪郭線が強調して表示されるので、このオブジェクトが仮想空間内に存在するものでないことを認識できる。
 また、オブジェクトの形状が変化した場合には、不透明のオブジェクト画像を再構成するので、オブジェクトの正確な画像を認識することが可能になる。例えばユーザがコーヒーを飲むことによりコーヒーカップ内のコーヒー残量が変化した場合、或いはコーヒーカップがテーブルから落下して破損した場合などには、不透明のオブジェクト画像が再構成されて各エッジデバイス1、1Aに表示される。従って、各エッジデバイス1、1Aのユーザはオブジェクトの形状変化を即時に認識することができる。
 また本実施形態では、ユーザ近傍の実空間に存在する特定のオブジェクトを非表示対象のオブジェクトとして設定することができる。このため、例えばユーザの近傍に存在するテーブルを、非表示対象のオブジェクトとして設定することにより、不要なオブジェクトを他のユーザに開示することを防止することができる。
[第2実施形態の説明]
 次に、本開示の第2実施形態について説明する。図10は、第2実施形態に係る仮想空間画像表示装置91の構成を示すブロック図である。図10に示すように、第2実施形態に係る仮想空間画像表示装置91は、同期信号生成部81と、取得部82と、検出部83と、判定部84と、画像処理部85と、画像描画部86と、画像表示部87と、を備えている。
 図10に示す同期信号生成部81、取得部82、検出部83、判定部84、画像表示部87、及び人物検出部831、オブジェクト検出部832、距離判定部841、接触判定部842は、前述の図2に示した同期信号生成部11、取得部12、検出部13、判定部14、画像表示部17、及び、人物検出部131、オブジェクト検出部132、距離判定部141、接触判定部142と同一構成を有するので構成説明を省略する。
 仮想空間画像表示装置91は、CPU(中央処理装置)、メモリ、及び入出力部を備えるマイクロコンピュータを用いて実現可能である。マイクロコンピュータを複数の情報処理部(同期信号生成部81、取得部82、検出部83、判定部84、画像処理部85、画像描画部86、画像表示部87)として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、仮想空間画像表示装置91が備える複数の情報処理部として機能する。また、ここではソフトウェアによって画像処理部85および画像描画部86を実現する例を示すが、各情報処理を実行するための専用のハードウェアを用意して、画像処理部85および画像描画部86を構成してもよい。また、画像処理部85に含まれる各情報処理部および画像描画部86が実行する情報処理を個別のハードウェアにより構成してもよい。
 図10に示す画像処理部85は、画像生成部851と、透過処理部852を備えている。
 画像生成部851は、オブジェクト画像用の3次元仮想空間(以下、「第1の仮想空間」という)を有している。画像生成部851は、オブジェクト検出部832で検出されたオブジェクトの画像、及び人物検出部831で検出されたユーザの画像を生成して第1の仮想空間に書き込む。画像生成部851は、オブジェクトの形状が変化した場合には、不透明のオブジェクト画像を再構成する。
 透過処理部852は、画像生成部851で生成された不透明のオブジェクト画像を、半透明のオブジェクト画像に変換する。透過処理部852は、半透明のオブジェクト画像を第1の仮想空間に書き込む。
 画像描画部86は、予め設定されている表示用の3次元仮想空間(以下、「第2の仮想空間」という)に、画像生成部851で生成されたユーザ画像を書き込む処理を行う。画像描画部86は、第2の仮想空間に、画像生成部851で生成された不透明のオブジェクト画像、または透過処理部852で生成された半透明のオブジェクト画像を書き込む処理を行う。即ち、画像描画部86は、第2の仮想空間画像に、第1の仮想空間画像を重畳する処理を行う。画像描画部は、第2の仮想空間画像を画像表示部87に表示する制御を行う。
 画像表示部87は、例えばユーザが装着する没入型HMDである。画像表示部87は、画像描画部86で描画された画像を没入型HMDに表示する。ユーザは没入型HMDを装着することにより、画像描画部86で描画された3次元仮想空間画像を、実空間の映像を遮断した状態で視認することができる。
 次に、上述した第2実施形態に係る仮想空間画像表示装置91の動作について、図11に示すフローチャートを参照して説明する。
 初めに図11のステップS71において、同期信号生成部81は、所定の画像取得時間を計時し、画像取得時刻であるか否かを判定する。
 画像取得時刻である場合には(S71:YES)、ステップS72において取得部12は、仮想空間画像表示装置91を操作するユーザ周辺の画像及び奥行き情報を取得する。例えば、ユーザ周辺に設置されたカメラで撮像された画像及びデプスセンサなどにより、画像及び奥行情報を取得することができる。
 ステップS73において人物検出部831は、ユーザ周辺の画像から人物が検出されたか否かを判定する。人物が検出された場合には(S73:YES)、ステップS74に処理を進め、そうでなければ(S73:NO)、ステップS81に処理を進める。
 ステップS74において人物検出部831は、検出した人物がユーザであるものと認識し、このユーザの位置情報を取得し、ユーザの位置情報に基づいて、ユーザの3次元画像を生成する。位置情報は、例えばユーザの頂点座標及びベクトルで示される動き情報である。
 ステップS75においてオブジェクト検出部832は、ユーザ周辺の画像からオブジェクトが検出されたか否かを判定する。オブジェクトが検出された場合には(S75:YES)、ステップS76に処理を進め、そうでなければ(S75:NO)、ステップS81に処理を進める。
 ステップS76において距離判定部841は、ユーザとオブジェクトとの距離を測定する。距離判定部841は、ユーザとオブジェクトとの距離が所定の閾値距離L1以内であるか否かを判定する。ユーザとオブジェクトとの距離が閾値距離L1以内である場合には(S76:YES)、ステップS77に処理を進め、そうでなければ(S76:NO)、ステップS81に処理を進める。
 ステップS77において接触判定部842は、ユーザとオブジェクトが接触したか否かを判定する。接触したと判定した場合には(S77:YES)、ステップS78に処理を進め、そうでなければ(S77:NO)、ステップS79に処理を進める。
 なお、ユーザとオブジェクトとの接触判定は前述したように、単に両者が接触したとき、両者の接触回数が所定回数(例えば、3回)に達したとき、両者の接触時間が所定時間(例えば、3秒間)に達したときに、接触したものと判定することができる。
 ステップS78において画像生成部851は、オブジェクトの3次元画像(不透明のオブジェクト画像)を生成する。
 ステップS79において透過処理部852は、オブジェクトの3次元画像(半透明のオブジェクト画像)を生成する。
 ステップS80において画像描画部86は、第2の仮想空間画像にステップS78の処理で生成された不透明のオブジェクト画像、或いは、ステップS79の処理で生成されたオブジェクトの半透明のオブジェクト画像を重畳する。
 不透明のオブジェクト画像を重畳表示することにより、例えば図5Aに示したように、第2の仮想空間画像に存在するテーブル61上に、コーヒーカップ51及びパソコン52などのオブジェクトの画像が表示される。従って、ユーザは実空間に存在するオブジェクトに触れていることを認識できる。
 半透明のオブジェクト画像を重畳表示することにより、例えば図5Bに示したように、第2の仮想空間画像に存在するテーブル61上に、コーヒーカップ51及びパソコン52などの半透明のオブジェクト画像が表示される。従って、実空間においてユーザの近傍に存在するオブジェクトを認識できる。
 画像描画部86は、ユーザの周辺の閾値距離L1以内の領域にオブジェクトが存在しない場合には、第2の仮想空間画像にオブジェクト画像(不透明及び半透明のオブジェクト画像)を表示しない。
 ステップS81において画像表示部87は、画像描画部86で生成された第2の仮想空間画像を表示する。
 ステップS82において、処理の終了条件であるか否かを判定し、処理を終了しない場合には、ステップS71に処理を戻し、そうでなければ本処理を終了する。
 このように、第2実施形態に係る仮想空間画像表示装置91では、ユーザから所定の閾値距離L1以内に存在し、ユーザに接触していないオブジェクトが存在する場合には、このオブジェクトの半透明のオブジェクト画像を生成する。半透明のオブジェクト画像は、第2の仮想空間画像に重畳して、画像表示部87に表示される。
 従って、ユーザは没入型HMDを装着している場合でも、ユーザの周囲に存在するコーヒーカップ、パソコンなどのオブジェクトの存在を認識できる。ユーザは手元にあるコーヒーカップを容易に持ってコーヒーを飲むことができる。
 また、ユーザから閾値距離L1の範囲内に存在しないオブジェクトの画像は第2の仮想空間画像に重畳表示されない。このため、不要なオブジェクトが画像表示部17に表示されることを回避できる。
 ユーザとオブジェクトが接触している場合には、このオブジェクトの不透明な画像を生成する。不透明のオブジェクト画像は、第2の仮想空間画像に重畳して、画像表示部87に表示される。
 従って、ユーザは没入型HMDを装着している場合でも、ユーザに接触している実空間のオブジェクトの存在を認識できる。このため、ユーザは手元にあるコーヒーカップを容易に持ってコーヒーを飲むことができる。
 また、オブジェクトの形状が変化した場合には、不透明のオブジェクト画像を再構成するので、オブジェクトの形状変化を即時に認識することが可能になる。
 以上、本開示の実施形態を記載したが、この実施形態の一部をなす論述及び図面はこの開示を限定するものであると理解すべきではない。この実施形態から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 本願の開示は、2022年2月28日に出願された特願2022-029724号に記載の主題と関連しており、それらの全ての開示内容は引用によりここに援用される。

Claims (5)

  1.  一のユーザから所定距離以内に存在する物体を検出する検出部と、
     前記物体の画像を含む第1の仮想空間画像を生成する第1の画像生成部と、
     前記一のユーザ及び他のユーザが視認可能である第2の仮想空間画像に、前記第1の仮想空間画像を重畳する第2の画像生成部と、
     を備えた仮想空間画像表示装置。
  2.  前記第1の仮想空間画像に含まれる前記物体の画像は、前記物体を半透明に表示した画像を含む
     請求項1に記載の仮想空間画像表示装置。
  3.  前記一のユーザと前記物体との所定時間以上の接触、及び、前記一のユーザと前記物体との所定回数以上の接触、のうちの少なくとも一方を検出する接触判定部、を更に備え、
     前記第2の画像生成部は、前記一のユーザと前記物体との所定時間以上の接触、及び、前記一のユーザと前記物体との所定回数以上の接触、のうち少なくとも一方が検出された際に、前記第2の仮想空間画像に前記第1の仮想空間画像に重畳表示する
     請求項1または2に記載の仮想空間画像表示装置。
  4.  一のユーザから所定距離以内に存在する物体を検出するステップと、
     前記物体の画像を含む第1の仮想空間画像を生成するステップと、
     前記一のユーザ及び他のユーザが視認可能である第2の仮想空間画像に、前記第1の仮想空間画像を重畳するステップと、
     を備えた仮想空間画像表示方法。
  5.  一のユーザから所定距離以内に存在する物体を検出するステップと、
     前記物体の画像を含む第1の仮想空間画像を生成するステップと、
     前記一のユーザ及び他のユーザが視認可能である第2の仮想空間画像に、前記第1の仮想空間画像を重畳するステップと、
     をコンピュータに実行させる仮想空間画像表示プログラム。
PCT/JP2022/047978 2022-02-28 2022-12-26 仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラム WO2023162457A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022029724A JP2023125554A (ja) 2022-02-28 2022-02-28 仮想空間画像表示装置及び仮想空間画像表示方法並びに仮想空間画像表示プログラム
JP2022-029724 2022-02-28

Publications (1)

Publication Number Publication Date
WO2023162457A1 true WO2023162457A1 (ja) 2023-08-31

Family

ID=87765372

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/047978 WO2023162457A1 (ja) 2022-02-28 2022-12-26 仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラム

Country Status (2)

Country Link
JP (1) JP2023125554A (ja)
WO (1) WO2023162457A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194744A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
WO2020039568A1 (ja) * 2018-08-23 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2020080107A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194744A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
WO2020039568A1 (ja) * 2018-08-23 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2020080107A1 (ja) * 2018-10-15 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2023125554A (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
US11714592B2 (en) Gaze-based user interactions
US11651576B2 (en) Sharing virtual content in a mixed reality scene
US8994672B2 (en) Content transfer via skin input
US7834893B2 (en) Mixed-reality presentation system and control method therefor
US11164546B2 (en) HMD device and method for controlling same
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
CN110413105A (zh) 虚拟环境内的虚拟对象的有形可视化
CN107408026A (zh) 信息处理设备、信息处理方法和计算机程序
US11695908B2 (en) Information processing apparatus and information processing method
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
WO2019142560A1 (ja) 視線を誘導する情報処理装置
CN106663410A (zh) 头戴式显示器上的信息显示
JPWO2020039568A1 (ja) 画像生成装置および画像生成方法
JP2019516180A (ja) 仮想化環境内にイメージを提示するための方法及び装置
CN118519521A (zh) 用于地图的设备、方法和图形用户界面
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
WO2023162457A1 (ja) 仮想空間画像表示装置、仮想空間画像表示方法、及び仮想空間画像表示プログラム
CN111258482B (zh) 信息分享方法、头戴式设备及介质
CN110494915A (zh) 电子装置及其控制方法
CN111246014B (zh) 通话方法、头戴式设备及介质
US9693016B2 (en) Data processing method, data processing apparatus and electronic device
CN115803786A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22928972

Country of ref document: EP

Kind code of ref document: A1