WO2020121483A1 - 表示端末、表示制御システムおよび表示制御方法 - Google Patents

表示端末、表示制御システムおよび表示制御方法 Download PDF

Info

Publication number
WO2020121483A1
WO2020121483A1 PCT/JP2018/045883 JP2018045883W WO2020121483A1 WO 2020121483 A1 WO2020121483 A1 WO 2020121483A1 JP 2018045883 W JP2018045883 W JP 2018045883W WO 2020121483 A1 WO2020121483 A1 WO 2020121483A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
virtual object
data
display terminal
color image
Prior art date
Application number
PCT/JP2018/045883
Other languages
English (en)
French (fr)
Inventor
塩川 淳司
橋本 康宣
光信 渡辺
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to CN201880100103.1A priority Critical patent/CN113168820A/zh
Priority to PCT/JP2018/045883 priority patent/WO2020121483A1/ja
Priority to US17/413,257 priority patent/US11651567B2/en
Priority to JP2020559642A priority patent/JP7194752B2/ja
Publication of WO2020121483A1 publication Critical patent/WO2020121483A1/ja
Priority to JP2022197561A priority patent/JP7496403B2/ja
Priority to US18/299,113 priority patent/US11972532B2/en
Priority to US18/595,254 priority patent/US20240203073A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the virtual object displayed in the AR image performs operations such as movement, rotation, and deformation by giving instructions to operation points set in advance around the virtual object.
  • operations such as movement, rotation, and deformation by giving instructions to operation points set in advance around the virtual object.
  • a part of the virtual object may be behind the surrounding structure and the hidden surface may be erased, so that the necessary operation points may not be displayed. Therefore, high operability cannot always be obtained.
  • the virtual object is displayed as it is, regardless of the arrangement position of the virtual object after the operation, a sense of reality cannot be obtained.
  • the present invention is a display terminal including a display, wherein a color image camera that acquires a color image in a predetermined shooting range, a range image camera that acquires a range image in the shooting range, and a virtual object are displayed on the display. And a display control unit for controlling the display unit, wherein the display control unit uses the color image and the distance image to generate a three-dimensional map of a structure within the photographing range, and the three-dimensional map.
  • (A)-(c) is explanatory drawing for demonstrating the other example of the aspect of virtual object display of embodiment of this invention.
  • (A) And (b) is explanatory drawing for demonstrating the modification 1 of the aspect of virtual object display of embodiment of this invention. It is an explanatory view for explaining the modification 2 of the mode of the virtual object display of the embodiment of the present invention. It is an explanatory view for explaining modification 3 of a mode of a virtual object display of an embodiment of the present invention. It is an explanatory view for explaining modification 4 of a mode of a virtual object display of an embodiment of the present invention. It is an explanatory view for explaining modification 5 of a mode of a virtual object display of an embodiment of the present invention. It is an explanatory view for explaining modification 6 of a mode of a virtual object display of an embodiment of the present invention.
  • the user 201 wears the HMD 200 indoors, displays the virtual object 100 on the display of the HMD 200, and operates it.
  • the HMD 200 has distance information (depth information) of the real space and the virtual object 100. Conventionally, on the display of the HMD 200, as shown in FIG. 1B, the portion of the virtual object 100 arranged behind the structure 300 such as a wall in the real space is not displayed. Therefore, in such a case, the user 201 cannot grasp the whole picture of the virtual object 100.
  • the virtual object 100 performs operations such as movement, rotation, and deformation by operating an operation point (transform controller) 110 set on or near the virtual object 100. Therefore, when the display is as shown in FIG. 1B, the operation point 110 behind the structure 300 is not displayed, and the operation cannot be performed.
  • the virtual object 100 displays all the operation points 110 even if there is the structure 300. Further, the entire virtual object 100 itself may be displayed. In addition, at this time, the additional object 400 may be displayed so that it can be seen that the part that is not originally displayed is displayed.
  • FIG. 2A is a hardware configuration diagram of the HMD 200.
  • 2B is an external view of the HMD 200 of this embodiment.
  • the HMD 200 of this embodiment basically has the same configuration as a general-purpose computer (information processing device). That is, the HMD 200 electrically connects the controller 210, the camera 214, the display 215, the voice interface (I/F) 216, the communication I/F 217, the sensor 218, and each unit as shown in the figure. A bus 219 that operates and a line-of-sight detection device 214c. Further, the HMD 200 of the present embodiment includes a frame 241 that supports the respective parts and is worn by the user 201.
  • the controller 210 performs various processes according to a predetermined program.
  • the controller 210 displays the virtual object 100 at a predetermined position on the display 215, for example.
  • the controller 210 of this embodiment includes a CPU 211, a RAM 212, and a ROM 213.
  • the CPU 211 realizes various functions by loading a program stored in the ROM 213 in advance into the RAM 212 and executing the program.
  • the RAM 212 and the ROM 213 are collectively referred to as a storage device 230 (see FIG. 3) unless it is necessary to distinguish them.
  • the controller 210 is arranged, for example, on the frame 241.
  • the camera 214 includes a color image camera 214a and a range image camera 214b.
  • the color image camera 214a captures a color image by capturing an image capturing range including the visual field range of the user 201.
  • the range image camera 214b acquires a range image in a shooting range substantially the same as that of the color image camera 214a.
  • the camera 214 (color image camera 214a and range image camera 214b) is arranged, for example, at the frontmost part of the frame 241 (closest to the display 215 side) at a position where it is possible to shoot the shooting range.
  • the display 215 is a device that displays the image acquired by the camera 214 and the display data generated in the HMD 200.
  • the display 215 is composed of, for example, a transmissive liquid crystal device or an organic EL device, or an optical scanning device using a MEMS (micro electro mechanical systems).
  • MEMS micro electro mechanical systems
  • the device is not limited to this, and may be any device that can realize a transmissive display structure in which an image is displayed on the display 215 and the other side of the display 215 can be seen through.
  • the transmissive display 215 is supported in front of one or both eyes of the user 201.
  • the display 215 can take an arbitrary shape.
  • the display 215 may include right and left display panels, and the display 215 may display one or more UI objects of the graphical user I/F.
  • the voice I/F 216 is, for example, a voice output device such as a microphone, a speaker, and a buzzer.
  • the voice I/F 216 inputs an external sound and outputs a sound created in the HMD 200 and a sound such as voice and music sent via the communication I/F 217.
  • the audio I/F 216 may not be provided.
  • the communication I/F 217 includes an encoding circuit, a decoding circuit, an antenna, etc., and transmits/receives data (data communication) to/from other devices via a network.
  • the communication I/F 217 is an I/F connected to a network via an access point or the like (not shown) or a base station of a mobile telephone communication network (not shown). ..
  • the HMD 200 transmits/receives data to/from each server connected to the network via the communication I/F 217.
  • the connection between the HMD 200 and the access point is performed by a wireless communication system such as Wi-Fi (registered trademark) or another communication system.
  • the connection between the HMD 200 and the base station of the mobile telephone communication network is, for example, a W-CDMA (registered trademark) (Wideband Code Division Multiple Access) method, a GSM (registered trademark) (Global System for Mobile communications) method, or an LTE method. Long Term Evolution) method or other communication method.
  • the HMD 200 of this embodiment may not include the communication I/F 217.
  • the line-of-sight detection device 214c detects the line-of-sight direction of the user 201.
  • the visual line detection device 214c is realized by, for example, a visual line detection camera that detects the visual line direction of the user 201.
  • the line-of-sight detection camera is attached so that the iris of the eye of the user 201, the pupil, and the like are included in the imaging range.
  • the frame 241 supports the components of the HMD 200, such as the display 215, the camera 214, the controller 210, etc.
  • FIG. 3 is a functional block diagram of functions related to virtual object display processing of the HMD 200 of this embodiment.
  • the controller 210 of the present embodiment realizes the functions of the image acquisition unit 228, the display control unit 220, and the audio output control unit 229.
  • the display control unit 220 includes a space recognition unit 221, an instruction reception unit 222, a display data generation unit 223, and a display correction unit 224.
  • color image data 231, distance image data 232, space recognition data 233, virtual object data (virtual OJT data) 234, additional object data (additional OJT data) 235, and audio data. 236 are stored.
  • the color image data 231 is an image acquired by the color image camera 214a.
  • the range image data 232 is an image acquired by the range image camera 214b.
  • the space recognition unit 221 recognizes the surrounding real space and stores the result as the space recognition data 233 in the storage device 230.
  • the recognition is performed by using the color image data 231 and the distance image data 232 that are acquired almost at the same time.
  • the space recognition data 233 is created, for example, in the world coordinate system that defines the entire three-dimensional space.
  • the origin and each axial direction of the world coordinate system the origin and each of the local coordinate system of the HMD 200 specified by the position and the orientation (initial posture) of the HMD 200 main body when the instruction to start the spatial recognition is accepted.
  • a predetermined position on the display 215 of the HMD 200 is set as an origin
  • the inside of the display 215 is defined as an xy plane
  • the z-axis direction is a direction perpendicular to the xy plane (display 215 surface).
  • the amount of displacement and the amount of rotation of the local coordinate system of the HMD 200 with respect to the world coordinate system by the scan operation of the user 201 are calculated using the data obtained by the various sensors 218.
  • the spatial recognition is performed by using an existing technology such as Spatial Mapping. That is, the HMD 200 of the present embodiment scans the surroundings with the color image camera 214a and the range image camera 214b. Then, using the result, the spatial recognition unit 221 generates three-dimensional data using an application such as Spatial Mapping.
  • the space recognition data 233 is held as mesh data, for example.
  • the instruction receiving unit 222 receives a display instruction and an operation instruction for the virtual object 100 displayed on the display 215 from the user 201.
  • the display instruction and the operation instruction include, for example, a line of sight (gaze) and a finger movement (gesture).
  • the information on the line-of-sight direction used for gaze is detected using, for example, the line-of-sight detection device 214c.
  • the gesture includes, for example, a click event (air tap) for the operation point 110 of the virtual object 100, tap and hold, bloom, and the like.
  • the instruction receiving unit 222 detects movement of fingers in a gesture frame provided within the shooting range of the color image camera 214a and the distance image camera 214b, and detects a display instruction, an operation instruction, and the like.
  • the instruction receiving unit 222 when receiving the display instruction, extracts the data of the virtual object 100 instructed from the virtual object data 234, and causes the display data generating unit 223 described below to generate the display data.
  • the display data generation unit 223 generates display data for displaying the instructed virtual object 100 at a predetermined position on the display 215 in a predetermined shape from the virtual object data 234 according to the instruction of the user 201 via the instruction reception unit 222. To do. By displaying the display data generated according to the instruction of the instruction receiving unit 222 on the display 215, the virtual object 100 is displayed to move, rotate, and deform according to the instruction of the user 201.
  • the display data generation unit 223 is behind the structure 300 in the line-of-sight direction of the user 201 (calculated from the coordinate position in the space of the HMD 200 worn by the user 201 and the information of the vertical and horizontal directions).
  • Display data specifying the area of the object 100 as the back area 101 is generated.
  • the back surface area 101 (FIG. 4) is specified based on the three-dimensional map (space recognition data 233) generated by the space recognition unit 221 and the arrangement position data in the real space of the virtual object 100 to be displayed.
  • the arrangement position data in the real space is registered in the same coordinate system as the coordinate system used by the space recognition unit 221 for space recognition.
  • the arrangement position data of the virtual object 100 in the real space is obtained from the virtual object data 234 of the virtual object 100 to be displayed.
  • the virtual object data 234 includes size, shape, and initial placement position information of each virtual object 100.
  • the initial arrangement position information is registered, for example, regarding arrangement position points, operation points 110, and the like set in advance for each virtual object 100.
  • the arrangement position point is, for example, a three-dimensional barycentric position of the virtual object 100.
  • the operation point 110 is a point that receives an instruction to deform the display shape of the virtual object 100, as described above.
  • the display data generation unit 223 obtains the latest arrangement position information of the virtual object data 234 corresponding to the virtual object 100 to be displayed by reflecting the instruction of the instruction reception unit 222 on the current arrangement position information. Then, the display data generation unit 223 obtains the arrangement position data of the virtual object 100 in the real space by using the latest arrangement position information of the arrangement position point and the information such as the size and the shape.
  • the display data generation unit 223 further specifies the rear surface area 101 of the virtual object 100 to be displayed using the latest arrangement position data in the real space. For example, the display data generation unit 223, based on the arrangement position data of the virtual object 100 in the real space, information on the coordinate position of the virtual object 100 in the space of the HMD 200 worn by the user 201 and the vertical and horizontal directions. To the virtual object, the shape data of the virtual object 100, and the coordinate position of the structure 300 are specified as depth information.
  • the area (portion) of the virtual object 100 and the operation point 110 that are located relatively deeper than the depth information of the structure 300 are set as the back area 101.
  • the back surface area 101 is an area where the hidden surface processing is performed in the normal processing.
  • the display data generation unit 223 has a configuration in which the display data generation unit 223 uses the back surface of the virtual object 100.
  • the hidden surface processing is performed on the area 101, and display data is generated so as not to be displayed.
  • the display correction unit 224 shows the entire virtual object 100 and accompanying operations.
  • the display is corrected to display the point 110.
  • the display correction unit 224 performs such processing.
  • the display correction unit 224 corrects the display data of the virtual object data 234 when the virtual object data 234 to be displayed has the back area 101.
  • the display correction unit 224 displays the additional object 400 to indicate that the virtual object 100 is not in the original display mode.
  • the additional object 400 displays the virtual object 100 more naturally and realistically, for example, showing the virtual object 100 breaking through the structure 300 and showing a hole in the structure 300. It is an object to show.
  • the data of the additional object 400 to be displayed is prepared in advance as the additional object data 235 of the storage device 230.
  • information such as the display mode of the additional object 400, the initial size, and the initial display position with respect to the display position of the virtual object 100 is registered in association with each other.
  • the display correction unit 224 may follow the change and change the display shape of the additional object 400. Further, even when the display direction of the virtual object 100 changes due to the movement of the user 201 in the line-of-sight direction, the display shape of the additional object 400 may be similarly modified.
  • the additional object 400 is deformed, for example, according to the same program as the program used for the process of deforming the display of the virtual object 100 according to the change of the line-of-sight direction.
  • FIG. 5 is a processing flow of the virtual object display processing of this embodiment. It should be noted that the space recognition process is already performed as an initial process. Further, it is assumed that the virtual object 100 is displayed at the position where the entire virtual object is displayed.
  • the display data generation unit 223 and the display correction unit 224 repeat the following processing until the end instruction is received from the user 201 via the instruction reception unit 222 (step S1101).
  • step S1103 When a move operation for the virtual object 100 is received from the user 201 via the instruction receiving unit 222 (step S1102), the display data generating unit 223 generates display data (step S1103).
  • step S1103 the display data generation unit 223 first calculates the display position of the virtual object 100 on the display 215. Then, the display data generation unit 223 identifies the line-of-sight direction and calculates the depth information according to the corresponding virtual object data 234 of the virtual object 100. Further, the depth information of the structure 300 is also calculated. Then, the display data generation unit 223 identifies the back area 101 on the display data.
  • the display data generation unit 223 determines whether or not the virtual object 100 to be displayed has the back area 101 (step S1104).
  • the display data generation unit 223 notifies the display correction unit 224 to that effect. Then, the display correction unit 224 displays the display data of the virtual object 100 on the display 215 at the position calculated in step S1103 as it is (step S1112). Then, the controller 210 waits for the next operation instruction.
  • the display data generation unit 223 determines whether or not the entire virtual object 100 is the back area 101 (step S1105).
  • the display data generation unit 223 notifies the display correction unit 224 of that fact. Then, the display correction unit 224 directly erases the display of the virtual object 100 (step S1111), and ends the process.
  • the display data generation unit 223 notifies the display correction unit 224 to that effect. Then, the display correction unit 224 corrects the display data of the virtual object 100 by the above method (step S1106).
  • the display correction unit 224 corrects the display data so as to display all the operation points 110 of the virtual object 100 and the part of the virtual object 100 operated by the operation points 110. Then, the display correction unit 224 displays the corrected display data at the position calculated in step S1103 on the display 215 (step S1107).
  • the display correction unit 224 acquires the additional object data 235 from the storage device 230, and superimposes it on the back surface area 101 of the virtual object 100 and displays it (step S1108). Then, the controller 210 waits for the next operation instruction.
  • the virtual object 100 and the additional object 400 are displayed on the display 215 in a frame 215 a defined by the display 215.
  • the structure 300 is a real object in the real space.
  • the frame of the display 215 is omitted, and as shown in FIG. 6B, only the real object visible through the display 215 and the display data of the virtual object 100 and the like are described and described. ..
  • the virtual object 100 is displayed at the position shown in FIG.
  • the user 201 gives an operation instruction (gesture) to push in the direction of the arrow 203 with the finger 202 in the real space.
  • the display position of the virtual object 100 with respect to the structure 300 that is the real object in the real space moves.
  • the virtual object 100 and the operation point 110 thereof are displayed together. , The whole is displayed. Further, at this time, the additional object 400 is displayed as if a hole was formed in the wall which is the structure 300.
  • the audio output control unit 229 may be configured to output audio.
  • the display correction unit 224 notifies the audio output control unit 229 of that fact.
  • the voice output control unit 229 extracts a voice from the voice data 236 and outputs it from the voice I/F 216.
  • the voice data 236 may have different data registered in association with the material of the structure 300.
  • the material of the structure 300 is recognized by, for example, the Spatial Understanding by the space recognition unit 221 described above.
  • an onomatopoeia expressing the output voice data 236 by a character string may be displayed.
  • it is “bari” or the like shown in FIG.
  • onomatopoeia word data 237 representing the voice data 236 in a character string is registered in advance in the storage device 230 in association with the voice data 236.
  • the display correction unit 224 generates display data so that the onomatopoeia data 237 registered in association with the output voice data 236 is displayed near the additional object 400.
  • a balloon may be further displayed and the onomatopoeia data 237 may be displayed in the balloon. Further, only the onomatopoeia data 237 may be displayed without outputting the voice data 236.
  • the display correction unit 224 changes the shape of the additional object 400 so as to follow the virtual object 100 as the virtual object 100 sinks into the structure 300.
  • FIG. 8A a case where the virtual object 100 has a shape in which two rectangular parallelepipeds having different horizontal widths are combined will be described as an example.
  • the virtual object 100 is pushed into the structure 300 in the direction of the arrow 203 from a rectangular parallelepiped having a small horizontal width.
  • the display correction unit 224 processes and displays the size of the additional object 400 according to the horizontal width of the virtual object 100, as shown in FIG. 8B.
  • the additional object 400 is displayed in a small size.
  • FIG. 8(a) when a rectangular parallelepiped region having a small horizontal width is virtually embedded in the structure 300, the additional object 400 is displayed in a small size.
  • FIG. 8(b) when a region having a horizontal width larger than that in FIG. 8(a) is virtually embedded in the structure 300, as shown in FIG. 8(b), as compared with FIG. 8(a). A large size additional object 400 is displayed.
  • the line-of-sight direction changes according to the change in the standing position of the user 201.
  • the user 201 faces the wall which is the structure 300, even if the display position of the virtual object 100 in the world coordinate system is the same, the user 201 and the virtual object 100 shown in FIG.
  • the display mode of the virtual object 100 changes from the case of FIG. 8B.
  • the display shape of the virtual object 100 also changes.
  • the display correction unit 224 may follow the change in the display shape of the virtual object 100 and change the display shape of the additional object 400 to display it, as shown in FIG. 8C.
  • the HMD 200 of the present embodiment includes the color image camera 214a that acquires a color image in a predetermined shooting range, the range image camera 214b that acquires a range image in a substantially same shooting range, and the display 215.
  • a display data generation unit 223 that generates display data that specifies the area of the virtual object 100 behind the structure 300 in the direction of the line of sight as the rear area 101 based on the arrangement position data of the display data, and a display that corrects the display data.
  • a display correction unit 224 for displaying on 215.
  • the display correction unit 224 corrects the display data so that the operation point 110 in the back area 101 is displayed.
  • the operation point 110 is a point that receives an operation instruction for the virtual object 100 via the operation point 110.
  • the operation point 110 of the rear surface area 101 of the virtual object 100 which is not normally displayed but is behind the structure 300, is also displayed. Therefore, even if the virtual object 100 is moved by the operation of the user 201, the operation can be performed on the moved virtual object 100.
  • the display correction unit 224 when displaying the operation point 110 of the back area 101, the display correction unit 224 also displays the back area 101 and the additional object 400 around the virtual object 100. Therefore, according to the present embodiment, it is possible to realize high operability while maintaining a sense of reality without sacrificing the natural appearance regardless of the display position of the virtual object 100 on the display 215.
  • the display of the virtual object 100 that partially has the back area 101 is not limited to the above.
  • the display correction unit 224 may display the virtual object 100 so that the back area 101 and the other area (hereinafter referred to as the front area) 102 can be distinguished from each other.
  • the display correction unit 224 corrects the display data so that the line 121 is displayed between the back area 101 and the front area 102. Further, as shown in FIG. 9B, the display correction unit 224 corrects the display data so that the back surface area 101 is displayed in a surface mode 122 different from the surface of the virtual object 100 originally.
  • the correction modes of FIGS. 9A and 9B may be combined.
  • the additional object 400 may be highlighted.
  • An example of the highlighted additional object 400 is shown in FIG.
  • the highlighting mode of the additional object 400 may be registered in the additional object data 235 in advance.
  • various types of image processing software may be used to process and display the additional object 400 registered in the display correction unit 224 in a highlighted manner.
  • the user 201 can easily understand that the virtual object 100 is different from the original display mode. That is, the user 201 can more intuitively understand that the area where the user 201 should not normally be displayed is displayed.
  • the display correction unit 224 identifies the material and/or type of the structure 300 by referring to the space recognition data 233 by the space recognition unit 221. Then, the display correction unit 224 extracts the additional object data 235 of the texture according to the specified material and/or type and displays it as the additional object 400.
  • the additional object 400 representing the state in which the wall is cracked as shown in FIG. 10 is prepared as the additional object data 235.
  • the structure 300 is a soft material such as a cushion, as shown in FIG. 11, an additional object 402 representing a state in which the virtual object 100 sinks into the structure 300 is prepared and displayed.
  • the mode of highlighting may be changed according to the material and/or type of the structure 300 or the texture of the additional object 400.
  • the display correction unit 224 may cut out a part of the color image data 231 and use it as the additional object 400.
  • an image of the structure 300 into which the virtual object 100 is pushed may have the same texture as the structure 301 behind the structure 300.
  • the display correction unit 224 processes the additional object data 235 using the space recognition data 233 according to the arrangement position of the additional object 400. Then, the display correction unit 224 arranges the processed additional object data 235.
  • the user 201 can more naturally accept the display mode of the virtual object 100 of this embodiment.
  • the display correction unit 224 corrects the display data so that the virtual object 100 is displayed at the calculated position. Further, the display correction unit 224 may display the operation miniature virtual object 401 as an additional object in the front. In this case, the display correction unit 224 generates the miniature virtual object 401 from the virtual object 100 and displays it.
  • the user 201 can perform operations while maintaining a sense of reality.
  • the display 215 may be non-transmissive.
  • the display correction unit 224 causes the virtual object 100 and the additional object 400 to be superimposed and displayed on the color image (through image 500) acquired by the color image camera 214a.
  • the display terminal is not limited to the HMD 200 equipped with a transmissive display.
  • it may be a portable or portable information processing device such as an HMD having a non-transmissive display, a mobile terminal or the like.
  • the input of the operation instruction is not limited to the line of sight and the gesture.
  • a voice, a motion controller or the like may be used.
  • the display correction unit 224 corrects the display of the virtual object 100 so that all the operation points 110 of the virtual object 100 are displayed, but the present invention is not limited to this.
  • the operation points 110 to be displayed may be a part of the operation points 110 in the back area 101. That is, at least one operation point 110 in the back area 101 may be displayed.
  • the present invention is not limited to the above-described embodiments and modifications, and includes various modifications.
  • the above-described embodiments and modified examples have been described in detail for the purpose of explaining the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described.
  • each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • the above-described respective configurations, functions and the like may be realized by software by a processor interpreting and executing a program for realizing each function.
  • Information such as programs, tables, and files that implement each function can be placed in a memory unit, a hard disk, a recording device such as SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
  • control lines and information lines are shown to be necessary for explanation, and not all control lines and information lines are shown on the product. In practice, it may be considered that almost all configurations are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ディスプレイ215を備える表示端末であって、予め定めた撮影範囲のカラー画像および距離画像をそれぞれ取得するカラー画像カメラ214aおよび距離画像カメラ215bと、仮想オブジェクト100をディスプレイ215に表示させる表示制御部220と、を備え、表示制御部220は、カラー画像と距離画像とを用いて構造物300の3次元マップを生成する空間認識部221と、3次元マップと仮想オブジェクト100の実空間上の配置位置データとに基づいて、視線方向の構造物300の背後になる仮想オブジェクト100の背面領域101を特定した表示データを生成する表示データ生成部223と、表示データを補正してディスプレイ215に表示させる表示補正部と224と、を備え、表示補正部224は、背面領域101の、仮想オブジェクト100に対する操作指示を受け付ける操作ポイント110を表示させるよう表示データを補正する。

Description

表示端末、表示制御システムおよび表示制御方法
 本発明は、表示端末における仮想オブジェクトの表示技術に関する。
 HMD(ヘッドマウントディスプレイ;Head Mount Display)等の表示端末に表示する、現実空間の物体に対してコンピュータによる情報を付加する拡張現実(AR、Augmented Reality)画像の視認性を向上させる技術がある。例えば、特許文献1には、「表示部に、透過して視認される外界に重ね合わせて所定の画像を表示させる重畳画像表示制御部と、前記透過して視認される外界のうちの所定範囲を少なくとも撮像する撮像部と、撮像部によって得られた撮像画像から、前記所定の画像と位置が対応する所定範囲の部分画像を特定する部分画像特定部と、前記特定された部分画像についての色情報に応じて、重畳画像表示制御部によって表示される所定の画像の見え方を補正する視認性補正部と、を備える(要約抜粋)」外界を透過視認可能な表示部を備えた頭部装着型表示装置が開示されている。
特開2016-142887号公報
 AR画像で表示される仮想オブジェクト等は、当該仮想オブジェクトの周囲に予め設定された操作ポイントに対して指示を行うことにより、移動、回転、変形等の操作を行う。しかしながら、仮想オブジェクトの表示位置によっては、当該仮想オブジェクトの一部が周囲の構造物の背後となり、陰面消去され、それに伴い、必要な操作ポイントが表示されないことがある。このため、必ずしも高い操作性が得られない。一方、仮想オブジェクトの操作後の配置位置によらず、そのまま仮想オブジェクトを表示させると、現実感が得られない。
 本発明は、上記事情に鑑みてなされたもので、仮想オブジェクトの表示位置によらず、現実感を保ちつつ、高い操作性を実現する仮想オブジェクト表示技術を提供することを目的とする。
 本発明は、ディスプレイを備える表示端末であって、予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、前記撮影範囲の距離画像を取得する距離画像カメラと、仮想オブジェクトを前記ディスプレイに表示させる表示制御部と、を備え、前記表示制御部は、前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、前記3次元マップと表示させる前記仮想オブジェクトの実空間上の配置位置データとに基づいて、視線方向に関して前記構造物の背後になる当該仮想オブジェクトの領域を背面領域として特定した表示データを生成する表示データ生成部と、前記表示データを補正して前記ディスプレイに表示させる表示補正部と、を備え、前記表示補正部は、前記背面領域の操作ポイントを表示させるよう前記表示データを補正し、前記操作ポイントは、当該操作ポイントを介して前記仮想オブジェクトに対する操作指示を受け付けるポイントであることを特徴とする。
 本発明によれば、仮想オブジェクトの表示位置によらず、現実感を保ちつつ、高い操作性を実現する仮想オブジェクト表示技術を提供できる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
(a)~(c)は、本発明の実施形態の仮想オブジェクト表示処理の概要を説明するための説明図である。 (a)は、本発明の実施形態のHMDのハードウェア構成図であり、(b)は、本発明の実施形態のHMDの外観図である。 本発明の実施形態のHMDのコントローラの機能ブロック図である。 (a)および(b)は、本発明の実施形態の仮想オブジェクト表示処理の概要を説明するための説明図である。 本発明の実施形態の仮想オブジェクト表示処理のフローチャートである。 (a)および(b)は、本発明の実施形態のディスプレイ表示を説明するための説明図である。 (a)~(c)は、本発明の実施形態の仮想オブジェクト表示の態様の一例を説明するための説明図である。 (a)~(c)は、本発明の実施形態の仮想オブジェクト表示の態様の他の例を説明するための説明図である。 (a)および(b)は、本発明の実施形態の仮想オブジェクト表示の態様の変形例1を説明するための説明図である。 本発明の実施形態の仮想オブジェクト表示の態様の変形例2を説明するための説明図である。 本発明の実施形態の仮想オブジェクト表示の態様の変形例3を説明するための説明図である。 本発明の実施形態の仮想オブジェクト表示の態様の変形例4を説明するための説明図である。 本発明の実施形態の仮想オブジェクト表示の態様の変形例5を説明するための説明図である。 本発明の実施形態の仮想オブジェクト表示の態様の変形例6を説明するための説明図である。
 以下、本発明の実施の形態について、図面を用いて説明する。以下、本明細書において、同一機能を有するものは、特に断らない限り同一の符号を付し、繰り返しの説明は省略する。なお、本発明はここで説明する実施形態に限定されるものではない。
 本実施形態では、表示端末として、ユーザ(装着者)が頭部に装着して用いるHMD(ヘッドマウントディスプレイ;Head Mount Display)であって、透過型ディスプレイを備え、外界と表示画像との両方を視認可能な透過型(シースルー型)のHMDを例にあげて説明する。
 まず、本実施形態の概要を、図1(a)から図1(c)を用いて説明する。本実施形態では、図1(a)に示すように、ユーザ201が、室内でHMD200を装着し、仮想オブジェクト100をHMD200のディスプレイに表示させて、操作する。
 HMD200は、実空間および仮想オブジェクト100の、距離情報(奥行情報)を持つ。従来は、HMD200のディスプレイには、図1(b)に示すように、実空間の壁等の構造物300より奥に配置される仮想オブジェクト100の部分は、表示されない。従って、このような場合、ユーザ201は、仮想オブジェクト100の全容を把握することができない。
 また、一般に、仮想オブジェクト100は、仮想オブジェクト100上または周囲近傍に設定される操作ポイント(トランスフォームコントローラ)110を操作することにより、移動、回転、変形等の操作を行う。従って、図1(b)のように表示された場合、構造物300の背後の部分の操作ポイント110は表示されないため、操作ができない。
 本実施形態では、これを解決するため、図1(c)に示すように、構造物300があったとしても、仮想オブジェクト100は、全ての操作ポイント110を表示させる。また、仮想オブジェクト100自体もその全体を表示させてもよい。また、このとき、本来は、表示されない部分まで表示されていることがわかるよう、付加オブジェクト400を表示してもよい。
 以下、このような表示制御を実現する本実施形態のHMD200について説明する。
 [ハードウェア構成図]
 図2(a)は、HMD200のハードウェア構成図である。また、図2(b)は、本実施形態のHMD200の外観図である。
 本実施形態のHMD200は、基本的に汎用のコンピュータ(情報処理装置)と同様の構成を有する。すなわち、HMD200は、本図に示すように、コントローラ210と、カメラ214と、ディスプレイ215と、音声インタフェース(I/F)216と、通信I/F217と、センサ218と、各部を電気的に接続するバス219と、視線検出装置214cと、を備える。さらに、本実施形態のHMD200は、各部を支え、ユーザ201が装着するためのフレーム241を備える。
 コントローラ210は、予め定めたプログラムに従って、各種の処理を行う。本実施形態では、コントローラ210は、例えば、ディスプレイ215の所定の位置に、仮想オブジェクト100を表示させる。
 本実施形態のコントローラ210は、CPU211と、RAM212と、ROM213と、を備える。CPU211は、予めROM213に格納されたプログラムを、RAM212にロードして実行することにより、各種の機能を実現する。なお、RAM212およびROM213は、特に区別する必要がない場合は、両者を合わせて記憶装置230(図3参照)と呼ぶ。なお、コントローラ210は、例えば、フレーム241上に配置される。
 カメラ214は、カラー画像カメラ214aと、距離画像カメラ214bと、を備える。カラー画像カメラ214aは、ユーザ201の視野範囲を含む撮影範囲を撮影し、カラー画像を取得する。また、距離画像カメラ214bは、カラー画像カメラ214aと略同範囲の撮影範囲の距離画像を取得する。カメラ214(カラー画像カメラ214aおよび距離画像カメラ214b)は、例えば、フレーム241の最前部(最もディスプレイ215側)の、上記撮影範囲を撮影可能な位置に配置される。
 ディスプレイ215は、カメラ214で取得した画像、HMD200内で生成された表示データが表示されるデバイスである。ディスプレイ215は、例えば、透過型の液晶デバイスや有機ELデバイス、あるいはMEMS(micro electro mechanical systems)を用いた光走査型のデバイス等で構成される。しかしながら、デバイスはこれに限定されず、ディスプレイ215上に映像を表示しつつ、ディスプレイ215の向こう側が透けて見える透過型ディスプレイ構造を実現可能なデバイスであればよい。
 本実施形態のHMD200では、透過型のディスプレイ215が、ユーザ201の片眼または両眼の前で支持される。なお、ディスプレイ215は、任意の形状を撮ることができる。ディスプレイ215は、右および左の表示パネルを備えてもよい、また、ディスプレイ215には、グラフィカルユーザI/Fの1つまたは複数のUIオブジェクトが表示されてもよい。
 音声I/F216は、例えば、マイク、スピーカ、ブザー等の音声出力装置である。音声I/F216は、外界の音の入力と、HMD200内で作成した音や通信I/F217を介して送られてくる音声や音楽等の音の出力とを行う。本実施形態では、音声I/F216は、備えなくてもよい。
 通信I/F217は、符号回路や復号回路、アンテナ等を備え、ネットワークを介して、他装置とのデータの送受信(データ通信)を行う。本実施形態では、通信I/F217は、図示を省略したアクセスポイント等を介して、または、図示を省略した移動体電話通信網の基地局等を介して、ネットワークと接続するI/Fである。通信I/F217を介して、HMD200は、ネットワークに接続された各サーバとのデータ送受信を行う。
 HMD200と前記アクセスポイントとの接続は、例えば、Wi-Fi(登録商標)等の無線通信方式やその他の通信方式により行われる。HMD200と前記移動体電話通信網の基地局との接続は、例えば、W-CDMA(登録商標)(Wideband Code Division Multiple Access)方式やGSM(登録商標)(Global System for Mobile communications)方式、LTE(Long Term Evolution)方式、或いはその他の通信方式によって行われる。なお、本実施形態のHMD200は、通信I/F217を備えなくてもよい。
 センサ218は、HMD200の現在位置、傾き、速度、ユーザ201による操作等を検出する。HMD200は、センサ218として、例えば、GPS受信機218a等の位置情報取得センサ、ジャイロセンサ218b、加速度センサ218c、地磁気センサ218d、タッチセンサ218e等を備える。なお、センサ218は、全てを備えなくてもよい。
 視線検出装置214cは、ユーザ201の視線方向を検出する。視線検出装置214cは、例えば、ユーザ201の視線方向を検出する視線検出カメラ等で実現される。視線検出カメラは、ユーザ201の眼の虹彩、瞳孔等を撮影範囲に含むよう取り付けられる。
 フレーム241は、ディスプレイ215、カメラ214、コントローラ210等のHMD200の構成品を支持する。
 [機能ブロック]
 次に、本実施形態のコントローラ210が実現する、仮想オブジェクト表示に関連する機能を説明する。図3は、本実施形態のHMD200の、仮想オブジェクト表示処理に関連する機能の機能ブロック図である。本図に示すように、本実施形態のコントローラ210は、画像取得部228と、表示制御部220と、音声出力制御部229と、の機能を実現する。また、表示制御部220は、空間認識部221と、指示受付部222と、表示データ生成部223と、表示補正部224と、を備える。
 各機能は、CPU211がROM213に格納されたプログラムを、RAM212にロードして実行することにより実現される。
 また、記憶装置230には、カラー画像データ231と、距離画像データ232と、空間認識データ233と、仮想オブジェクトデータ(仮想OJTデータ)234と、付加オブジェクトデータ(付加OJTデータ)235と、音声データ236と、が記憶される。
 カラー画像データ231は、カラー画像カメラ214aで取得した画像である。距離画像データ232は、距離画像カメラ214bで取得した画像である。
 画像取得部228は、カラー画像カメラ214aおよび距離画像カメラ214bでそれぞれ取得したカラー画像および距離画像を、カラー画像データ231および距離画像データ232として、記憶装置230に記憶する。本実施形態では、カラー画像および距離画像は、略同期して取得される。
 空間認識部221は、周囲の実空間を認識し、その結果を、空間認識データ233として、記憶装置230に記憶する。認識は、略同時に取得したカラー画像データ231および距離画像データ232を用いて行う。
 空間認識部221は、ユーザ201のスキャン動作に従って、所定の時間間隔で、各画像データから、撮影範囲にある構造物300の3次元データ(3次元マップ)である空間認識データ233を生成し、記憶装置230に記憶する。周囲のスキャンは、例えば、起動直後に、初期設定として、ユーザ201が行う。
 空間認識データ233は、例えば、3次元空間全体を定義するワールド座標系で作成される。一例として、このワールド座標系の原点および各軸方向として、空間認識開始の指示を受け付けた際の、HMD200本体の位置および向き(初期姿勢)で特定される、HMD200のローカル座標系の原点および各軸方向を用いる。この座標系では、例えば、HMD200本体の初期姿勢において、HMD200のディスプレイ215上の所定位置を原点として、ディスプレイ215内をxy平面として、z軸方向は、xy平面(ディスプレイ215面)に垂直な方向とする。
 なお、ユーザ201のスキャン動作によるHMD200のローカル座標系の、ワールド座標系に対する変位量および回転量は、各種センサ218により得られるデータを用いて算出される。
 なお、空間認識は、例えば、既存のSpatial Mapping等の技術を用いて行う。すなわち、本実施形態のHMD200は、カラー画像カメラ214aおよび距離画像カメラ214bにより周囲をスキャンする。そして、その結果を用いて、空間認識部221が、Spatial Mapping等のアプリケーションを用いて3次元データを生成する。空間認識データ233は、例えば、メッシュデータとして保持される。
 また、このとき、3次元データだけでなく、構造物300の種類を認識するSpatial Understandingも同時に行うよう構成してもよい。空間認識部221は、Spatial Understandingにより、撮影範囲内の構成物の材質、種類を認識できる。すなわち、構造物300が、例えば、「壁」、「床」、「天井」のいずれであるか等を認識することができる。本実施形態の空間認識部221は、空間認識データ233の属性データとして、これらの認識結果を記憶装置230に格納する。
 指示受付部222は、ユーザ201から、ディスプレイ215に表示される仮想オブジェクト100に対する表示指示および操作指示を受け付ける。表示指示および操作指示は、例えば、視線(ゲイズ)によるもの、手指の動き(ジェスチャ)によるものなどがある。
 ゲイズに用いられる視線方向の情報は、例えば、視線検出装置214cを用いて検出される。
 ジェスチャには、例えば、仮想オブジェクト100の操作ポイント110に対するクリックイベント(エアタップ)、タップアンドホールド、ブルーム等がある。指示受付部222は、カラー画像カメラ214aおよび距離画像カメラ214bの撮影範囲内に設けられたジェスチャフレーム内での手指の動きを検出し、表示指示、操作指示等を検出する。
 例えば、表示指示を受け付けた場合、指示受付部222は、仮想オブジェクトデータ234から指示された仮想オブジェクト100のデータを抽出し、後述の表示データ生成部223に表示データを生成させる。
 また、操作指示を受け付けた場合、指示受付部222は、当該操作を検出し、後述の表示データ生成部223に通知する。
 表示データ生成部223は、指示受付部222を介したユーザ201の指示に従って、仮想オブジェクトデータ234から、指示された仮想オブジェクト100をディスプレイ215の所定の位置に所定の形状で表示させる表示データを生成する。指示受付部222の指示に従って生成された表示データをディスプレイ215に表示することにより、仮想オブジェクト100は、ユーザ201の指示に従って、移動し、回転し、変形するよう表示される。
 このとき、表示データ生成部223は、ユーザ201の視線方向(ユーザ201が装着しているHMD200の空間上の座標位置、上下左右の向きの情報から算出)で、構造物300の背後になる仮想オブジェクト100の領域を背面領域101として特定した表示データを生成する。背面領域101(図4)は、空間認識部221が生成した3次元マップ(空間認識データ233)と表示させる仮想オブジェクト100の実空間上の配置位置データとに基づいて特定される。なお、実空間上の配置位置データは、上記空間認識部221が空間認識に用いる座標系と同じ座標系で登録される。
 なお、仮想オブジェクト100の実空間上の配置位置データは、表示させる仮想オブジェクト100の、仮想オブジェクトデータ234から得る。仮想オブジェクトデータ234は、各仮想オブジェクト100の、サイズ、形状、初期の配置位置情報を含む。初期の配置位置情報は、例えば、各仮想オブジェクト100に予め設定された配置位置ポイント、操作ポイント110等について、登録される。配置位置ポイントは、例えば、仮想オブジェクト100の3次元の重心位置等である。また、操作ポイント110は、上述のように、仮想オブジェクト100の表示形状変形の指示を受け付けるポイントである。
 表示データ生成部223は、指示受付部222の指示を現在の配置位置情報に反映することにより、表示させる仮想オブジェクト100に対応した仮想オブジェクトデータ234の、最新の配置位置情報を得る。そして、表示データ生成部223は、配置位置ポイントの最新の配置位置情報と、サイズ、形状等の情報を用いて、仮想オブジェクト100の実空間上の配置位置データを得る。
 表示データ生成部223は、さらに、その最新の実空間上の配置位置データを用いて、表示させる仮想オブジェクト100の背面領域101を特定する。例えば、表示データ生成部223は、仮想オブジェクト100の実空間上の配置位置データに基づいて、仮想オブジェクト100の、ユーザ201が装着しているHMD200の空間上の座標位置、上下左右の向きの情報から算出される仮想オブジェクトまでの距離、仮想オブジェクト100の形状データ、構造物300の座標位置から奥行情報として特定する。
 そして、奥行情報のうち、構造物300の奥行情報より相対的に奥に位置する仮想オブジェクト100の領域(部分)および操作ポイント110を、背面領域101とする。
 なお、背面領域101は、通常の処理では、陰面処理を行う領域である。例えば、図4(a)に示すように、仮想オブジェクト100の一部が壁、家具等の構造物300の奥に配置される場合、従来、表示データ生成部223は、仮想オブジェクト100のこの背面領域101に対し、陰面処理を施し、表示させないよう表示データを生成する。
 しかしながら、本実施形態では、よりユーザフレンドリな表示を目指すため、表示補正部224が、このような場合であっても、図4(b)に示すように、仮想オブジェクト100の全体および付随する操作ポイント110を表示させるよう表示を補正する。このような処理を、表示補正部224が行う。
 表示補正部224は、表示する仮想オブジェクトデータ234に背面領域101がある場合、当該仮想オブジェクトデータ234の表示データを補正する。
 具体的には、表示補正部224は、背面領域101に対する陰面処理をキャンセルする。そして、背面領域101も、構造物300が存在しないかのように表示されるよう表示データを補正する。すなわち、表示補正部224は、仮想オブジェクトデータ234の一部の領域が、構造物300よりも奥の場合であっても、当該領域も表示されるよう、表示データを補正する。
 さらに、表示補正部224は、このとき、仮想オブジェクト100が本来の表示態様ではないことを示すため、付加オブジェクト400を表示させる。付加オブジェクト400は、例えば、仮想オブジェクト100が、構造物300を突き破っている様子、構造物300に穴をあけた様子を表す等、仮想オブジェクト100の表示を、より自然に、現実感があるよう見せるためのオブジェクトである。
 表示させる付加オブジェクト400のデータは、記憶装置230の付加オブジェクトデータ235として予め用意される。付加オブジェクトデータ235は、付加オブジェクト400の表示態様、初期サイズ、仮想オブジェクト100の表示位置に対する初期表示位置等の情報が対応づけて登録される。
 なお、表示補正部224は、ユーザ201の操作により仮想オブジェクト100の、ユーザ201の視線方向に対する表示方向が変化した場合、それに追随して、付加オブジェクト400の表示形状を変形してもよい。さらに、ユーザ201の視線方向の移動により仮想オブジェクト100の表示方向が変化した場合も、同様に、付加オブジェクト400の表示形状を変形してもよい。付加オブジェクト400の変形は、例えば、視線方向の変化に伴う仮想オブジェクト100の表示を変形する処理に用いるプログラムと同じプログラムに従って行う。
 次に、本実施形態のコントローラ210による、仮想オブジェクト100の表示処理の流れを説明する。図5は、本実施形態の仮想オブジェクト表示処理の処理フローである。なお、空間認識処理は、初期処理として既に行われているものとする。また、仮想オブジェクト100は、全体が表示される位置に表示されているものとする。
 ユーザ201から指示受付部222を介して、終了指示を受け付けるまで、表示データ生成部223および表示補正部224は、以下の処理を繰り返す(ステップS1101)。
 ユーザ201から指示受付部222を介して、仮想オブジェクト100に対する移動操作を受け付けると(ステップS1102)、表示データ生成部223は、表示データを生成する(ステップS1103)。
 ステップS1103では、表示データ生成部223は、まず、当該仮想オブジェクト100のディスプレイ215上の表示位置を算出する。そして、表示データ生成部223は、視線方向を特定し、仮想オブジェクト100の対応する仮想オブジェクトデータ234に従って、奥行情報を算出する。また、構造物300の奥行情報も算出する。そして、表示データ生成部223は、表示データ上の背面領域101を特定する。
 次に、表示データ生成部223は、表示する仮想オブジェクト100に背面領域101があるか否かを判別する(ステップS1104)。
 背面領域101が無い場合(S1104;No)、表示データ生成部223は、その旨、表示補正部224に通知する。そして、表示補正部224は、そのまま、ディスプレイ215の、ステップS1103で算出した位置に、当該仮想オブジェクト100の表示データを表示する(ステップS1112)。そしてコントローラ210は、次の操作指示を待つ。
 背面領域101が有る場合(S1104;Yes)、表示データ生成部223は、仮想オブジェクト100の全体が背面領域101であるか否かを判別する(ステップS1105)。
 全体が背面領域101であれば(S1105;Yes)、表示データ生成部223は、その旨、表示補正部224に通知する。そして、表示補正部224は、そのまま、当該仮想オブジェクト100の表示を消去し(ステップS1111)、処理を終了する。
 一方、全体が背面領域101でない場合(S1105;No)、すなわち、仮想オブジェクト100の一部に背面領域101が有る場合、表示データ生成部223は、その旨、表示補正部224に通知する。そして、表示補正部224は、上述の手法で仮想オブジェクト100の表示データを補正する(ステップS1106)。ここでは、表示補正部224は、仮想オブジェクト100の全ての操作ポイント110および当該操作ポイント110により操作する仮想オブジェクト100の部分を表示させるよう表示データを補正する。そして、表示補正部224は、補正後の表示データを、ディスプレイ215のステップS1103で算出した位置に表示する(ステップS1107)。
 その後、表示補正部224は、記憶装置230から付加オブジェクトデータ235を取得し、仮想オブジェクト100の背面領域101に重畳して表示する(ステップS1108)。そして、コントローラ210は、次の操作指示を待つ。
 以上の処理を、具体例で説明する。なお、ディスプレイ215には、図6(a)に示すように、ディスプレイ215で規定される枠内215aに、仮想オブジェクト100および付加オブジェクト400が表示される。ここで、構造物300は、実空間の実オブジェクトである。以下の表示態様の説明では、ディスプレイ215の枠は省略し、図6(b)に示すように、ディスプレイ215を通して見える実オブジェクトと、仮想オブジェクト100等の表示データと、のみを記載し、説明する。
 例えば、図7(a)に示す位置に、仮想オブジェクト100が表示されているものとする。これに対し、ユーザ201が、実空間で、その手指202により、矢印203の方向に、押すように操作指示(ジェスチャ)を行う。これを続けることにより、仮想オブジェクト100の、実空間の実オブジェクトである構造物300に対する表示位置は移動する。
 本実施形態によれば、図7(b)に示すように、仮想オブジェクト100の一部の領域の表示位置が、構造物300より奥になっても、仮想オブジェクト100は、その操作ポイント110とともに、全体が表示される。また、このとき、あたかも構造物300である壁に、穴があいたかのように、付加オブジェクト400が表示される。
 さらに、このとき、図7(c)に示すように、音声出力制御部229が、音声出力を行うよう構成してもよい。表示補正部224は、付加オブジェクト400を表示させる場合、音声出力制御部229にその旨通知する。音声出力制御部229は、表示補正部224より通知を受けると、音声データ236から音声を抽出し、音声I/F216から出力する。
 なお、音声データ236は、構造物300の材質に対応づけて、異なるデータを登録しておいてもよい。構造物300の材質は、例えば、上述の空間認識部221によるSpatial Understandingにより認識する。
 さらに、このとき、出力される音声データ236を文字列で表す擬音語を表示させてもよい。例えば、図7(c)に示す「バリッ」等である。この場合、記憶装置230に、音声データ236に対応づけて、当該音声データ236を文字列で表す擬音語データ237を予め登録しておく。そして、表示補正部224は、出力される音声データ236に対応づけて登録される擬音語データ237を、付加オブジェクト400近傍に表示させるよう表示データを生成する。
 なお、吹き出しをさらに表示し、擬音語データ237を、その吹き出しの中に表示させてもよい。また、音声データ236の出力無しに、擬音語データ237のみを表示させてもよい。
 また、表示補正部224は、仮想オブジェクト100が、構造物300にめり込むほどに、付加オブジェクト400の形状を、追随させて変化させる。例えば、図8(a)に示すように、仮想オブジェクト100が、水平方向の幅の大きさが異なる2つの直方体を組み合わせた形状を有する場合を例にあげて説明する。ここでは、仮想オブジェクト100は、矢印203の方向に、水平方向の幅が小さい直方体の方から構造物300に押し込まれるものとする。
 この場合、表示補正部224は、図8(b)に示すように、仮想オブジェクト100の、水平方向の幅に応じて付加オブジェクト400の大きさを加工して表示させる。具体的には、図8(a)のように、水平方向の幅が小さい直方体の領域が構造物300に仮想的にめり込んでいる場合は、小さいサイズで付加オブジェクト400を表示させる。一方、水平方向の幅が、図8(a)の場合より大きい領域が構造物300に仮想的にめりこんでいる場合は、図8(b)に示すように、図8(a)よりも大きいサイズの付加オブジェクト400を表示させる。
 また、ユーザ201の立ち位置の変化により、視線方向が変化する。例えば、図8(c)に示すように、ユーザ201が、構造物300である壁に対向した場合、仮想オブジェクト100のワールド座標系における表示位置が同じであっても、図8(a)や図8(b)の場合とは、仮想オブジェクト100の表示態様が変化する。これに伴い、仮想オブジェクト100の表示形状も変化する。
 この場合も、表示補正部224は、図8(c)に示すように、仮想オブジェクト100の表示形状の変化に追随し、付加オブジェクト400の表示形状を変化させて表示させてもよい。
 以上説明したように、本実施形態のHMD200は、予め定めた撮影範囲のカラー画像を取得するカラー画像カメラ214aと、略同じ撮影範囲の距離画像を取得する距離画像カメラ214bと、ディスプレイ215と、仮想オブジェクト100をディスプレイ215に表示させる表示制御部220と、を備える。そして、表示制御部220は、カラー画像と距離画像とを用いて撮影範囲内の構造物300の3次元マップを生成する空間認識部221と、3次元マップと表示させる仮想オブジェクト100の実空間上の配置位置データとに基づいて、視線方向に関して構造物300の背後になる仮想オブジェクト100の領域を背面領域101として特定した表示データを生成する表示データ生成部223と、表示データを補正してディスプレイ215に表示させる表示補正部224と、を備える。また、表示補正部224は、背面領域101の操作ポイント110を表示させるよう表示データを補正する。そして、操作ポイント110は、当該操作ポイント110を介して仮想オブジェクト100に対する操作指示を受け付けるポイントである。
 このように、本実施形態によれば、本来ならば表示されない、構造物300の背後になる、仮想オブジェクト100の背面領域101の操作ポイント110も表示される。従って、ユーザ201の操作により、仮想オブジェクト100が移動したとしても、移動後の仮想オブジェクト100に対して操作を行うことができる。
 また、表示補正部224は、背面領域101の操作ポイント110を表示させる際、当該背面領域101も表示させるとともに、仮想オブジェクト100の周囲に付加オブジェクト400を表示させる。このため、本実施形態によれば、仮想オブジェクト100のディスプレイ215上の表示位置によらず、自然な見え方を犠牲にせず、現実感を保ちながら、高い操作性を実現できる。
 [変形例1]
 なお、一部に背面領域101のある仮想オブジェクト100の表示は、上記に限定されない。例えば、表示補正部224は、仮想オブジェクト100を、背面領域101と、それ以外の領域(以下、前面領域と呼ぶ。)102と、を区別可能なように表示してもよい。
 例えば、図9(a)に示すように、表示補正部224は、背面領域101と前面領域102との間にライン121が表示されるよう表示データを補正する。また、図9(b)に示すように、表示補正部224は、背面領域101が、本来の仮想オブジェクト100の表面とは異なる表面態様122で表示されるよう、表示データを補正する。図9(a)および図9(b)の補正態様は、組み合わせてもよい。
 [変形例2]
 また、付加オブジェクト400は、強調表示されてもよい。強調表示される付加オブジェクト400の一例を図10に示す。付加オブジェクト400の強調表示態様は、予め付加オブジェクトデータ235に登録しておいてもよい。また、各種の画像加工ソフトウェアを用いて、表示補正部224が登録されている付加オブジェクト400を強調表示態様に加工し、表示させてもよい。
 付加オブジェクト400を、強調表示することにより、仮想オブジェクト100が、本来の表示態様とは異なることを、ユーザ201は、把握し易い。すなわち、ユーザ201は、本来であれば、見えない領域まで表示されていることを、ユーザ201は、より直感的に把握することができる。
 [変形例3]
 また、付加オブジェクトデータ235として、仮想オブジェクト100が押し込まれる構造物300の材質および/または種類に応じて異なるテクスチャのものが用意されていてもよい。この場合、表示補正部224は、空間認識部221による空間認識データ233を参照し、構造物300の材質および/または種類を特定する。そして、表示補正部224は、特定した材質および/または種類に応じたテクスチャの付加オブジェクトデータ235を抽出し、付加オブジェクト400として表示させる。
 例えば、構造物300が、壁等の硬い材質である場合、図10に示すような、壁が割れたような状態を表す付加オブジェクト400が、付加オブジェクトデータ235として用意される。一方、構造物300が、クッション等の柔らかい素材である場合、図11に示すように、仮想オブジェクト100が構造物300に沈み込むような状態を表す付加オブジェクト402が用意され、表示される。
 さらに、このとき、強調表示の態様も、構造物300の材質および/または種類、あるいは、付加オブジェクト400のテクスチャに応じて変更するよう構成してもよい。
 [変形例4]
 また、表示補正部224は、付加オブジェクト400として、カラー画像データ231の一部を切り取って用いてもよい。特に、図12に示すように、仮想オブジェクト100が押し込まれる構造物300の、さらに背後の構造物301と同じテクスチャの画像を用いてもよい。この場合、表示補正部224は、付加オブジェクト400の配置位置に応じて、空間認識データ233を用いて、付加オブジェクトデータ235を加工する。そして、表示補正部224は、加工後の付加オブジェクトデータ235を配置する。
 このように、付加オブジェクト400として、背景画像と同じテクスチャのデータを用いることにより、ユーザ201は、本実施形態の仮想オブジェクト100の表示態様を、より自然に受け止めることができる。
 [変形例5]
 なお、上記実施形態では、仮想オブジェクト100が、全てが背面領域101になるような位置に移動操作された場合、仮想オブジェクト100の表示を消去するよう構成しているが、これに限定されない。全体が背面領域101となる場合であっても、仮想オブジェクト100および/または操作ポイント110を表示させてもよい。
 例えば、図13に示すように、表示補正部224は、算出された位置に仮想オブジェクト100が表示されるよう表示データを補正する。さらに、表示補正部224は、手前に、付加オブジェクトとして、操作用のミニチュア仮想オブジェクト401を表示させてもよい。この場合、表示補正部224は、仮想オブジェクト100からミニチュア仮想オブジェクト401を生成し、表示させる。
 これにより、たとえ仮想オブジェクト100の全体が、構造物300よりも奥行方向奥に配置された場合であっても、ユーザ201は、現実感を保ちつつ、操作を行うことができる。
 [変形例6]
 また、ディスプレイ215は、非透過型であってもよい。この場合、図14に示すように、表示補正部224は、カラー画像カメラ214aで取得したカラー画像(スルー画像500)に、仮想オブジェクト100および付加オブジェクト400を重畳表示させる。
 この場合、例えば、表示端末は、透過型ディスプレイを備えるHMD200に限定されない。例えは、非透過型ディスプレイを備えるHMD、携帯端末等の可搬型または携帯型情報処理装置であってもよい。
 [変形例7]
 また、操作指示の入力は、視線、ジェスチャだけに限定されない。音声、モーションコントローラ等を用いてもよい。
 [変形例8]
 なお、上記実施形態では、仮想オブジェクト100の全ての操作ポイント110が表示されるよう、表示補正部224は、仮想オブジェクト100の表示を補正しているが、これに限定されない。表示する操作ポイント110は、背面領域101の一部の操作ポイント110であってもよい。すなわち、背面領域101の、少なくとも1つの操作ポイント110が表示されてもよい。
 また、仮想オブジェクト100の形状についても同様で、必ずしも全体を表示させる必要はない。背面領域101の一部の領域を表示させてもよい。
 なお、本発明は上記した実施形態および変形例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態および変形例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態または変形例の構成の一部を他の実施形態や変形例の構成に置き換えることが可能である。また、ある実施形態または変形例の構成に他の実施形態または変形例の構成を加えることも可能である。さらに、各実施形態または変形例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ部や、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 100:仮想オブジェクト、101:背面領域、102:前面領域、110:操作ポイント、121:ライン、122:表面態様、
 200:HMD、201:ユーザ、202:手指、203:矢印、210:コントローラ、211:CPU、212:RAM、213:ROM、214:カメラ、214a:カラー画像カメラ、214b:距離画像カメラ、214c:視線検出装置、215:ディスプレイ、215a:枠内、216:音声I/F、217:通信I/F、218:センサ、218a:GPS受信機、218b:ジャイロセンサ、218c:加速度センサ、218d:地磁気センサ、218e:タッチセンサ、219:バス、
 220:表示制御部、221:空間認識部、222:指示受付部、223:表示データ生成部、224:表示補正部、228:画像取得部、229:音声出力制御部、
 230:記憶装置、231:カラー画像データ、232:距離画像データ、233:空間認識データ、234:仮想オブジェクトデータ、235:付加オブジェクトデータ、236:音声データ、237:擬音語データ、
 241:フレーム、
 300:構造物、301:構造物、400:付加オブジェクト、401:ミニチュア仮想オブジェクト、402:付加オブジェクト、500:スルー画像

Claims (15)

  1.  ディスプレイを備える表示端末であって、
     予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、
     前記撮影範囲の距離画像を取得する距離画像カメラと、
     仮想オブジェクトを前記ディスプレイに表示させる表示制御部と、を備え、
     前記表示制御部は、
     前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、
     前記3次元マップと表示させる前記仮想オブジェクトの実空間上の配置位置データとに基づいて、視線方向に関して前記構造物の背後になる当該仮想オブジェクトの領域を背面領域として特定した表示データを生成する表示データ生成部と、
     前記表示データを補正して前記ディスプレイに表示させる表示補正部と、を備え、
     前記表示補正部は、前記背面領域の操作ポイントを表示させるよう前記表示データを補正し、
     前記操作ポイントは、当該操作ポイントを介して前記仮想オブジェクトに対する操作指示を受け付けるポイントであること
     を特徴とする表示端末。
  2.  請求項1に記載の表示端末であって、
     前記表示補正部は、前記背面領域の前記操作ポイントを表示させる際、当該背面領域も表示させるとともに、前記仮想オブジェクトの周囲に付加オブジェクトを表示させること
     を特徴とする表示端末。
  3.  請求項1に記載の表示端末であって、
     前記表示補正部は、前記背面領域の全ての前記操作ポイントを表示させること
     を特徴とする表示端末。
  4.  請求項1に記載の表示端末であって、
     前記表示補正部は、前記仮想オブジェクトの前記背面領域の全ての形状を表示させること
     を特徴とする表示端末。
  5.  請求項2に記載の表示端末であって、
     前記表示補正部は、前記付加オブジェクトとして、前記カラー画像の一部を表示させること
     を特徴とする表示端末。
  6.  請求項2に記載の表示端末であって、
     前記表示補正部は、前記付加オブジェクトとして、前記視線方向の前記構造物の背後の構造物の前記カラー画像を表示させること
     を特徴とする表示端末。
  7.  請求項2に記載の表示端末であって、
     前記表示補正部は、前記仮想オブジェクトの表示方向の変化に追随して前記付加オブジェクトを変形して表示させること
     を特徴とする表示端末。
  8.  請求項2に記載の表示端末であって、
     前記表示補正部は、前記付加オブジェクトとして、前記構造物とは異なる、予め用意した画像を強調表示すること
     を特徴とする表示端末。
  9.  請求項2に記載の表示端末であって、
     音声出力装置と、当該音声出力装置から音声を出力させる音声出力制御部と、をさらに備え、
     前記音声出力制御部は、前記表示制御部が前記付加オブジェクトを表示させる際、予め定めた音声を、前記音声出力装置から出力させること
     を特徴とする表示端末。
  10.  請求項9に記載の表示端末であって、
     前記表示補正部は、前記音声を表す文字列をさらに表示させること
     を特徴とする表示端末。
  11.  請求項1に記載の表示端末であって、
     前記表示制御部は、前記カラー画像カメラで取得した前記撮影範囲の前記カラー画像に前記仮想オブジェクトを重畳して表示させること
     を特徴とする表示端末。
  12.  請求項1から11いずれか1項に記載の表示端末であって、
     当該表示端末は、ヘッドマウントディスプレイであること
     を特徴とする表示端末。
  13.  請求項11に記載の表示端末であって、
     当該表示端末は、携帯型情報処理装置であること
     を特徴とする表示端末。
  14.  ディスプレイと、予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、前記撮影範囲の距離画像を取得する距離画像カメラと、を備える表示端末の前記ディスプレイに仮想オブジェクトを表示させる表示制御システムであって、
     前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、
     前記3次元マップと表示させる前記仮想オブジェクトの実空間上の配置位置データとに基づいて、視線方向に関して前記構造物の背後になる当該仮想オブジェクトの領域を背面領域として特定した表示データを生成する表示データ生成部と、
     前記表示データを補正して前記ディスプレイに表示させる表示補正部と、を備え、
     前記表示補正部は、前記背面領域の操作ポイントを表示させるよう前記表示データを補正し、
     前記操作ポイントは、当該操作ポイントを介して前記仮想オブジェクトに対する操作指示を受け付けるポイントであること
     を特徴とする表示制御システム。
  15.  ディスプレイと、予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、前記撮影範囲の距離画像を取得する距離画像カメラと、を備える表示端末の前記ディスプレイに仮想オブジェクトを表示させる表示制御方法であって、
     前記カラー画像と前記距離画像とを用いて予め作成された前記撮影範囲内の構造物の3次元マップと、表示させる前記仮想オブジェクトの実空間上の配置位置データとに基づいて、視線方向に関して前記構造物の背後になる当該仮想オブジェクトの領域を背面領域として特定した表示データを生成し、
     前記表示データを、前記背面領域の操作ポイントが表示されるよう補正して前記ディスプレイに表示させ、
     前記操作ポイントは、当該操作ポイントを介して前記仮想オブジェクトに対する操作指示を受け付けるポイントであること
     を特徴とする表示制御方法。
PCT/JP2018/045883 2018-12-13 2018-12-13 表示端末、表示制御システムおよび表示制御方法 WO2020121483A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201880100103.1A CN113168820A (zh) 2018-12-13 2018-12-13 显示终端、显示控制系统以及显示控制方法
PCT/JP2018/045883 WO2020121483A1 (ja) 2018-12-13 2018-12-13 表示端末、表示制御システムおよび表示制御方法
US17/413,257 US11651567B2 (en) 2018-12-13 2018-12-13 Display terminal, display control system and display control method
JP2020559642A JP7194752B2 (ja) 2018-12-13 2018-12-13 表示端末、表示制御システムおよび表示制御方法
JP2022197561A JP7496403B2 (ja) 2018-12-13 2022-12-12 表示端末
US18/299,113 US11972532B2 (en) 2018-12-13 2023-04-12 Display terminal, display control system and display control method
US18/595,254 US20240203073A1 (en) 2018-12-13 2024-03-04 Display terminal, display control system and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/045883 WO2020121483A1 (ja) 2018-12-13 2018-12-13 表示端末、表示制御システムおよび表示制御方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/413,257 A-371-Of-International US11651567B2 (en) 2018-12-13 2018-12-13 Display terminal, display control system and display control method
US18/299,113 Continuation US11972532B2 (en) 2018-12-13 2023-04-12 Display terminal, display control system and display control method

Publications (1)

Publication Number Publication Date
WO2020121483A1 true WO2020121483A1 (ja) 2020-06-18

Family

ID=71077159

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045883 WO2020121483A1 (ja) 2018-12-13 2018-12-13 表示端末、表示制御システムおよび表示制御方法

Country Status (4)

Country Link
US (3) US11651567B2 (ja)
JP (2) JP7194752B2 (ja)
CN (1) CN113168820A (ja)
WO (1) WO2020121483A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286321A1 (ja) * 2021-07-12 2023-01-19 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
EP4207084A1 (en) * 2020-08-25 2023-07-05 Maxell, Ltd. 3d virtual-reality display device, head-mounted display, and 3d virtual-reality display method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196492A (ja) * 2012-03-21 2013-09-30 Toyota Central R&D Labs Inc 画像重畳処理装置、方法およびプログラム
WO2014141504A1 (ja) * 2013-03-11 2014-09-18 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作処理方法
US20180046245A1 (en) * 2016-08-11 2018-02-15 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments
JP2018132847A (ja) * 2017-02-14 2018-08-23 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514574B2 (en) 2013-08-30 2016-12-06 Qualcomm Incorporated System and method for determining the extent of a plane in an augmented reality environment
JP2016142887A (ja) 2015-02-02 2016-08-08 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
US10559130B2 (en) * 2015-08-31 2020-02-11 Microsoft Technology Licensing, Llc Displaying image data behind surfaces
EP3496045A4 (en) 2016-08-05 2019-07-31 Sony Corporation INFORMATION PROCESSING DEVICE, METHOD AND COMPUTER PROGRAM
US11054894B2 (en) 2017-05-05 2021-07-06 Microsoft Technology Licensing, Llc Integrated mixed-input system
EP3650984B1 (en) 2017-06-06 2022-10-26 Maxell, Ltd. Mixed reality display system
WO2019163129A1 (ja) * 2018-02-26 2019-08-29 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JP6698971B2 (ja) * 2018-02-26 2020-05-27 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
US11120632B2 (en) * 2018-10-16 2021-09-14 Sony Interactive Entertainment Inc. Image generating apparatus, image generating system, image generating method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196492A (ja) * 2012-03-21 2013-09-30 Toyota Central R&D Labs Inc 画像重畳処理装置、方法およびプログラム
WO2014141504A1 (ja) * 2013-03-11 2014-09-18 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作処理方法
US20180046245A1 (en) * 2016-08-11 2018-02-15 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments
JP2018132847A (ja) * 2017-02-14 2018-08-23 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4207084A1 (en) * 2020-08-25 2023-07-05 Maxell, Ltd. 3d virtual-reality display device, head-mounted display, and 3d virtual-reality display method
EP4207084A4 (en) * 2020-08-25 2024-05-01 Maxell, Ltd. 3D VIRTUAL REALITY DISPLAY DEVICE, HEAD-MOUNTED DISPLAY AND 3D VIRTUAL REALITY DISPLAY METHOD
WO2023286321A1 (ja) * 2021-07-12 2023-01-19 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7194752B2 (ja) 2022-12-22
JP7496403B2 (ja) 2024-06-06
US11972532B2 (en) 2024-04-30
US20230245407A1 (en) 2023-08-03
US11651567B2 (en) 2023-05-16
US20220044483A1 (en) 2022-02-10
US20240203073A1 (en) 2024-06-20
JPWO2020121483A1 (ja) 2021-10-28
JP2023024540A (ja) 2023-02-16
CN113168820A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
US11386626B2 (en) Information processing apparatus, information processing method, and program
US10452128B2 (en) Information processing apparatus and information processing method
JP7496403B2 (ja) 表示端末
US11036053B2 (en) Program, information processing method, information processing system, head-mounted display device, and information processing device
CN110554770A (zh) 静态遮挡物
JP7078234B2 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
JP7480388B2 (ja) ヘッドマウント情報処理装置
JP6262283B2 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2017201477A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
CN115543138A (zh) 显示控制方法和装置、增强现实头戴设备及介质
JP2017228322A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP6999822B2 (ja) 端末装置および端末装置の制御方法
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017201524A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
US20230065077A1 (en) Displaying a Rendered Volumetric Representation According to Different Display Modes
WO2023037547A1 (ja) 携帯情報端末及びオブジェクト表示方法
JP6332658B1 (ja) 表示制御装置、及びプログラム
CN117707332A (zh) 信息处理设备、控制方法和非暂态计算机存储介质
CN112578983A (zh) 手指取向触摸检测

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18943277

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020559642

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18943277

Country of ref document: EP

Kind code of ref document: A1