WO2023218740A1 - Display control system and wearable device - Google Patents
Display control system and wearable device Download PDFInfo
- Publication number
- WO2023218740A1 WO2023218740A1 PCT/JP2023/008769 JP2023008769W WO2023218740A1 WO 2023218740 A1 WO2023218740 A1 WO 2023218740A1 JP 2023008769 W JP2023008769 W JP 2023008769W WO 2023218740 A1 WO2023218740 A1 WO 2023218740A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- display
- range
- captured image
- display control
- Prior art date
Links
- 238000004891 communication Methods 0.000 claims abstract description 56
- 230000006854 communication Effects 0.000 claims abstract description 56
- 230000000007 visual effect Effects 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 description 62
- 238000012545 processing Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 23
- 230000015654 memory Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 235000015842 Hesperis Nutrition 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Definitions
- the present invention relates to a display control system and a wearable device.
- XR glasses to which XR (Extended Reality) technology, represented by AR (Augmented Reality), VR (Virtual Reality), and MR (Mixed Reality) are applied, have been widespread.
- the XR glasses may be provided with an imaging device that captures an image in front of the user.
- a captured image captured by the imaging device is used, for example, to assist a user wearing XR glasses in his or her work. Alternatively, the captured image is used for recording, etc. for later evaluation of whether the user has performed the work appropriately.
- Patent Document 1 discloses a work support system that uses markers placed in real space to align a virtual object placed in virtual space with an object in real space.
- the work support system includes a display section, an imaging section, a position information detection section, and a display control section.
- the display unit displays an image of the virtual space corresponding to the real space.
- the imaging unit images a range including the center of the user's visual field.
- the positional information detection unit detects the positional relationship between the marker and the imaging unit based on the captured image of the marker.
- the display control unit controls the display of the image in the virtual space based on the detection result of the marker image detected while the user is looking at the marker and the detection result of mechanically detecting the user's posture. .
- the imaging range of the imaging device mounted on the XR glasses there is a gap between the imaging range of the imaging device mounted on the XR glasses and the user's field of view. Therefore, the imaging range assumed by the user and the actual imaging range do not match, and there is a possibility that a required captured image cannot be obtained. Furthermore, when a user performs a task while receiving advice from a remote assistant, for example, the user may not be able to grasp the location that the assistant wants to focus on, that is, the location that the assistant wants to capture with the imaging device. Work efficiency may decrease.
- An object of the present invention is to efficiently capture an image depicting a specific range of real space.
- a display control system includes a wearable device and a terminal device, wherein the wearable device controls a transmissive first display device located in front of a first user. and a first communication control unit that transmits a captured image of a real space included in the field of view of the first user to the terminal device, and the terminal device a second communication control unit that receives an image; a second display control unit that displays the captured image on a second display device; and a second communication control unit that displays the captured image on the second display device; a reception unit that receives information from a user, the second communication control unit transmits area information that specifies the range of the first area in the captured image to the wearable device, and the first display control unit A first virtual object indicating a range corresponding to the first area in the real space is displayed on the first display device based on the area information.
- a wearable device includes a first display control unit that controls a transmissive first display device located in front of a first user's eyes, and a real space included in a visual field range of the first user that is imaged. a transmitter that transmits the captured image to a terminal device, and a receiver that receives area information that specifies a range of a first area specified in the captured image, and the first display control unit includes A first virtual object indicating a range corresponding to the first area in the real space is displayed on the first display device based on the area information.
- an image depicting a specific range in real space can be efficiently captured.
- FIG. 1 is a block diagram showing the configuration of a display control system 1 according to an embodiment.
- 1 is a diagram schematically showing a usage state of the wearable device 10.
- FIG. FIG. 2 is a diagram schematically showing how the terminal device 20 is used.
- 1 is a block diagram showing the configuration of a wearable device 10.
- FIG. 2 is a block diagram showing the configuration of a terminal device 20.
- FIG. FIG. 2 is an explanatory diagram schematically showing a range related to the visual field range R1 of the first user U1.
- 2 is a diagram showing an example of a captured image displayed on a display device 201.
- FIG. 2 is a diagram showing an example of a captured image displayed on a display device 201.
- FIG. 1 is a block diagram showing the configuration of a display control system 1 according to an embodiment.
- 1 is a diagram schematically showing a usage state of the wearable device 10.
- FIG. FIG. 2 is a diagram schematically showing how the terminal device 20 is used.
- FIG. 3 is a diagram showing an example of a display range R3 of the transmissive display device 101.
- FIG. 3 is a diagram showing an example of a display range R3 of the transmissive display device 101.
- FIG. 7 is a diagram showing another example of the display range R3 of the transmissive display device 101.
- FIG. 7 is a diagram showing an example of a display when a part of the first virtual frame V1-1 is removed from the display range R3.
- FIG. It is a figure which shows an example of a display when the ratio of range RY to display range R3 becomes below a predetermined value.
- FIG. 1 is a block diagram showing the configuration of a display control system 1 according to an embodiment.
- the display control system 1 includes a wearable device 10 and a terminal device 20. Wearable device 10 and terminal device 20 are connected via communication network N.
- FIG. 2 is a diagram schematically showing how the wearable device 10 is used.
- the wearable device 10 is a head mounted display mounted on the head of a first user U1 who is a worker.
- the wearable device 10 includes a transmissive display device 101 (see FIG. 4) located in front of the eyes of the first user U1 wearing the wearable device 10.
- the transmissive display device 101 is an example of a first display device.
- the shape of the wearable device 10 is, for example, similar to general eyeglasses.
- Wearable device 10 includes a lens L and a frame F that supports lens L.
- the lens L includes a left lens placed in front of the left eye of the first user U1 and a right lens placed in front of the user's right eye.
- Frame F has a bridge provided between the left lens and the right lens, and a pair of temples that extend over the left and right ears.
- the transmissive display device 101 displays various images including virtual objects on the lens L.
- the lens L is the display range of the transmissive display device 101.
- the first user U1 performs wiring work between the plurality of devices DV1 to DV3 stored in the rack RA while wearing the wearable device 10.
- Wearable device 10 includes an imaging device 105 (see FIG. 4). Wearable device 10 transmits a captured image captured by imaging device 105 to terminal device 20 .
- FIG. 3 is a diagram schematically showing how the terminal device 20 is used.
- the terminal device 20 is used by a second user U2 who is an assistant.
- the terminal device 20 is, for example, an information processing terminal such as a personal computer, a notebook computer, a tablet terminal, or a smartphone.
- the terminal device 20 includes a display device 201.
- Display device 201 is an example of a second display device.
- the terminal device 20 displays the captured image transmitted from the wearable device 10 on the display device 201.
- the captured image shows at least a portion of the visual field range R1 (see FIG. 6) of the first user U1.
- the photographed image shows a space in which the devices DV1 to DV3 are arranged and the first user U1 working on the devices DV1 to DV3.
- the second user U2 can provide advice and monitor the work performed by the first user U1 from a remote location.
- the second user U2 can provide advice and monitor the work performed by the first user U1 from a remote location.
- FIG. 4 is a block diagram showing the configuration of the wearable device 10.
- Wearable device 10 includes a transmissive display device 101, a speaker 102, a microphone 103, a communication device 104, an imaging device 105, a storage device 106, a processing device 107, and a bus 108. At least a portion of the configuration shown in FIG. 4 is stored in frame F, for example.
- the transmissive display device 101, the speaker 102, the microphone 103, the communication device 104, the imaging device 105, the storage device 106, and the processing device 107 are interconnected by a bus 108 for communicating information.
- the bus 108 may be configured using a single bus, or may be configured using different buses for each element such as a device.
- the transmissive display device 101 includes left and right lenses L, a display panel, and optical members.
- the display panel and the optical member are housed in a frame F, for example.
- the display panel and the optical member may be provided in pairs on the left and right, corresponding to the left and right lenses L.
- the transmissive display device 101 displays a projection image corresponding to a virtual object on a display panel based on control from the processing device 107.
- the display panel is, for example, a liquid crystal panel or an organic EL (Electro Luminescence) panel.
- the optical member guides the light emitted from the display panel to the left and right lenses L.
- the left and right lenses L each have a half mirror.
- the half mirrors of the left and right lenses L transmit the light representing the real space, thereby guiding the light representing the real space to the eyes of the first user U1. Further, the half mirrors of the left and right lenses L reflect the light indicating the virtual object guided by the optical member toward the eyes of the first user U1.
- the light in the real space that has passed through the half mirror and the light that indicates the virtual object reflected by the half mirror are incident on the eyes of the first user U1, so that the first user U1 can see the position of the virtual object in the real space. Perceive it as if you are doing it.
- the speaker 102 plays back the audio data and outputs audio corresponding to the audio data.
- the audio data reproduced by the speaker 102 is, for example, audio data representing the utterance of the second user U2, which is collected by the microphone 204 of the terminal device 20.
- the microphone 103 picks up surrounding sounds and generates audio data.
- the voice picked up by the microphone 103 is, for example, the voice uttered by the first user U1 wearing the wearable device 10.
- the speaker 102 and microphone 103 are arranged in frame F, for example. Alternatively, the speaker 102 and the microphone 103 may be separate from the wearable device 10 without being included in the wearable device 10.
- the communication device 104 includes a communication interface for communicating with other devices.
- the communication device 104 connects to the communication network N using wireless communication or wired communication, and communicates with the terminal device 20 via the communication network N.
- the imaging device 105 includes, for example, an imaging optical system and an imaging element.
- the imaging optical system is an optical system that includes at least one imaging lens.
- the imaging lens is provided, for example, on the bridge mentioned above. Therefore, the imaging device 105 images the outside world in the direction in which the first user U1's face is facing.
- the imaging optical system may include various optical elements such as a prism, or may include a zoom lens, a focus lens, or the like.
- the image sensor is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor.
- the imaging device 105 images a subject and generates captured image data corresponding to the captured image (hereinafter referred to as "captured image").
- the imaging range R2 (see FIG. 6) of the imaging device 105 is the range that is visible through the lens L of the visual field R1 of the first user U1, i.e., the range that is visible through the lens L; It includes the display range R3 (see FIG. 6) of the mold display device 101.
- the correspondence between each pixel of the captured image captured by the imaging device 105 and each pixel of the transmissive display device 101 is calibrated in advance.
- the first display control unit 111 which will be described later, can project a virtual object whose display position is determined based on the captured image onto the transmissive display device 101.
- Captured image data generated by the imaging device 105 is transmitted to the terminal device 20 via the communication device 104.
- the imaging device 105 repeats imaging at predetermined imaging intervals, and transmits the generated captured image data to the terminal device 20 each time the imaging is performed. In this embodiment, it is assumed that the photographed image data is moving image data.
- the storage device 106 is a recording medium that can be read by the processing device 107.
- Storage device 106 includes, for example, nonvolatile memory and volatile memory. Examples of nonvolatile memories include ROM (Read Only Memory), EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Memory). Programmable Read Only Memory).
- the volatile memory is, for example, RAM (Random Access Memory).
- Storage device 106 stores program PG1.
- Program PG1 is a program for operating wearable device 10.
- the processing device 107 includes one or more CPUs (Central Processing Units).
- CPUs Central Processing Units
- One or more CPUs are an example of one or more processors.
- a processor and a CPU are each an example of a computer.
- the processing device 107 reads the program PG1 from the storage device 106.
- the processing device 107 functions as the first display control section 111 and the first communication control section 112 by executing the program PG1.
- At least one of the first display control unit 111 and the first communication control unit 112 is a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Circuit). Logic Device) and FPGA (Field Programmable Gate Array), etc. It may also be configured by a circuit. Details of the first display control section 111 and the first communication control section 112 will be described later.
- FIG. 5 is a block diagram showing the configuration of the terminal device 20.
- the terminal device 20 includes a display device 201, an input device 202, a speaker 203, a microphone 204, a communication device 205, a storage device 206, a processing device 207, and a bus 208.
- the display device 201, the input device 202, the speaker 203, the microphone 204, the communication device 205, the storage device 206, and the processing device 207 are interconnected by a bus 208 for communicating information.
- the bus 208 may be configured using a single bus, or may be configured using different buses for each device.
- the display device 201 is a display device (eg, various display panels such as a liquid crystal panel and an organic EL panel) that displays information to the outside.
- the input device 202 is an input device (eg, keyboard, mouse, switch, button, sensor, etc.) that accepts input from the outside. Note that the display device 201 and the input device 202 may have a configuration in which they are integrated (for example, a touch panel).
- the speaker 203 plays back the audio data and outputs audio corresponding to the audio data.
- the audio data reproduced by the speaker 203 is, for example, audio data representing the voice uttered by the first user U1, which is picked up by the microphone 103 of the wearable device 10.
- the microphone 204 picks up surrounding sounds and generates audio data.
- the voice picked up by the microphone 204 is, for example, the voice uttered by the second user U2 who uses the terminal device 20.
- the speaker 203 and the microphone 204 may not be included in the terminal device 20 and may be separate from the terminal device 20.
- the communication device 205 includes a communication interface for communicating with other devices.
- the communication device 104 connects to the communication network N using wireless communication or wired communication, and communicates with the wearable device 10 via the communication network N.
- the storage device 206 is a recording medium that can be read by the processing device 207.
- Storage device 206 includes, for example, nonvolatile memory and volatile memory.
- Non-volatile memories are, for example, ROM, EPROM and EEPROM.
- Volatile memory is, for example, RAM.
- Storage device 206 stores program PG2.
- the program PG2 is a program for operating the terminal device 20.
- the processing device 207 includes one or more CPUs.
- One or more CPUs are an example of one or more processors.
- a processor and a CPU are each an example of a computer.
- the processing device 207 reads the program PG2 from the storage device 206.
- the processing device 207 functions as a second communication control section 211, a second display control section 212, and a reception section 213 by executing the program PG2.
- At least one of the second communication control section 211, the second display control section 212, and the reception section 213 may be configured by a circuit such as a DSP, an ASIC, a PLD, and an FPGA. Details of the second communication control section 211, second display control section 212, and reception section 213 will be described later.
- FIG. 6 is an explanatory diagram schematically showing a range related to the visual field range R1 of the first user U1. Note that the ranges R1 to R3 shown in FIG. 6 are intended to relatively indicate the size of each range, and are different from the actual viewing angles.
- symbol E schematically indicates the eyes of the first user U1.
- the human visual field range that is, the visual field range R1 of the first user U1 is about 200° in the horizontal direction (left-right direction) and about 130° in the vertical direction (up-down direction).
- the imaging range R2 of the imaging device 105 is about 100° in the horizontal direction and 80° in the vertical direction when the imaging lens of the imaging device 105 is a wide-angle lens. Therefore, the imaging range R2 of the imaging device 105 is narrower than the visual field range R1 of the first user U1. Note that this is not the case, for example, when a special lens such as a fisheye lens is used as the imaging lens of the imaging device 105. Moreover, the starting point of the imaging range R2 is, strictly speaking, a position different from the eye E of the first user U1.
- the imaging lens of the imaging device 105 is provided on the bridge, and the starting point of the imaging range R2 and the eye E of the first user U1 can be considered to be at approximately the same position. Furthermore, since the wearable device 10 is attached to the head of the first user U1, the range of the real space that is captured in the captured image changes depending on the movement of the first user U1. Therefore, the captured image of the imaging device 105 captures the real space included in the visual field range R1 of the first user U1.
- the display range R3 of the transmissive display device 101 is a range that is visible through the lens L of the visual field range R1 of the first user U1.
- the transmissive display device 101 allows the light of the real space that has passed through the half mirror provided on the lens L and the light representing the virtual object reflected by the half mirror to enter the user's eyes. , causes the first user U1 to perceive a virtual object. Therefore, in the real space, the range in which the virtual object can be displayed by the transmissive display device 101 is the range that the first user U1 visually recognizes through the lens L.
- the display range R3 of the transmissive display device 101 is narrower than the viewing range R1 of the first user U1.
- the display range R3 and the visual field range R1 of the first user U1 are also possible to make the display range R3 and the visual field range R1 of the first user U1 equal. Furthermore, in the present embodiment, the display range R3 of the transmissive display device 101 is narrower than the imaging range R2 of the imaging device 105, but as described above, the display range R3 of the transmissive display device 101 is set to a wider range. If so, it is also possible to make the display range R3 of the transmissive display device 101 larger than the imaging range R2 of the imaging device 105.
- the processing device 107 of the wearable device 10 functions as the first display control section 111 and the first communication control section 112.
- the first display control unit 111 controls the transmissive display device 101 located in front of the first user U1.
- the first communication control unit 112 controls data transmission and reception by the communication device 104.
- the first communication control section 112 is an example of a transmitting section and a receiving section.
- the first communication control unit 112 transmits, to the terminal device 20, a captured image (more specifically, captured image data corresponding to the captured image) in which the real space included in the field of view of the first user U1 is captured, for example.
- the processing device 207 of the terminal device 20 functions as a second communication control section 211, a second display control section 212, and a reception section 213.
- the second communication control unit 211 controls data transmission and reception by the communication device 205.
- the second communication control unit 211 receives a captured image (more specifically, captured image data corresponding to the captured image) from the wearable device 10, for example.
- the second display control unit 212 controls the display device 201.
- the second display control unit 212 displays the captured image on the display device 201.
- the receiving unit 213 receives a designation of a specific region RX in the captured image displayed on the display device 201.
- the specific area RX is an example of a first area.
- the specific region RX may be any region, but in this embodiment, it is a particularly important region of the captured image and is a region that is desired to be continuously included in the captured image.
- the receiving unit 213 receives the designation of the specific region RX, for example, by receiving drawing of a frame indicating the outer edge of the specific region RX on the captured image displayed on the display device 201. This frame is drawn using the input device 202, for example.
- FIG. 7A and 7B are diagrams showing an example of a captured image displayed on the display device 201.
- the captured image M1 shown in FIG. 7A shows an area including the devices DV1 and DV2 in the real space.
- the second user U2 needs to monitor the status of the device DV1 (for example, the display of the meter, the connection status of the connector, etc.). Therefore, the range including the device DV1 in the captured image M1 is designated as the specific region RX.
- the reception unit 213 displays a region designation button B1 superimposed on the captured image M1.
- the reception unit 213 When the second user U2 presses the region designation button B1, the reception unit 213 enters the region reception mode in which designation of the specific region RX is accepted, and as shown in FIG. 7B, superimposes a cursor C resembling a pen on the captured image M1. Display.
- the second user U2 draws a frame W to surround the device DV1 by moving a cursor C using a mouse, which is an example of the input device 202, for example.
- the reception unit 213 accepts the area inside the frame W as the specific area RX.
- the reception unit 213 generates area information that specifies the specific area RX.
- the area information is, for example, position information (for example, coordinate values) of each point of the frame W on the captured image M1.
- the second communication control unit 211 transmits region information that specifies the position of the specific region RX in the captured image M1 to the wearable device 10.
- the first display control unit 111 transparently displays the first virtual object V1 indicating the range corresponding to the specific area RX in the real space based on the area information. It is displayed on the device 101.
- the first virtual object V1 includes, for example, a first virtual frame V1-1 and a message image V1-2.
- the first virtual frame V1-1 is an example of a frame and a first frame.
- the first virtual frame V1-1 indicates a position corresponding to the outer edge of the specific region RX in the real space.
- the message image V1-2 includes a message urging the first user U1 to maintain the state in which the first virtual frame V1-1 is included in the display range R3 of the transmissive display device 101.
- Message image V1-2 is an example of the first message. Note that only the first virtual frame V1-1 may be displayed as the first virtual object V1.
- FIGS. 8A and 8B are diagrams showing an example of the display range R3 of the transmissive display device 101.
- the display range R3 of the transmissive display device 101 is the range that is visible through the lens L of the visual field range R1 of the first user U1.
- the display range R3 of the transmissive display device 101 is narrower than the imaging range R2 of the imaging device 105.
- the display range R3 of the transmissive display device 101 includes the entire device DV1 and a part of the device DV2.
- a first virtual frame V1-1 which is an example of the first virtual object V1 is displayed on the lens L, as shown in FIG. 8B.
- the first virtual frame V1-1 is a frame having the same shape as the frame W drawn by the second user U2.
- the first virtual frame V1-1 indicates the outer edge of the range RY corresponding to the specific region RX in the captured image in the real space.
- the first display control unit 111 can display the first virtual frame V1-1 corresponding to the frame W drawn on the captured image on the transmissive display device 101.
- FIG. 9 is a diagram showing another example of the display range R3 of the transmissive display device 101.
- FIG. 8B shows a display range R3 when the first user U1 is located in front of the device DV1.
- FIG. 9 shows a display range R3 when the first user U1 is located diagonally horizontally with respect to the device DV1.
- the first virtual frame V1-1 is arranged at the outer edge of the range RY corresponding to the specific region RX of the captured image in the real space. Therefore, as shown in FIG. 9, when the first user U1 is viewing the device DV1 diagonally from the side, the first virtual frame V1-1 is also drawn as if he is viewing the device from the side diagonally.
- the first display control unit 111 displays the message image V1-2 as the first virtual object V1.
- the message image V1-2 includes a message urging the first user U1 to adjust the posture so that the entire first virtual frame V1-1 falls within the display range R3.
- the image captured by the imaging device 105 includes the specific region RX.
- the first user U1 works while adjusting the orientation of his or her face so that the first virtual frame V1-1 always falls within the display range R3. Therefore, the specific region RX is always included in the image captured by the imaging device 105.
- the speaker 102 may output a voice that informs the first user U1 that the specific region RX has been set.
- FIG. 10 is a diagram showing an example of a display when a part of the first virtual frame V1-1 is removed from the display range R3.
- the first user U1's attention may be focused on the work and may not notice that the first virtual frame V1-1 has moved away from the display range R3.
- the upper side of the rectangular first virtual frame V1-1 is outside the display range R3. In this way, when at least a part of the first virtual object V1 moves out of the display range R3 of the transparent display device 101, the first display control unit 111 further moves the second virtual object V2 to prompt the first user U1 to move. indicate.
- the second virtual object V2 includes a message image V2-1 and an arrow image V2-2.
- the message image V2-1 includes a message urging the first user U1 to turn his face upward so that the entire frame (first virtual frame V1-1) enters the lens L.
- the arrow image V2-2 indicates the direction in which the first user U1 should move his or her face.
- the arrow indicated by the arrow image V2-2 is an example of a symbol indicating the direction in which the first user should move. Note that it is not limited to both the message image V2-1 and the arrow image V2-2 being displayed as the second virtual object V2, but only one of them may be displayed.
- the second virtual object V2 includes a message image V2-1 urging the first user U1 to move so that the first virtual frame V1-1 is included in the display range R3 of the transparent display device 101, and a message image V2-1 for the first user U1. At least one of the arrow image V2-2 indicating the direction in which the arrow should move is displayed.
- a voice that calls attention to the first user U1 may be output from the speaker 102.
- the first user U1 who visually recognized the second virtual object V2 is predicted to move his or her face so that the entire first virtual frame V1-1 enters the lens L. Therefore, the imaging range of the imaging device 105 can be adjusted so that the entire specific region RX is captured in the captured image.
- the imaging range R2 of the imaging device 105 is wider than the display range R3 of the transmissive display device 101. Therefore, even if a part of the first virtual frame V1-1 deviates from the display range R3, there is a possibility that the specific region RX will not be missing on the captured image.
- the second virtual object V2 by displaying the second virtual object V2 at the time when a part of the first virtual frame V1-1 is removed from the display range R3, it is possible to prevent the specific region RX from being missing on the captured image. I can do it. Therefore, imaging of the entire specific region RX is performed more reliably.
- the first display control unit 111 controls the first display control unit 111 to display a third Virtual object V3 is further displayed.
- the above predetermined value can also be said to be the proportion of the specific region RX in the captured image.
- the predetermined value may be determined by the second user U2 or the first user U1, or may be determined by the wearable device 10 (for example, the first display control unit 111).
- FIG. 11 is a diagram showing an example of a display when the ratio of the range RY to the display range R3 is equal to or less than a predetermined value.
- the first display control unit 111 displays the first virtual object V1 and the third virtual object V3, as shown in FIG. 11, for example.
- the first virtual object V1 is a first virtual frame V1-1.
- the first virtual frame V1-1 indicates a position corresponding to the outer edge of the specific region RX in the real space.
- the first virtual frame V1-1 is displayed.
- the third virtual object V3 includes a second virtual frame V3-1 surrounding the first virtual frame V1-1, and a first user U1 such that the second virtual frame V3-1 is outside the display range R3 of the transparent display device 101.
- Message image V3-2 containing a message urging movement.
- the second virtual frame V3-1 is an example of a second frame.
- Message image V3-2 is an example of the second message.
- the second virtual frame V3-1 is displayed at a location a predetermined distance away from the first virtual frame V1-1.
- the range outside the second virtual frame V3-1 is, so to speak, a range that must not be seen by the first user U1.
- the second virtual frame V3-1 is displayed, for example, in a different display mode (for example, a different color or a different line type) than the first virtual frame V1-1.
- the message image V3-2 displays a message urging the first user U1 to move (forward) until the dotted line frame (second virtual frame V3-1) is no longer visible.
- the second virtual frame V3-1, message image V3-2, and arrow image V3-3 are displayed as the third virtual object, but any one or more of these may be displayed. Further, for example, instead of the second virtual frame V3-1, an image that fills in (masks) the outside of the second virtual frame V3-1 may be displayed. Furthermore, along with the display of the third virtual object V3, a sound may be output from the speaker 102 to alert the first user U1.
- the display control system 1 transmits the captured image captured by the wearable device 10 to the terminal device 20, and in the terminal device 20, the specific region RX on the captured image Accepts specifications.
- the display control system 1 uses the transmissive display device 101 of the wearable device 10 to display a first virtual object V1 indicating a range corresponding to the specific region RX in the real space in the visual field R1 of the first user U1. indicate. Therefore, the first user U1 can grasp the range corresponding to the specific region RX in the real space, and can efficiently capture an image showing the range corresponding to the specific region RX in the real space.
- the display control system 1 also displays, as the first virtual object V1, a first virtual frame V1-1 indicating a position corresponding to the outer edge of the specific region RX in the real space, and a transparent display of the first virtual frame V1-1.
- a message image V1-2 containing a message urging the first user U1 to maintain the state included in the display range R3 of the device 101 is displayed. Therefore, the first user U1 can intuitively grasp the position corresponding to the outer edge of the specific region RX in the real space, and can appropriately maintain his or her posture.
- the first user U1 can understand that the first virtual frame V1-1 should be maintained within the display range R3. Therefore, for example, even when the first user U1 is not accustomed to using the wearable device 10, or when many virtual objects are displayed in the display range R3, the range corresponding to the specific region RX in the real space can be captured. Images can be easily captured.
- the display control system 1 when at least a portion of the first virtual frame V1-1 is out of the display range R3, the display control system 1 further displays a second virtual object V2 that prompts the first user U1 to move. Therefore, even when the first user U1 is concentrating on work, for example, he can notice that a part of the first virtual frame V1-1 is outside the display range R3.
- the display control system 1 also displays, as the second virtual object V2, a message image V2-1 or a message image V2-1 containing a message urging the first user U1 to move so that the display range R3 includes the first virtual frame V1-1 At least one of the arrow image V2-2 indicating the direction in which the user U1 should move is displayed. Therefore, the first user U1 can specifically grasp the movement he/she should take, and can work efficiently.
- the display control system 1 also provides a third virtual object that prompts the first user U1 to move when the ratio of the range RY corresponding to the specific region RX in the real space to the display range R3 becomes equal to or less than a predetermined value. Display more V3. Therefore, it is possible to prevent the specific region RX shown in the captured image from becoming too small, and to more efficiently support the work of the second user U2.
- the display control system 1 also creates a second virtual frame V3-1 that surrounds the first virtual frame V1-1 as a third virtual object V3, and a first virtual frame V3-1 that surrounds the first virtual frame V1-1, and a first A message image V3-2 containing a message urging the user U1 to move is displayed. Therefore, the first user U1 can specifically grasp the movement he/she should take, and can work efficiently.
- the wearable device 10 was configured only with a glasses-type terminal device.
- the wearable device 10 is not limited to this, and may include a glasses-type terminal device and a portable terminal device such as a smartphone, a tablet terminal, or a notebook computer.
- the eyeglass-type terminal device and the portable terminal device are connected to each other.
- the wearable device 10 includes a portable terminal device, the first display control section 111 and the first communication control section 112 may be partially or entirely controlled by the portable terminal device.
- Each function illustrated in FIG. 4 or 5 is realized by any combination of hardware and software.
- the method for realizing each function is not particularly limited.
- Each function may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g., wired, It may also be realized using devices configured by connecting (e.g., wirelessly).
- Each function may be realized by combining software with the one device or the plurality of devices.
- apparatus may be replaced with other terms such as circuit, device, or unit.
- the storage device 106 and the storage device 206 include an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disc, a Blu-ray disc), a smart card, a flash memory (e.g. card, stick, key drive), a floppy disc, a magnetic strip, etc. good.
- the program may also be transmitted from a network via a telecommunications line.
- Each of the embodiment and the first modification is based on LTE (Long Term Evolution), LTE-A (LTA-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile com communication system), 5G (5th generation mobile communication system), 6th generation mobile communication system (6G), xth generation mobile commu nication system (xG) (x is an integer or a decimal number, for example), FRA (Future Radio Access), NR (new Radio), New radio access (NX ), Future generation radio access (FX), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-F i (registered trademark)), IEEE 802.
- WiMAX registered trademark
- IEEE 802.20 IEEE 802.20
- UWB Ultra-WideBand
- Bluetooth registered trademark
- other appropriate systems and systems that are extended, modified, created, and defined based on these. It may be applied to at least one next generation system.
- a combination of a plurality of systems may be applied (for example, a combination of at least one of LTE and LTE-A and 5G).
- input/output information, etc. may be stored in a specific location (for example, memory) or may be managed using a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
- the determination may be made based on a value represented by 1 bit (0 or 1), or a truth value (Boolean: true or false). The determination may be performed based on a comparison of numerical values (for example, a comparison with a predetermined value).
- the programs illustrated in each of the embodiments and the first modification are instructions, instruction sets, Should be broadly construed to mean code, code segment, program code, subprogram, software module, application, software application, software package, routine, subroutine, object, executable file, thread of execution, procedure or function, etc. .
- software, instructions, etc. may be transmitted and received via a transmission medium.
- wired technology such as coaxial cable, fiber optic cable, twisted pair, and digital subscriber line (DSL)
- wireless technology such as infrared, microwave
- the terminal device 20 may be a mobile station.
- a mobile station is defined by a person skilled in the art as a subscriber station, mobile unit, subscriber unit, wireless unit, remote unit, mobile device, wireless device, wireless communication device, remote device, mobile subscriber station, access terminal, mobile terminal, wireless It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable terminology.
- a mobile station may be called a transmitting device, a receiving device, a communication device, or the like.
- the mobile station may be a device mounted on a mobile body, or the mobile body itself.
- a moving body means a movable object. The moving speed of the moving object is arbitrary. The moving body can be stopped. Examples of moving objects include vehicles, transportation vehicles, automobiles, motorcycles, bicycles, connected cars, excavators, bulldozers, wheel loaders, dump trucks, forklifts, trains, buses, carts, rickshaws, ships and other watercraft, Including, but not limited to, airplanes, rockets, artificial satellites, drones (registered trademarks), multicopters, quadcopters, balloons, and objects mounted thereon.
- the mobile body may be a mobile body that autonomously travels based on the operation command.
- the moving object may be a vehicle (for example, a car, an airplane, etc.), an unmanned moving object (for example, a drone, a self-driving car, etc.), or a robot (manned or unmanned).
- a vehicle for example, a car, an airplane, etc.
- an unmanned moving object for example, a drone, a self-driving car, etc.
- a robot manned or unmanned.
- Mobile stations also include devices that do not necessarily move during communication operations.
- the mobile station may be an IoT (Internet of Things) device such as a sensor.
- the term “determining” may include a wide variety of operations.
- “Decision” includes, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring. y) (e.g. table , searching in a database or other data structure), asserting something as a “decision,” and the like.
- “determination” refers to receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, accessing ( For example, it may include accessing data in memory) and regarding it as a "judgment” or “decision.”
- “determining” may include determining that the process of resolving, selecting, choosing, establishing, comparing, etc. has been “determined.” In other words, “determining” may include considering that some action has been “determined.” Moreover, “determination” may be read as “assuming,” “expecting,” “considering,” or the like.
- connection refers to any connection or coupling, direct or indirect, between two or more elements.
- the bonds or connections between elements may be physical, logical, or a combination thereof.
- connection may be replaced with "access.”
- two elements may include one or more wires, cables, and/or printed electrical connections, as well as in the radio frequency domain, as some non-limiting and non-inclusive examples. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) ranges, and the like.
- any reference to elements using designations such as “first” and “second” does not generally limit the amount or order of those elements. These designations may be used herein as a convenient way of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed or that the first element must precede the second element in any way.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示制御システムおよびウェアラブル装置に関する。 The present invention relates to a display control system and a wearable device.
従来、AR(Augmented Reality)、VR(virtual reality)およびMR(Mixed Reality)に代表されるXR(Extended Reality)技術を適用したXRグラスが普及している。XRグラスには、ユーザの前方を撮像する撮像装置が設けられる場合がある。撮像装置によって撮像された撮像画像は、例えばXRグラスを装着したユーザによる作業を補助するために用いられる。または、撮像画像は、ユーザが作業を適切に行ったかを事後的に評価するための記録等に用いられる。 Conventionally, XR glasses to which XR (Extended Reality) technology, represented by AR (Augmented Reality), VR (Virtual Reality), and MR (Mixed Reality) are applied, have been widespread. The XR glasses may be provided with an imaging device that captures an image in front of the user. A captured image captured by the imaging device is used, for example, to assist a user wearing XR glasses in his or her work. Alternatively, the captured image is used for recording, etc. for later evaluation of whether the user has performed the work appropriately.
例えば、下記特許文献1には、実空間に配置されるマーカを用いて、仮想空間に配置される仮想オブジェクトと実空間の物体との位置合わせを実行する作業支援システムが開示されている。具体的には、作業支援システムは、表示部、撮像部、位置情報検出部および表示制御部を備える。表示部は、実空間に対応する仮想空間の画像を表示する。撮像部は、ユーザの視野の中心部を含む範囲を撮像する。位置情報検出部は、撮像されたマーカの画像に基づいてマーカと撮像部との位置関係を検出する。表示制御部は、マーカに視線を置いている状態で検出されたマーカの画像の検出結果と、ユーザの姿勢を機械的に検出した検出結果とに基づいて、仮想空間の画像の表示を制御する。 For example, Patent Document 1 below discloses a work support system that uses markers placed in real space to align a virtual object placed in virtual space with an object in real space. Specifically, the work support system includes a display section, an imaging section, a position information detection section, and a display control section. The display unit displays an image of the virtual space corresponding to the real space. The imaging unit images a range including the center of the user's visual field. The positional information detection unit detects the positional relationship between the marker and the imaging unit based on the captured image of the marker. The display control unit controls the display of the image in the virtual space based on the detection result of the marker image detected while the user is looking at the marker and the detection result of mechanically detecting the user's posture. .
一般に、XRグラスに搭載された撮像装置の撮像範囲と、ユーザの視野範囲とにはズレがある。よって、ユーザが想定している撮像範囲と実際の撮像範囲とが一致しておらず、必要とされる撮像画像が取得することができない可能性がある。また、例えば遠隔地にいる補助者からの助言を受けながらユーザが作業を行う場合、補助者が注目したい場所、すなわち、補助者が撮像装置で撮像して欲しい場所をユーザが把握できずに、作業効率が低下する可能性がある。 In general, there is a gap between the imaging range of the imaging device mounted on the XR glasses and the user's field of view. Therefore, the imaging range assumed by the user and the actual imaging range do not match, and there is a possibility that a required captured image cannot be obtained. Furthermore, when a user performs a task while receiving advice from a remote assistant, for example, the user may not be able to grasp the location that the assistant wants to focus on, that is, the location that the assistant wants to capture with the imaging device. Work efficiency may decrease.
本発明の目的は、現実空間の特定の範囲を写す画像を効率的に撮像することにある。 An object of the present invention is to efficiently capture an image depicting a specific range of real space.
本発明の一態様に係る表示制御システムは、ウェアラブル装置と、端末装置とを備える表示制御システムであって、前記ウェアラブル装置は、第1ユーザの眼前に位置する透過型の第1表示装置を制御する第1表示制御部と、前記第1ユーザの視野範囲に含まれる現実空間が撮像された撮像画像を前記端末装置に送信する第1通信制御部と、を備え、前記端末装置は、前記撮像画像を受信する第2通信制御部と、前記撮像画像を第2表示装置に表示する第2表示制御部と、前記第2表示装置に表示された前記撮像画像における第1領域の指定を第2ユーザから受け付ける受付部と、を備え、前記第2通信制御部は、前記撮像画像における前記第1領域の範囲を特定する領域情報を前記ウェアラブル装置に送信し、前記第1表示制御部は、前記領域情報に基づいて、前記現実空間のうち前記第1領域に対応する範囲を示す第1仮想オブジェクトを前記第1表示装置に表示する。 A display control system according to one aspect of the present invention includes a wearable device and a terminal device, wherein the wearable device controls a transmissive first display device located in front of a first user. and a first communication control unit that transmits a captured image of a real space included in the field of view of the first user to the terminal device, and the terminal device a second communication control unit that receives an image; a second display control unit that displays the captured image on a second display device; and a second communication control unit that displays the captured image on the second display device; a reception unit that receives information from a user, the second communication control unit transmits area information that specifies the range of the first area in the captured image to the wearable device, and the first display control unit A first virtual object indicating a range corresponding to the first area in the real space is displayed on the first display device based on the area information.
本発明の一態様に係るウェアラブル装置は、第1ユーザの眼前に位置する透過型の第1表示装置を制御する第1表示制御部と、前記第1ユーザの視野範囲に含まれる現実空間が撮像された撮像画像を端末装置に送信する送信部と、前記撮像画像に指定された第1領域の範囲を特定する領域情報を受信する受信部と、を備え、前記第1表示制御部は、前記領域情報に基づいて、前記現実空間のうち前記第1領域に対応する範囲を示す第1仮想オブジェクトを前記第1表示装置に表示する。 A wearable device according to one aspect of the present invention includes a first display control unit that controls a transmissive first display device located in front of a first user's eyes, and a real space included in a visual field range of the first user that is imaged. a transmitter that transmits the captured image to a terminal device, and a receiver that receives area information that specifies a range of a first area specified in the captured image, and the first display control unit includes A first virtual object indicating a range corresponding to the first area in the real space is displayed on the first display device based on the area information.
本発明の一態様によれば、現実空間のうち特定の範囲を写す画像を効率的に撮像することができる。 According to one aspect of the present invention, an image depicting a specific range in real space can be efficiently captured.
A.実施形態
A-1.システム構成
図1は、実施形態に係る表示制御システム1の構成を示すブロック図である。表示制御システム1は、ウェアラブル装置10と、端末装置20とを備える。ウェアラブル装置10と、端末装置20とは、通信網Nを介して接続されている。
A. Embodiment A-1. System Configuration FIG. 1 is a block diagram showing the configuration of a display control system 1 according to an embodiment. The display control system 1 includes a
図2は、ウェアラブル装置10の使用状態を模式的に示す図である。図2に示すように、ウェアラブル装置10は、作業者である第1ユーザU1の頭部に装着されるヘッドマウントディスプレイである。ウェアラブル装置10は、ウェアラブル装置10を装着した第1ユーザU1の眼前に位置する透過型表示装置101(図4参照)を備える。透過型表示装置101は、第1表示装置の一例である。ウェアラブル装置10の形状は、例えば一般的な眼鏡と同様の形状である。ウェアラブル装置10は、レンズLと、レンズLを支持するフレームFを有する。レンズLは、第1ユーザU1の左眼の前方に配置される左レンズと、ユーザの右眼の前方に配置される右レンズとを有する。フレームFは、左レンズと右レンズとの間に設けられたブリッジ、および左右の耳にかかる一対のテンプルを有する。後述のように、透過型表示装置101は、仮想オブジェクトを含む各種の画像をレンズLに表示する。レンズLは、透過型表示装置101の表示範囲である。
FIG. 2 is a diagram schematically showing how the
本実施形態において、第1ユーザU1は、ウェアラブル装置10を装着した状態で、ラックRAに格納された複数の機器DV1~DV3間の配線作業を行う。ウェアラブル装置10は、撮像装置105(図4参照)を備える。ウェアラブル装置10は、撮像装置105で撮像された撮像画像を、端末装置20に対して送信する。
In this embodiment, the first user U1 performs wiring work between the plurality of devices DV1 to DV3 stored in the rack RA while wearing the
図3は、端末装置20の使用状態を模式的に示す図である。端末装置20は、作業の補助者である第2ユーザU2によって使用される。端末装置20は、例えばパーソナルコンピューター、ノートパソコン、タブレット端末、スマートフォン等の情報処理端末である。端末装置20は、表示装置201を備える。表示装置201は、第2表示装置の一例である。端末装置20は、ウェアラブル装置10から送信された撮像画像を表示装置201に表示する。撮像画像には、第1ユーザU1の視野範囲R1(図6参照)の少なくとも一部が映っている。具体的には、撮影画像には、機器DV1~DV3が配置された空間および第1ユーザU1が機器DV1~DV3に対して作業を行う様子が映っている。このような撮像画像を端末装置20で表示することによって、第2ユーザU2は、第1ユーザU1が行う作業について助言および監視を遠隔地から行うことができる。また、例えば端末装置20またはウェアラブル装置10で撮像画像を保存することによって、第1ユーザU1の作業手順および作業内容が正しかったかを事後的に検証したり、不具合が行った場合にその原因を追究したりすることができる。
FIG. 3 is a diagram schematically showing how the
A-2.ウェアラブル装置10
図4は、ウェアラブル装置10の構成を示すブロック図である。ウェアラブル装置10は、透過型表示装置101と、スピーカ102と、マイク103と、通信装置104と、撮像装置105と、記憶装置106と、処理装置107と、バス108とを備える。図4に示す構成の少なくとも一部は、例えばフレームFに格納されている。透過型表示装置101と、スピーカ102と、マイク103と、通信装置104と、撮像装置105と、記憶装置106と、処理装置107とは、情報を通信するためのバス108によって相互に接続される。バス108は、単一のバスを用いて構成されてもよいし、装置等の要素間ごとに異なるバスを用いて構成されてもよい。
A-2.
FIG. 4 is a block diagram showing the configuration of the
透過型表示装置101は、左右のレンズL、表示パネルおよび光学部材を含む。表示パネルおよび光学部材は、例えばフレームFに収容されている。表示パネルおよび光学部材は、左右のレンズLに対応して、左右1対ずつ設けられてもよい。透過型表示装置101は、処理装置107からの制御に基づいて、仮想オブジェクトに対応する投影画像を表示パネルに表示する。表示パネルは、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルである。光学部材は、表示パネルから射出された光を左右のレンズLに導光する。
The
左右のレンズLは、各々ハーフミラーを有する。左右のレンズLが有するハーフミラーは、現実空間を表す光を透過させることによって、現実空間を表す光を第1ユーザU1の目に導く。また、左右のレンズLが有するハーフミラーは、光学部材によって導光された仮想オブジェクトを示す光を第1ユーザU1の目に向けて反射する。ハーフミラーを透過した現実空間の光と、ハーフミラーによって反射された仮想オブジェクトを示す光とが第1ユーザU1の目に入射されることによって、第1ユーザU1は、現実空間に仮想オブジェクトが位置しているように知覚する。 The left and right lenses L each have a half mirror. The half mirrors of the left and right lenses L transmit the light representing the real space, thereby guiding the light representing the real space to the eyes of the first user U1. Further, the half mirrors of the left and right lenses L reflect the light indicating the virtual object guided by the optical member toward the eyes of the first user U1. The light in the real space that has passed through the half mirror and the light that indicates the virtual object reflected by the half mirror are incident on the eyes of the first user U1, so that the first user U1 can see the position of the virtual object in the real space. Perceive it as if you are doing it.
スピーカ102は、音声データを再生し、音声データに対応する音声を出力する。スピーカ102が再生する音声データは、例えば端末装置20のマイク204で収音された第2ユーザU2の発話音声を示す音声データである。マイク103は、周囲の音声を収音し、音声データを生成する。マイク103が収音する音声は、例えばウェアラブル装置10を装着した第1ユーザU1の発話音声である。スピーカ102およびマイク103は、例えばフレームFに配置される。または、スピーカ102およびマイク103は、ウェアラブル装置10に含まれずに、ウェアラブル装置10とは別体でもよい。
The
通信装置104は、他の装置と通信を行うための通信インターフェースを備える。通信装置104は、無線通信または有線通信を用いて通信網Nに接続し、通信網Nを介して端末装置20と通信する。
The
撮像装置105は、例えば、撮像光学系および撮像素子を有する。撮像光学系は、少なくとも1つの撮像レンズを含む光学系である。撮像レンズは、例えば上述したブリッジに設けられる。このため、撮像装置105は、第1ユーザU1の顔が向いている方向の外界を撮像する。撮像光学系は、例えばプリズム等の各種の光学素子を有してもよいし、ズームレンズまたはフォーカスレンズ等を有してもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary MOS)イメージセンサー等である。
The
撮像装置105は、被写体を撮像し、撮像した画像(以下「撮像画像」という)に対応する撮像画像データを生成する。図6を用いて後述するように、本実施形態では、撮像装置105の撮像範囲R2(図6参照)は、第1ユーザU1の視野範囲R1のうち、レンズLを通して視認する範囲、すなわち、透過型表示装置101の表示範囲R3(図6参照)を含む。撮像装置105で撮像された撮像画像の各画素と、透過型表示装置101の各画素との対応関係は、予めキャリブレーションされている。よって、例えば撮像画像に写る物体Aを例にすると、第1ユーザU1が透過型表示装置101を通して現実空間を見た場合に、当該物体Aが透過型表示装置101の表示範囲R3に占める範囲は既知である。よって、後述する第1表示制御部111は、撮像画像に基づいて表示位置が決められた仮想オブジェクトを、透過型表示装置101に投影することが可能である。
The
撮像装置105で生成された撮像画像データは、通信装置104を介して端末装置20に送信される。撮像装置105は、所定の撮像間隔で撮像を繰り返し、撮像の都度、生成した撮像画像データを端末装置20に送信する。本実施形態では、撮影画像データが動画データであるものとする。
Captured image data generated by the
記憶装置106は、処理装置107が読み取り可能な記録媒体である。記憶装置106は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置106は、プログラムPG1を記憶する。プログラムPG1は、ウェアラブル装置10を動作させるためのプログラムである。
The
処理装置107は、1または複数のCPU(Central Processing Unit)を含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
The
処理装置107は、記憶装置106からプログラムPG1を読み取る。処理装置107は、プログラムPG1を実行することによって、第1表示制御部111および第1通信制御部112として機能する。第1表示制御部111および第1通信制御部112の少なくとも1つは、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。第1表示制御部111および第1通信制御部112の詳細は後述する。
The
A-3.端末装置20
図5は、端末装置20の構成を示すブロック図である。端末装置20は、表示装置201と、入力装置202と、スピーカ203と、マイク204と、通信装置205と、記憶装置206と、処理装置207と、バス208とを含む。表示装置201と、入力装置202と、スピーカ203と、マイク204と、通信装置205と、記憶装置206と、処理装置207とは、情報を通信するためのバス208によって相互に接続される。バス208は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
A-3.
FIG. 5 is a block diagram showing the configuration of the
表示装置201は、外部に対して情報を表示する表示デバイス(例えば、液晶パネル、有機ELパネル等の各種の表示パネル)である。入力装置202は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、スイッチ、ボタン、センサなど)である。表示装置201は、なお、表示装置201および入力装置202は、これらが一体となった構成(例えばタッチパネル)であってもよい。
The
スピーカ203は、音声データを再生し、音声データに対応する音声を出力する。スピーカ203が再生する音声データは、例えばウェアラブル装置10のマイク103で収音された第1ユーザU1の発話音声を示す音声データである。マイク204は、周囲の音声を収音し、音声データを生成する。マイク204が収音する音声は、例えば端末装置20を使用する第2ユーザU2の発話音声である。スピーカ203およびマイク204は、端末装置20に含まれずに、端末装置20とは別体でもよい。
The
通信装置205は、他の装置と通信を行うための通信インターフェースを備える。通信装置104は、無線通信または有線通信を用いて通信網Nに接続し、通信網Nを介してウェアラブル装置10と通信する。
The
記憶装置206は、処理装置207が読み取り可能な記録媒体である。記憶装置206は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM、EPROMおよびEEPROMである。揮発性メモリーは、例えば、RAMである。記憶装置206は、プログラムPG2を記憶する。プログラムPG2は、端末装置20を動作させるためのプログラムである。
The
処理装置207は、1または複数のCPUを含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
The
処理装置207は、記憶装置206からプログラムPG2を読み取る。処理装置207は、プログラムPG2を実行することによって、第2通信制御部211、第2表示制御部212および受付部213として機能する。第2通信制御部211、第2表示制御部212および受付部213のうち少なくとも1つは、DSP、ASIC、PLDおよびFPGA等の回路によって構成されてもよい。第2通信制御部211、第2表示制御部212および受付部213の詳細は後述する。
The
A-4.処理装置107および処理装置207の詳細
以下、処理装置107および処理装置207の詳細について説明する。これに先立って、第1ユーザU1の視野範囲R1と、撮像装置105の撮像範囲R2と、透過型表示装置101の表示範囲R3との関係について説明する。図6は、第1ユーザU1の視野範囲R1に関連する範囲を模式的に示す説明図である。なお、図6に示す範囲R1~R3は、各範囲の大きさを相対的に示すことを目的としており、実際の視野角度とは異なっている。図6において、符号Eは、第1ユーザU1の目を模式的に示している。一般に、人間の視野範囲、すなわち第1ユーザU1の視野範囲R1は、水平方向(左右方向)に200°程度、垂直方向(上下方向)に130°程度であることが知られている。
A-4. Details of the
これに対して、撮像装置105の撮像範囲R2は、撮像装置105の撮像レンズが広角レンズである場合で水平方向に100°、垂直方向に80°程度である。よって、撮像装置105の撮像範囲R2は、第1ユーザU1の視野範囲R1より狭い。なお、例えば撮像装置105の撮像レンズとして魚眼レンズ等の特殊なレンズが用いられた場合には、この限りではない。また、撮像範囲R2の始点は、厳密には第1ユーザU1の目Eとは異なる位置である。しかし、上述のように撮像装置105の撮像レンズはブリッジに設けられており、撮像範囲R2の始点と第1ユーザU1の目Eとは、ほぼ同じ位置と考えることができる。また、ウェアラブル装置10は第1ユーザU1の頭部に装着されているため、現実空間のうち撮像画像に写る範囲は、第1ユーザU1の動きによって変化する。よって、撮像装置105の撮像画像は、第1ユーザU1の視野範囲R1に含まれる現実空間が撮像されている。
On the other hand, the imaging range R2 of the
透過型表示装置101の表示範囲R3は、第1ユーザU1の視野範囲R1のうち、レンズLを介して視認される範囲である。上述のように、透過型表示装置101は、レンズLに設けられたハーフミラーを透過した現実空間の光と、ハーフミラーによって反射された仮想オブジェクトを示す光とをユーザの目に入射させることによって、第1ユーザU1に仮想オブジェクトを知覚させる。よって、現実空間のうち、透過型表示装置101によって仮想オブジェクトを表示できる範囲は、第1ユーザU1がレンズLを介して視認する範囲である。本実施形態では、透過型表示装置101の表示範囲R3は、第1ユーザU1の視野範囲R1より狭いものとするが、例えばレンズLの形状を湾曲させる等の方法で、透過型表示装置101の表示範囲R3と第1ユーザU1の視野範囲R1とを等しくすることも可能である。また、本実施形態では、透過型表示装置101の表示範囲R3は、撮像装置105の撮像範囲R2より狭いものとするが、上述のように、透過型表示装置101の表示範囲R3をより広い範囲とすれば、透過型表示装置101の表示範囲R3を撮像装置105の撮像範囲R2以上とすることも可能である。
The display range R3 of the
つぎに、ウェアラブル装置10の処理装置107について説明する。上述のように、処理装置107は、第1表示制御部111および第1通信制御部112として機能する。第1表示制御部111は、第1ユーザU1の眼前に位置する透過型表示装置101を制御する。
Next, the
第1通信制御部112は、通信装置104によるデータの送受信を制御する。第1通信制御部112は、送信部および受信部の一例である。第1通信制御部112は、例えば第1ユーザU1の視野範囲に含まれる現実空間が撮像された撮像画像(より詳細には撮影画像に対応する撮像画像データ)を端末装置20に送信する。
The first
端末装置20の処理装置207は、第2通信制御部211、第2表示制御部212および受付部213として機能する。第2通信制御部211は、通信装置205によるデータの送受信を制御する。第2通信制御部211は、例えばウェアラブル装置10から撮像画像(より詳細には撮影画像に対応する撮像画像データ)を受信する。
The
第2表示制御部212は、表示装置201を制御する。例えば、第2表示制御部212は、撮像画像を表示装置201に表示する。受付部213は、表示装置201に表示された撮像画像における特定領域RXの指定を受け付ける。特定領域RXは、第1領域の一例である。特定領域RXは、任意の領域であってよいが、本実施形態では、撮像画像のうち特に重要な領域であり、継続的に撮影画像に含まれることが望まれる領域とする。受付部213は、例えば、表示装置201に表示された撮像画像に対して、特定領域RXの外縁を示す枠の描画を受け付けることによって、特定領域RXの指定を受け付ける。この枠は、例えば入力装置202を用いて描画される。
The second
図7Aおよび図7Bは、表示装置201に写る撮像画像の一例を示す図である。図7Aに示す撮像画像M1には、現実空間のうち、機器DV1およびDV2を含む領域が写っている。例えば、第1ユーザU1の作業に当たって、第2ユーザU2は、機器DV1の状態(例えばメータの表示およびコネクタの接続状態等)を監視する必要があるものとする。よって、撮像画像M1のうち、機器DV1を含む範囲を特定領域RXとして指定する。具体的には、受付部213は、撮像画像M1に重畳して領域指定ボタンB1を表示する。第2ユーザU2が領域指定ボタンB1を押下すると、受付部213は、特定領域RXの指定を受け付ける領域受付モードとなり、図7Bに示すように、ペンを模したカーソルCを撮像画像M1に重畳して表示する。第2ユーザU2は、例えば入力装置202の一例であるマウスを用いてカーソルCを移動させることで、機器DV1を囲うように枠Wを描画する。第2ユーザU2がOKボタンB2を押下すると、受付部213は、枠Wの内部の領域を特定領域RXとして受け付ける。受付部213は、特定領域RXを特定する領域情報として生成する。領域情報は、例えば撮像画像M1上における枠Wの各点の位置情報(例えば座標値)である。第2通信制御部211は、撮像画像M1における特定領域RXの位置を特定する領域情報をウェアラブル装置10に送信する。
7A and 7B are diagrams showing an example of a captured image displayed on the
ウェアラブル装置10が端末装置20から領域情報を受信すると、第1表示制御部111は、領域情報に基づいて、現実空間のうち特定領域RXに対応する範囲を示す第1仮想オブジェクトV1を透過型表示装置101に表示する。第1仮想オブジェクトV1は、例えば第1仮想枠V1-1と、メッセージ画像V1-2とを含む。第1仮想枠V1-1は、枠および第1枠の一例である。第1仮想枠V1-1は、現実空間のうち特定領域RXの外縁に対応する位置を示す。また、メッセージ画像V1-2は、第1仮想枠V1-1が透過型表示装置101の表示範囲R3に含まれた状態を維持することを第1ユーザU1に促すメッセージを含む。メッセージ画像V1-2は、第1メッセージの一例である。なお、第1仮想オブジェクトV1として第1仮想枠V1-1のみが表示されてもよい。
When the
図8Aおよび図8Bは、透過型表示装置101の表示範囲R3の一例を示す図である。上述のように、透過型表示装置101の表示範囲R3は、第1ユーザU1の視野範囲R1のうちレンズLを介して視認される範囲である。また、透過型表示装置101の表示範囲R3は、撮像装置105の撮像範囲R2よりも狭い範囲である。図8Aおよび図8Bの例では、透過型表示装置101の表示範囲R3には、機器DV1の全体と、機器DV2の一部が含まれている。
FIGS. 8A and 8B are diagrams showing an example of the display range R3 of the
第2ユーザU2が特定領域RXを指定するまでは、図8Aに示すように、表示範囲R3では現実空間のみが視認される。第2ユーザU2が特定領域RXを指定すると、図8Bに示すように、レンズLに第1仮想オブジェクトV1の一例である第1仮想枠V1-1が表示される。第1仮想枠V1-1は、第2ユーザU2が描画した枠Wと同形の枠である。第1仮想枠V1-1は、現実空間のうち、撮像画像における特定領域RXに対応する範囲RYの外縁を示す。 Until the second user U2 specifies the specific region RX, only the real space is visible in the display range R3, as shown in FIG. 8A. When the second user U2 specifies the specific area RX, a first virtual frame V1-1, which is an example of the first virtual object V1, is displayed on the lens L, as shown in FIG. 8B. The first virtual frame V1-1 is a frame having the same shape as the frame W drawn by the second user U2. The first virtual frame V1-1 indicates the outer edge of the range RY corresponding to the specific region RX in the captured image in the real space.
上述のように、撮像装置105で撮像された撮像画像の各画素と、透過型表示装置101の各画素との対応関係は、予めキャリブレーションされている。よって、第1表示制御部111は、撮像画像上に描画された枠Wに対応する第1仮想枠V1-1を、透過型表示装置101に表示することが可能である。
As described above, the correspondence between each pixel of the captured image captured by the
図9は、透過型表示装置101の表示範囲R3の他の一例を示す図である。図8Bでは、第1ユーザU1が機器DV1に対して正面に位置する場合の表示範囲R3を示した。図9では、第1ユーザU1が機器DV1に対して斜め横に位置する場合の表示範囲R3を示す。上述のように、第1仮想枠V1-1は、現実空間のうち、撮像画像の特定領域RXに対応する範囲RYの外縁に配置される。よって、図9のように、第1ユーザU1が機器DV1を斜め横から見ている場合には、第1仮想枠V1-1も斜め横から見ているように描画される。
FIG. 9 is a diagram showing another example of the display range R3 of the
また、図8Bに示すように、第1表示制御部111は、第1仮想オブジェクトV1としてメッセージ画像V1-2を表示する。メッセージ画像V1-2は、第1仮想枠V1-1の全体が表示範囲R3に入るように姿勢を調整することを第1ユーザU1に促すメッセージを含む。表示範囲R3に第1仮想枠V1-1の全体が含まれる場合、撮像装置105の撮像画像には特定領域RXが含まれる。一方、表示範囲R3から第1仮想枠V1-1の一部または全部が外れた場合、撮像装置105の撮像画像には特定領域RXの一部または全部が含まれない可能性がある。第1ユーザU1は、第1仮想枠V1-1が常に表示範囲R3に収まるように自身の顔の向きを調整しながら作業を行う。よって、撮像装置105の撮像画像に特定領域RXが常時含まれることになる。なお、第1仮想オブジェクトV1の表示と併せて、特定領域RXが設定されたことを第1ユーザU1に伝える音声の出力がスピーカ102からされてもよい。
Furthermore, as shown in FIG. 8B, the first
図10は、表示範囲R3から第1仮想枠V1-1の一部が外れた場合の表示の一例を示す図である。例えば第1ユーザU1の注意が作業に集中し、表示範囲R3から第1仮想枠V1-1が外れたことを気付かない場合がある。図10の例では、矩形の第1仮想枠V1-1の上辺が表示範囲R3から外れている。このように第1仮想オブジェクトV1の少なくとも一部が透過型表示装置101の表示範囲R3から外れた場合、第1表示制御部111は、第1ユーザU1に移動を促す第2仮想オブジェクトV2を更に表示する。
FIG. 10 is a diagram showing an example of a display when a part of the first virtual frame V1-1 is removed from the display range R3. For example, the first user U1's attention may be focused on the work and may not notice that the first virtual frame V1-1 has moved away from the display range R3. In the example of FIG. 10, the upper side of the rectangular first virtual frame V1-1 is outside the display range R3. In this way, when at least a part of the first virtual object V1 moves out of the display range R3 of the
図10の例では、第2仮想オブジェクトV2は、メッセージ画像V2-1と、矢印画像V2-2とを含む。メッセージ画像V2-1は、顔を上に向けて枠(第1仮想枠V1-1)が全てレンズLに入るように第1ユーザU1に促すメッセージを含む。矢印画像V2-2は、第1ユーザU1が顔を移動させるべき方向を示す。矢印画像V2-2が示す矢印は、第1ユーザが移動すべき方向を示す記号の一例である。なお、第2仮想オブジェクトV2としてメッセージ画像V2-1および矢印画像V2-2が両方とも表示されるに限らず、これらのいずれか1つが表示されればよい。すなわち、第2仮想オブジェクトV2は、透過型表示装置101の表示範囲R3に第1仮想枠V1-1が含まれるように第1ユーザU1に移動を促すメッセージ画像V2-1と、第1ユーザU1が移動すべき方向を示す矢印画像V2-2との少なくともいずれかを表示する。
In the example of FIG. 10, the second virtual object V2 includes a message image V2-1 and an arrow image V2-2. The message image V2-1 includes a message urging the first user U1 to turn his face upward so that the entire frame (first virtual frame V1-1) enters the lens L. The arrow image V2-2 indicates the direction in which the first user U1 should move his or her face. The arrow indicated by the arrow image V2-2 is an example of a symbol indicating the direction in which the first user should move. Note that it is not limited to both the message image V2-1 and the arrow image V2-2 being displayed as the second virtual object V2, but only one of them may be displayed. That is, the second virtual object V2 includes a message image V2-1 urging the first user U1 to move so that the first virtual frame V1-1 is included in the display range R3 of the
第2仮想オブジェクトV2とともに、第1ユーザU1に注意を促す音声がスピーカ102から出力されてもよい。第2仮想オブジェクトV2を視認した第1ユーザU1は、第1仮想枠V1-1が全てレンズLに入るように自身の顔を動かすと予測される。よって、撮影画像に特定領域RXの全域が写るように、撮像装置105の撮像範囲を調整することができる。
Along with the second virtual object V2, a voice that calls attention to the first user U1 may be output from the
なお、図6に示すように、本実施形態では、透過型表示装置101の表示範囲R3よりも撮像装置105の撮像範囲R2の方が広い。よって、表示範囲R3から第1仮想枠V1-1の一部が外れても、撮像画像上では特定領域RXの欠けが生じていない可能性もある。一方で、表示範囲R3から第1仮想枠V1-1の一部が外れた時点で第2仮想オブジェクトV2を表示することで、撮像画像上で特定領域RXの欠けが生じるのを予め防止することができる。よって、特定領域RX全体の撮像がより確実に行われる。
Note that, as shown in FIG. 6, in this embodiment, the imaging range R2 of the
また、第1仮想枠V1-1の全体が表示範囲R3に入っているものの、第1ユーザU1が機器DV1から遠い位置にいる場合、撮像画像に写る特定領域RXの範囲が小さくなる。この場合、第2ユーザU2は、特定領域RXを視認しにくくなり、必要な情報を得られない可能性がある。このため、第1表示制御部111は、現実空間のうち特定領域RXに対応する範囲RYが表示範囲R3に占める割合が所定値以下となった場合に、第1ユーザU1に移動を促す第3仮想オブジェクトV3を更に表示する。上記所定値は、撮像画像中に占める特定領域RXの割合とも言える。所定値は、第2ユーザU2または第1ユーザU1が決定してもよいし、ウェアラブル装置10(例えば第1表示制御部111)が決定してもよい。
Furthermore, although the entire first virtual frame V1-1 is within the display range R3, if the first user U1 is located far from the device DV1, the range of the specific region RX shown in the captured image becomes smaller. In this case, it becomes difficult for the second user U2 to visually recognize the specific area RX, and there is a possibility that the second user U2 cannot obtain necessary information. Therefore, when the ratio of the range RY corresponding to the specific area RX in the real space to the display range R3 becomes equal to or less than a predetermined value, the first
図11は、表示範囲R3に占める範囲RYの割合が所定値以下となった場合の表示の一例を示す図である。第1表示制御部111は、例えば図11に示すように、第1仮想オブジェクトV1および第3仮想オブジェクトV3を表示する。第1仮想オブジェクトV1は、第1仮想枠V1-1である。第1仮想枠V1-1は、現実空間のうち特定領域RXの外縁に対応する位置を示す。第1仮想枠V1-1を表示する。第3仮想オブジェクトV3は、第1仮想枠V1-1を囲う第2仮想枠V3-1と、第2仮想枠V3-1が透過型表示装置101の表示範囲R3から外れるように第1ユーザU1に移動を促すメッセージを含むメッセージ画像V3-2とを含む。第2仮想枠V3-1は、第2枠の一例である。メッセージ画像V3-2は、第2メッセージの一例である。
FIG. 11 is a diagram showing an example of a display when the ratio of the range RY to the display range R3 is equal to or less than a predetermined value. The first
第2仮想枠V3-1は、第1仮想枠V1-1から外側に所定距離離れた箇所に表示される。第2仮想枠V3-1よりも外側の範囲は、いわば第1ユーザU1から見えてはいけない範囲である。第2仮想枠V3-1は、例えば第1仮想枠V1-1の枠とは異なる表示態様(例えば異なる色または異なる線種)で表示される。メッセージ画像V3-2には、点線の枠(第2仮想枠V3-1)が見えなくなるまで移動(前進)するように第1ユーザU1に促すメッセージが表示される。 The second virtual frame V3-1 is displayed at a location a predetermined distance away from the first virtual frame V1-1. The range outside the second virtual frame V3-1 is, so to speak, a range that must not be seen by the first user U1. The second virtual frame V3-1 is displayed, for example, in a different display mode (for example, a different color or a different line type) than the first virtual frame V1-1. The message image V3-2 displays a message urging the first user U1 to move (forward) until the dotted line frame (second virtual frame V3-1) is no longer visible.
なお、第3仮想オブジェクトとして第2仮想枠V3-1、メッセージ画像V3-2および矢印画像V3-3の全てが表示されるに限らず、これらのいずれか1つ以上が表示されればよい。また、例えば第2仮想枠V3-1に代えて、第2仮想枠V3-1の外側を塗りつぶす(マスクする)画像を表示してもよい。また、第3仮想オブジェクトV3の表示とともに、第1ユーザU1に注意を促す音声がスピーカ102から出力されてもよい。
Note that not all of the second virtual frame V3-1, message image V3-2, and arrow image V3-3 are displayed as the third virtual object, but any one or more of these may be displayed. Further, for example, instead of the second virtual frame V3-1, an image that fills in (masks) the outside of the second virtual frame V3-1 may be displayed. Furthermore, along with the display of the third virtual object V3, a sound may be output from the
A-5.実施形態のまとめ
以上説明したように、実施形態によれば、表示制御システム1は、ウェアラブル装置10で撮像した撮像画像を端末装置20に送信し、端末装置20において、撮像画像上の特定領域RXの指定を受け付ける。また、表示制御システム1は、ウェアラブル装置10の透過型表示装置101を用いて、第1ユーザU1の視野範囲R1に、現実空間のうち特定領域RXに対応する範囲を示す第1仮想オブジェクトV1を表示する。よって、第1ユーザU1は、現実空間のうち特定領域RXに対応する範囲を把握することができ、現実空間のうち特定領域RXに対応する範囲を写す画像を効率的に撮像することができる。
A-5. Summary of the Embodiments As described above, according to the embodiment, the display control system 1 transmits the captured image captured by the
また、表示制御システム1は、第1仮想オブジェクトV1として、現実空間のうち特定領域RXの外縁に対応する位置を示す第1仮想枠V1-1と、第1仮想枠V1-1が透過型表示装置101の表示範囲R3に含まれた状態を維持することを第1ユーザU1に促すメッセージを含むメッセージ画像V1-2とを表示する。よって、第1ユーザU1は、現実空間のうち特定領域RXの外縁に対応する位置を直感的に把握することができ、自身の姿勢を適切に維持することができる。また、第1ユーザU1は、メッセージ画像V1-2を視認することで、第1仮想枠V1-1を表示範囲R3に維持すべきことを把握することができる。よって、例えば第1ユーザU1がウェアラブル装置10の使用に慣れていない場合、または、表示範囲R3に多くの仮想オブジェクトが表示される場合にも、現実空間のうち特定領域RXに対応する範囲を写す画像を容易に撮像することができる。
The display control system 1 also displays, as the first virtual object V1, a first virtual frame V1-1 indicating a position corresponding to the outer edge of the specific region RX in the real space, and a transparent display of the first virtual frame V1-1. A message image V1-2 containing a message urging the first user U1 to maintain the state included in the display range R3 of the
また、表示制御システム1は、第1仮想枠V1-1の少なくとも一部が表示範囲R3から外れた場合に、第1ユーザU1の移動を促す第2仮想オブジェクトV2を更に表示する。よって、第1ユーザU1は、例えば作業に集中している場合などでも、第1仮想枠V1-1の一部が表示範囲R3から外れたことに気づくことができる。 Furthermore, when at least a portion of the first virtual frame V1-1 is out of the display range R3, the display control system 1 further displays a second virtual object V2 that prompts the first user U1 to move. Therefore, even when the first user U1 is concentrating on work, for example, he can notice that a part of the first virtual frame V1-1 is outside the display range R3.
また、表示制御システム1は、第2仮想オブジェクトV2として、表示範囲R3に第1仮想枠V1-1が含まれるように第1ユーザU1に移動を促すメッセージを含むメッセージ画像V2-1または第1ユーザU1が移動すべき方向を示す矢印画像V2-2との少なくともいずれかを表示する。よって、第1ユーザU1は、自身が取るべき動きを具体的に把握することができ、効率的に作業を行うことができる。 The display control system 1 also displays, as the second virtual object V2, a message image V2-1 or a message image V2-1 containing a message urging the first user U1 to move so that the display range R3 includes the first virtual frame V1-1 At least one of the arrow image V2-2 indicating the direction in which the user U1 should move is displayed. Therefore, the first user U1 can specifically grasp the movement he/she should take, and can work efficiently.
また、表示制御システム1は、現実空間のうち特定領域RXに対応する範囲RYが、表示範囲R3に占める割合が所定値以下となった場合に、第1ユーザU1の移動を促す第3仮想オブジェクトV3を更に表示する。よって、撮像画像に写る特定領域RXが小さくなり過ぎるのを防止して、第2ユーザU2による作業支援をより効率的に行うことができる。 The display control system 1 also provides a third virtual object that prompts the first user U1 to move when the ratio of the range RY corresponding to the specific region RX in the real space to the display range R3 becomes equal to or less than a predetermined value. Display more V3. Therefore, it is possible to prevent the specific region RX shown in the captured image from becoming too small, and to more efficiently support the work of the second user U2.
また、表示制御システム1は、第3仮想オブジェクトV3として、第1仮想枠V1-1を囲う第2仮想枠V3-1と、第2仮想枠V3-1が表示範囲R3から外れるように第1ユーザU1に移動を促すメッセージを含むメッセージ画像V3-2とを表示する。よって、第1ユーザU1は、自身が取るべき動きを具体的に把握することができ、効率的に作業を行うことができる。 The display control system 1 also creates a second virtual frame V3-1 that surrounds the first virtual frame V1-1 as a third virtual object V3, and a first virtual frame V3-1 that surrounds the first virtual frame V1-1, and a first A message image V3-2 containing a message urging the user U1 to move is displayed. Therefore, the first user U1 can specifically grasp the movement he/she should take, and can work efficiently.
B:変形例
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
B: Modifications Modifications of the above embodiment are shown below. Two or more aspects arbitrarily selected from the following modified aspects may be combined as appropriate to the extent that they do not contradict each other.
B1:第1変形例
上述した実施形態では、ウェアラブル装置10は眼鏡型の端末装置のみで構成されていた。これに限らず、ウェアラブル装置10は眼鏡型の端末装置と、スマートフォン、タブレット端末、ノートパソコン等の携帯型の端末装置とを含んでもよい。この場合、眼鏡型の端末装置と携帯型の端末装置とは相互に接続される。ウェアラブル装置10が携帯型の端末装置を含む場合、第1表示制御部111および第1通信制御部112の一部又は全部を、携帯型の端末装置が担ってもよい。
B1: First Modification In the embodiment described above, the
C:その他
(1)図4又は図5に例示された各機能は、ハードウェアおよびソフトウェアの任意の組み合わせによって実現される。各機能の実現方法は特に限定されない。各機能は、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続することによって構成される装置を用いて実現されてもよい。各機能は、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
C: Others (1) Each function illustrated in FIG. 4 or 5 is realized by any combination of hardware and software. The method for realizing each function is not particularly limited. Each function may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g., wired, It may also be realized using devices configured by connecting (e.g., wirelessly). Each function may be realized by combining software with the one device or the plurality of devices.
(2)本明細書において、「装置」という用語は、回路、デバイス又はユニット等の他の用語に読み替えられてもよい。 (2) In this specification, the term "apparatus" may be replaced with other terms such as circuit, device, or unit.
(3)実施形態および第1変形例の各々において、記憶装置106および記憶装置206は、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリー(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
(3) In each of the embodiment and the first modification, the
(4)実施形態および第1変形例の各々は、LTE(Long Term Evolution)、LTE-A(LTA-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG)(xは、例えば整数又は小数)、FRA(Future Radio Access)、NR(new Radio)、New radio access(NX)、Future generation radio access(FX)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよびこれらに基づいて拡張、修正、作成、規定された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTEおよびLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 (4) Each of the embodiment and the first modification is based on LTE (Long Term Evolution), LTE-A (LTA-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile com communication system), 5G (5th generation mobile communication system), 6th generation mobile communication system (6G), xth generation mobile commu nication system (xG) (x is an integer or a decimal number, for example), FRA (Future Radio Access), NR (new Radio), New radio access (NX ), Future generation radio access (FX), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-F i (registered trademark)), IEEE 802. 16 (WiMAX (registered trademark)), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark), and other appropriate systems, and systems that are extended, modified, created, and defined based on these. It may be applied to at least one next generation system. Furthermore, a combination of a plurality of systems may be applied (for example, a combination of at least one of LTE and LTE-A and 5G).
(5)実施形態および第1変形例の各々において例示した処理手順、シーケンス、又はフローチャート等は、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書において説明した方法については、例示的な順序において様々なステップの要素を提示しており、提示した特定の順序に限定されない。 (5) The processing procedures, sequences, flowcharts, etc. illustrated in each of the embodiment and the first modification may be rearranged in order as long as there is no contradiction. For example, the methods described herein present elements of the various steps in an exemplary order and are not limited to the particular order presented.
(6)実施形態および第1変形例の各々において、入出力された情報等は特定の場所(例えば、メモリー)に保存されてもよいし、管理テーブルを用いて管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 (6) In each of the embodiment and the first modification, input/output information, etc. may be stored in a specific location (for example, memory) or may be managed using a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.
(7)実施形態および第1変形例の各々において、判定は、1ビットによって表される値(0か1か)に基づいて行われてもよいし、真偽値(Boolean:true又はfalse)に基づいて行われてもよいし、数値の比較(例えば、所定の値との比較)に基づいて行われてもよい。 (7) In each of the embodiment and the first modification, the determination may be made based on a value represented by 1 bit (0 or 1), or a truth value (Boolean: true or false). The determination may be performed based on a comparison of numerical values (for example, a comparison with a predetermined value).
(8)実施形態および第1変形例の各々において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。また、ソフトウェア、又は命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)など)および無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術および無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 (8) The programs illustrated in each of the embodiments and the first modification are instructions, instruction sets, Should be broadly construed to mean code, code segment, program code, subprogram, software module, application, software application, software package, routine, subroutine, object, executable file, thread of execution, procedure or function, etc. . Additionally, software, instructions, etc. may be transmitted and received via a transmission medium. For example, if the software uses wired technology (such as coaxial cable, fiber optic cable, twisted pair, and digital subscriber line (DSL)) and/or wireless technology (such as infrared, microwave) to from a remote source, these wired and/or wireless technologies are included within the definition of a transmission medium.
(9)実施形態および第1変形例の各々において説明した情報などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、情報などは、電圧、電流、電磁波、磁界、磁性粒子、光場、光子、又はこれらの任意の組み合わせにて表されてもよい。なお、本明細書において説明した用語および本明細書の理解に必要な用語は、同一の又は類似する意味を有する用語と置き換えられてもよい。 (9) The information and the like described in each of the embodiments and the first variation may be represented using any of a variety of different techniques. For example, data, information, etc. that may be referred to throughout the above description may be represented in voltages, currents, electromagnetic waves, magnetic fields, magnetic particles, optical fields, photons, or any combination thereof. Note that terms explained in this specification and terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.
(10)実施形態および第1変形例の各々において、「システム」および「ネットワーク」という用語は、互換的に使用される。 (10) In each of the embodiment and the first modification, the terms "system" and "network" are used interchangeably.
(11)実施形態および第1変形例の各々において、端末装置20は、移動局でもよい。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語を用いて称される場合もある。
(11) In each of the embodiment and the first modification, the
(12)移動局は、送信装置、受信装置又は通信装置などと呼ばれてもよい。移動局は、移動体に搭載されたデバイス、又は移動体自体などであってもよい。移動体は、移動可能な物体を意味する。移動体の移動速度は任意である。移動体は、停止可能である。移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン(登録商標)、マルチコプター、クアッドコプター、気球、およびこれらに搭載される物を含み、またこれらに限らない。移動体は、運行指令に基づいて自律走行する移動体であってもよい。移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよし、ロボット(有人型又は無人型)であってもよい。移動局は、必ずしも通信動作時に移動しない装置も含む。例えば、移動局は、センサなどのIoT(Internet of Things)機器であってもよい。 (12) A mobile station may be called a transmitting device, a receiving device, a communication device, or the like. The mobile station may be a device mounted on a mobile body, or the mobile body itself. A moving body means a movable object. The moving speed of the moving object is arbitrary. The moving body can be stopped. Examples of moving objects include vehicles, transportation vehicles, automobiles, motorcycles, bicycles, connected cars, excavators, bulldozers, wheel loaders, dump trucks, forklifts, trains, buses, carts, rickshaws, ships and other watercraft, Including, but not limited to, airplanes, rockets, artificial satellites, drones (registered trademarks), multicopters, quadcopters, balloons, and objects mounted thereon. The mobile body may be a mobile body that autonomously travels based on the operation command. The moving object may be a vehicle (for example, a car, an airplane, etc.), an unmanned moving object (for example, a drone, a self-driving car, etc.), or a robot (manned or unmanned). There may be. Mobile stations also include devices that do not necessarily move during communication operations. For example, the mobile station may be an IoT (Internet of Things) device such as a sensor.
(13)実施形態および第1変形例の各々において、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「決定」したとみなす事などを含み得る。また、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリー中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「決定」したとみなす事を含み得る。つまり、「決定」は、何らかの動作を「決定」したとみなす事を含み得る。また、「決定」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 (13) In each of the embodiment and the first modification, the term "determining" may include a wide variety of operations. "Decision" includes, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring. y) (e.g. table , searching in a database or other data structure), asserting something as a "decision," and the like. In addition, "determination" refers to receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, accessing ( For example, it may include accessing data in memory) and regarding it as a "judgment" or "decision." Furthermore, "determining" may include determining that the process of resolving, selecting, choosing, establishing, comparing, etc. has been "determined." In other words, "determining" may include considering that some action has been "determined." Moreover, "determination" may be read as "assuming," "expecting," "considering," or the like.
(14)実施形態および第1変形例の各々において、「接続された(connected)」という用語、又はこれのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブルおよびプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 (14) In each of the embodiments and the first variant, the term "connected", or any variation thereof, refers to any connection or coupling, direct or indirect, between two or more elements. can include the presence of one or more intermediate elements between two elements that are "connected" or "coupled" to each other. The bonds or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be replaced with "access." As used in this disclosure, two elements may include one or more wires, cables, and/or printed electrical connections, as well as in the radio frequency domain, as some non-limiting and non-inclusive examples. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) ranges, and the like.
(15)実施形態および第1変形例の各々において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 (15) In each of the embodiments and the first modification, the statement "based on" does not mean "based only on" unless specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
(16)本明細書において使用する「第1」および「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書において使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみが採用され得ること又は何らかの形において第1要素が第2要素に先行しなければならないことを意味しない。 (16) As used herein, any reference to elements using designations such as "first" and "second" does not generally limit the amount or order of those elements. These designations may be used herein as a convenient way of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed or that the first element must precede the second element in any way.
(17)実施形態および第1変形例の各々において「含む(include)」、「含んでいる(including)」およびそれらの変形が、本明細書あるいは特許請求の範囲において使用されている場合、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 (17) In each of the embodiments and the first modification, when "include", "including", and variations thereof are used in this specification or the claims, these The term, like the term "comprising," is intended to be inclusive. Furthermore, the term "or" as used in this specification or in the claims is not intended to be exclusive or.
(18)本願の全体において、例えば、英語におけるa、anおよびtheのように、翻訳によって冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 (18) Throughout this application, when articles are added by translation, such as a, an, and the in English, this disclosure does not include that the nouns following these articles are plural. good.
(19)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。 (19) It is clear to those skilled in the art that the present invention is not limited to the embodiments described in this specification. The present invention can be implemented as modifications and variations without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description herein is intended to be illustrative and does not have any limiting meaning to the present invention. Further, a plurality of aspects selected from the aspects illustrated in this specification may be combined.
1…表示制御システム、10…ウェアラブル装置、20…端末装置、101…透過型表示装置、104…通信装置、105…撮像装置、106…記憶装置、107…処理装置、111…第1表示制御部、112…第1通信制御部、201…表示装置、202…入力装置、205…通信装置、206…記憶装置、207…処理装置、211…第2通信制御部、212…第2表示制御部、213…受付部、F…フレーム、L…レンズ、N…通信網。 DESCRIPTION OF SYMBOLS 1... Display control system, 10... Wearable device, 20... Terminal device, 101... Transmissive display device, 104... Communication device, 105... Imaging device, 106... Storage device, 107... Processing device, 111... First display control unit , 112...first communication control unit, 201...display device, 202...input device, 205...communication device, 206...storage device, 207...processing device, 211...second communication control unit, 212...second display control unit, 213...Reception section, F...Frame, L...Lens, N...Communication network.
Claims (7)
前記ウェアラブル装置は、
第1ユーザの眼前に位置する透過型の第1表示装置を制御する第1表示制御部と、
前記第1ユーザの視野範囲に含まれる現実空間が撮像された撮像画像を前記端末装置に送信する第1通信制御部と、を備え、
前記端末装置は、
前記撮像画像を受信する第2通信制御部と、
前記撮像画像を第2表示装置に表示する第2表示制御部と、
前記第2表示装置に表示された前記撮像画像における第1領域の指定を第2ユーザから受け付ける受付部と、を備え、
前記第2通信制御部は、前記撮像画像における前記第1領域の範囲を特定する領域情報を前記ウェアラブル装置に送信し、
前記第1表示制御部は、前記領域情報に基づいて、前記現実空間のうち前記第1領域に対応する範囲を示す第1仮想オブジェクトを前記第1表示装置に表示する、
表示制御システム。 A display control system comprising a wearable device and a terminal device,
The wearable device includes:
a first display control unit that controls a transmissive first display device located in front of the first user;
a first communication control unit that transmits a captured image of a real space included in the visual field of the first user to the terminal device,
The terminal device is
a second communication control unit that receives the captured image;
a second display control unit that displays the captured image on a second display device;
a reception unit that receives from a second user a designation of a first region in the captured image displayed on the second display device;
The second communication control unit transmits area information specifying a range of the first area in the captured image to the wearable device,
The first display control unit displays a first virtual object indicating a range corresponding to the first area in the real space on the first display device based on the area information.
Display control system.
前記枠は、前記現実空間のうち前記第1領域の外縁に対応する位置を示し、
前記メッセージは、前記枠が前記第1表示装置の表示範囲に含まれた状態を維持することを前記第1ユーザに促す、
請求項1記載の表示制御システム。 The first virtual object includes a frame and a first message,
The frame indicates a position corresponding to an outer edge of the first area in the real space,
The message prompts the first user to maintain the frame within a display range of the first display device.
The display control system according to claim 1.
前記第1表示制御部は、前記第1仮想オブジェクトの少なくとも一部が、前記第1表示装置の表示範囲から外れた場合に、前記第1ユーザに移動を促す第2仮想オブジェクトを更に表示する、
請求項1記載の表示制御システム。 A range of the real space that is reflected in the captured image changes depending on the movement of the first user,
The first display control unit further displays a second virtual object that prompts the first user to move when at least a portion of the first virtual object is out of a display range of the first display device.
The display control system according to claim 1.
請求項3記載の表示制御システム。 The second virtual object includes a message prompting the first user to move so that the first virtual object is included in the display range of the first display device, and a symbol indicating a direction in which the first user should move. including at least one of
The display control system according to claim 3.
前記第1表示制御部は、前記現実空間のうち前記第1領域に対応する範囲が、前記第1表示装置の表示範囲に占める割合が所定値以下となった場合に、前記第1ユーザの移動を促す第3仮想オブジェクトを更に表示する、
請求項1記載の表示制御システム。 A range of the real space that is reflected in the captured image changes depending on the movement of the first user,
The first display control unit controls the movement of the first user when a proportion of the range corresponding to the first area in the real space to the display range of the first display device becomes equal to or less than a predetermined value. further displaying a third virtual object that prompts
The display control system according to claim 1.
前記第1枠は、前記現実空間のうち前記第1領域の外縁に対応する位置を示し、
前記第3仮想オブジェクトは、前記第1枠を囲う第2枠と、前記第2枠が前記第1表示装置の表示範囲から外れるように前記第1ユーザに移動を促す第2メッセージとを含む、
請求項5記載の表示制御システム。 The first virtual object is a first frame,
The first frame indicates a position corresponding to an outer edge of the first area in the real space,
The third virtual object includes a second frame surrounding the first frame, and a second message prompting the first user to move so that the second frame is out of the display range of the first display device.
The display control system according to claim 5.
前記第1ユーザの視野範囲に含まれる現実空間が撮像された撮像画像を端末装置に送信する送信部と、
前記撮像画像に指定された第1領域の範囲を特定する領域情報を受信する受信部と、を備え、
前記第1表示制御部は、前記領域情報に基づいて、前記現実空間のうち前記第1領域に対応する範囲を示す第1仮想オブジェクトを前記第1表示装置に表示する、
ウェアラブル装置。 a first display control unit that controls a transmissive first display device located in front of the first user;
a transmitter that transmits a captured image of a real space included in the visual field of the first user to a terminal device;
a receiving unit that receives area information specifying a range of a first area specified in the captured image,
The first display control unit displays a first virtual object indicating a range corresponding to the first area in the real space on the first display device based on the area information.
Wearable device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024520267A JPWO2023218740A1 (en) | 2022-05-13 | 2023-03-08 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022079182 | 2022-05-13 | ||
JP2022-079182 | 2022-05-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023218740A1 true WO2023218740A1 (en) | 2023-11-16 |
Family
ID=88729872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/008769 WO2023218740A1 (en) | 2022-05-13 | 2023-03-08 | Display control system and wearable device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2023218740A1 (en) |
WO (1) | WO2023218740A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132487A (en) * | 2000-10-25 | 2002-05-10 | Oki Electric Ind Co Ltd | Remote operation supporting system |
JP2012109852A (en) * | 2010-11-18 | 2012-06-07 | Nec Corp | Remote image display system, apparatus, and method |
WO2015072195A1 (en) * | 2013-11-13 | 2015-05-21 | ソニー株式会社 | Display control device, display control method and program |
WO2017158718A1 (en) * | 2016-03-15 | 2017-09-21 | 三菱電機株式会社 | Remote work assistance device, instruction terminal, and onsite terminal |
-
2023
- 2023-03-08 WO PCT/JP2023/008769 patent/WO2023218740A1/en active Application Filing
- 2023-03-08 JP JP2024520267A patent/JPWO2023218740A1/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132487A (en) * | 2000-10-25 | 2002-05-10 | Oki Electric Ind Co Ltd | Remote operation supporting system |
JP2012109852A (en) * | 2010-11-18 | 2012-06-07 | Nec Corp | Remote image display system, apparatus, and method |
WO2015072195A1 (en) * | 2013-11-13 | 2015-05-21 | ソニー株式会社 | Display control device, display control method and program |
WO2017158718A1 (en) * | 2016-03-15 | 2017-09-21 | 三菱電機株式会社 | Remote work assistance device, instruction terminal, and onsite terminal |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023218740A1 (en) | 2023-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10564919B2 (en) | Display system, display apparatus, method for controlling display apparatus, and program | |
CN104423583B (en) | Head-mount type display unit, image display system and information processing unit | |
KR102025544B1 (en) | Wearable video device and video system having the same | |
US11314965B2 (en) | Method and apparatus for positioning face feature points | |
WO2018026247A1 (en) | Vehicle display device and control method thereof | |
KR20170005649A (en) | 3d camera module and mobile terminal comprising the 3d camera module | |
CN110706339B (en) | Three-dimensional face reconstruction method and device, electronic equipment and storage medium | |
CN113486760A (en) | Object speaking detection method and device, electronic equipment and storage medium | |
JP2024506809A (en) | Methods and devices for identifying dangerous acts, electronic devices, and storage media | |
CN110909203A (en) | Video analysis method and device, electronic equipment and storage medium | |
CN113488043A (en) | Passenger speaking detection method and device, electronic equipment and storage medium | |
KR20160019279A (en) | Mobile terminal and method for controlling the same | |
KR20160012009A (en) | Mobile terminal and method for controlling the same | |
CN111325786A (en) | Image processing method and device, electronic equipment and storage medium | |
WO2020071144A1 (en) | Information processing device, information processing method, and program | |
CN111415421A (en) | Virtual object control method and device, storage medium and augmented reality equipment | |
US11531508B2 (en) | Data processing device, display system, and data processing method that controls the output of data based on a connection state | |
WO2023218740A1 (en) | Display control system and wearable device | |
KR20190054727A (en) | Smart mirror device and and method the same | |
JP2023531849A (en) | AUGMENTED REALITY DEVICE FOR AUDIO RECOGNITION AND ITS CONTROL METHOD | |
KR20190061825A (en) | Tethering type head mounted display and method for controlling the same | |
KR20160001229A (en) | Mobile terminal and method for controlling the same | |
US11900058B2 (en) | Ring motion capture and message composition system | |
WO2023085124A1 (en) | Information processing device | |
WO2020149692A1 (en) | Method and device for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23803225 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2024520267 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |