WO2023275919A1 - ウェアラブル端末装置、プログラムおよび表示方法 - Google Patents

ウェアラブル端末装置、プログラムおよび表示方法 Download PDF

Info

Publication number
WO2023275919A1
WO2023275919A1 PCT/JP2021/024314 JP2021024314W WO2023275919A1 WO 2023275919 A1 WO2023275919 A1 WO 2023275919A1 JP 2021024314 W JP2021024314 W JP 2021024314W WO 2023275919 A1 WO2023275919 A1 WO 2023275919A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
instruction
instruction image
display
terminal device
Prior art date
Application number
PCT/JP2021/024314
Other languages
English (en)
French (fr)
Inventor
伸悟 伊東
智和 足立
解 清水
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to PCT/JP2021/024314 priority Critical patent/WO2023275919A1/ja
Priority to JP2023531137A priority patent/JPWO2023275919A1/ja
Publication of WO2023275919A1 publication Critical patent/WO2023275919A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • the present disclosure relates to wearable terminal devices, programs, and display methods.
  • VR virtual reality
  • MR mixed reality
  • AR augmented reality
  • a wearable terminal device has a display unit that covers the user's field of vision when worn by the user. By displaying a virtual image and/or a virtual space on this display unit according to the user's position and orientation, a visual effect as if they exist is realized (for example, US Patent Application Publication No. 2019. /0087021, and U.S. Patent Application Publication No. 2019/0340822).
  • MR is a technology that allows the user to experience a mixed reality in which the real space and the virtual image are fused by displaying a virtual image that appears to exist at a predetermined position in the real space while allowing the user to view the real space.
  • VR is a technology that allows the user to feel as if he/she is in the virtual space by making the user visually recognize the virtual space instead of the real space in MR.
  • a virtual image displayed in VR and MR has a predetermined display position in the space where the user is located, and is displayed on the display unit and viewed by the user when the display position is within the user's viewing area. .
  • a wearable terminal device of the present disclosure is a wearable terminal device worn and used by a user, comprising at least one processor, a camera that captures a space as the user's visible area, and an external device used by a remote instructor. and a communication unit that performs data communication between.
  • the at least one processor transmits an image captured by the camera to the external device via the communication unit.
  • the at least one processor receives, via the communication unit, instruction information relating to an instruction to generate an instruction image performed by the external device based on the captured image.
  • the at least one processor causes the display unit to display the instruction image so as to be visually recognized at a position in the space based on the received instruction information.
  • the at least one processor receives a user operation for changing the displayed instruction image, and updates display of the instruction image in accordance with the user operation.
  • the program of the present disclosure includes a camera worn by a user and used to photograph a space as the user's visible area, and a communication unit that performs data communication with an external device used by a remote instructor.
  • a computer provided in the provided wearable terminal device is caused to execute processing for transmitting an image captured by the camera to the external device via the communication unit.
  • the program causes the computer to execute a process of receiving, via the communication unit, instruction information relating to an instruction to generate an instruction image performed by the external device based on the captured image.
  • the program causes the computer to execute processing for displaying the instruction image on the display unit so as to be visually recognized at a position based on the received instruction information in the space.
  • the program causes the computer to receive a user operation for changing the displayed instruction image, and execute processing for updating the display of the instruction image in accordance with the user operation.
  • the display method of the present disclosure includes a camera worn by a user and used to capture a space as the user's visible area, and a communication unit that performs data communication between an external device used by a remote instructor,
  • a display method executed by a computer provided in a wearable terminal device comprising
  • an image captured by the camera is transmitted to the external device via the communication unit.
  • instruction information relating to an instruction to generate an instruction image based on the captured image in the external device is received via the communication unit.
  • the instruction image is displayed on the display unit so as to be visually recognized at a position based on the received instruction information in the space.
  • a user operation for changing the displayed instruction image is accepted, and display of the instruction image is updated according to the user operation.
  • FIG. 1 is a schematic diagram showing the configuration of a display system according to a first embodiment;
  • FIG. It is a model perspective view which shows the structure of a wearable terminal device.
  • FIG. 3 is a diagram showing an example of a visual recognition area visually recognized by a user wearing a wearable terminal device and a virtual image; It is a figure explaining the visual recognition area
  • It is a block diagram which shows the main functional structures of a wearable terminal device.
  • 3 is a block diagram showing the main functional configuration of an external device;
  • FIG. It is a figure which shows the visual recognition area
  • FIG. 10 is a diagram showing a state in which an instruction image is displayed on the screen for the instructor of the external device;
  • FIG. 10 is a diagram showing a state in which an instruction image is displayed on the screen for the instructor of the external device;
  • FIG. 10 is a diagram showing a state in which an instruction image is displayed on the screen for the instructor
  • FIG. 10 is a diagram showing a state in which display of an instruction image is reflected in a user's visual recognition area of the wearable terminal device;
  • FIG. 10 is a diagram showing a visual recognition area when the pointing image is viewed from another angle;
  • FIG. 10 is a diagram showing an example of a method for changing the display position of an instruction image;
  • FIG. 10 is a diagram showing a visible area including an indication image whose display position has been changed;
  • FIG. 10 is a view showing a viewing area including an annotated pointing image;
  • FIG. 10 is a diagram showing another example of an instruction image to which annotations have been added;
  • FIG. 10 is a diagram showing an instruction image when displaying a comment;
  • FIG. 10 is a diagram showing a state in which display of an instruction image is reflected in a user's visual recognition area of the wearable terminal device;
  • FIG. 10 is a diagram showing a visual recognition area when the pointing image is viewed from another angle;
  • FIG. 10
  • FIG. 10 is a diagram showing a viewing area in which a captured image is displayed; 4 is a flowchart showing a control procedure for remote instruction processing; 4 is a flowchart showing a control procedure for remote instruction processing; FIG. 3 is a schematic diagram showing the configuration of a display system according to a second embodiment; FIG. 2 is a block diagram showing the main functional configuration of the information processing device; FIG.
  • the display system 1 includes a wearable terminal device 10 and multiple external devices 20 .
  • the display system 1 and the external device 20 are connected via a network N for communication.
  • the network N can be, for example, the Internet, but is not limited to this.
  • the display system 1 may include a plurality of wearable terminal devices 10 .
  • the number of external devices 20 provided in the display system 1 may be one.
  • the wearable terminal device 10 is a device that allows the user (wearer) to experience MR.
  • the wearable terminal device 10 is worn by a user who performs a predetermined task.
  • a remote instructor who remotely instructs the user wearing the wearable terminal device 10 via the wearable terminal device 10 operates the external device 20 .
  • the wearable terminal device 10 and the external device 20 by performing a predetermined authentication operation (for example, an operation of entering a unique ID and password for each user account), it is possible to log in with the user account used for authentication. Through this login process, the user operating the wearable terminal device 10 and the external device 20 is specified.
  • a case in which user A operates the wearable terminal device 10 and remote instructor B operates one external device 20 will be described as an example.
  • the wearable terminal device 10 includes a body portion 10a, a visor 141 (display member) attached to the body portion 10a, and the like.
  • the body part 10a is an annular member whose circumference is adjustable.
  • Various devices such as a depth sensor 153 and a camera 154 are built inside the main body 10a.
  • the main body 10a When the main body 10a is worn on the head, the user's field of vision is covered by the visor 141. As shown in FIG.
  • the visor 141 has optical transparency. A user can visually recognize the real space through the visor 141 .
  • An image such as a virtual image is projected from a laser scanner 142 (see FIG. 5) incorporated in the main body 10a and displayed on the display surface of the visor 141 facing the user's eyes.
  • a user visually recognizes the virtual image by the reflected light from the display surface.
  • a visual effect as if the virtual image exists in the real space is obtained.
  • FIG. 3 illustrates a planar window screen as the virtual image 30 .
  • the virtual image 30 also includes an instruction image 31 for instructing or explaining to the user of the wearable terminal device 10 . That is, the pointing image 31 is one aspect of the virtual image 30 .
  • FIG. 3 illustrates an arrow indication image 31 and a pen input trajectory indication image 31 .
  • the instruction image 31 is not limited to these, and may be a document image or the like indicating the procedure of work content. Further, the virtual image 30 is not limited to the window screen or the instruction image 31 described above, and may be, for example, various stereoscopic images (three-dimensional virtual objects). When the virtual image 30 is a window screen, the virtual image 30 has a front side (first side) and a back side (second side). is not displayed.
  • the wearable terminal device 10 detects the user's visible area 41 based on the position and orientation of the user in the space 40 (in other words, the position and orientation of the wearable terminal device 10).
  • the visual recognition area 41 is an area in the space 40 located in front of the user A wearing the wearable terminal device 10 .
  • the visual recognition area 41 is an area within a predetermined angular range from the front of the user A in the horizontal direction and the vertical direction. In this case, when the three-dimensional object corresponding to the shape of the visual recognition area 41 is cut along a plane perpendicular to the front direction of the user A, the shape of the cut end is a rectangle.
  • the shape of the visible region 41 may be determined so that the shape of the cut end is other than rectangular (for example, circular or elliptical).
  • the shape of the visible region 41 (for example, the angular range in the left-right direction and the up-down direction from the front) can be specified, for example, by the following method.
  • the field of view is adjusted (hereinafter referred to as "calibration") according to a predetermined procedure at a predetermined timing such as the initial start-up.
  • a range that can be visually recognized by the user is specified, and the virtual image 30 is subsequently displayed within that range.
  • the shape of the visible range specified by this calibration can be used as the shape of the visible region 41 .
  • the calibration is not limited to being performed according to the above-described predetermined procedure, and the calibration may be performed automatically during normal operation of the wearable terminal device 10 .
  • the range in which the display is performed is considered to be outside the user's field of view, and the field of view (and the shape of the visible area 41) is changed. may be adjusted.
  • the displayed range is considered to be within the user's field of view. may be used to adjust the field of view (and the shape of the viewing area 41).
  • the shape of the visible region 41 may be predetermined and fixed at the time of shipment, etc., without being based on the adjustment result of the field of view.
  • the shape of the visual recognition area 41 may be determined within the maximum displayable range in terms of the optical design of the display unit 14 .
  • the virtual image 30 is generated in a state in which the display position and orientation in the space 40 are determined according to the user's predetermined operation.
  • the instruction image 31 of the virtual image 30 is generated based on instruction information 133 (see FIG. 5) transmitted from the external device 20 to the wearable terminal device 10, for example.
  • the instruction image 31 can also be generated by the user of the wearable terminal device 10 himself for the purpose of memorization.
  • the wearable terminal device 10 causes the visor 141 to project and display the virtual image 30 whose display position is determined inside the visible region 41 among the generated virtual images 30 . In FIG. 3, the visible area 41 is indicated by a dashed line.
  • the display position and orientation of the virtual image 30 on the visor 141 are updated in real time according to changes in the user's viewing area 41 . That is, the display position and orientation of the virtual image 30 change according to the change in the visible area 41 so that the user recognizes that "the virtual image 30 is positioned in the space 40 at the set position and orientation.” . For example, when the user moves from the front side to the back side of the virtual image 30, the shape (angle) of the displayed virtual image 30 gradually changes according to this movement. Further, when the user turns to the virtual image 30 after turning around to the back side of the virtual image 30, the back side of the virtual image 30 is displayed so that the back side of the virtual image 30 can be visually recognized.
  • the virtual image 30 whose display position is outside the visible area 41 is no longer displayed, and if there is a virtual image 30 whose display position is within the visible area 41, the virtual image 30 is newly displayed. Is displayed.
  • the wearable terminal device 10 when the user holds his or her hand (or finger) forward, the direction in which the hand is extended is detected by the wearable terminal device 10 . It is displayed on the display surface and visually recognized by the user.
  • a pointer 412 is displayed at the intersection of the virtual line 411 and the virtual image 30 .
  • the pointer 412 may be displayed at the intersection of the virtual line 411 and the wall surface of the space 40 or the like.
  • the display of the virtual line 411 may be omitted and the pointer 412 may be directly displayed at a position corresponding to the position of the user's fingertip. .
  • the direction of the virtual line 411 and the position of the pointer 412 can be adjusted by changing the direction in which the user extends his or her hand.
  • a predetermined gesture By performing a predetermined gesture while adjusting the pointer 412 to be positioned on a predetermined operation target (for example, the function bar 301, the window shape change button 302, the close button 303, etc.) included in the virtual image 30, A gesture is detected by the wearable terminal device 10, and a predetermined operation can be performed on the operation target.
  • the virtual image 30 can be closed (deleted) by performing a gesture of selecting an operation target (for example, a finger pinch gesture) while the pointer 412 is aligned with the close button 303 .
  • the virtual image 30 can be moved in the depth direction and the left and right direction. can. Operations on the virtual image 30 are not limited to these.
  • the wearable terminal device 10 of the present embodiment realizes a visual effect as if the virtual image 30 exists in the real space, receives the user's operation on the virtual image 30, and displays the virtual image 30. can be reflected. That is, the wearable terminal device 10 of this embodiment provides MR.
  • the wearable terminal device 10 includes a CPU 11 (Central Processing Unit), a RAM 12 (Random Access Memory), a storage unit 13, a display unit 14, a sensor unit 15, a communication unit 16, a microphone 17, a speaker 18, and the like. These units are connected by a bus 19.
  • the CPU 11 is a processor that performs various arithmetic processing and controls the operation of each unit of the wearable terminal device 10 .
  • the CPU 11 performs various control operations by reading and executing a program 131 stored in the storage unit 13 .
  • the CPU 11 executes, for example, visible area detection processing and display control processing.
  • the visual recognition area detection process is a process of detecting the user's visual recognition area 41 in the space 40 .
  • the display control process is a process of displaying on the display unit 14 the virtual image 30 positioned inside the visual recognition area 41 among the virtual images 30 positioned in the space 40 .
  • CPU 11 Although a single CPU 11 is illustrated in FIG. 5, it is not limited to this. Two or more processors such as CPUs may be provided, and the processing executed by the CPU 11 of this embodiment may be shared by these two or more processors.
  • the RAM 12 provides working memory space to the CPU 11 and stores temporary data.
  • the storage unit 13 is a non-temporary recording medium readable by the CPU 11 as a computer.
  • the storage unit 13 stores a program 131 executed by the CPU 11, various setting data, and the like.
  • the program 131 is stored in the storage unit 13 in the form of computer-readable program code.
  • a non-volatile storage device such as an SSD (Solid State Drive) having a flash memory is used.
  • Data stored in the storage unit 13 include virtual image data 132 related to the virtual image 30, instruction information 133 acquired from the external device 20, and the like.
  • the virtual image data 132 includes data related to the display content of the virtual image 30 (for example, image data), display position data, orientation data, and the like.
  • the virtual image data 132 also includes instruction image data 1321 (indication image information) for displaying the instruction image 31 .
  • the indication image data 1321 related to the indication image 31 of the arrow includes data such as the size, color, display position, and direction of the arrow.
  • the instruction image data 1321 related to the instruction image 31 of the pen input trajectory includes the thickness of the trajectory, the color, the display position (including the coordinates of each point of the trajectory), and the orientation data.
  • the virtual image data 132 related to the instruction image 31 of the document image includes data on the content of the document image, window size, color, display position, orientation, and the like.
  • the instruction information 133 is data transmitted from the external device 20 to the wearable terminal device 10 in order to display the instruction image 31 on the wearable terminal device 10 .
  • the content of the instruction information 133 is not particularly limited, and may include at least information that enables the wearable terminal device 10 to display the instruction image 31 instructed to be displayed by the external device 20 .
  • the instruction information 133 may include information specifying the type of the instruction image 31, such as an arrow or pen input trajectory.
  • the instruction information 133 may also include information specifying the size, color, orientation, and the like of the instruction image 31 .
  • the instruction information 133 may include information that can specify the display position of the instruction image 31 in the space 40 .
  • the information that can determine the display position of the pointing image 31 in the space 40 is not limited to information that directly specifies the position in the space 40 , but also the positional relationship with other objects and the two-dimensional image of the space 40 . It may represent a position in
  • the CPU 11 Upon receiving the instruction information 133 , the CPU 11 generates the instruction image data 1321 based on the instruction information 133 .
  • the display unit 14 has a visor 141 , a laser scanner 142 , and an optical system that guides the light output from the laser scanner 142 to the display surface of the visor 141 .
  • the laser scanner 142 irradiates the optical system with pulsed laser light whose on/off is controlled for each pixel according to a control signal from the CPU 11 while scanning in a predetermined direction.
  • the laser light incident on the optical system forms a display screen made up of a two-dimensional pixel matrix on the display surface of the visor 141 .
  • the method of the laser scanner 142 is not particularly limited, for example, a method of operating a mirror by MEMS (Micro Electro Mechanical Systems) to scan laser light can be used.
  • the laser scanner 142 has, for example, three light emitting units that emit RGB color laser light.
  • the display unit 14 can perform color display by projecting light from these light emitting units onto the visor 141 .
  • the sensor unit 15 includes an acceleration sensor 151, an angular velocity sensor 152, a depth sensor 153, a camera 154, an eye tracker 155, and the like. Note that the sensor unit 15 may further include sensors not shown in FIG.
  • the acceleration sensor 151 detects acceleration and outputs the detection result to the CPU 11 . From the detection results of the acceleration sensor 151, the translational motion of the wearable terminal device 10 in the orthogonal three-axis directions can be detected.
  • the angular velocity sensor 152 detects angular velocity and outputs the detection result to the CPU 11. Rotational motion of the wearable terminal device 10 can be detected from the detection result of the angular velocity sensor 152 .
  • the depth sensor 153 is an infrared camera that detects the distance to the subject by the ToF (Time of Flight) method, and outputs the distance detection result to the CPU 11.
  • the depth sensor 153 is provided on the front surface of the main body 10a so as to capture an image of the visible area 41. As shown in FIG. Performing three-dimensional mapping of the entire space 40 (that is, obtaining a three-dimensional structure) by repeatedly performing measurements by the depth sensor 153 each time the user's position and orientation changes in the space 40 and synthesizing the results. can be done.
  • the camera 154 captures an image of the space 40 using a group of RGB imaging elements, acquires color image data as the image capturing result, and outputs the color image data to the CPU 11 .
  • the camera 154 is provided on the front surface of the main body 10a so as to photograph the visible area 41. As shown in FIG.
  • the output image from the camera 154 is used for detecting the position and orientation of the wearable terminal device 10, and is also transmitted from the communication unit 16 to the external device 20 so that the visible region 41 of the user of the wearable terminal device 10 is displayed by the external device 20. Also used to display in
  • the eye tracker 155 detects the line of sight of the user and outputs the detection result to the CPU 11 .
  • the sight line detection method is not particularly limited. can use a method of identifying an object that is visually recognizing.
  • a part of the configuration of the eye tracker 155 may be provided on the periphery of the visor 141 or the like.
  • the communication unit 16 is a communication module having an antenna, a modulation/demodulation circuit, a signal processing circuit, and the like.
  • the communication unit 16 transmits and receives data wirelessly to and from the external device 20 according to a predetermined communication protocol. Also, the communication unit 16 can perform voice data communication with the external device 20 . That is, the communication unit 16 transmits audio data collected by the microphone 17 to the external device 20 and receives audio data transmitted from the external device 20 in order to output audio from the speaker 18 .
  • the microphone 17 converts sound such as the user's voice into an electrical signal and outputs the electrical signal to the CPU 11 .
  • the speaker 18 converts the input audio data into mechanical vibrations and outputs them as sound.
  • the CPU 11 performs the following control operations.
  • the CPU 11 performs three-dimensional mapping of the space 40 based on the distance data from the depth sensor 153 to the subject.
  • the CPU 11 repeats this three-dimensional mapping each time the position and orientation of the user changes, and updates the results each time.
  • the CPU 11 performs three-dimensional mapping in units of a continuous space 40 . Therefore, when the user moves between a plurality of rooms partitioned by walls or the like, the CPU 11 recognizes each room as one space 40 and performs three-dimensional mapping separately for each room.
  • the CPU 11 detects the user's visible area 41 in the space 40 . Specifically, the CPU 11 controls the user (wearable device) in the space 40 based on the detection results from the acceleration sensor 151, the angular velocity sensor 152, the depth sensor 153, the camera 154, and the eye tracker 155, and the accumulated three-dimensional mapping results. Identify the position and orientation of the terminal device 10). Then, the visual recognition area 41 is detected (identified) based on the identified position and orientation and the predetermined shape of the visual recognition area 41 . In addition, the CPU 11 continuously detects the user's position and orientation in real time, and updates the visual recognition area 41 in conjunction with changes in the user's position and orientation. Note that detection of the visible region 41 may be performed using detection results obtained by some of the acceleration sensor 151 , the angular velocity sensor 152 , the depth sensor 153 , the camera 154 and the eye tracker 155 .
  • the CPU 11 generates virtual image data 132 related to the virtual image 30 according to user's operation. That is, when the CPU 11 detects a predetermined operation (gesture) for instructing the generation of the virtual image 30, the CPU 11 identifies the display content (for example, image data), the display position, and the orientation of the virtual image. generates virtual image data 132 including
  • the CPU 11 Based on the virtual image data 132 , the CPU 11 causes the display unit 14 to display the virtual image 30 whose display position is determined inside the visible area 41 . Further, when the instruction image data 1321 is included in the virtual image data 132 , the instruction image 31 whose display position is determined inside the visible area 41 is displayed on the display unit 14 . Specifically, the CPU 11 specifies the display position of the virtual image 30 based on the virtual image data 132 and specifies the display position of the instruction image 31 based on the instruction image data 1321 . The CPU 11 causes the display unit 14 to display the display screen so that the virtual image 30 and/or the instruction image 31 can be viewed at the display position based on the positional relationship between the visible region 41 and the specified display position at that time. image data.
  • the CPU 11 causes the laser scanner 142 to perform a scanning operation based on this image data, and forms a display screen including the virtual image 30 and/or the instruction image 31 on the display surface of the visor 141 . That is, CPU 11 displays virtual image 30 and/or instruction image 31 on the display surface of visor 141 so that virtual image 30 and/or instruction image 31 can be viewed in space 40 viewed through visor 141 . By continuously performing this display control process, the CPU 11 updates the display contents of the display unit 14 in real time in accordance with the movement of the user (change in the visual recognition area 41).
  • the existing virtual image data will be retained when the wearable terminal device 10 is activated next time.
  • 132 and instruction image data 1321 are read, and if there is a virtual image 30 and/or instruction image 31 located inside the visible area 41 , it is displayed on the display unit 14 .
  • CPU 11 detects the position and orientation of the user's hand (and/or fingers) based on the images captured by depth sensor 153 and camera 154, and displays virtual line 411 extending in the detected direction and pointer 412 on display unit 14. display.
  • the CPU 11 detects the gesture of the user's hand (and/or finger) based on the image captured by the depth sensor 153 and the camera 154, and detects the content of the detected gesture and the position of the pointer 412 at that time. Execute the process.
  • the external device 20 includes a CPU 21 , a RAM 22 , a storage section 23 , an operation display section 24 , a communication section 25 , a microphone 26 , a speaker 27 and the like.
  • the CPU 21 is a processor that performs various arithmetic processing and controls the operation of each part of the external device 20 in an integrated manner.
  • the CPU 21 performs various control operations by reading and executing the program 231 stored in the storage unit 23 .
  • the RAM 22 provides a working memory space to the CPU 21 and stores temporary data.
  • the storage unit 23 is a non-temporary recording medium readable by the CPU 21 as a computer.
  • a non-volatile storage device such as an SSD with flash memory or a HDD (Hard Disk Drive) is used.
  • the storage unit 23 stores a program 231 executed by the CPU 21, various setting data, and the like.
  • the program 231 is stored in the storage unit 23 in the form of computer-readable program code.
  • the operation display unit 24 includes a display device such as a liquid crystal display and an input device such as a mouse and keyboard.
  • the operation display unit 24 performs various displays such as the operation status of the display system 1 and processing results on the display device.
  • the display includes, for example, the instructor screen 241 including the image of the visible area 41 captured by the camera 154 of the wearable terminal device 10 . The details of the instructor screen 241 will be described later. Further, the operation display unit 24 converts a user's input operation to the input device into an operation signal and outputs the operation signal to the CPU 21 .
  • the communication unit 25 transmits and receives data to and from the wearable terminal device 10 according to a predetermined communication protocol. Also, the communication unit 25 can perform voice data communication with the wearable terminal device 10 . That is, the communication unit 25 transmits audio data collected by the microphone 26 to the wearable terminal device 10 and receives audio data transmitted from the wearable terminal device 10 to output audio from the speaker 27 .
  • the communication unit 25 may be capable of communicating with devices other than the wearable terminal device 10 .
  • the microphone 26 converts sound such as the voice of the remote instructor into an electrical signal and outputs the electrical signal to the CPU 21 .
  • the speaker 27 converts input audio data into mechanical vibrations and outputs them as sound.
  • two-way data communication is performed between the wearable terminal device 10 and one or more external devices 20, so that various data can be shared and collaborative work can be performed.
  • the remote instructor B can recognize in real time what the user A of is seeing.
  • voice communication can be performed by transmitting voices collected by the microphone 17 of the wearable terminal device 10 and the microphone 26 of the external device 20 through two-way real-time voice data communication.
  • the period during which the wearable terminal device 10 and the external device 20 are performing voice data communication includes the period during which the user A of the wearable terminal device 10 and the remote instructor B are in voice communication.
  • communication including at least one of real-time audio data communication between the wearable terminal device 10 and the external device 20 and real-time transmission of captured images from the wearable terminal device 10 to the external device 20 is referred to as “live communication”.
  • Live communication may be performed by three or more persons including user A of the wearable terminal device 10 and two or more remote instructors who operate two or more external devices 20 .
  • the remote instructor B who operates the external device 20 performs a predetermined operation while viewing the instructor screen 241 on which the captured image of the camera 154 of the wearable terminal device 10 is displayed.
  • the instruction image 31 can be displayed at a desired position.
  • the CPU 21 of the external device 20 generates instruction information 133 for displaying the instruction image 31 on the wearable terminal device 10 and transmits it to the wearable terminal device 10 according to the operation by the remote instructor B.
  • the wearable terminal device 10 receives the instruction information 133, the instruction image 31 is displayed in the space 40 at a position corresponding to the display position of the instruction image 31 on the screen 241 for the instructor, according to the contents of the instruction information 133. be.
  • the user A of the wearable terminal device 10 can visually recognize the pointing image 31 generated by the remote instructor B of the external device 20 in the viewing area 41 .
  • the CPU 11 of the wearable terminal device 10 performs the following control. That is, the CPU 11 transmits the image captured by the camera 154 to the external device 20 via the communication unit 16, and the instruction information 133 related to the instruction to generate the instruction image 31 based on the captured image in the external device 20 is The indication image 31 is received via the communication unit 16 and displayed on the display unit 14 so as to be visually recognized at a position based on the received indication information 133 in the space 40 .
  • the remote instructor B displays the instruction image 31 of the arrow at a desired position in the visual recognition area 41 of the user A wearing the wearable terminal device 10 during live communication, for example, so that the user A can It is possible to instruct the position of the work target.
  • changing the instruction image 31 includes, for example, changing the display position, color, shape, orientation, or size of the instruction image 31, and adding annotations or various signs.
  • changing the color of the instruction image 31 includes changing the color of part of the instruction image 31 .
  • the position and orientation of the instruction image 31 displayed on the wearable terminal device 10 may not be appropriate for the user A wearing the wearable terminal device 10 .
  • user A may want to add an annotation to the instruction image 31 in order to make a memorandum of his/her own or to pass it on to another user.
  • the wearable terminal device 10 of the present disclosure it is possible to change the displayed instruction image 31 according to an instruction from the external device 20 . That is, the CPU 11 of the wearable terminal device 10 receives a user operation for changing the instruction image 31 displayed on the display unit 14, and updates the display of the instruction image 31 according to the user operation. Below, operations related to display and change of such instruction image 31 will be described with reference to FIGS. 7 to 16. FIG.
  • FIG. 7 shows the visible area 41 of the user A of the wearable terminal device 10 at a certain time.
  • the visible area 41 includes the monitor 51 and the beverage bottle 52
  • a monitor 51 is installed on a table, and a bottle 52 is placed on the table in front of the monitor 51 (closer to the wearable terminal device 10).
  • a display indicating that user A has logged in to the wearable terminal device 10 is made, but this is for convenience of explanation, and the display may be omitted in the actual visible area 41 .
  • FIG. 8 shows the instructor screen 241 displayed on the operation display unit 24 at the same timing as in FIG. 7 in the external device 20 that is in live communication with the wearable terminal device 10.
  • FIG. An image captured by the camera 154 transmitted in real time from the wearable terminal device 10 is displayed on the instructor screen 241 . Therefore, the screen 241 for the instructor displays the monitor 51 and the bottle 52 on the table.
  • a display indicating that user B has logged in to the external device 20 is provided, but this is for convenience of explanation, and the display may be omitted on the actual instructor screen 241. .
  • a setting panel 61 for performing various settings for live communication, an arrow icon 62 for instructing display of the instruction image 31, a pen input icon 63, and an image icon 64 are displayed in the upper portion of the screen for instructor 241.
  • the arrow icon 62 is selected when displaying the arrow indication image 31 .
  • the pen input icon 63 is selected when displaying the indication image 31 of the trajectory of the pen input.
  • the image icon 64 is selected when displaying the instruction image 31 of the document image.
  • the pointing image 31 of the arrow is displayed at the indicated position.
  • the remote instructor B instructs the display of the pointing image 31 of the arrow with the intention of pointing to the right end of the monitor 51 .
  • the CPU 21 when the instruction operation is performed, the CPU 21 generates instruction information 133 for displaying the instruction image 31 on the wearable terminal device 10 and transmits the instruction information 133 to the wearable terminal device 10 .
  • the instruction information 133 includes, for example, information specifying the type of the instruction image 31 (here, an arrow), information specifying the size, color, direction, etc. of the instruction image 31, and the display position of the instruction image 31 in space. Contains identifiable information.
  • the information that can specify the display position of the instruction image 31 is information indicating the position of the instruction image 31 (the position of the tip of the arrow) in the two-dimensional captured image of the camera 154 displayed on the screen 241 for the instructor.
  • the instruction information 133 may include data of an image captured by the camera 154 received from the wearable terminal device 10, and the position of the instruction image 31 may be indicated by coordinates on the captured image.
  • the CPU 11 of the wearable terminal device 10 displays the instruction image 31 on the display unit 14 so that the instruction image 31 can be visually recognized at the position based on the instruction information 133 in the space, as shown in FIG. display. Specifically, the CPU 11 identifies the display position of the instruction image 31 in space based on the received instruction information 133, and generates instruction image data 1321 including information on the display position. Then, the CPU 11 causes the display section 14 to display the instruction image 31 based on the instruction image data 1321 .
  • a method for specifying the display position of the instruction image 31 in space based on the instruction information 133 is not particularly limited, but for example, the following first method or second method can be used.
  • the CPU 11 acquires position information (position information of the tip of the arrow) of the instruction image 31 in the two-dimensional captured image from the instruction information 133 . Based on this position information, the CPU 11 specifies a display position on the XY plane corresponding to the captured image in space (hereinafter referred to as "XY plane display position"). Further, the CPU 11 sets the position of the instruction image 31 in the Z direction (depth direction) perpendicular to the XY plane to the position of the object with which the line segment extended in the Z direction from the XY plane display position first contacts. A three-dimensional arrangement of objects in space can be specified from a three-dimensional map generated based on the measurement results of the depth sensor 153 . In the examples of FIGS.
  • the XY plane display position of the instruction image 31 is the tip position of the arrow of the instruction image 31 in the two-dimensional image of FIG.
  • the monitor 51 is the first object that comes into contact when extended in the depth direction from the display position on the XY plane. identified.
  • the CPU 11 acquires position information (position information of the tip of the arrow) of the instruction image 31 in the two-dimensional captured image from the instruction information 133 .
  • the CPU 11 detects the characteristics of each object included in the two-dimensional image included in the instruction information 133, and identifies the object that exists closest to the position of the specified instruction image 31 as the instruction target. do. For example, in the example shown in FIG. 8, the tip of the arrow in the instruction image 31 overlaps the monitor 51, so the monitor 51 is specified as the instruction target.
  • the CPU 11 identifies the position of the pointing object in the real space, and displays the position of the pointing image 31 in the Z direction (depth direction) on the pointing object (the monitor 51 in the examples of FIGS. 8 and 9). ) to match the position of It should be noted that the CPU 21 of the external device 20 may specify an instruction target object on the screen 241 for the instructor and record information indicating the instruction target object in the instruction information 133 . In this case, the object to be pointed may be determined by the CPU 21 from the image data, or may be performed based on the operation of the remote instructor B who designates the object.
  • the CPU 21 of the external device 20 may execute the processing that was executed by the CPU 11 of the wearable terminal device 10 . That is, the CPU 21 of the external device 20 may specify the display position of the instruction image 31 in space. In this case, the CPU 21 of the external device 20 may acquire information (for example, a three-dimensional map) necessary for specifying the position from the wearable terminal device 10 .
  • the position of the instruction image 31 in the depth direction may be changed from the remote location.
  • the position desired by the instructor B is deviated.
  • the position of the pointing image 31 may deviate from the position desired by the remote instructor B when the object to be pointed is not properly specified.
  • the remote instructor B performs an operation with the intention of displaying the instruction image 31 at the position of the monitor 51, as shown in FIG.
  • the instruction image 31 may be separated from the monitor 51 .
  • the user A of the wearable terminal device 10 can change the position of the instruction image 31 by performing a predetermined operation.
  • FIG. 11 is a diagram showing an example of a method for changing the position of the instruction image 31.
  • the user A can move the instruction image 31 and change the display position of the instruction image 31 in space by performing a predetermined gesture operation.
  • changing the instruction image 31 includes changing the display position of the instruction image 31 .
  • the above-described gesture operation may be, for example, an operation of moving a hand while pinching a portion of the instruction image 31 with fingers (or while selecting with the pointer 412).
  • the CPU 11 changes the information of the display position of the instruction image 31 in the instruction image data 1321, and updates (redisplays) the display of the instruction image 31 based on the changed instruction image data 1321. .
  • a visual effect can be realized in which the indication image 31 moves so as to follow the movement of the user's A hand.
  • the CPU 11 changes at least one of the instruction image 31 moved to the display position after the change in response to the change of the display position and the instruction image 31 whose display position has been completely changed to the instruction image before the change of the display position.
  • 31 may be displayed in a different display mode.
  • the color of the instruction image 31 whose display position has been completely changed may be different from the color of the instruction image 31 before the change. That is, changing the instruction image 31 may include changing the color of the instruction image 31 . Accordingly, it is possible to clearly visually indicate that the display position of the instruction image 31 has been changed by the user A's operation.
  • the display mode to be changed is not limited to the color, and the outline of the indication image 31 may be emphasized or the indication image 31 may blink.
  • various changes such as changing the display position of the instruction image 31 may be performed after waiting for permission from the remote instructor B who operates the external device 20 .
  • the CPU 11 transmits a request signal requesting permission to change the instruction image 31 to the external device 20 via the communication unit 16 when a user operation for changing the instruction image 31 is performed.
  • the instruction image 31 may be changed when the communication unit 16 receives a permission signal for permitting the change of the instruction image 31 after the transmission of the request signal. Accordingly, it is possible to prevent the instruction image 31 from being changed against the intention of the remote instructor B who created the instruction image 31 .
  • the CPU 11 may transmit a notification to the effect that the instruction image 31 will be changed to the external device 20 via the communication unit 16 .
  • a notification virtual image 32 for notifying the user A of the wearable terminal device 10 that the remote instructor B of the external device 20 will be notified is displayed on the display unit. 14 may be displayed.
  • the notification virtual image 32 may be a normal image that is not in the form of a virtual image.
  • the normal image is an image displayed at a predetermined position on the display surface of the display unit 14 without specifying the display position in space.
  • identification information 311a representing the user (here, user A) who changed the display position of the instruction image 31 may be added to the instruction image 31.
  • the display unit 14 may display the added virtual image 311 as an identification mark including the identification information 311a.
  • the additional virtual image 311 forms part of the instruction image 31 .
  • the additional virtual image 311 may further display information such as the elapsed time since the display position was changed. Adding such an additional virtual image 311 (identification information 311a) is also one mode of changing the instruction image 31 .
  • the change of the instruction image 31 may include addition of the identification information 311a representing the user who performed the user operation to the instruction image 31, and the CPU 11 displays the instruction image 31 including the identification information 311a on the display unit . may be displayed. According to this, the user of the wearable terminal device 10 and the user who changed the instruction image 31 can be easily identified.
  • the identification information 311a and the additional virtual image 311 may be added to the instruction image 31 when any change other than the display position change is made to the instruction image 31 .
  • the identification information 311a may be displayed in the body of the instruction image 31 (for example, inside the arrow) without additionally displaying the additional virtual image 311 .
  • the CPU 11 changes the direction of the additional virtual image 311 so that the portion of the additional virtual image 311 that includes the identification information 311a faces the wearable terminal device 10 in accordance with the change in the position of the wearable terminal device 10 in space. good too. This makes it possible to easily visually recognize the additional virtual image 311 even when the user A of the wearable terminal device 10 moves in the space.
  • the CPU 11 may change the display size of the additional virtual image 311 or the identification information 311a according to the change in the position of the wearable terminal device 10 in space.
  • the CPU 11 may change the display of the additional virtual image 311 or the identification information 311a to be larger when the position of the wearable terminal device 10 in the space moves to a position farther from the additional virtual image 311. . Accordingly, even when the user A of the wearable terminal device 10 moves to a position further away from the additional virtual image 311 in the space, the additional virtual image 311 can be easily visually recognized.
  • modifying the pointing image 31 may include adding an annotation virtual image 312 as an annotation to the pointing image 31 .
  • the CPU 11 causes the display section 14 to display the instruction image 31 including the annotation virtual image 312 .
  • the annotation virtual image 312 forms part of the instruction image 31 .
  • an annotation can be added to the instruction image 31 . Therefore, the user A can record the comment for memorization or for passing on to other users.
  • the comment of User A "What is the arrow pointing to?" and the time when the annotation virtual image 312 was added are displayed.
  • the annotation virtual image 312 also displays identification information 312a representing the user (here, user A) who added the annotation virtual image 312 .
  • the operation for adding the annotation virtual image 312 is not particularly limited. A method of inputting a comment using a software keyboard virtual image may also be used.
  • the CPU 11 adds the information of the annotation virtual image 312 to the instruction image data 1321, and based on the instruction image data 1321 after adding the information.
  • the display of the instruction image 31 is updated (redisplayed).
  • the annotation virtual image 312 is such that a portion of the annotation virtual image 312 where information is displayed changes depending on the change in the position of the wearable terminal device 10 in space. The direction may be changed to face 10.
  • the CPU 11 may transmit annotation information including the content of the annotation to the external device 20 via the communication unit 16 .
  • the content of the annotation to be added to the instruction image 31 can be notified to the remote instructor B, who is the creator of the instruction image 31 .
  • a notification virtual image 33 for notifying the user A of the wearable terminal device 10 that the remote instructor B of the external device 20 will be notified is displayed on the display unit. 14 may be displayed.
  • the notification virtual image 33 may be a normal image that is not in the form of a virtual image.
  • adding an annotation to the instruction image 31 may be performed after obtaining permission from the remote instructor B who operates the external device 20 .
  • annotations are added to the instruction image 31 in FIG.
  • an annotation may be added inside the arrow body of the instruction image 31 .
  • a like button 71, a dislike button 72, and a comment display button 73 are displayed on the instruction image 31 in FIG.
  • the like button 71, the dislike button 72, the comment display button 73, and the numerical values displayed above these buttons are one mode of annotation.
  • the like button 71 is selected when the user of the wearable terminal device 10 positively evaluates the instruction image 31 .
  • the Disable button 72 is selected when the user of the wearable terminal device 10 gives a negative evaluation of the instruction image 31 .
  • the like button 71 and the dislike button 72 may be operated multiple times at different timings by different users who have viewed the instruction image 31 .
  • the numerical value above the like button 71 is incremented. Based on this numerical value, it is possible to determine the number of users who gave affirmative evaluation to the instruction image 31 .
  • the disable button 72 the numerical value above the disable button 72 is incremented. Based on the numerical value, the number of users who gave a negative evaluation to the instruction image 31 can be determined.
  • the comment display button 73 the number of comments recorded for the instruction image 31 is indicated.
  • FIG. name here, user A
  • the annotation virtual image 313 is one aspect of annotation.
  • the comment "The position of the arrow is incorrect. The correction of the position has been recorded, so please reflect it.”
  • a change reflection button 314 for reflecting the change of the instruction image 31 is also displayed on the instruction image 31 .
  • the change of the instruction image 31 is reflected (in the example of FIG. 15, the display position of the instruction image 31 is changed).
  • the CPU 11 causes the storage unit 13 to store a capture image including the instruction image 31 displayed on the display unit 14 and the image captured by the camera 154. . Further, the CPU 11 causes the display unit 14 to display the captured image 34 as shown in FIG. 16 in response to a user instruction or when predetermined display conditions for the captured image are satisfied.
  • the captured image 34 corresponds to a recorded image of the visual recognition area 41 of the user A when the instruction image 31 is displayed.
  • the user A can easily determine under what circumstances and for what purpose the instruction image 31 was displayed. For example, as shown in FIG. 16, when the target pointed by the pointing image 31 of the arrow is unclear, the target pointed by the arrow can be easily identified by referring to the captured image 34.
  • the captured image 34 may be a virtual image whose display position in space is determined, or may be a normal image that is not in the form of a virtual image.
  • the predetermined display condition is not particularly limited, but may be, for example, that the display position of the instruction image 31 is included in the visible area 41 of the user A.
  • the CPU 11 determines whether or not the display position of the instruction image 31 is included in the visible area 41 of the user A, and if it determines that the display position of the instruction image 31 is included in the visible area 41 of the user A, causes the display unit 14 to display the captured image 34 .
  • the captured image 34 can be displayed at an appropriate timing without the user A having to perform any particular operation.
  • the captured image may be recorded in the external device 20 and transmitted to the wearable terminal device 10 . That is, the CPU 11 receives, via the communication unit 16, the captured image 34 when the instruction image 31 is superimposed on the photographed image displayed as the instruction screen 241 in the external device 20 in accordance with the generation instruction. Then, the captured image 34 may be displayed on the display unit 14 . Accordingly, it is possible to refer to the captured image that makes it easy to grasp the intention of the remote instructor B of the external device 20 to generate the instruction image 31 .
  • FIG. 17 In this flowchart, the control procedure by the CPU 11 of the remote instruction process executed in the wearable terminal device 10 and the control procedure by the CPU 21 of the remote instruction process executed in the external device 20 are described in parallel.
  • step S101 when the power of the wearable terminal device 10 is switched to the ON state (step S101), the CPU 11 of the wearable terminal device 10 determines whether the instruction image 31 was displayed when the power was turned off last time. It is determined whether or not (step S102).
  • the CPU 11 determines that the indication image 31 has been displayed when the indication image data 1321 is included in the virtual image data 132 of the storage unit 13 . If it is determined that the instruction image 31 was displayed when the power was turned off last time ("YES" in step S102), the CPU 11 redisplays the instruction image 31 based on the instruction image data 1321 (step S103). ).
  • the CPU 11 controls the instruction image 31 displayed on the display unit 14 before the power is turned off.
  • the instruction image data 1321 is acquired, and the instruction image 31 is redisplayed based on the instruction image data 1321 .
  • the required instruction image 31 can be referred to even after the power is turned off.
  • step S103 ends, or when it is determined in step S102 that the instruction image 31 was not displayed when the power was turned off last time ("NO" in step S102), the CPU 11
  • voice data communication is started with the external device 20, thereby starting a voice call (step S104).
  • the CPU 11 starts transmitting the image captured by the camera 154 to the external device 20 (step S104).
  • the CPU 21 of the external device 20 starts voice data communication with the wearable terminal device 10 in response to an instruction from the remote instructor B, thereby starting a voice call (step S105).
  • step S105 the CPU 21 starts receiving an image captured by the camera 154 of the wearable terminal device 10 (step S105). Live communication is thereby started. Thereafter, the CPU 21 displays the instructor screen 241 based on the photographed image being received, and displays the photographed image as a moving image in real time on the instructor screen 241 .
  • the CPU 21 of the external device 20 receives an instruction operation by the remote instructor B for generating and displaying the instruction image 31 (step S106). While the instruction operation is being accepted, the camera image on the screen for instructor 241 may be paused and used as a still image.
  • the CPU 21 generates the instruction information 133 according to the contents of the instruction operation, and displays the instruction image 31 on the screen 241 for the instructor (step S107). Further, the CPU 21 transmits the generated instruction information 133 to the wearable terminal device 10 (step S108).
  • the CPU 11 of the wearable terminal device 10 Upon receiving the instruction information 133, the CPU 11 of the wearable terminal device 10 identifies the display position of the instruction image 31 in space based on the instruction information 133, and generates instruction image data 1321 (step S109). Further, the CPU 11 causes the display unit 14 to display the indication image 31 based on the indication image data 1321 (step S110). Further, the CPU 11 records a captured image when the instruction image 31 is displayed (that is, stores it in the storage unit 13) (step S110).
  • the CPU 11 accepts a user operation for changing the instruction image 31 (step S111).
  • the CPU 11 determines whether or not a user operation to add an annotation to the instruction image 31 has been performed (step S112). If it is determined that the user operation has been performed ("YES" in step S112), the annotation information including the content of the annotation is transmitted to the external device 20 (step S113), and the addition of the annotation to the instruction image 31 is reflected. (step S114). That is, the CPU 11 adds annotation information to the indication image data 1321, and updates the display of the indication image 31 based on the indication image data 1321 after adding the information.
  • step S114 When the process of step S114 ends, or when it is determined in step S112 that the user operation to add an annotation to the instruction image 31 has not been performed ("NO” in step S112), the CPU 11 displays the instruction image 31. It is determined whether or not a user operation to change the display position of has been performed (step S115). When it is determined that the user operation has been performed ("YES" in step S115), the CPU 11 determines whether or not the setting requires permission to change the display position of the indication image 31 (step S116). If it is determined that the permission is required (“YES” in step S116), the CPU 11 notifies the external device 20 of changing the display position of the instruction image 31, and displays it. A permission request signal requesting permission to change the position is transmitted (step S117).
  • the CPU 11 of the external device 20 Upon receiving the permission request signal, the CPU 11 of the external device 20 transmits the permission signal to the wearable terminal device 10 in response to the permission operation by the remote instructor B (step S118).
  • the CPU 11 of the wearable terminal device 10 When the CPU 11 of the wearable terminal device 10 receives the permission signal, or when it is determined in step S116 that the setting does not require permission to change the display position (“NO” in step S116), the CPU 11 instructs The display position and display mode (for example, color) of the image 31 are changed, and the additional virtual image 311 including the changed identification information 311a representing the user A is added to the instruction image 31 (step S119). That is, the CPU 11 changes the display position and display mode of the instruction image 31 in the instruction image data 1321, adds the information of the additional virtual image 311, and displays the instruction image 31 based on the instruction image data 1321 after the change.
  • a notification to the effect that the display position of the indication image 31 is to be changed may be transmitted to the external device 20.
  • step S119 ends, or when it is determined in step S115 that the user operation to change the display position of instruction image 31 has not been performed ("NO" in step S115), CPU 11 causes instruction image 31 to be displayed. It is determined whether or not a user operation has been performed to make another change (step S120).
  • the user operation accepted in step S120 is not particularly limited, but may be, for example, a user operation for changing the display mode (such as color), orientation, size, and type of the instruction image 31 .
  • the CPU 11 changes the display of the instruction image 31 according to the user's operation (step S121).
  • step S121 ends, or when it is determined in step S120 that the user operation for making another change related to the instruction image 31 has not been performed ("NO” in step S120), the CPU 11 performs the capture operation. It is determined whether or not image display conditions are satisfied (step S123). Here, the CPU 11 determines that the display condition for the captured image is satisfied when the display position of the instruction image 31 is included in the user A's visible area 41 . When it is determined that the conditions for displaying the captured image are satisfied ("YES" in step S122), the CPU 11 causes the display unit 14 to display the captured image 34 (step S123). Note that step S123 may be executed according to a user operation for displaying the captured image 34 .
  • step S123 ends, or when it is determined in step S122 that the display conditions for the captured image are not satisfied (“NO” in step S122), the CPU 11 determines whether the user A has issued an instruction to end the live communication. It is determined whether or not (step S124). If it is determined that the instruction has not been issued ("NO” in step S124), the CPU 11 returns the process to step S109. If it is determined that the instruction has been issued (“YES” in step S124), the CPU 11 terminates the voice call and transmission of the image captured by the camera 154 (step S125), and terminates the remote instruction processing.
  • step S118 the CPU 21 of the external device 20 determines whether or not the remote instructor B has issued an instruction to end the live communication (step S126). If it is determined that the instruction has not been issued ("NO” in step S126), the CPU 21 returns the process to step S106. If it is determined that the instruction has been given (“YES” in step S126), the CPU 21 terminates the voice call and reception of the image captured by the camera 154 (step S127), and terminates the remote instruction processing.
  • the second embodiment differs from the first embodiment in that an external information processing device 80 executes part of the processing that was executed by the CPU 11 of the wearable terminal device 10 in the first embodiment. Differences from the first embodiment will be described below, and descriptions of common points will be omitted.
  • the display system 1 includes a wearable terminal device 10, a plurality of external devices 20, and an information processing device 80 (server) communicatively connected to the wearable terminal device 10 and the network N. At least part of the communication path between the wearable terminal device 10 and the information processing device 80 may be based on wireless communication.
  • the hardware configuration of the wearable terminal device 10 can be the same as that of the first embodiment, but the processor for performing the same processing as the processing performed by the information processing device 80 may be omitted.
  • the information processing device 80 includes a CPU 81, a RAM 82, a storage section 83, an operation display section 84, a communication section 85, etc., and these sections are connected by a bus 86.
  • the CPU 81 is a processor that performs various arithmetic processes and controls the operation of each part of the information processing device 80 .
  • the CPU 81 performs various control operations by reading and executing a program 831 stored in the storage unit 83 .
  • the RAM 82 provides a working memory space to the CPU 81 and stores temporary data.
  • the storage unit 83 is a non-temporary recording medium readable by the CPU 81 as a computer.
  • the storage unit 83 stores a program 831 executed by the CPU 81, various setting data, and the like.
  • the program 831 is stored in the storage unit 83 in the form of computer-readable program code.
  • a non-volatile storage device such as an SSD equipped with a flash memory or an HDD is used.
  • the operation display unit 84 includes a display device such as a liquid crystal display and an input device such as a mouse and keyboard.
  • the operation display unit 84 performs various displays such as the operation status of the display system 1 and processing results on the display device.
  • the operation status of the display system 1 may include an image captured in real time by the camera 154 of the wearable terminal device 10 .
  • the operation display unit 84 converts a user's input operation to the input device into an operation signal and outputs the operation signal to the CPU 81 .
  • the communication unit 85 communicates with the wearable terminal device 10 to transmit and receive data.
  • the communication unit 85 receives data including part or all of the detection result by the sensor unit 15 of the wearable terminal device 10, information related to user operations (gestures) detected by the wearable terminal device 10, and the like.
  • the communication unit 85 may be capable of communicating with a device other than the wearable terminal device 10 , such as the external device 20 .
  • the CPU 81 of the information processing device 80 executes at least part of the processing that was executed by the CPU 11 of the wearable terminal device 10 in the first embodiment.
  • the CPU 81 may perform three-dimensional mapping of the space 40 based on detection results from the depth sensor 153 .
  • the CPU 81 may detect the user's visual recognition area 41 in the space 40 based on the detection results of the respective units of the sensor unit 15 .
  • the CPU 81 generates virtual image data 132 related to the virtual image 30 and instruction image data 1321 related to the instruction image 31 in response to the user's operation of the wearable terminal device 10 or based on instruction information received from the external device 20 . may be generated.
  • the CPU 81 may detect the position and orientation of the user's hand (and/or fingers) based on the images captured by the depth sensor 153 and the camera 154 .
  • the result of the above processing by the CPU 21 is transmitted to the wearable terminal device 10 via the communication section 25.
  • the CPU 11 of the wearable terminal device 10 operates each unit (for example, the display unit 14) of the wearable terminal device 10 based on the received processing result.
  • the CPU 81 may also transmit a control signal to the wearable terminal device 10 to control the display of the display section 14 of the wearable terminal device 10 and/or control the output of the speaker 18 .
  • the device configuration of the wearable terminal device 10 can be simplified, and the manufacturing cost can be reduced.
  • the information processing device 80 with higher performance it is possible to increase the speed and accuracy of various processes related to MR. Therefore, it is possible to improve the accuracy of the 3D mapping of the space 40, improve the display quality of the display unit 14, and improve the response speed of the display unit 14 to user's actions.
  • the visor 141 having optical transparency is used to allow the user to visually recognize the real space, but the present invention is not limited to this.
  • a visor 141 having a light shielding property may be used to allow the user to view the image of the space 40 photographed by the camera 154 . That is, the CPU 11 may cause the display unit 14 to display the image of the space 40 captured by the camera 154 and the virtual image 30 superimposed on the image of the space 40 .
  • Such a configuration can also realize MR that fuses the virtual image 30 with the real space.
  • a VR makes the user feel as if they are in the virtual space. Also in this VR, a user's visible area 41 is specified, and a portion of the virtual space inside the visible area 41 and the virtual image 30 whose display position is set inside the visible area 41 are displayed. Therefore, as in each of the above-described embodiments, a display operation of displaying the instruction image 31 in a different display mode for each instructor can be applied.
  • the display of the instruction image 31 is changed according to the user operation of the wearable terminal device 10 by the user A while the wearable terminal device 10 and the external device 20 are performing live communication. Illustrated, but not limited to. For example, during a live communication period during which user A of the wearable terminal device 10 and remote instructor B of the external device 20 can easily communicate with each other, the live communication is performed without accepting the change of the instruction image 31 by the user A.
  • the change of the instruction image 31 by the user A may be accepted during the period when the user A is not using the image. That is, the CPU 11 may not change the instruction image 31 during the live communication period during which the live communication is performed, and may change the instruction image 31 during periods other than the live communication period.
  • the user A of the wearable terminal device 10 can record a memo by adding an annotation or change the display position of the instruction image 31 during the period when the user A of the wearable terminal device 10 cannot communicate with the remote instructor B via live communication. You can change it to a suitable position.
  • the instruction image 31 on the wearable terminal device 10 can be changed during periods other than the live communication period. It may be switched whether or not to enable the change of the instruction image 31 in .
  • the virtual image data 132 and the instruction image data 1321 may be stored in an external storage device provided outside the wearable terminal device 10 (for example, the information processing device 80 in the second embodiment).
  • the CPU 11 of the wearable terminal device 10 acquires the virtual image data 132 from the external storage device to display the virtual image 30, and acquires the instruction image data 1321 from the external storage device to display the instruction image 31. indicate.
  • the instruction image data 1321 is changed according to the user operation, and the instruction image data 1321 after the change is changed.
  • the display of the indication image 31 is updated based on this, it is not limited to this.
  • the instruction information 133 received from the external device 20 may be changed according to the user's operation.
  • the instruction image data 1321 may be generated again based on the instruction information 133 after the change, and the instruction image 31 may be displayed based on the instruction image data 1321 .
  • the instruction information 133 received from the external device 20 includes information corresponding to the instruction image data 1321 of the above embodiment, the generation of the instruction image data 1321 is omitted, and based on the instruction information 133 An instruction image 31 may be displayed.
  • the content of the instruction information 133 is changed according to the content of the user operation, and based on the instruction information 133 after the change. , the display of the instruction image 31 is updated.
  • the instruction image 31 when the instruction image 31 is changed a plurality of times by one or more users, separate instruction image data 1321 is generated and stored in the storage unit 13 each time the instruction image 31 is changed. You may let According to this, it is possible to leave a plurality of versions of the instruction image 31 including the version immediately after each change as a change history. Therefore, the desired version of the instruction image 31 can be displayed by displaying the instruction image 31 based on the instruction image data 1321 corresponding to the desired version. By leaving the instruction image data 1321 corresponding to the instruction image 31 before the first change, the instruction image 31 in the state before the change can be displayed.
  • the wearable terminal device 10 is not limited to having the annular body portion 10a illustrated in FIG. 1, and may have any structure as long as it has a display portion that can be visually recognized by the user when worn. For example, it may be configured to cover the entire head like a helmet. Moreover, like eyeglasses, it may have a frame to be hung on the ear and various devices may be built in the frame.
  • the virtual image 30 does not necessarily have to be stationary in the space 40, and may move inside the space 40 along a predetermined trajectory.
  • the input operation may be accepted by a controller that the user holds in his hand or wears on his body.
  • the present invention is not limited to this, and may involve voice data communication.
  • the display instruction of the instruction image 31 may be performed without the instruction image 31 being displayed.
  • the present invention is not limited to this, and a video call may be possible.
  • the external device 20 may be provided with a web camera for capturing an image of the remote operator, and image data captured by the web camera may be transmitted to the wearable terminal device 10 and displayed on the display unit 14 .
  • the instruction image 31 is not limited to being displayed for instructing the user of the wearable terminal device 10 to work.
  • the instruction image 31 includes any virtual image 30 displayed on the wearable terminal device 10 based on an instruction from an instructor (including the user himself/herself) for the purpose of being visually recognized by the user of the wearable terminal device 10 .
  • the present disclosure can be used for wearable terminal devices, programs, and display methods.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザが装着して使用するウェアラブル端末装置は、少なくとも一つのプロセッサと、ユーザの視認領域として空間を撮影するカメラと、遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、を備える。少なくとも一つのプロセッサは、カメラによる撮影画像を、通信部を介して外部機器に送信する。少なくとも一つのプロセッサは、外部機器において撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、通信部を介して受信する。少なくとも一つのプロセッサは、空間のうち、受信した指示情報に基づく位置に視認されるように指示画像を表示部に表示させる。少なくとも一つのプロセッサは、表示させた指示画像の変更を行うためのユーザ操作を受け付けて、当該ユーザ操作に応じて指示画像の表示を更新する。

Description

ウェアラブル端末装置、プログラムおよび表示方法
 本開示は、ウェアラブル端末装置、プログラムおよび表示方法に関する。
 従来、ユーザが頭部に装着するウェアラブル端末装置を用いて、仮想画像および/または仮想空間をユーザに体感させる技術として、VR(仮想現実)、MR(複合現実)およびAR(拡張現実)が知られている。ウェアラブル端末装置は、ユーザが装着したときにユーザの視界を覆う表示部を有する。この表示部に、ユーザの位置および向きに応じて仮想画像および/または仮想空間を表示することで、あたかもこれらが存在しているかのような視覚効果を実現する(例えば、米国特許出願公開第2019/0087021号明細書、および米国特許出願公開第2019/0340822号明細書)。
 MRは、ユーザに現実空間を視認させつつ、現実空間の所定位置に仮想画像が存在しているように見せる表示を行うことで、現実空間と仮想画像とが融合した複合現実を体感させる技術である。また、VRは、MRにおける現実空間に代えて仮想空間をユーザに視認させることで、あたかもユーザが仮想空間にいるように体感させる技術である。
 VRおよびMRにおいて表示される仮想画像は、ユーザが位置する空間における表示位置が定められており、その表示位置がユーザの視認領域の内部にある場合に表示部に表示されてユーザに視認される。
 本開示のウェアラブル端末装置は、ユーザが装着して使用するウェアラブル端末装置であって、少なくとも一つのプロセッサと、前記ユーザの視認領域として空間を撮影するカメラと、遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、を備える。前記少なくとも一つのプロセッサは、前記カメラによる撮影画像を、前記通信部を介して前記外部機器に送信する。前記少なくとも一つのプロセッサは、前記外部機器において前記撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、前記通信部を介して受信する。前記少なくとも一つのプロセッサは、前記空間のうち、受信した前記指示情報に基づく位置に視認されるように前記指示画像を表示部に表示させる。前記少なくとも一つのプロセッサは、表示させた前記指示画像の変更を行うためのユーザ操作を受け付けて、当該ユーザ操作に応じて前記指示画像の表示を更新する。
 また、本開示のプログラムは、ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラと、遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、を備えたウェアラブル端末装置に設けられたコンピュータに、前記カメラによる撮影画像を、前記通信部を介して前記外部機器に送信する処理を実行させる。前記プログラムは、前記コンピュータに、前記外部機器において前記撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、前記通信部を介して受信する処理を実行させる。前記プログラムは、前記コンピュータに、前記空間のうち、受信した前記指示情報に基づく位置に視認されるように前記指示画像を表示部に表示させる処理を実行させる。前記プログラムは、前記コンピュータに、表示させた前記指示画像の変更を行うためのユーザ操作を受け付け、当該ユーザ操作に応じて前記指示画像の表示を更新する処理を実行させる。
 また、本開示の表示方法は、ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラと、遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、を備えたウェアラブル端末装置に設けられたコンピュータが実行する表示方法である。当該表示方法では、前記カメラによる撮影画像を、前記通信部を介して前記外部機器に送信する。前記表示方法では、前記外部機器において前記撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、前記通信部を介して受信する。前記表示方法では、前記空間のうち、受信した前記指示情報に基づく位置に視認されるように前記指示画像を表示部に表示させる。前記表示方法では、表示させた前記指示画像の変更を行うためのユーザ操作を受け付け、当該ユーザ操作に応じて前記指示画像の表示を更新する。
第1の実施形態に係る表示システムの構成を示す模式図である。 ウェアラブル端末装置の構成を示す模式斜視図である。 ウェアラブル端末装置を装着しているユーザが視認する視認領域および仮想画像の例を示す図である。 空間における視認領域を説明する図である。 ウェアラブル端末装置の主要な機能構成を示すブロック図である。 外部機器の主要な機能構成を示すブロック図である。 ウェアラブル端末装置のユーザの視認領域を示す図である。 外部機器の指示者用画面において指示画像を表示させた状態を示す図である。 ウェアラブル端末装置のユーザの視認領域において指示画像の表示が反映された状態を示す図である。 別の角度から指示画像を見たときの視認領域を示す図である。 指示画像の表示位置の変更方法の例を示す図である。 表示位置が変更された指示画像を含む視認領域を示す図である。 注釈が付加された指示画像を含む視認領域を示す図である。 注釈が付加された指示画像の他の例を示す図である。 コメントを表示させたときの指示画像を示す図である。 キャプチャ画像が表示された視認領域を示す図である。 遠隔指示処理の制御手順を示すフローチャートである。 遠隔指示処理の制御手順を示すフローチャートである。 第2の実施形態に係る表示システムの構成を示す模式図である。 情報処理装置の主要な機能構成を示すブロック図である。
 以下、実施の形態を図面に基づいて説明する。ただし、以下で参照する各図は、説明の便宜上、実施形態を説明する上で必要な主要部材のみを簡略化して示したものである。したがって、本開示のウェアラブル端末装置10、外部機器20および情報処理装置80は、参照する各図に示されていない任意の構成部材を備え得る。
 〔第1の実施形態〕
 図1に示すように、表示システム1は、ウェアラブル端末装置10と、複数の外部機器20とを備える。表示システム1と外部機器20とは、ネットワークNを介して通信接続されている。ネットワークNは、例えばインターネットとすることができるが、これに限られない。なお、表示システム1は、複数のウェアラブル端末装置10を備えていてもよい。また、表示システム1が備える外部機器20は1つであってもよい。
 ウェアラブル端末装置10は、ユーザ(装着者)に対してMRを体感させることのできる装置である。本実施形態では、所定の作業を行うユーザがウェアラブル端末装置10を装着する。また、ウェアラブル端末装置10を装着しているユーザに対し、ウェアラブル端末装置10を介して遠隔地から指示を行う遠隔指示者が外部機器20を操作する。ウェアラブル端末装置10および外部機器20では、所定の認証操作(例えば、ユーザアカウントごとに固有のID、およびパスワードを入力する操作)を行うことにより、認証に用いたユーザアカウントでログインすることができる。このログイン処理により、ウェアラブル端末装置10および外部機器20を操作しているユーザが特定される。以下では、ウェアラブル端末装置10をユーザAが操作し、1つの外部機器20を遠隔指示者Bが操作する場合を例に挙げて説明する。
 図2に示すように、ウェアラブル端末装置10は、本体部10a、および当該本体部10aに取り付けられたバイザー141(表示部材)などを備える。
 本体部10aは、その周長を調整可能な環状の部材である。本体部10aの内部には、深度センサー153およびカメラ154などの種々の機器が内蔵されている。本体部10aを頭部に装着すると、ユーザの視界がバイザー141によって覆われるようになっている。
 バイザー141は、光透過性を有する。ユーザは、バイザー141を通して現実空間を視認することができる。バイザー141のうちユーザの目に対向する表示面には、本体部10aに内蔵されたレーザースキャナー142(図5参照)から仮想画像等の画像が投影されて表示される。ユーザは、表示面からの反射光により仮想画像を視認する。このとき、ユーザは、併せてバイザー141越しに現実空間も視認しているため、あたかも現実空間に仮想画像が存在しているかのような視覚効果が得られる。
 図3に示すように、仮想画像30が表示された状態では、ユーザは、空間40における所定位置に、所定方向を向いた仮想画像30を視認する。本実施形態では、空間40は、ユーザがバイザー141越しに視認する現実空間である。仮想画像30は、光透過性を有するバイザー141に投影されているため、現実空間に重なる半透明の画像として視認される。図3では、仮想画像30として平面状のウィンドウ画面が例示されている。また、仮想画像30は、ウェアラブル端末装置10のユーザに対して指示または説明などを行うための指示画像31を含む。すなわち、指示画像31は、仮想画像30の一態様である。図3では、矢印の指示画像31と、ペン入力の軌跡の指示画像31とが例示されている。指示画像31は、これらに限られず、作業内容の手順などを示すドキュメント画像などであってもよい。また、仮想画像30は、ウィンドウ画面や上記の指示画像31に限られず、例えば各種の立体画像(立体の仮想オブジェクト)などであってもよい。仮想画像30がウィンドウ画面である場合には、仮想画像30は表面(第1面)および裏面(第2面)を有し、このうち表面に必要な情報が表示され、通常、裏面には情報が表示されない。
 ウェアラブル端末装置10は、空間40におけるユーザの位置および向き(言い換えると、ウェアラブル端末装置10の位置および向き)に基づいて、ユーザの視認領域41を検出する。図4に示すように、視認領域41は、空間40のうち、ウェアラブル端末装置10を装着しているユーザAの前方に位置する領域である。例えば、視認領域41は、ユーザAの正面から左右方向および上下方向にそれぞれ所定角度範囲内の領域である。この場合、視認領域41の形状に相当する立体を、ユーザAの正面方向に垂直な平面で切り取ったときの切り口の形状は矩形である。なお、視認領域41の形状は、当該切り口の形状が矩形以外(例えば、円形または楕円形等)となるように定められていてもよい。視認領域41の形状(例えば、正面から左右方向および上下方向の角度範囲)は、例えば以下の方法で特定することができる。
 ウェアラブル端末装置10では、初回起動時等の所定のタイミングにおいて、所定の手順で視野の調整(以下、キャリブレーションと記す)が行われる。このキャリブレーションにより、ユーザが視認できる範囲が特定され、以降、当該範囲内に仮想画像30が表示される。このキャリブレーションにより特定された視認可能な範囲の形状を、視認領域41の形状とすることができる。
 また、キャリブレーションは、上記の所定の手順で行われるものに限られず、ウェアラブル端末装置10の通常の操作を行っている中で自動的にキャリブレーションが行われてもよい。例えば、ユーザからのリアクションがなされるべき表示に対してリアクションがなされない場合に、当該表示を行っている範囲をユーザの視野の範囲外であるとみなして視野(および視認領域41の形状)を調整してもよい。また、視野の範囲外として定められている位置に試験的に表示を行い、当該表示に対するユーザのリアクションがあった場合に、当該表示を行っている範囲をユーザの視野の範囲内であるとみなして視野(および視認領域41の形状)を調整してもよい。
 なお、視認領域41の形状は、出荷時等において、視野の調整結果に基づかずに予め定められて固定されていてもよい。例えば、視認領域41の形状は、表示部14の光学設計上、最大限表示可能な範囲に定められていてもよい。
 仮想画像30は、ユーザの所定の操作に応じて、空間40における表示位置および向きが定められた状態で生成される。また、仮想画像30のうち指示画像31は、例えば外部機器20からウェアラブル端末装置10に送信される指示情報133(図5参照)に基づいて生成される。また、指示画像31は、ウェアラブル端末装置10のユーザが備忘などの目的で自ら生成することもできる。ウェアラブル端末装置10は、生成された仮想画像30のうち、視認領域41の内部に表示位置が定められている仮想画像30をバイザー141に投影させて表示する。図3においては、視認領域41が鎖線で示されている。
 バイザー141における仮想画像30の表示位置および向きは、ユーザの視認領域41の変化に応じてリアルタイムに更新される。すなわち、「設定された位置および向きで空間40内に仮想画像30が位置している」とユーザが認識するように、視認領域41の変化に応じて仮想画像30の表示位置および向きが変化する。例えば、ユーザが仮想画像30の表側から裏側に向かって移動すると、この移動に応じて表示される仮想画像30の形状(角度)が徐々に変化する。また、ユーザが仮想画像30の裏側に回り込んだ後で当該仮想画像30の方向を向くと、仮想画像30の裏面が視認されるように裏面が表示される。また、視認領域41の変化に応じて、表示位置が視認領域41から外れた仮想画像30は表示されなくなり、表示位置が視認領域41に入った仮想画像30があれば当該仮想画像30が新たに表示される。
 図3に示すように、ユーザが手(または指)を前方にかざすと、手を伸ばした方向がウェアラブル端末装置10により検出され、当該方向に延びる仮想線411と、ポインタ412とがバイザー141の表示面に表示されてユーザに視認される。ポインタ412は、仮想線411と仮想画像30との交点に表示される。仮想線411が仮想画像30と交差しない場合には、仮想線411と空間40の壁面等との交点にポインタ412が表示されてもよい。ユーザの手と仮想画像30との距離が所定の基準距離以内である場合に、仮想線411の表示を省略して、ユーザの指先の位置に応じた位置にポインタ412を直接表示させてもよい。
 ユーザが手を伸ばす方向を変えることで、仮想線411の方向およびポインタ412の位置を調整することができる。仮想画像30に含まれる所定の操作対象(例えば、機能バー301、ウィンドウ形状変更ボタン302、およびクローズボタン303等)にポインタ412が位置するように調整した状態で所定のジェスチャーを行うことで、当該ジェスチャーがウェアラブル端末装置10により検出され、操作対象に対する所定の操作を行うことができる。例えば、ポインタ412をクローズボタン303に合わせた状態で、操作対象を選択するジェスチャー(例えば、指先をつまむジェスチャー)を行うことで、仮想画像30を閉じる(削除する)ことができる。また、ポインタ412を機能バー301に合わせた状態で選択するジェスチャーを行い、選択状態のまま手を前後左右に移動させるジェスチャーを行うことで、仮想画像30を奥行方向および左右方向に移動させることができる。仮想画像30に対する操作はこれらに限られない。
 このように、本実施形態のウェアラブル端末装置10は、あたかも現実空間に仮想画像30が存在するかのような視覚効果を実現し、仮想画像30に対するユーザの操作を受け付けて仮想画像30の表示に反映させることができる。すなわち、本実施形態のウェアラブル端末装置10はMRを提供する。
 次に、図5を参照してウェアラブル端末装置10の機能構成について説明する。
 ウェアラブル端末装置10は、CPU11(Central Processing Unit)と、RAM12(Random Access Memory)と、記憶部13と、表示部14と、センサー部15と、通信部16と、マイク17と、スピーカー18などを備え、これらの各部はバス19により接続されている。図5に示す構成要素のうち表示部14のバイザー141を除いた各部は、本体部10aに内蔵されており、同じく本体部10aに内蔵されているバッテリーから供給される電力により動作する。
 CPU11は、各種演算処理を行い、ウェアラブル端末装置10の各部の動作を統括制御するプロセッサである。CPU11は、記憶部13に記憶されたプログラム131を読み出して実行することで、各種制御動作を行う。CPU11は、プログラム131を実行することで、例えば視認領域検出処理および表示制御処理などを実行する。このうち視認領域検出処理は、空間40内におけるユーザの視認領域41を検出する処理である。また、表示制御処理は、空間40における位置が定められた仮想画像30のうち、視認領域41の内部に位置が定められている仮想画像30を表示部14に表示させる処理である。
 なお、図5では単一のCPU11が図示されているが、これに限られない。CPU等のプロセッサが2以上設けられていてもよく、本実施形態のCPU11が実行する処理を、これらの2以上のプロセッサが分担して実行してもよい。
 RAM12は、CPU11に作業用のメモリ空間を提供し、一時データを記憶する。
 記憶部13は、コンピュータとしてのCPU11により読み取り可能な非一時的な記録媒体である。記憶部13は、CPU11により実行されるプログラム131、および各種設定データなどを記憶する。プログラム131は、コンピュータ読み取り可能なプログラムコードの形態で記憶部13に格納されている。記憶部13としては、例えばフラッシュメモリを備えたSSD(Solid State Drive)などの不揮発性の記憶装置が用いられる。
 記憶部13に記憶されるデータとしては、仮想画像30に係る仮想画像データ132、および外部機器20から取得した指示情報133などがある。
 仮想画像データ132は、仮想画像30の表示内容に係るデータ(例えば画像データ)、表示位置のデータ、および向きのデータなどを含む。また、仮想画像データ132は、指示画像31を表示させるための指示画像データ1321(指示画像情報)を含む。例えば、矢印の指示画像31に係る指示画像データ1321は、矢印の大きさ、色、表示位置、および向きのデータなどを含む。また、ペン入力の軌跡の指示画像31に係る指示画像データ1321は、軌跡の太さ、色、表示位置(軌跡の各点の座標を含む)、および向きのデータなどを含む。また、ドキュメント画像の指示画像31に係る仮想画像データ132は、ドキュメント画像の内容、ウィンドウの大きさ、色、表示位置、および向きのデータなどを含む。
 指示情報133は、ウェアラブル端末装置10において指示画像31を表示させるために外部機器20からウェアラブル端末装置10に送信されたデータである。指示情報133の内容は、特には限られず、外部機器20において表示が指示された指示画像31をウェアラブル端末装置10において表示させることが可能な情報が少なくとも含まれていればよい。例えば、指示情報133は、矢印またはペン入力の軌跡といった指示画像31の種別を指定する情報を含んでいてもよい。また、指示情報133は、指示画像31の大きさ、色、および向きなどを指定する情報を含んでいてもよい。また、指示情報133は、空間40における指示画像31の表示位置を特定可能な情報を含んでいてもよい。ここで、空間40における指示画像31の表示位置を決定可能な情報は、空間40における位置を直接特定するものに限られず、他のオブジェクトとの位置関係や、空間40を撮像した2次元の画像における位置を表すものであってもよい。CPU11は、指示情報133を受信すると、当該133に基づいて上記の指示画像データ1321を生成する。
 表示部14は、バイザー141と、レーザースキャナー142と、当該レーザースキャナー142から出力された光をバイザー141の表示面に導く光学系とを有する。レーザースキャナー142は、CPU11からの制御信号に従って、画素ごとにオン/オフが制御されたパルス状のレーザー光を所定方向にスキャンしつつ光学系に照射する。光学系に入射したレーザー光は、バイザー141の表示面において2次元の画素マトリクスからなる表示画面を形成する。レーザースキャナー142の方式は、特には限られないが、例えばMEMS(Micro Electro Mechanical Systems)によりミラーを動作させてレーザー光をスキャンする方式を用いることができる。レーザースキャナー142は、例えばRGBの色のレーザー光を射出する3つの発光部を有する。表示部14は、これらの発光部からの光をバイザー141に投影することでカラー表示を行うことができる。
 センサー部15は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155などを備える。なお、センサー部15は、図5に示されていないセンサーをさらに有していてもよい。
 加速度センサー151は、加速度を検出して検出結果をCPU11に出力する。加速度センサー151による検出結果から、ウェアラブル端末装置10の直交3軸方向の並進運動を検出することができる。
 角速度センサー152(ジャイロセンサー)は、角速度を検出して検出結果をCPU11に出力する。角速度センサー152による検出結果から、ウェアラブル端末装置10の回転運動を検出することができる。
 深度センサー153は、ToF(Time of Flight)方式で被写体までの距離を検出する赤外線カメラであり、距離の検出結果をCPU11に出力する。深度センサー153は、視認領域41を撮影できるように本体部10aの前面に設けられている。空間40においてユーザの位置および向きが変化するごとに深度センサー153による計測を繰り返し行って結果を合成することで、空間40の全体の3次元マッピングを行う(すなわち、3次元構造を取得する)ことができる。
 カメラ154は、RGBの撮像素子群により空間40を撮影し、撮影結果としてカラー画像データを取得してCPU11に出力する。カメラ154は、視認領域41を撮影できるように本体部10aの前面に設けられている。カメラ154からの出力画像は、ウェアラブル端末装置10の位置および向きなどの検出に用いられるほか、通信部16から外部機器20に送信されて、ウェアラブル端末装置10のユーザの視認領域41を外部機器20において表示するためにも用いられる。
 アイトラッカー155は、ユーザの視線を検出して検出結果をCPU11に出力する。視線の検出方法は、特には限られないが、例えば、ユーザの目における近赤外光の反射点をアイトラッキングカメラで撮影し、その撮影結果と、カメラ154による撮影画像とを解析してユーザが視認している対象を特定する方法を用いることができる。アイトラッカー155の構成の一部は、バイザー141の周縁部などに設けられていてもよい。
 通信部16は、アンテナ、変復調回路、信号処理回路などを有する通信モジュールである。通信部16は、所定の通信プロトコルに従って外部機器20との間で無線通信によるデータの送受信を行う。また、通信部16は、外部機器20との間で音声データ通信を行うことができる。すなわち、通信部16は、マイク17により収集された音声データを外部機器20に送信し、スピーカー18から音声を出力させるために外部機器20から送信された音声データを受信する。
 マイク17は、ユーザの声などの音を電気信号に変換してCPU11に出力する。
 スピーカー18は、入力された音声データを機械的な振動に変換して音として出力する。
 このような構成のウェアラブル端末装置10において、CPU11は、以下のような制御動作を行う。
 CPU11は、深度センサー153から入力された被写体までの距離データに基づいて空間40の3次元マッピングを行う。CPU11は、ユーザの位置および向きが変化するたびにこの3次元マッピングを繰り返し行い、都度結果を更新する。また、CPU11は、一繋がりの空間40を単位として3次元マッピングを行う。よって、壁などにより仕切られた複数の部屋の間をユーザが移動する場合には、CPU11は、それぞれの部屋を1つの空間40と認識し、部屋ごとに別個に3次元マッピングを行う。
 CPU11は、空間40内におけるユーザの視認領域41を検出する。詳しくは、CPU11は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155による検出結果と、蓄積されている3次元マッピングの結果と、に基づいて、空間40におけるユーザ(ウェアラブル端末装置10)の位置および向きを特定する。そして、特定した位置および向きと、予め定められている視認領域41の形状と、に基づいて視認領域41を検出(特定)する。また、CPU11は、ユーザの位置および向きの検出をリアルタイムで継続して行い、ユーザの位置および向きの変化に連動して視認領域41を更新する。なお、視認領域41の検出は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155のうちの一部による検出結果を用いて行われてもよい。
 CPU11は、ユーザの操作に応じて仮想画像30に係る仮想画像データ132を生成する。すなわち、CPU11は、仮想画像30の生成を指示する所定の操作(ジェスチャー)を検出すると、仮想画像の表示内容(例えば画像データ)、表示位置、および向きを特定し、これらの特定結果を表すデータを含む仮想画像データ132を生成する。
 CPU11は、仮想画像データ132に基づいて、視認領域41の内部に表示位置が定められている仮想画像30を表示部14に表示させる。また、仮想画像データ132に指示画像データ1321が含まれている場合には、視認領域41の内部に表示位置が定められている指示画像31を表示部14に表示させる。詳しくは、CPU11は、仮想画像データ132に基づいて仮想画像30の表示位置を特定し、また、指示画像データ1321に基づいて指示画像31の表示位置を特定する。CPU11は、その時点における視認領域41と、特定した表示位置との位置関係に基づいて、表示位置に仮想画像30および/または指示画像31が視認されるように、表示部14に表示させる表示画面の画像データを生成する。CPU11は、この画像データに基づいてレーザースキャナー142にスキャン動作を行わせ、バイザー141の表示面に、仮想画像30および/または指示画像31を含む表示画面を形成させる。すなわち、CPU11は、バイザー141を通して視認される空間40に仮想画像30および/または指示画像31が視認されるように、バイザー141の表示面に仮想画像30および/または指示画像31を表示させる。CPU11は、この表示制御処理を連続して行うことで、ユーザの動き(視認領域41の変化)に合わせて表示部14による表示内容をリアルタイムで更新する。ウェアラブル端末装置10が電源オフ状態となっても仮想画像データ132および指示画像データ1321が保持される設定となっている場合には、次にウェアラブル端末装置10が起動したときには、既存の仮想画像データ132および指示画像データ1321が読み込まれ、視認領域41の内部に位置する仮想画像30および/または指示画像31があれば表示部14に表示される。
 CPU11は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)の位置および向きを検出し、検出した方向に延びる仮想線411と、ポインタ412とを表示部14に表示させる。また、CPU11は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)のジェスチャーを検出し、検出したジェスチャーの内容と、その時点におけるポインタ412の位置とに応じた処理を実行する。
 次に、図6を参照して外部機器20の機能構成について説明する。
 外部機器20は、CPU21と、RAM22と、記憶部23と、操作表示部24と、通信部25と、マイク26と、スピーカー27などを備え、これらの各部はバス28により接続されている。
 CPU21は、各種演算処理を行い、外部機器20の各部の動作を統括制御するプロセッサである。CPU21は、記憶部23に記憶されたプログラム231を読み出して実行することで、各種制御動作を行う。
 RAM22は、CPU21に作業用のメモリ空間を提供し、一時データを記憶する。
 記憶部23は、コンピュータとしてのCPU21により読み取り可能な非一時的な記録媒体である。記憶部23としては、例えばフラッシュメモリを備えたSSD、またはHDD(Hard Disk Drive)などの不揮発性の記憶装置が用いられる。記憶部23には、CPU21により実行されるプログラム231、および各種設定データなどが記憶されている。プログラム231は、コンピュータ読み取り可能なプログラムコードの形態で記憶部23に格納されている。
 操作表示部24は、液晶ディスプレイ等の表示装置と、マウスおよびキーボードといった入力装置とを備える。操作表示部24は、表示装置において表示システム1の動作ステータスや処理結果等の各種表示を行う。当該表示には、例えば、ウェアラブル端末装置10のカメラ154により撮影された視認領域41の画像を含む指示者用画面241が含まれる。指示者用画面241の内容については、後に詳述する。また、操作表示部24は、入力装置に対するユーザの入力操作を操作信号に変換してCPU21に出力する。
 通信部25は、所定の通信プロトコルに従ってウェアラブル端末装置10との間でデータの送受信を行う。また、通信部25は、ウェアラブル端末装置10との間で音声データ通信を行うことができる。すなわち、通信部25は、マイク26により収集された音声データをウェアラブル端末装置10に送信し、スピーカー27から音声を出力させるためにウェアラブル端末装置10から送信された音声データを受信する。通信部25は、ウェアラブル端末装置10以外の他の装置との通信が可能であってもよい。
 マイク26は、遠隔指示者の声などの音を電気信号に変換してCPU21に出力する。
 スピーカー27は、入力される音声データを機械的な振動に変換して音として出力する。
 次に、表示システム1の動作について説明する。
 本実施形態の表示システム1では、ウェアラブル端末装置10と、一または二以上の外部機器20との間で双方向のデータ通信を行うことで、種々のデータを共有して共同作業を行うことができる。例えば、ウェアラブル端末装置10のカメラ154により撮影されている画像(撮影画像)のデータを外部機器20に送信して、操作表示部24において指示者用画面241として表示させることで、ウェアラブル端末装置10のユーザAが見ているものを、遠隔指示者Bがリアルタイムで認識することができる。また、ウェアラブル端末装置10のマイク17、および外部機器20のマイク26によりそれぞれ収集された音声を双方向のリアルタイムの音声データ通信で送信することで、音声通話を行うことができる。よって、ウェアラブル端末装置10および外部機器20により音声データ通信が実行されている期間は、ウェアラブル端末装置10のユーザAと遠隔指示者Bとが音声通話中である期間を含む。以下では、ウェアラブル端末装置10と外部機器20との間のリアルタイムの音声データ通信、およびウェアラブル端末装置10から外部機器20へのリアルタイムの撮影画像の送信の少なくとも一方を含む通信を「ライブ通信」と記す。遠隔指示者Bは、ライブ通信中に、リアルタイムのカメラ画像を見ながら音声通話によってウェアラブル端末装置10のユーザAに対する指示および支援を行う、といったことが可能である。なお、ウェアラブル端末装置10のユーザAと、二以上の外部機器20を操作する二以上の遠隔指示者とを含む三者以上でライブ通信を行ってもよい。
 さらに、外部機器20を操作する遠隔指示者Bは、ウェアラブル端末装置10のカメラ154の撮影画像が表示されている指示者用画面241を見ながら所定の操作を行うことで、指示者用画面241の所望の位置に指示画像31を表示させることができる。また、外部機器20のCPU21は、遠隔指示者Bによる上記操作に応じて、ウェアラブル端末装置10において指示画像31を表示させるための指示情報133を生成してウェアラブル端末装置10に送信する。ウェアラブル端末装置10がこの指示情報133を受信すると、指示情報133の内容に応じて、空間40のうち、指示者用画面241における指示画像31の表示位置と対応する位置に指示画像31が表示される。よって、ウェアラブル端末装置10のユーザAは、外部機器20の遠隔指示者Bが生成した指示画像31を視認領域41において視認することができる。このような指示画像31の表示を行うために、ウェアラブル端末装置10のCPU11は以下のような制御を行う。すなわち、CPU11は、カメラ154による撮影画像を、通信部16を介して外部機器20に送信し、外部機器20において撮影画像に基づいて行われた指示画像31の生成指示に係る指示情報133を、通信部16を介して受信し、空間40のうち、受信した指示情報133に基づく位置に視認されるように指示画像31を表示部14に表示させる。これにより、遠隔指示者Bは、例えばライブ通信中に、ウェアラブル端末装置10を装着しているユーザAの視認領域41の所望の位置に矢印の指示画像31を表示させて、ユーザAに対して作業対象の位置を指示する、といったことが可能となる。
 ところで、従来、外部機器20からの指示に応じてウェアラブル端末装置10において指示画像31が表示された場合に、ウェアラブル端末装置10側の操作によって、指示画像31の変更を行うことはできなかった。ここで、指示画像31の変更は、例えば、指示画像31の表示位置、色、形状、向き、または大きさ等の変更、および注釈または各種標識の付加などを含む。また、指示画像31の色の変更は、指示画像31のうち一部の色の変更を含む。
 しかしながら、ウェアラブル端末装置10において表示された指示画像31の位置や向きが、ウェアラブル端末装置10を装着しているユーザAにとっては適切でないと感じられる場合がある。また、ユーザAが、自身の備忘のため、あるいは他のユーザへの申し送りなどのために、指示画像31に対して注釈を付加したい場合がある。これらのような場合に、ウェアラブル端末装置10側の操作で指示画像31の変更が一切できないのは、ウェアラブル端末装置10のユーザAにとって不便であり、作業効率が低減したり、遠隔指示者との円滑な意思疎通が妨げられたりする要因となっていた。
 これに対し、本開示のウェアラブル端末装置10では、外部機器20からの指示に応じて表示された指示画像31の変更を行うことが可能となっている。すなわち、ウェアラブル端末装置10のCPU11は、表示部14に表示させた指示画像31の変更を行うためのユーザ操作を受け付けて、当該ユーザ操作に応じて指示画像31の表示を更新する。以下では、図7~図16を参照して、このような指示画像31の表示および変更に係る動作について説明する。
 図7は、ある時点におけるウェアラブル端末装置10のユーザAの視認領域41を示す。ここでは、視認領域41にモニター51および飲料のボトル52が含まれている例を挙げて説明する。モニター51は、テーブルの上に設置されており、ボトル52は、テーブルの上においてモニター51の手前(ウェアラブル端末装置10に近い側)に置かれている。図7では、ウェアラブル端末装置10にユーザAがログインしていることを示す表示がなされているが、これは説明の便宜上のものであり、実際の視認領域41では表示が省略されてもよい。
 図8は、ウェアラブル端末装置10とライブ通信中である外部機器20において、図7と同じタイミングで操作表示部24に表示されている指示者用画面241を示す。指示者用画面241には、ウェアラブル端末装置10からリアルタイムで送信されているカメラ154による撮影画像が表示されている。よって、指示者用画面241には、テーブル上のモニター51およびボトル52が表示されている。 図8では、外部機器20にユーザBがログインしていることを示す表示がなされているが、これは説明の便宜上のものであり、実際の指示者用画面241では表示が省略されてもよい。指示者用画面241の上部には、ライブ通信の各種設定を行うための設定パネル61と、指示画像31の表示指示を行うための矢印アイコン62、ペン入力アイコン63および画像アイコン64が表示されている。矢印アイコン62は、矢印の指示画像31を表示させる場合に選択される。ペン入力アイコン63は、ペン入力の軌跡の指示画像31を表示させる場合に選択される。画像アイコン64は、ドキュメント画像の指示画像31を表示させる場合に選択される。
 例えば、図8に示すように矢印アイコン62を選択した状態で、指示者用画面241上の位置を指示する指示操作が行われると、外部機器20のCPU21は、指示者用画面241のうち指示された位置に矢印の指示画像31を表示させる。図8の例では、遠隔指示者Bは、モニター51の右端部を指す意図で矢印の指示画像31の表示を指示しているものとする。また、CPU21は、上記の指示操作が行われると、ウェアラブル端末装置10において指示画像31を表示させるための指示情報133を生成してウェアラブル端末装置10に送信する。指示情報133は、例えば、指示画像31の種別(ここでは、矢印)を指定する情報、指示画像31の大きさ、色、および向きなどを指定する情報、および空間における指示画像31の表示位置を特定可能な情報を含む。指示画像31の表示位置を特定可能な情報は、ここでは、指示者用画面241に表示されているカメラ154の2次元の撮影画像における指示画像31の位置(矢印の先端の位置)を示す情報であるものとする。指示情報133には、ウェアラブル端末装置10から受信したカメラ154の撮影画像のデータが含まれていてもよく、当該撮影画像上の座標により指示画像31の位置が示されていてもよい。
 ウェアラブル端末装置10のCPU11は、指示情報133を受信すると、図9に示すように、空間のうち指示情報133に基づく位置に指示画像31が視認されるように、表示部14に指示画像31を表示させる。詳しくは、CPU11は、受信した指示情報133に基づいて空間における指示画像31の表示位置を特定し、当該表示位置の情報を含む指示画像データ1321を生成する。そして、CPU11は、指示画像データ1321に基づいて表示部14に指示画像31を表示させる。指示情報133に基づいて空間における指示画像31の表示位置を特定する方法は、特には限られないが、例えば以下の第1の方法または第2の方法を用いることができる。
 <第1の方法>
 第1の方法では、CPU11は、指示情報133から、2次元の撮影画像における指示画像31の位置情報(矢印の先端の位置情報)を取得する。CPU11は、この位置情報から、空間のうち撮影画像に相当するXY面における表示位置(以下、「XY面表示位置」と記す)を特定する。また、CPU11は、XY面に垂直なZ方向(奥行方向)についての指示画像31の位置を、XY面表示位置からZ方向に延ばした線分が最初に当接する物体の位置に設定する。空間における物体の三次元配置は、深度センサー153の計測結果に基づいて生成された3次元マップから特定することができる。図8および図9の例では、指示画像31のXY面表示位置は、図8の2次元画像における指示画像31の矢印の先端位置、すなわちモニター51の右端部の位置である。また、図9に示す空間において、XY面表示位置から奥行方向に延ばしたときに最初に当接する物体は、モニター51であるため、指示画像31のZ方向についての位置は、モニター51の位置と特定される。
 <第2の方法>
 第2の方法では、CPU11は、第1の方法と同様に、指示情報133から、2次元の撮影画像における指示画像31の位置情報(矢印の先端の位置情報)を取得する。また、CPU11は、指示情報133に含まれる2次元画像から、当該画像に含まれる各物体の特徴を検出し、指定された指示画像31の位置に最も近い位置に存在する物体を指示対象として特定する。例えば、図8に示す例では、指示画像31の矢印の先端がモニター51に重なっているため、モニター51が指示対象として特定される。CPU11は、現実の空間において、指示対象の物体の位置を特定し、Z方向(奥行方向)についての指示画像31の位置を、当該指示対象の物体(図8および図9の例では、モニター51)の位置に合うように設定する。なお、外部機器20のCPU21が、指示者用画面241上で指示対象の物体を特定し、当該指示対象の物体を示す情報を指示情報133に記録してもよい。この場合における指示対象の物体の特定は、CPU21が画像データから判別してもよいし、物体を指定する遠隔指示者Bの操作に基づいて行われてもよい。
 なお、第1の方法および第2の方法のいずれにおいても、ウェアラブル端末装置10のCPU11が実行していた処理を外部機器20のCPU21が実行してもよい。すなわち、空間における指示画像31の表示位置を、外部機器20のCPU21が特定してもよい。この場合には、外部機器20のCPU21は、当該位置の特定に必要な情報(例えば、3次元マップ)をウェアラブル端末装置10から取得してもよい。
 ところで、上記の第1の方法では、空間の最新の構造が3次元マップに反映されていなかったり、3次元マップの精度が低かったりする場合などにおいて、指示画像31の奥行方向の位置が、遠隔指示者Bの所望する位置からずれる場合がある。また、第2の方法においても、指示対象の物体の特定が適切に行われなかった場合などにおいて、指示画像31の位置が、遠隔指示者Bの所望する位置からずれる場合がある。
 このため、例えば図8および図9のように、遠隔指示者Bが指示画像31をモニター51の位置に表示させる意図で操作を行っても、図10に示すように、図9とは異なる角度からユーザAが指示画像31を見たときに、指示画像31がモニター51から離間してしまう場合がある。図10の状態では、指示画像31がモニター51およびボトル52のいずれを指しているのか不明確である。このような場合に、ウェアラブル端末装置10のユーザAは、所定の操作を行うことで指示画像31の位置を変更することができる。
 図11は、指示画像31の位置の変更方法の例を示す図である。図11に示すように、ユーザAは、所定のジェスチャ操作を行うことで、指示画像31を移動させて、空間における指示画像31の表示位置を変更することができる。このように、指示画像31の変更は、指示画像31の表示位置の変更を含む。上記のジェスチャ操作は、例えば、指示画像31の一部を指でつまんだ状態で(または、ポインタ412により選択した状態で)手を動かす操作であってもよい。当該ジェスチャ操作に応じて、CPU11は、指示画像データ1321における指示画像31の表示位置の情報を変更し、変更後の指示画像データ1321に基づいて指示画像31の表示を更新する(再表示させる)。この表示の更新動作を、ユーザAの手の移動中に繰り返し行うことで、ユーザAの手の動きに追従するように指示画像31が移動しているような視覚効果を実現できる。
 また、CPU11は、表示位置の変更に応じて変更後の表示位置へ移動している指示画像31、および表示位置の変更が完了した指示画像31の少なくとも一方を、表示位置の変更前における指示画像31の表示態様とは異なる表示態様で表示させてもよい。例えば、図11に示すように、表示位置の変更が完了した指示画像31の色を、変更前の指示画像31の色と異ならせてもよい。すなわち、指示画像31の変更は、指示画像31の色の変更を含んでいてもよい。これにより、ユーザAの操作によって指示画像31の表示位置が変更されていることを視覚的に分かりやすく示すことができる。なお、変更する表示態様は、色に限られず、指示画像31の外形線を強調したり、指示画像31を明滅させたりしてもよい。
 また、指示画像31の表示位置の変更をはじめとする各種変更は、外部機器20を操作する遠隔指示者Bの許可を待って実行することとしてもよい。このために、CPU11は、指示画像31の変更を行うためのユーザ操作がなされた場合に、指示画像31の変更の許可を要求する要求信号を、通信部16を介して外部機器20に送信し、要求信号の送信後に、指示画像31の変更を許可する許可信号を通信部16が受信した場合に、指示画像31を変更してもよい。これにより、指示画像31の作成者である遠隔指示者Bの意図に反して指示画像31が変更されないようにすることができる。
 また、CPU11は、指示画像31を変更する場合に、当該指示画像31を変更する旨の通知を、通信部16を介して外部機器20に送信してもよい。これにより、指示画像31の作成者である遠隔指示者Bに対し、指示画像31が変更されることを通知することができる。この場合において、図11に示すように、外部機器20の遠隔指示者Bに対して通知が行われることを、ウェアラブル端末装置10のユーザAに対して通知するための通知仮想画像32が表示部14に表示されてもよい。なお、通知仮想画像32は、仮想画像の形式でない通常の画像であってもよい。ここで、通常の画像は、空間における表示位置が特定されずに、表示部14の表示面上の所定の位置に表示される画像である。
 また、図12に示すように、指示画像31の表示位置を変更したユーザ(ここでは、ユーザA)を表す識別情報311aを指示画像31に付加してもよい。また、識別情報311aの付加を行う場合には、識別情報311aを含む識別標識としての付加仮想画像311を表示部14に表示させてもよい。付加仮想画像311は、指示画像31の一部を構成する。付加仮想画像311には、表示位置が変更されてからの経過時間などの情報がさらに表示されていてもよい。このような付加仮想画像311(識別情報311a)の付加も、指示画像31の変更の一態様である。すなわち、指示画像31の変更は、指示画像31に対する、ユーザ操作を行ったユーザを表す識別情報311aの付加を含んでいてもよく、CPU11は、識別情報311aを含む指示画像31を表示部14に表示させてもよい。これによれば、ウェアラブル端末装置10のユーザこれにより、指示画像31の変更を行ったユーザを容易に判別することができる。なお、識別情報311aおよび付加仮想画像311は、表示位置の変更以外の指示画像31の任意の変更が行われた場合に指示画像31に付加されてもよい。また、付加仮想画像311を追加表示せずに、指示画像31の本体(例えば、矢印の内部)に識別情報311aを表示してもよい。
 また、CPU11は、空間におけるウェアラブル端末装置10の位置の変化に応じて、付加仮想画像311のうち識別情報311aを含む部分がウェアラブル端末装置10を向くように付加仮想画像311の方向を変更してもよい。これにより、ウェアラブル端末装置10のユーザAが空間内を移動した場合においても、付加仮想画像311を容易に視認できるようにすることができる。また、CPU11は、空間におけるウェアラブル端末装置10の位置の変化に応じて付加仮想画像311あるいは識別情報311aの表示の大きさを変更してもよい。特に、CPU11は、空間におけるウェアラブル端末装置10の位置が付加仮想画像311からより離れた位置に移動した場合に、付加仮想画像311あるいは識別情報311aの表示がより大きくなるように変更してもよい。これにより、ウェアラブル端末装置10のユーザAが空間内で付加仮想画像311からより離れた位置に移動した場合においても、付加仮想画像311を容易に視認できるようにすることができる。
 上記では、指示画像31の変更の一例として、指示画像31の表示位置を変更する場合について説明したが、指示画像31の変更はこれに限られない。例えば、図13に示すように、指示画像31の変更は、指示画像31に対する注釈としての注釈仮想画像312の付加を含んでいてもよい。この場合には、CPU11は、注釈仮想画像312を含む指示画像31を表示部14に表示させる。注釈仮想画像312は、指示画像31の一部を構成する。これにより、指示画像31に注釈を付加することができる。よって、ユーザAが備忘のため、あるいは他のユーザへの申し送りなどのために、コメントを記録することができる。
 図13に示す注釈仮想画像312には、「矢印は何を指している?」とのユーザAのコメントと、注釈仮想画像312を付加した時刻が表示されている。また、注釈仮想画像312には、注釈仮想画像312を付加したユーザ(ここでは、ユーザA)を表す識別情報312aが表示されている。注釈仮想画像312を付加するための操作は、特には限られないが、例えば、指示画像31を手またはポインタ412により選択した状態で、図示略のメニュー画面から注釈の付加を選択し、図示略のソフトウェアキーボード仮想画像を用いてコメントを入力する方法であってもよい。注釈仮想画像312を付加するためのユーザ操作が行われた場合には、CPU11は、指示画像データ1321において注釈仮想画像312の情報を追加し、当該情報の追加後の指示画像データ1321に基づいて指示画像31の表示を更新する(再表示させる)。注釈仮想画像312は、図12に示した付加仮想画像311と同様に、空間におけるウェアラブル端末装置10の位置の変化に応じて、注釈仮想画像312のうち情報が表示されている部分がウェアラブル端末装置10を向くように方向が変更されてもよい。
 また、CPU11は、指示画像31に対して注釈としての注釈仮想画像312を付加する場合に、通信部16を介して、注釈の内容を含む注釈情報を外部機器20に送信してもよい。これにより、指示画像31の作成者である遠隔指示者Bに対し、指示画像31に付加される注釈の内容を通知することができる。この場合において、図13に示すように、外部機器20の遠隔指示者Bに対して通知が行われることを、ウェアラブル端末装置10のユーザAに対して通知するための通知仮想画像33が表示部14に表示されてもよい。なお、通知仮想画像33は、仮想画像の形式でない通常の画像であってもよい。また、指示画像31に対する注釈の付加は、外部機器20を操作する遠隔指示者Bの許可を待って行うこととしてもよい。
 指示画像31に対して注釈を付加する態様は、図13に示したものに限られない。例えば、図14に示すように、指示画像31の矢印本体の内部に注釈が付加されてもよい。図14の指示画像31には、ライクボタン71、ディスライクボタン72、およびコメント表示ボタン73が表示されている。ライクボタン71、ディスライクボタン72、コメント表示ボタン73、及びこれらの各ボタンの上部に表示される数値は、注釈の一態様である。
 ライクボタン71は、ウェアラブル端末装置10のユーザがその指示画像31に対して肯定的な評価を行う場合に選択される。ディスライクボタン72は、ウェアラブル端末装置10のユーザがその指示画像31に対して否定的な評価を行う場合に選択される。ライクボタン71およびディスライクボタン72は、指示画像31を視認した異なる複数のユーザにより、異なるタイミングで複数回操作され得る。ライクボタン71を選択する操作が行われると、ライクボタン71の上部の数値がインクリメントされる。当該数値により、指示画像31に対して肯定的な評価を行ったユーザの数を判別することができる。ディスライクボタン72を選択する操作が行われると、ディスライクボタン72の上部の数値がインクリメントされる。当該数値により、指示画像31に対して否定的な評価を行ったユーザの数を判別することができる。
 コメント表示ボタン73の上部には、その指示画像31に対して記録されたコメントの数が示されている。コメント表示ボタン73を選択する操作が行われると、図15に示すように、記録されているコメントの内容を含む注釈仮想画像313が表示されるとともに、指示画像31には、コメントを記録したユーザの名前(ここでは、ユーザA)が表示される。注釈仮想画像313は、注釈の一態様である。ここでは、注釈仮想画像313において、「矢印の位置がおかしい。位置の修正を記録したので、反映をお願いします。」とのコメントが表示されている。このように、コメントの内容が、指示画像31の変更の許可を求めるものであり、かつ、当該注釈仮想画像313を視認しているユーザが、変更の許可の権限を有している場合には、指示画像31の変更を反映させるための変更反映ボタン314が併せて指示画像31に表示される。変更反映ボタン314を選択する操作が行われると、指示画像31の変更が反映される(図15の例では、指示画像31の表示位置の変更が実行される)。
 ウェアラブル端末装置10のユーザAが指示画像31を視認しているときに、その指示画像31がどのような状況で表示されたのかを参照したい場合がある。そこで、本開示のウェアラブル端末装置10では、CPU11は、表示部14に指示画像31を表示させたときの当該指示画像31と、カメラ154による撮影画像とを含むキャプチャ画像を記憶部13に記憶させる。また、CPU11は、ユーザの指示に応じて、またはキャプチャ画像の所定の表示条件が満たされている場合に、図16に示すように、当該キャプチャ画像34として表示部14に表示させる。キャプチャ画像34は、指示画像31が表示されたときのユーザAの視認領域41をそのまま画像として記録したものに相当する。よって、表示された当該キャプチャ画像34を参照することで、ユーザAは、指示画像31が、どのような状況で、またどのような目的で表示されたものかを容易に判別することができる。例えば、図16に示すように、矢印の指示画像31が指している対象が不明確であるような場合に、キャプチャ画像34を参照することで、矢印が指す対象を特定しやすくすることができる。なお、キャプチャ画像34は、空間における表示位置が定められた仮想画像であってもよく、仮想画像の形式でない通常の画像であってもよい。
 上記の所定の表示条件は、特には限られないが、例えば指示画像31の表示位置がユーザAの視認領域41に含まれていること、とすることができる。この場合、CPU11は、指示画像31の表示位置がユーザAの視認領域41に含まれるか否かを判別し、指示画像31の表示位置がユーザAの視認領域41に含まれると判別した場合には、表示部14にキャプチャ画像34を表示させる。これにより、ユーザAが特段の操作を行わなくても、適切なタイミングでキャプチャ画像34を表示することができる。
 また、キャプチャ画像は、外部機器20において記録されてウェアラブル端末装置10に送信されてもよい。すなわち、CPU11は、外部機器20おいて指示者用画面241として表示される撮影画像に、生成指示に応じて指示画像31が重畳表示されたときのキャプチャ画像34を、通信部16を介して受信し、当該キャプチャ画像34を表示部14に表示させてもよい。これにより、外部機器20の遠隔指示者Bによる指示画像31の生成意図を把握しやすいキャプチャ画像を参照することができる。
 次に、上述のように指示画像31の表示および変更を行うための遠隔指示処理について、図17および図18のフローチャートを参照して説明する。このフローチャートでは、ウェアラブル端末装置10において実行される遠隔指示処理のCPU11による制御手順と、外部機器20において実行される遠隔指示処理のCPU21による制御手順とが並列に記載されている。
 図17に示すように、ウェアラブル端末装置10のCPU11は、ウェアラブル端末装置10の電源がオン状態に切り替えられた場合に(ステップS101)、前回の電源オフ時に指示画像31の表示が行われていたか否かを判別する(ステップS102)。ここでは、CPU11は、記憶部13の仮想画像データ132に指示画像データ1321が含まれている場合に、指示画像31の表示が行われていたと判別する。前回の電源オフ時に指示画像31の表示が行われていたと判別された場合には(ステップS102で“YES”)、CPU11は、指示画像データ1321に基づいて指示画像31を再表示させる(ステップS103)。このように、CPU11は、ウェアラブル端末装置10の電源がオフ状態となった後に電源がオン状態となった場合に、電源がオフ状態となる前に表示部14に表示させた指示画像31に係る指示画像データ1321を取得し、当該指示画像データ1321に基づいて指示画像31を再表示させる。これにより、電源をオフ状態とした後にも、必要な指示画像31を参照することができる。
 ステップS103が終了した場合、または、ステップS102において、前回の電源オフ時に指示画像31の表示が行われていなかったと判別された場合には(ステップS102で“NO”)、CPU11は、ユーザAの指示に応じて、外部機器20との間で音声データ通信を開始し、これにより音声通話を開始する(ステップS104)。また、CPU11は、カメラ154による撮影画像の外部機器20への送信を開始する(ステップS104)。また、外部機器20のCPU21は、遠隔指示者Bの指示に応じて、ウェアラブル端末装置10との間で音声データ通信を開始し、これにより音声通話を開始する(ステップS105)。また、CPU21は、ウェアラブル端末装置10のカメラ154による撮影画像の受信を開始する(ステップS105)。これにより、ライブ通信が開始される。以降、CPU21は、受信中の撮影画像に基づいて指示者用画面241を表示させ、指示者用画面241において撮影画像をリアルタイムで動画表示させる。
 外部機器20のCPU21は、指示画像31を生成して表示させるための遠隔指示者Bの指示操作を受け付ける(ステップS106)。指示操作の受け付け中は、指示者用画面241におけるカメラ画像を一時停止させて静止画としてもよい。
 CPU21は、指示操作の内容に応じて指示情報133を生成し、指示画像31を指示者用画面241に表示させる(ステップS107)。また、CPU21は、生成した指示情報133をウェアラブル端末装置10に送信する(ステップS108)。
 ウェアラブル端末装置10のCPU11は、指示情報133を受信すると、指示情報133に基づいて空間における指示画像31の表示位置を特定し、指示画像データ1321を生成する(ステップS109)。また、CPU11は、指示画像データ1321に基づいて指示画像31を表示部14に表示させる(ステップS110)。また、CPU11は、指示画像31を表示させたときのキャプチャ画像を記録する(すなわち、記憶部13に記憶させる)(ステップS110)。
 CPU11は、指示画像31を変更するためのユーザ操作を受け付ける(ステップS111)。CPU11は、指示画像31に注釈を付加するユーザ操作が行われたか否かを判別する(ステップS112)。当該ユーザ操作が行われたと判別された場合には(ステップS112で“YES”)、注釈の内容を含む注釈情報を外部機器20に送信し(ステップS113)、指示画像31に対する注釈の付加を反映させる(ステップS114)。すなわち、CPU11は、指示画像データ1321に注釈の情報を追加し、当該情報の追加後の指示画像データ1321に基づいて指示画像31の表示を更新する。
 ステップS114の処理が終了した場合、またはステップS112において指示画像31に注釈を付加するユーザ操作が行われていないと判別された場合には(ステップS112で“NO”)、CPU11は、指示画像31の表示位置を変更するユーザ操作が行われたか否かを判別する(ステップS115)。当該ユーザ操作が行われたと判別された場合には(ステップS115で“YES”)、CPU11は、指示画像31の表示位置の変更に許可が必要な設定となっているか否かを判別する(ステップS116)。当該許可が必要な設定となっていると判別された場合には(ステップS116で“YES”)、CPU11は、外部機器20に対し、指示画像31の表示位置を変更する旨の通知、および表示位置の変更の許可を求める許可要求信号を送信する(ステップS117)。
 外部機器20のCPU11は、許可要求信号を受信すると、遠隔指示者Bによる許可操作に応じて、許可信号をウェアラブル端末装置10に送信する(ステップS118)。
 ウェアラブル端末装置10のCPU11は、許可信号を受信した場合、またはステップS116において表示位置の変更に許可が必要な設定となっていないと判別された場合には(ステップS116で“NO”)、指示画像31の表示位置および表示態様(例えば、色)を変更し、変更したユーザAを表す識別情報311aを含む付加仮想画像311を指示画像31に付加する(ステップS119)。すなわち、CPU11は、指示画像データ1321において指示画像31の表示位置および表示態様を変更し、付加仮想画像311の情報を追加した上で、変更後の指示画像データ1321に基づいて指示画像31を表示させる。なお、ステップS116で“NO”と分岐した場合に、外部機器20に対して、指示画像31の表示位置を変更する旨の通知を送信してもよい。
 ステップS119が終了した場合、またはステップS115において指示画像31の表示位置を変更するユーザ操作が行われていないと判別された場合には(ステップS115で“NO”)、CPU11は、指示画像31に係る他の変更を行うためのユーザ操作が行われたか否かを判別する(ステップS120)。ステップS120で受け付けられるユーザ操作は、特には限られないが、例えば指示画像31の表示態様(色など)、向き、大きさ、および種別などを変更するためのユーザ操作であってもよい。当該ユーザ操作が行われたと判別された場合には(ステップS120で“YES”)、CPU11は、当該ユーザ操作に応じて指示画像31の表示を変更する(ステップS121)。
 ステップS121が終了した場合、またはステップS120において指示画像31に係る他の変更を行うためのユーザ操作が行われていないと判別された場合には(ステップS120で“NO”)、CPU11は、キャプチャ画像の表示条件を満たすか否かを判別する(ステップS123)。ここでは、CPU11は、ユーザAの視認領域41に指示画像31の表示位置が含まれている場合に、キャプチャ画像の表示条件を満たすと判別する。キャプチャ画像の表示条件を満たすと判別された場合には(ステップS122で“YES”)、CPU11は、キャプチャ画像34を表示部14に表示させる(ステップS123)。なお、キャプチャ画像34を表示させるためのユーザ操作に応じてステップS123を実行してもよい。
 ステップS123が終了した場合、またはステップS122においてキャプチャ画像の表示条件を満たさないと判別された場合には(ステップS122で“NO”)、CPU11は、ユーザAによりライブ通信を終了させる指示がなされたか否かを判別する(ステップS124)。当該指示がなされていないと判別された場合には(ステップS124で“NO”)、CPU11は、処理をステップS109に戻す。当該指示がなされたと判別された場合には(ステップS124で“YES”)、CPU11は、音声通話およびカメラ154による撮影画像の送信を終了させ(ステップS125)、遠隔指示処理を終了させる。
 外部機器20のCPU21は、ステップS118が終了すると、遠隔指示者Bによりライブ通信を終了させる指示がなされたか否かを判別する(ステップS126)。当該指示がなされていないと判別された場合には(ステップS126で“NO”)、CPU21は、処理をステップS106に戻す。当該指示がなされたと判別された場合には(ステップS126で“YES”)、CPU21は、音声通話およびカメラ154による撮影画像の受信を終了させ(ステップS127)、遠隔指示処理を終了させる。
 〔第2の実施形態〕
 次に、第2の実施形態に係る表示システム1の構成について説明する。第2の実施形態は、第1の実施形態においてウェアラブル端末装置10のCPU11が実行していた処理の一部を外部の情報処理装置80が実行する点で第1の実施形態と異なる。以下では、第1の実施形態との相違点について説明し、共通する点については説明を省略する。
 図19に示すように、表示システム1は、ウェアラブル端末装置10と、複数の外部機器20と、ウェアラブル端末装置10およびネットワークNに通信接続された情報処理装置80(サーバ)とを備える。ウェアラブル端末装置10と情報処理装置80との間の通信経路の少なくとも一部は、無線通信によるものであってもよい。ウェアラブル端末装置10のハードウェア構成は、第1の実施形態と同様とすることができるが、情報処理装置80が実行する処理と同一の処理を行うためのプロセッサは省略してもよい。
 図20に示すように、情報処理装置80は、CPU81と、RAM82と、記憶部83と、操作表示部84と、通信部85などを備え、これらの各部はバス86により接続されている。
 CPU81は、各種演算処理を行い、情報処理装置80の各部の動作を統括制御するプロセッサである。CPU81は、記憶部83に記憶されたプログラム831を読み出して実行することで、各種制御動作を行う。
 RAM82は、CPU81に作業用のメモリ空間を提供し、一時データを記憶する。
 記憶部83は、コンピュータとしてのCPU81により読み取り可能な非一時的な記録媒体である。記憶部83は、CPU81により実行されるプログラム831、および各種設定データなどを記憶する。プログラム831は、コンピュータ読み取り可能なプログラムコードの形態で記憶部83に格納されている。記憶部83としては、例えばフラッシュメモリを備えたSSD、またはHDDなどの不揮発性の記憶装置が用いられる。
 操作表示部84は、液晶ディスプレイ等の表示装置と、マウスおよびキーボードといった入力装置とを備える。操作表示部84は、表示装置において表示システム1の動作ステータスや処理結果等の各種表示を行う。ここで、表示システム1の動作ステータスには、ウェアラブル端末装置10のカメラ154によるリアルタイムの撮影画像が含まれてもよい。また、操作表示部84は、入力装置に対するユーザの入力操作を操作信号に変換してCPU81に出力する。
 通信部85は、ウェアラブル端末装置10と通信を行ってデータを送受信する。例えば、通信部85は、ウェアラブル端末装置10のセンサー部15による検出結果の一部または全部を含むデータ、およびウェアラブル端末装置10が検出したユーザの操作(ジェスチャー)に係る情報などを受信する。また、通信部85は、ウェアラブル端末装置10以外の他の装置、例えば外部機器20との通信が可能であってもよい。
 このような構成の表示システム1において、情報処理装置80のCPU81は、第1の実施形態においてウェアラブル端末装置10のCPU11が実行していた処理の少なくとも一部を実行する。例えば、CPU81は、深度センサー153による検出結果に基づいて空間40の3次元マッピングを行ってもよい。また、CPU81は、センサー部15の各部による検出結果に基づいて空間40内におけるユーザの視認領域41を検出してもよい。また、CPU81は、ウェアラブル端末装置10のユーザの操作に応じて、または外部機器20から受信した指示情報に基づいて、仮想画像30に係る仮想画像データ132、および指示画像31に係る指示画像データ1321を生成してもよい。また、CPU81は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)の位置および向きを検出してもよい。
 CPU21による上記の処理結果は、通信部25を介してウェアラブル端末装置10に送信される。ウェアラブル端末装置10のCPU11は、受信した処理結果に基づいてウェアラブル端末装置10の各部(例えば表示部14)を動作させる。また、CPU81は、ウェアラブル端末装置10に制御信号を送信して、ウェアラブル端末装置10の表示部14の表示制御、および/またはスピーカー18の出力制御を行ってもよい。
 このように、情報処理装置80において処理の少なくとも一部を実行することで、ウェアラブル端末装置10の装置構成を簡素化することができ、また製造コストを低減することができる。また、より高性能な情報処理装置80を用いることで、MRに係る各種の処理を高速化および高精度化することができる。よって、空間40の3Dマッピングの精度を高めたり、表示部14による表示品質を高めたり、ユーザの動作に対する表示部14の反応速度を高めたりすることができる。
 〔その他〕
 なお、上記実施形態は例示であり、様々な変更が可能である。
 例えば、上記実施形態では、ユーザに現実空間を視認させるために、光透過性を有するバイザー141を用いたが、これに限られない。例えば、遮光性を有するバイザー141を用い、カメラ154により撮影された空間40の画像をユーザに視認させてもよい。すなわち、CPU11は、カメラ154により撮影された空間40の画像、および当該空間40の画像に重ねられた仮想画像30を表示部14に表示させてもよい。このような構成によっても、現実空間に仮想画像30を融合させるMRを実現できる。
 また、カメラ154による現実空間の撮影画像に代えて、予め生成された仮想空間の画像を用いることで、仮想空間にいるように体感させるVRを実現できる。このVRにおいても、ユーザの視認領域41が特定されて、仮想空間のうち視認領域41の内部にある部分、および視認領域41の内部に表示位置が定められている仮想画像30が表示される。よって、上記各実施形態と同様に、指示者ごとに異なる表示態様で指示画像31を表示させる表示動作を適用できる。
 また、上記実施形態では、ウェアラブル端末装置10および外部機器20がライブ通信を行っている期間に、ウェアラブル端末装置10のユーザAによるユーザ操作に応じて指示画像31の表示を変更する例を挙げて説明したが、これに限られない。例えば、ウェアラブル端末装置10のユーザAと、外部機器20の遠隔指示者Bとの意思疎通を行いやすいライブ通信期間中には、ユーザAによる指示画像31の変更を受け付けず、ライブ通信が行われていない期間に、ユーザAによる指示画像31の変更を受け付けるようにしてもよい。すなわち、CPU11は、ライブ通信が行われているライブ通信期間においては、指示画像31の変更を行わず、ライブ通信期間を除いた期間においては、指示画像31の変更を行うこととしてもよい。これにより、ウェアラブル端末装置10のユーザAは、ライブ通信を介して遠隔指示者Bとの意思疎通を行うことができない期間において、注釈の付加によりメモを記録したり、指示画像31の表示位置を適切な位置に変更したりすることができる。なお、ライブ通信期間を除いた期間においてウェアラブル端末装置10における指示画像31の変更を可能とし、ライブ通信期間においては、外部機器20を操作する遠隔指示者Bの指示に応じて、ウェアラブル端末装置10における指示画像31の変更を可能とするか否かを切り替えてもよい。
 また、仮想画像データ132および指示画像データ1321は、ウェアラブル端末装置10の外部に設けられた外部記憶装置(例えば、第2の実施形態における情報処理装置80)に記憶されていてもよい。この場合には、ウェアラブル端末装置10のCPU11は、外部記憶装置から仮想画像データ132を取得して仮想画像30を表示し、また、外部記憶装置から指示画像データ1321を取得して指示画像31を表示する。
 また、上記実施形態では、ウェアラブル端末装置10において指示画像31を変更するためのユーザ操作がなされた場合に、当該ユーザ操作に応じて指示画像データ1321を変更し、変更後の指示画像データ1321に基づいて指示画像31の表示を更新したが、これに限られない。例えば、上記ユーザ操作に応じて、外部機器20から受信した指示情報133を変更してもよい。その上で、変更後の指示情報133に基づいて、再度指示画像データ1321を生成し、当該指示画像データ1321に基づいて指示画像31を表示させてもよい。
 また、外部機器20から受信した指示情報133に、上記実施形態の指示画像データ1321に相当する情報が含まれている場合には、指示画像データ1321の生成を省略し、指示情報133に基づいて指示画像31を表示させてもよい。この場合には、ウェアラブル端末装置10において指示画像31を変更するためのユーザ操作が行われると、当該ユーザ操作の内容に応じて指示情報133の内容が変更され、変更後の指示情報133に基づいて指示画像31の表示が更新される。
 また、指示画像31の変更が、一または二以上のユーザによって複数回行われた場合に、指示画像31の変更が行われるごとに、別個の指示画像データ1321を生成して記憶部13に記憶させてもよい。これによれば、各変更が行われた直後のバージョンを含む複数のバージョンの指示画像31を、変更の履歴として残すことができる。よって、所望のバージョンに対応する指示画像データ1321に基づいて指示画像31を表示させることで、所望のバージョンの指示画像31を表示させることができる。また、最初の変更が行われる前の指示画像31に対応する指示画像データ1321を残しておくことで、変更前の状態の指示画像31を表示させることもできる。
 ウェアラブル端末装置10は、図1に例示した環状の本体部10aを有するものに限られず、装着時にユーザが視認可能な表示部を有していれば、どのような構造であってもよい。例えば、ヘルメットのように頭部全体を覆う構成であってもよい。また、メガネのように、耳に掛けるフレームを有し、フレーム内に各種機器が内蔵されていてもよい。
 仮想画像30は必ずしも空間40において静止していなくてもよく、所定の軌跡で空間40の内部を移動していてもよい。
 また、ユーザのジェスチャーを検出して入力操作として受け付ける例を用いて説明したが、これに限られない。例えば、ユーザが手に持ったり、体に装着したりして使用するコントローラにより入力操作が受け付けられてもよい。
 音声データ通信による音声通話の実行中に、外部機器20からウェアラブル端末装置10に対して指示画像31の表示指示が行われる例を用いて説明したが、これに限定されず、音声データ通信を伴わずに指示画像31の表示指示が行われてもよい。
 ウェアラブル端末装置10および外部機器20の間で音声通話を行う例を用いて説明したが、これに限られず、ビデオ通話が可能であってもよい。この場合には、遠隔操作者を撮影するウェブカメラを外部機器20に設け、当該ウェブカメラで撮影している画像データをウェアラブル端末装置10に送信して表示部14にて表示させればよい。
 指示画像31は、ウェアラブル端末装置10のユーザに対する作業指示のために表示されるものに限られない。指示画像31は、ウェアラブル端末装置10のユーザに視認させることを目的として、指示者(ユーザ自身を含む)の指示に基づいてウェアラブル端末装置10において表示される任意の仮想画像30を含む。
 その他、上記実施の形態で示した構成および制御の具体的な細部は、本開示の趣旨を逸脱しない範囲において適宜変更可能である。また、本開示の趣旨を逸脱しない範囲において、上記実施の形態で示した構成および制御を適宜組み合わせ可能である。
 本開示は、ウェアラブル端末装置、プログラムおよび表示方法に利用することができる。
1 表示システム
10 ウェアラブル端末装置
10a 本体部
11 CPU(プロセッサ)
12 RAM
13 記憶部
131 プログラム
132 仮想画像データ
1321 指示画像データ(指示画像情報)
133 指示情報
14 表示部
141 バイザー(表示部材)
142 レーザースキャナー
15 センサー部
151 加速度センサー
152 角速度センサー
153 深度センサー
154 カメラ
155 アイトラッカー
16 通信部
17 マイク
18 スピーカー
19 バス
20 外部機器
21 CPU
23 記憶部
231 プログラム
24 操作表示部
241 指示者用画面
30 仮想画像
31 指示画像
311 付加仮想画像
311a、312a 識別情報
312 注釈仮想画像
313 注釈仮想画像
314 変更反映ボタン
32、33 通知仮想画像
34 キャプチャ画像
40 空間
41 視認領域
411 仮想線
412 ポインタ
51 モニター
52 ボトル
61 設定パネル
62 矢印アイコン
63 ペン入力アイコン
64 画像アイコン
71 ライクボタン
72 ディスライクボタン
73 コメント表示ボタン
80 情報処理装置
81 CPU
83 記憶部
831 プログラム
A ユーザ
B 遠隔指示者
N ネットワーク

Claims (19)

  1.  ユーザが装着して使用するウェアラブル端末装置であって、
     少なくとも一つのプロセッサと、
     前記ユーザの視認領域として空間を撮影するカメラと、
     遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、
     を備え、
     前記少なくとも一つのプロセッサは、
     前記カメラによる撮影画像を、前記通信部を介して前記外部機器に送信し、
     前記外部機器において前記撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、前記通信部を介して受信し、
     前記空間のうち、受信した前記指示情報に基づく位置に視認されるように前記指示画像を表示部に表示させ、
     表示させた前記指示画像の変更を行うためのユーザ操作を受け付けて、当該ユーザ操作に応じて前記指示画像の表示を更新する、ウェアラブル端末装置。
  2.  前記表示部は、光透過性を有する表示部材を備え、
     前記少なくとも一つのプロセッサは、前記表示部材を通して視認される前記空間に前記指示画像が視認されるように、前記指示画像を前記表示部材の表示面に表示させる、請求項1に記載のウェアラブル端末装置。
  3.  前記少なくとも一つのプロセッサは、前記カメラにより撮影された前記空間の画像、および当該空間の画像に重ねられた前記指示画像を前記表示部に表示させる、請求項1に記載のウェアラブル端末装置。
  4.  前記指示画像の変更は、前記指示画像に対する注釈の付加を含み、
     前記少なくとも一つのプロセッサは、前記注釈を含む前記指示画像を前記表示部に表示させる、請求項1~3のいずれか一項に記載のウェアラブル端末装置。
  5.  前記少なくとも一つのプロセッサは、前記指示画像に対して前記注釈を付加する場合に、前記通信部を介して、前記注釈の内容を含む注釈情報を前記外部機器に送信する、請求項4に記載のウェアラブル端末装置。
  6.  前記指示画像の変更は、前記指示画像の表示位置の変更を含む、請求項1~5のいずれか一項に記載のウェアラブル端末装置。
  7.  前記少なくとも一つのプロセッサは、前記表示位置の変更に応じて変更後の表示位置へ移動している前記指示画像、および前記表示位置の変更が完了した前記指示画像の少なくとも一方を、前記表示位置の変更前における前記指示画像の表示態様とは異なる表示態様で表示させる、請求項6に記載のウェアラブル端末装置。
  8. サブ8
     前記指示画像の変更は、前記指示画像に対する、前記ユーザ操作を行った前記ユーザを表す識別情報の付加を含み、
     前記少なくとも一つのプロセッサは、前記識別情報を含む前記指示画像を前記表示部に表示させる、請求項1~7のいずれか一項に記載のウェアラブル端末装置。
  9.  前記少なくとも一つのプロセッサは、
     前記識別情報の付加を行う場合には、前記識別情報を含む仮想画像を前記表示部に表示させ、
     前記空間における自装置の位置の変化に応じて、前記仮想画像のうち前記識別情報を含む部分が自装置を向くように前記仮想画像の方向を変更する、請求項8に記載のウェアラブル端末装置。
  10.  前記指示画像の変更は、前記指示画像の色の変更を含む、請求項1~9のいずれか一項に記載のウェアラブル端末装置。
  11.  前記少なくとも一つのプロセッサは、
     前記指示画像の変更を行うための前記ユーザ操作がなされた場合に、前記指示画像の変更の許可を要求する要求信号を、前記通信部を介して前記外部機器に送信し、
     前記要求信号の送信後に、前記指示画像の変更を許可する許可信号を前記通信部が受信した場合に前記指示画像を変更する、請求項1~10のいずれか一項に記載のウェアラブル端末装置。
  12.  前記少なくとも一つのプロセッサは、前記指示画像を変更する場合に、当該指示画像を変更する旨の通知を、前記通信部を介して前記外部機器に送信する、請求項1~11のいずれか一項に記載のウェアラブル端末装置。
  13.  前記通信部は、前記外部機器との間のリアルタイムの音声データ通信、および前記外部機器に対するリアルタイムの前記撮影画像の送信の少なくとも一方を含むライブ通信を行い、
     前記少なくとも一つのプロセッサは、前記ライブ通信が行われているライブ通信期間においては、前記指示画像の変更を行わず、前記ライブ通信期間を除いた期間においては、前記指示画像の変更を行う、請求項1~12のいずれか一項に記載のウェアラブル端末装置。
  14.  前記少なくとも一つのプロセッサは、前記表示部に前記指示画像を表示させたときの当該指示画像および前記撮影画像を含むキャプチャ画像を記憶部に記憶させ、当該キャプチャ画像を前記表示部に表示させる、請求項1~13のいずれか一項に記載のウェアラブル端末装置。
  15.  前記少なくとも一つのプロセッサは、前記外部機器おいて表示される前記撮影画像に、前記生成指示に応じて前記指示画像が重畳表示されたときのキャプチャ画像を、前記通信部を介して受信し、当該キャプチャ画像を前記表示部に表示させる、請求項1~13のいずれか一項に記載のウェアラブル端末装置。
  16.  前記少なくとも一つのプロセッサは、
     前記指示画像の表示位置が前記ユーザの視認領域に含まれるか否かを判別し、
     前記指示画像の表示位置が前記ユーザの視認領域に含まれると判別した場合には、前記表示部に前記キャプチャ画像を表示させる、請求項14または15に記載のウェアラブル端末装置。
  17.  前記少なくとも一つのプロセッサは、自装置の電源がオフ状態となった後に電源がオン状態となった場合に、電源が前記オフ状態となる前に前記表示部に表示させた前記指示画像に係る前記指示情報または当該指示情報に基づいて生成された指示画像情報を取得し、前記指示情報または前記指示画像情報に基づいて前記指示画像を再表示させる、請求項1~16のいずれか一項に記載のウェアラブル端末装置。
  18.  ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラと、遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、を備えたウェアラブル端末装置に設けられたコンピュータに、
     前記カメラによる撮影画像を、前記通信部を介して前記外部機器に送信する処理、
     前記外部機器において前記撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、前記通信部を介して受信する処理、
     前記空間のうち、受信した前記指示情報に基づく位置に視認されるように前記指示画像を表示部に表示させる処理、
     表示させた前記指示画像の変更を行うためのユーザ操作を受け付け、当該ユーザ操作に応じて前記指示画像の表示を更新する処理、
     を実行させるプログラム。
  19.  ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラと、遠隔指示者が使用する外部機器との間でデータ通信を行う通信部と、を備えたウェアラブル端末装置に設けられたコンピュータが実行する表示方法であって、
     前記カメラによる撮影画像を、前記通信部を介して前記外部機器に送信し、
     前記外部機器において前記撮影画像に基づいて行われた指示画像の生成指示に係る指示情報を、前記通信部を介して受信し、
     前記空間のうち、受信した前記指示情報に基づく位置に視認されるように前記指示画像を表示部に表示させ、
     表示させた前記指示画像の変更を行うためのユーザ操作を受け付け、当該ユーザ操作に応じて前記指示画像の表示を更新する、表示方法。
PCT/JP2021/024314 2021-06-28 2021-06-28 ウェアラブル端末装置、プログラムおよび表示方法 WO2023275919A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/024314 WO2023275919A1 (ja) 2021-06-28 2021-06-28 ウェアラブル端末装置、プログラムおよび表示方法
JP2023531137A JPWO2023275919A1 (ja) 2021-06-28 2021-06-28

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/024314 WO2023275919A1 (ja) 2021-06-28 2021-06-28 ウェアラブル端末装置、プログラムおよび表示方法

Publications (1)

Publication Number Publication Date
WO2023275919A1 true WO2023275919A1 (ja) 2023-01-05

Family

ID=84690969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024314 WO2023275919A1 (ja) 2021-06-28 2021-06-28 ウェアラブル端末装置、プログラムおよび表示方法

Country Status (2)

Country Link
JP (1) JPWO2023275919A1 (ja)
WO (1) WO2023275919A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2021020074A (ja) * 2020-09-24 2021-02-18 株式会社コロプラ ゲームプログラム、方法、および情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2021020074A (ja) * 2020-09-24 2021-02-18 株式会社コロプラ ゲームプログラム、方法、および情報処理装置

Also Published As

Publication number Publication date
JPWO2023275919A1 (ja) 2023-01-05

Similar Documents

Publication Publication Date Title
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US10643389B2 (en) Mechanism to give holographic objects saliency in multiple spaces
US9728010B2 (en) Virtual representations of real-world objects
US9201578B2 (en) Gaze swipe selection
US20140152558A1 (en) Direct hologram manipulation using imu
US11755122B2 (en) Hand gesture-based emojis
US20140160157A1 (en) People-triggered holographic reminders
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
US10878285B2 (en) Methods and systems for shape based training for an object detection algorithm
US10514755B2 (en) Glasses-type terminal and control method therefor
US20190179406A1 (en) Display device and image display method
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
JP6201024B1 (ja) ヘッドマウントデバイスを用いてコンテンツを提供するアプリケーションへの入力を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、およびコンテンツ表示装置
WO2023275919A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
US11423585B2 (en) Velocity-based controls
WO2022208600A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
WO2022269888A1 (ja) ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システム
WO2022208595A1 (ja) ウェアラブル端末装置、プログラムおよび報知方法
WO2022208612A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
JP7478902B2 (ja) ウェアラブル端末装置、プログラムおよび表示方法
WO2023276058A1 (ja) 部分画像の表示位置を変更するウェアラブル端末装置
WO2022201433A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
WO2024047990A1 (ja) 情報処理装置
CN113220110A (zh) 显示系统及方法
JP2024052410A (ja) プロセッサ、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21948233

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023531137

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE