WO2018073969A1 - Image display device and image display system - Google Patents

Image display device and image display system Download PDF

Info

Publication number
WO2018073969A1
WO2018073969A1 PCT/JP2016/081358 JP2016081358W WO2018073969A1 WO 2018073969 A1 WO2018073969 A1 WO 2018073969A1 JP 2016081358 W JP2016081358 W JP 2016081358W WO 2018073969 A1 WO2018073969 A1 WO 2018073969A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
type
user
eye
Prior art date
Application number
PCT/JP2016/081358
Other languages
French (fr)
Japanese (ja)
Inventor
貴拓 伊達
康博 中村
Original Assignee
サン電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サン電子株式会社 filed Critical サン電子株式会社
Priority to JP2018546133A priority Critical patent/JP6867566B2/en
Priority to PCT/JP2016/081358 priority patent/WO2018073969A1/en
Publication of WO2018073969A1 publication Critical patent/WO2018073969A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the technology disclosed in this specification relates to an image display device that is used while being worn on a user's head, and an image display system including the image display device.
  • Patent Document 1 Japanese Patent Laying-Open No. 2014-93050 discloses an image display device used by being mounted on a user's head.
  • This type of image display device relates to a camera that captures an image in a range corresponding to a user's field of view (ie, a real image), a display unit that displays the captured real image, and an image displayed on the display unit.
  • a computer that displays the object image to be combined with the real image displayed on the display unit.
  • Patent Literature 1 when an object image is combined with a real image and displayed, it is difficult to adjust the display position of the object image, and the user feels uncomfortable, for example, the object image cannot be seen stereoscopically. There is a case.
  • This specification discloses a technology that can reduce the user's uncomfortable feeling.
  • a first image display device disclosed in this specification includes a first frame that can be mounted on a head of a first user, a first frame that is provided in the first frame, and that is mounted on the first frame.
  • the first right-eye display unit disposed at a position facing the user's right eye and the first frame, disposed at a position facing the left eye of the first user wearing the first frame
  • a left camera that captures a range corresponding to the visual field range of the user's left eye and a first control unit are provided.
  • the first control unit generates the first type of right image data using at least the right camera image of the right camera image captured by the right camera and the left camera image captured by the left camera.
  • the first type of left image data is generated using at least the left camera image of the camera image and the left camera image
  • the first type of right display image represented by the first type of right image data is represented by the first type. Displayed on the right eye display unit, the first type left display image represented by the first type left image data is displayed on the first left eye display unit, and the first user selects the first type right image.
  • a first adjustment process for changing at least one of them according to the change instruction is executed.
  • the image display device captures the target article with both the right camera and the left camera, displays the first type right display image on the first right-eye display unit, and the first type. Are displayed on the first left-eye display unit.
  • the first user wearing the first frame can visually recognize the first type display image with both eyes based on the first type right display image and the first type left display image.
  • the display portion by the first type right display image and the first type left display image are used.
  • the positional deviation from the display portion can be eliminated.
  • the “position” here includes a horizontal position, a vertical position, and a depth direction position.
  • images that is, first type right display image and first type left display image
  • the display unit that is, the first right eye display unit and the first left eye display unit.
  • “To do” is sufficient if the user wearing the image display device can see the image when viewing the display unit. That is, the display unit has a configuration that only reflects the projected light, and the user recognizes the image by viewing the reflected light reflected by the display unit (that is, receiving light by the retina). Including the case where it is possible. The same applies hereinafter.
  • the first adjustment process includes a first right mark image and a second right mark image that is visually recognized so as to be arranged farther from the first user than the first right mark image.
  • the first left mark image displayed on the first right-eye display unit and the second left mark image visually recognized so as to be arranged farther from the first user than the first left mark image Are displayed on the first display unit for the left eye, and when viewed from the first user, the first right mark image and the first left mark image overlap, and the second right mark image
  • the display position of the first right mark image and the second right mark, and the display position of the first left mark image and the second left mark so that the two right mark images appear to overlap. It may include changing at least one of them.
  • the way human objects are viewed differs depending on whether an object at a close position is viewed or an object at a distant position.
  • the human eye has a function of adjusting so as to compensate for a difference in appearance when an object at a close position and an object at a distant position are viewed at different timings. Therefore, in the above image display device, when the adjustment process for viewing an image displayed at a close position and the adjustment process for viewing an image displayed at a distant position are performed at different timings, the close position is obtained.
  • the first user may not easily view them three-dimensionally.
  • the first user in the first adjustment process, overlaps the first right mark image and the first left mark image as viewed from the first user, and Display positions of the first right mark image and the second right mark, and the first left mark image and the second left mark so that the second right mark image and the second right mark image appear to overlap each other. At least one of the display position and the display position can be changed. Therefore, according to the above configuration, even if the first type of display image includes an image at a close position and an image at a distant position as viewed from the first user, the first user has a three-dimensional view. The first type display image can be displayed on the display unit in an easily recognizable manner.
  • the first adjustment processing recognizes the shape of an object included in a right camera image captured by the right camera and a left camera image captured by the left camera, and a right mark image having a shape that matches the shape of the object Is displayed on the first right-eye display unit, a left mark image having a shape suitable for the right mark image is displayed on the first left-eye display unit, and the right mark image and the left mark image are further displayed. At least a part of the first image is displayed in such a manner that the first image can be visually recognized so as to overlap the object when viewed from the first user, and the right mark image and the left mark image are viewed from the first user. It may include changing the display position of the second image so that the second image, which is the other of them, appears to overlap the first image.
  • the first user in the first adjustment process, can make the first image displayed so that at least a part overlaps the object and the second image appear to overlap each other.
  • the display position of the second image can be changed.
  • the two images With the object as a reference, the two images can be aligned. Therefore, the two images can be accurately aligned as compared with the case where the object is not used as a reference. Therefore, according to the above configuration, it is possible to display the first type display image on the display unit more appropriately in such a manner that the first user can easily recognize three-dimensionally.
  • the first image display device may further include a storage device.
  • the first control unit displays the display position of the first type of right display image on the first right eye display unit and the first type of left display on the first left eye display unit.
  • the display position of the first type of right display image on the first right-eye display unit after being changed by the first adjustment processing after at least one of the display position of the image is changed.
  • Identification information indicating the right adjustment position, the left adjustment position that is the display position of the first type of left display image in the first left-eye display unit after being changed by the first adjustment process, and the first user Are stored in the storage device in association with each other, and when the identification information is input after the right adjustment position, the left adjustment position, and the identification information are stored in the storage device, the first right eye
  • the first type is located at a position corresponding to the right adjustment position on the display unit. Together to display the display image may be displayed first kind of left display image at a position corresponding to left adjustment position in the first left-eye display unit.
  • the first image display device stores the right adjustment position and the left adjustment position for the first user in the storage device in association with the identification information, and then when the identification information is input, Based on the stored right adjustment position and left adjustment position, a first type of right display image and a first type of left display image are displayed. That is, when the identification information is input, the result of the first adjustment process performed by the first user can be reflected.
  • the image display device can display the first type display image on the display unit in a manner that is easily recognized by the first user.
  • the first image display device may further include a first communication interface for executing communication with an external device different from the first image display device.
  • the first control unit may generate the second type of right image data based on the first type of right image data.
  • the second type of right image data may be data for displaying the second type of right display image on the target right eye display unit of the external device.
  • the second type of right display image may be an image related to the first type of right display image.
  • the first control unit may generate the second type of left image data based on the first type of left image data.
  • the second type of left image data may be data for displaying the second type of left display image on the target left eye display unit of the external device.
  • the second type of left display image may be an image related to the first type of left display image.
  • the first control unit may transmit the second type of right image data and the second type of left image data to the external device via the first communication interface.
  • the first image display device can allow the user of the external device to visually recognize the display image related to the first type of display image visually recognized by the first user.
  • the first user and the user of the external device can visually recognize images related to each other.
  • the first control unit receives the third type of right image data and the third type of left image data from the external device via the first communication interface, and is represented by the third type of right image data.
  • the third type right display image is displayed on the first right eye display unit, and the third type left display image represented by the third type left image data is displayed on the first left eye display unit. May be.
  • the third type right display image may be an image related to the target right display image displayed on the target right eye display unit of the external device.
  • the third type of left display image may be an image related to the target left display image displayed on the target left eye display unit of the external device.
  • the first image device can cause the first user to visually recognize a display image related to the display image visually recognized by the user of the external device.
  • the first user and the user of the external device can visually recognize images related to each other.
  • the present specification further discloses an image display system including the first image display device and the second image display device.
  • the second image display device includes a second frame that can be attached to the head of a second user different from the first user, and a second frame that is provided in the second frame and that is attached to the second frame.
  • a second right-eye display unit disposed at a position facing the user's right eye, and a second frame provided at the position facing the left eye of the second user wearing the second frame.
  • a second left-eye display unit a second communication interface for executing communication with the first image display device, and a second control unit.
  • the second control unit receives the second type of right image data and the second type of left image data from the first image display device via the second communication interface, and receives the second type of right image data.
  • the second type of right display image is displayed in the second type of display image that can be viewed by both eyes based on the second type of right display image and the second type of left display image.
  • the display position of the second type of right display image in the second right eye display unit and the second left eye display so that there is no positional deviation between the display part of FIG. 2 and the display part of the second type of left display image Type 2 left display on the display.
  • the display position of the ray image at least one of, performing a second adjusting process for changing according to the change instruction input by the second user.
  • the second image display device can cause the second user to visually recognize the second type of display image related to the first type of display image visually recognized by the first user. Images related to each other can be visually recognized by the first user and the second user.
  • the first image display device can display the first type of display image on the display unit as a target that is easily recognized by the first user, and the second image display device The second type display image can be displayed on the display unit in a manner that is easy for the user to recognize.
  • control method a control method, a computer program, and a computer-readable recording medium storing the computer program for realizing the first and second image display apparatuses are also novel and useful.
  • An outline of the image display system is shown. 1 shows a block diagram of an image display system. An outline of an image display method by the image display apparatus will be described.
  • the flowchart of the starting process of 1st Example is shown.
  • the example of the up-down adjustment screen of 1st Example is shown.
  • the example of the left-right adjustment screen of 1st Example is shown.
  • the example of the fine adjustment screen of 1st Example is shown.
  • the example of the menu screen of 1st Example is shown.
  • the flowchart of the display process of 1st Example is shown.
  • the example of a display of the image of each image display apparatus by the display process of 1st Example is shown.
  • the example of a display of the image of each image display apparatus by the display process of 1st Example is shown.
  • the flowchart of the display process of 2nd Example is shown.
  • the example of a display of the image of each image display apparatus by the display process of 2nd Example is shown.
  • the example of the adjustment screen of 3rd Example is shown.
  • the example of the adjustment screen of 4th Example is shown.
  • An appearance of an image display apparatus according to a fifth embodiment is shown.
  • the image display system 2 includes image display devices 10 and 50 and a server 80.
  • the image display apparatuses 10 and 50 and the server 80 can perform wireless communication (specifically, Wi-Fi communication) with each other via the Internet 4.
  • the image display device 10 is an image display device (a so-called head mounted display) used by being mounted on a user's head. As shown in FIG. 1, the image display device 10 includes a frame 12, a right display unit 14R, a left display unit 14L, a right projection unit 15R, a left projection unit 15L, a right camera 16R, and a left camera 16L. A control box 18 and an operation unit 19 are provided.
  • the frame 12 is a spectacle frame-shaped member.
  • the user can wear the image display device 10 on the head by wearing the frame 12 like wearing glasses.
  • the right display portion 14R and the left display portion 14L are translucent display members, respectively.
  • the right display unit 14R is disposed at a position facing the user's right eye
  • the left display unit 14L is disposed at a position facing the left eye.
  • the right display unit 14R and the left display unit 14L may be collectively referred to as “display unit 14”.
  • the right projection unit 15R and the left projection unit 15L are members that project images onto the right display unit 14R and the left display unit 14L, respectively.
  • the right projection unit 15R and the left projection unit 15L are provided on the sides of the right display unit 14R and the left display unit 14L, respectively.
  • the right projection unit 15R and the left projection unit 15L may be collectively referred to as “projection unit 15”.
  • the projection unit 15 projects a predetermined virtual image (hereinafter referred to as “object image”) on the display unit 14 in accordance with an instruction from the control unit 30.
  • the user can view the real-world object or / and space as if the object image was synthesized at a predetermined position in the real-world object or / and space that can be visually recognized by the user through the display unit 14.
  • the object image An image of a real-world object or a combination of a space and an object image (that is, an image visually recognized by a user) may be referred to as a “display image” below.
  • the control unit 30 displays a desired image on the display unit 14 by instructing the projection unit 15 to project an image, the operation of the projection unit 15 will be described. It may be omitted and simply expressed as “the control unit 30 causes the display unit 14 to display a desired image”.
  • the right camera 16R is a camera disposed in the frame 12 at a position above the right display unit 14R (that is, a position corresponding to above the user's right eye).
  • the left camera 16L is a camera disposed in the frame 12 at an upper position of the left display unit 14L (that is, a position corresponding to the upper portion of the user's left eye).
  • Each of the right camera 16R and the left camera 16L can capture a range corresponding to the field of view of the user wearing the image display device 10 (hereinafter may be referred to as a “specific range”) from different angles.
  • the right camera 16R captures the viewing range of the user's right eye
  • the left camera 16L captures the viewing range of the user's left eye.
  • the right camera 16R and the left camera 16L may be collectively referred to as “camera 16”.
  • the control box 18 is a box attached to a part of the frame 12.
  • the control box 18 accommodates each element that controls the control system of the image display apparatus 10. Specifically, as shown in FIG. 2, the control box 18 houses a sensor 20, a Wi-Fi interface 22, a control unit 30, and a memory 32.
  • the interface is described as “I / F”.
  • the operation unit 19 is provided on the outer surface of the control box 18.
  • the operation unit 19 is a button that can be operated by the user, and the user can input various instructions to the image display device 10 by operating the operation unit 19.
  • the sensor 20 is a triaxial acceleration sensor.
  • the sensor 20 detects acceleration of three axes of X, Y, and Z.
  • the control unit 30 can specify the posture and motion state of the image display device 10.
  • the Wi-Fi I / F 22 is an I / F for executing Wi-Fi communication with an external device (for example, the server 80) via the Internet 4.
  • the control unit 30 executes various processes according to the program stored in the memory 32. Details of processing executed by the control unit 30 will be described later in detail (see FIGS. 4 and 9).
  • the control unit 30 is electrically connected to the display unit 14, the projection unit 15, the camera 16, the sensor 20, the Wi-Fi I / F 22, and the memory 32, and controls the operation of each of these elements. Can do.
  • the memory 32 stores various programs.
  • the memory 32 is provided with a user information storage area 34 for storing user information related to the user of the image display device 10.
  • the user information includes a user ID for identifying the user, a password used for authentication of the user, and adjustment information.
  • the adjustment information is for adjusting the display positions of the left and right display images when the user corresponding to the user ID visually recognizes the image (that is, the display image) using the image display device 10 to an appropriate position for the user.
  • Information is stored in the memory 32 by executing a recording process (see FIG. 4) described later.
  • the memory 32 also stores a device ID for identifying the image display device 10.
  • the image display device 50 has the same configuration as the image display device 10. That is, the image display device 50 also has the frame 52, the right display unit 54R, the left display unit 54L, the right camera 56R, the left camera 56L, the control box 58, and the operation unit 59, as with the image display device 10. And have.
  • a sensor 60, a Wi-Fi I / F 62, a control unit 70, and a memory 72 are provided in the control box 58.
  • the memory 72 is provided with a user information storage area 74.
  • the memory 72 also stores a device ID for identifying the image display device 50.
  • each process for example, the startup process in FIG. 4, the display process in FIG. 9, etc.
  • the control unit 70 can also execute all the same processes as the processes executed by the control unit 30 of the image display apparatus 10.
  • the server 80 is a server installed by an administrator of the image display devices 10 and 50 (for example, a company that provides the image display devices 10 and 50).
  • the server 80 manages the image display devices 10 and 50 as devices included in a predetermined device group, and relays image data communication between the image display devices 10 and 50.
  • the server 80 includes a display unit 82, an operation unit 84, a Wi-Fi I / F 86, a control unit 88, and a memory 90.
  • the display unit 82 is a display capable of displaying various information.
  • the operation unit 84 includes a keyboard and a mouse.
  • the user of the server 80 can input various instructions to the server 80 by operating the operation unit 84.
  • the Wi-Fi I / F 86 is an I / F for executing Wi-Fi communication with an external device (for example, the image display devices 10 and 50) via the Internet 4.
  • the control unit 88 executes various processes according to programs stored in the memory 90.
  • the memory 90 stores the device IDs of the image display devices 10 and 50 in association with predetermined group IDs. That is, the memory 90 stores information indicating that the image display device 10 and the image display device 50 are included in the device group represented by the group ID.
  • FIG. 3 An outline of a technique (mechanism) for displaying the display image 110 on the display unit 14 in the image display apparatus 10 of the present embodiment will be described.
  • FIG. 3 an example is assumed in which the user U1 visually recognizes a display image 110 in which an object image 102 that is a virtual image is combined with an image 101 (hereinafter referred to as “real image”) 101 of a mug 100 that is an actual article.
  • the object image 102 includes a virtual image for making the mug 100 appear as if it has a face, and a virtual image for making it appear as if a balloon is coming out of the mug 100.
  • the user U1 is viewing the mug 100, which is an actual article, via the display unit 14 with the image display device 10 attached to his / her head.
  • the shooting range of the camera 16 includes the mug 100.
  • the right camera 16R and the left camera 16L each photograph the mug 100 from different angles.
  • the control unit 30 generates right image data for displaying the right display image 110R on the right display unit 14R based on the right camera image photographed by the right camera 16R. Similarly, the control unit 30 generates left image data for displaying the left display image 110L on the left display unit 14L based on the left camera image captured by the left camera 16L.
  • the control unit 30 displays the right display image 110R (that is, the right object image 102R) on the right display unit 14R and the left display image 110L (that is, the left object image) on the left display unit 14L. 102L) is displayed.
  • the right display image 110R includes the right real image 101R of the mug 100 that the user U1 is viewing with the right eye, and the right object image 102R synthesized with the right real image 101R.
  • the left display image 110L includes a left reality image 101L of the mug 100 that the user U1 is viewing with the left eye, and a left object image 102L synthesized with the left reality image 101L.
  • the display position of the right object image 102R in the right display image 110R and the display position of the left object image 102L in the left display image 110L are slightly different from each other. This takes into account the parallax between the right eye and the left eye.
  • the right eye of the user U1 visually recognizes the right display image 110R, and the left eye visually recognizes the left display image 110L. As a result, the user U1 can visually recognize the display image 110 with both eyes.
  • control unit 30 displays the right display image 110R on the right display unit 14R and displays the left display image 110L on the left display unit 14L, thereby allowing the user to visually recognize the display image 110 with both eyes. It may be simply described as “the control unit 30 causes the display unit 14 to display the display image 110”.
  • the image display apparatus 10 generates right image data based on the right camera image captured by the right camera 16R, and generates left image data based on the left camera image captured by the left camera 16L. Is generated. Then, based on each image data, the right display image 110R and the left display image 110L are displayed on the right display unit 14R and the left display unit 14L, respectively. Since the images 110R and 110L are displayed based on the camera images obtained by the two cameras 16R and 16L, the user U1 displays the display image 110 as compared with the case where the images are displayed based on the camera images obtained by the single camera. It is easy to recognize the object image 120 included in the image three-dimensionally.
  • the right display image 110R and the left display image 110L are respectively displayed on the right display unit 14R and the left display unit by the above-described method.
  • the user U1 can visually recognize one display image 110.
  • the images 110R and 110L are displayed at fixed positions in the right display unit 14R and the left display unit 14L each time, the user U1
  • the display image 110 may not be properly viewed by the user, for example, when the object image 120 is displayed twice, such as a shift occurs between the image viewed by the right eye and the image viewed by the left eye.
  • image position shift such a situation may be referred to as “image position shift”.
  • the position of the focus in the user's field of view (that is, the distance from the feature point on which the user is focused) also changes. Can occur.
  • the convergence angle of both eyes differs between when the user focuses on a relatively near position and when the user focuses on a relatively far position. Due to the difference in the convergence angle of both eyes, the above-described image misalignment may occur.
  • a startup process (see FIG. 4) described later is executed in order to suppress image positional deviation.
  • the display position of the right display image 110R on the right display unit 14R and the display position of the left display image 110L on the left display unit 14L are positions suitable for the user wearing the image display device 10.
  • Adjusted to And the display process (refer FIG. 9) for displaying an image on the display part 14 in the state by which adjustment was performed is performed.
  • the startup process (see FIG. 4) and the display process (see FIG. 9) will be described in detail.
  • the control unit 30 causes the display unit 14 to display a predetermined login screen (not shown).
  • the login screen is a screen for requesting the user to input a registered user ID and password. While the login screen is displayed, the user can input his / her registered user ID and password by performing a predetermined gesture within the shooting range (that is, the specific range) of the camera 16.
  • the user ID and password are not registered, the user can perform a predetermined new registration start operation for requesting new registration.
  • the user inputs various operations to the image display device 10
  • the user inputs the operations by performing a gesture within a specific range.
  • the user may perform various operations including an input operation such as a user ID and a new registration start operation by operating the operation unit 19.
  • the control unit 30 determines whether a user ID and a password have been input.
  • the control unit 30 detects that an operation for inputting the user ID and password is performed within the specific range while the login screen is displayed on the display unit 14, the control unit 30 determines YES in S12, and then proceeds to S14. move on.
  • the control unit 30 determines NO in S12 and proceeds to S20.
  • the control unit 30 determines whether or not the authentication of the user ID and password input by the user is successful.
  • the control unit 30 includes a user information storage area in the memory 32 that includes user information including a combination that matches a combination of input user ID and password (hereinafter referred to as “specific user ID etc.”). It is determined whether or not it is present in 34.
  • specific user ID etc. user information including a combination that matches a combination of input user ID and password
  • the control unit 30 determines YES in S14, and proceeds to S16.
  • the control unit 30 determines NO in S14 and returns to S10.
  • control unit 30 reads the adjustment information stored in the user information storage area 34 in association with a specific user ID or the like. Thereafter, the control unit 30 displays the right display image 110R on the right display unit 14R and the left display image 110L on the left display unit 14L according to the display position indicated by the read adjustment information.
  • S18 ends, the process proceeds to S32.
  • the control unit 30 displays a predetermined new information input screen (not shown) on the display unit 14, and the new user ID and new password are displayed. Monitor input.
  • the user can input a new user ID and a new password by performing a predetermined input gesture within a specific range while the new information input screen is displayed on the display unit 14.
  • the control unit 30 determines YES in S20, and proceeds to S22.
  • the control unit 30 displays the new user ID and the new password on the display unit 14. Display a message requesting a change.
  • the control unit 30 adjusts the vertical positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L. Specifically, in S22, the control unit 30 causes the display unit 14 to display the up / down adjustment screen 210 of FIG.
  • the vertical adjustment screen 210 includes marks 212 and 214 for adjusting the vertical position, an up button 216 for raising the image display position, a down button 218 for lowering the image display position, and confirmation.
  • the OK button 220 is included. Of the two marks 212 and 214, the mark 212 is displayed on the right display unit 14R, and the mark 214 is displayed on the left display unit 14L.
  • the up movement button 216, the down movement button 218, and the OK button 220 are displayed on one of the right display portion 14R and the left display portion 14L.
  • the user can visually recognize the vertical adjustment screen 210 as shown in FIG. 5 by viewing these elements with both eyes. While viewing the two marks 212 and 214 with both eyes, the user operates the buttons 216 and 218 to adjust the two marks 212 and 214 so that they overlap. By adjusting the two marks 212 and 214 to overlap, the vertical positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are adjusted.
  • the user operates the OK button 220 when the two marks 212 and 214 are adjusted so as to overlap (that is, when the vertical position is adjusted), and determines the vertical position. In this case, the control unit 30 temporarily stores the determined vertical position in the memory 32, and proceeds to S24.
  • the control unit 30 adjusts the left and right positions of the images 110R and 110L. Specifically, in S24, the control unit 30 displays the left / right adjustment screen 230 of FIG.
  • the left and right adjustment screen 230 includes marks 232 and 234 for adjusting the left and right positions, a separation movement button 236 for increasing the display interval between the left and right images, and a proximity movement button 238 for reducing the display interval between the left and right images.
  • an OK button 240 for confirmation.
  • the mark 232 is displayed on the right display unit 14R
  • the mark 234 is displayed on the left display unit 14L.
  • the separation movement button 236, the proximity movement button 238, and the OK button 240 are displayed on one of the right display portion 14R and the left display portion 14L.
  • the user can visually recognize the left-right adjustment screen 230 as shown in FIG. 6 by viewing these elements with both eyes. While viewing the two marks 232 and 234 with both eyes, the user operates the buttons 236 and 238 to adjust the two marks 232 and 234 so that they overlap. By adjusting so that the two marks 232 and 234 overlap, the left and right positions (in other words, the intervals) of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are adjusted.
  • the user operates the OK button 240 when the two marks 232 and 234 are adjusted so as to overlap each other (that is, when the left and right positions are adjusted) to determine the left and right positions.
  • the control unit 30 temporarily stores the determined left and right positions in the memory 32 and proceeds to S26.
  • the control unit 30 finely adjusts the display positions of the images 110R and 110L. Specifically, in S26, the control unit 30 displays the fine adjustment screen 250 of FIG.
  • the control unit 30 displays the fine adjustment screen 250 of FIG.
  • the fine adjustment screen 250 includes marks 252 and 254 for position adjustment, a right adjustment button 256 for finely adjusting the display position of the image displayed on the right display unit 14R vertically and horizontally, and a left display unit 14L.
  • a left adjustment button 258 for finely adjusting the display position of the displayed image vertically and horizontally, and an OK button 260 for confirmation are included.
  • the mark 252 is displayed on the right display unit 14R
  • the mark 254 is displayed on the left display unit 14L.
  • the right adjustment button 256, the left adjustment button 258, and the OK button 260 are displayed on one of the right display portion 14R and the left display portion 14L.
  • the user can view a fine adjustment screen 250 as shown in FIG. 7 by viewing these elements with both eyes. While viewing the two marks 252 and 254 with both eyes, the user operates the buttons 256 and 258 to adjust the two marks 252 and 254 so that they overlap. By adjusting so that the two marks 252 and 254 overlap, the display positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are finely adjusted, respectively.
  • the user operates the OK button 260 when the two marks 252 and 254 are adjusted so as to overlap each other, and determines the position. In this case, the control unit 30 temporarily stores the determined display position in the memory 32, and proceeds to S28.
  • control unit 30 In S28, the control unit 30 generates adjustment information indicating the display position determined in S22 to S26. Next, in S30, the control unit 30 stores the adjustment information generated in S28 in the user information storage area 34 in association with the new user ID and the new password. Thereafter, the control unit 30 displays the right display image 110R on the right display unit 14R and the left display image 110L on the left display unit 14L according to the display position indicated by the adjustment information generated in S28. When S30 ends, the process proceeds to S32.
  • the control unit 30 causes the display unit 14 to display the menu screen 300 (see FIG. 8).
  • the menu screen 300 includes a menu object image 320.
  • the display unit 14 is a translucent display, the menu screen has a mode in which the menu object image 320 is combined with an actual article (that is, an indoor scene) that can be viewed through the display unit 14. 300 can be seen.
  • the menu object image 320 represents the main menu.
  • the menu object image 320 includes three selectable icons 322, 324, and 326, and an end button 328 for ending the display of the menu object image 320.
  • Each icon 322 to 326 corresponds to each function of the image display device 10.
  • the icon 322 indicates a game application
  • the icon 324 indicates an education application
  • the icon 326 indicates a setting function for changing various settings related to the image display device 10.
  • the user can activate a function corresponding to the desired icon by performing a gesture of touching the desired icon (that is, performing an operation of selecting the desired icon).
  • the activation process in FIG. 4 ends.
  • the control unit 30 displays the right display unit 14R.
  • the left and right positions of the images 110R and 110L displayed on the left display unit 14L can be readjusted.
  • the control unit 30 re-executes the processes of S22 to S30 in FIG. 4, and again performs the vertical position adjustment (S22), the horizontal position adjustment (S24), and the fine adjustment (S26) according to the user instruction.
  • control unit 30 displays the right display image 110R on the right display unit 14R and displays the left display image 110L on the left display unit 14L in accordance with the display position indicated by the re-executed adjustment information generated in S28.
  • the user can adjust the display position of the image as needed in accordance with his / her state even after the start-up process of FIG. 4 is completed.
  • control unit 30 acquires the right camera image currently captured by the right camera 16R from the right camera 16R, and acquires the left camera image currently captured by the left camera 16L from the left camera 16L. .
  • control unit 30 displays data of the display image displayed on the display unit of another image display device (for example, the image display device 50) in the device group including the own device from the server 80 (that is, the right side). Display image data and left display image data).
  • the control unit 30 displays the right display image on the right display unit 14R of its own device based on the right camera image acquired in S50 and the right image data received in S52 (see 110R in FIG. 3).
  • the right image data for displaying is generated.
  • the control unit 30 displays a left display image (see 110L in FIG. 3) on the left display unit 14L of the own device based on the left camera image acquired in S50 and the left image data received in S52.
  • Left image data for generating the image is generated.
  • the right image data and the left image data include object image data to be combined with a real image.
  • the control unit 30 causes the display unit 14 to display a display image (see 110 in FIG. 3) based on the right image data and the left image data generated in S54. That is, the control unit 30 displays the right display image on the right display unit 14R based on the right image data, and displays the left display image on the left display unit 14L based on the left image data.
  • the display image displayed in S56 is, for example, an image in a form in which an object image (see 102 in FIG. 3) is combined with a real image (see 101 in FIG. 3).
  • the control unit 30 includes right display image data indicating the right display image (that is, an image including the real image and the object image) displayed in S56, and a left display image (that is, the real image and the object image).
  • Left display image data indicating (image) is generated and transmitted to the server 80.
  • the server 80 receives the right display image data and the left display image data from the image display device 10
  • the server 80 transmits the image display device to another image display device (for example, the image display device 50) in the device group including the image display device 10.
  • the right display image data and the left display image data received from 10 are transmitted. Thereby, the display image of the aspect which visually recognized the same target object from the own viewpoint from the display units 14 and 54 of the image display apparatuses 10 and 50, respectively, is displayed.
  • the control unit 30 repeatedly executes the processes of S50 to S58 until a predetermined end operation is performed.
  • the control unit 30 can change the display content of the display image according to the operation, such as changing the display mode of the object image included in the display image according to the user's operation. Further, the control unit 30 can change the display content of the display image according to the contents of the right image data and the left image data received from the server 80.
  • FIGS. 10 and 11 Specific examples: FIGS. 10 and 11
  • display processing see FIG. 9
  • the display unit of each device 10, 50 A specific example of the display image displayed on 14 and 54 will be described.
  • a user U1 wearing the image display device 10 and a user U2 wearing the image display device 50 exist in the room R.
  • a game application that is, an application corresponding to the icon 322 in FIG. 8
  • display processing see FIG. 9) is executed.
  • Each of the users U1 and U2 sees the apple 400, which is an actual article existing in the room R, from a different position (that is, the apple 400 exists within the shooting range of the cameras 16 and 56).
  • FIG. 10 shows a state in which an object image 410 imitating an arrow is stabbed into the apple 400 by an operation of the user U1 in the game (specifically, an operation in which the user U1 shoots an arrow using a virtual bow). Yes.
  • a display image 450 is displayed on the display unit.
  • Display image 450 includes a real image 401 of apple 400 and an object image 410 of an arrow.
  • the object image 410 represents a state in which an arrow is stuck toward the back side of the page.
  • the display image 460 is displayed on the display unit 54 by the image display device 50 executing the processing of S50 to S58 of FIG.
  • the display image 460 also includes a real image 401 of the apple 400 and an arrow object image 410.
  • the object image 410 represents a state in which an arrow is stuck toward the left side of the page.
  • display images 450 and 460 in a form in which the same object is viewed from the viewpoint of the own device are displayed on the display units 14 and 54 of the image display apparatuses 10 and 50, respectively.
  • FIG. 11 further shows that the object image 420 imitating the flag of the apple 400 is further stabbed by an operation of the user U2 in the game (specifically, an operation in which the user U2 pushes up a virtual flagpole). ing.
  • a display image 470 is displayed on the display unit 14 of the image display device 10.
  • Display image 470 further includes a flag object image 420.
  • the object image 420 represents a state where a flag is stuck on the left side of the apple 400.
  • a display image 480 is displayed on the display unit 54 of the image display device 50.
  • Display image 480 also includes a flag object image 420.
  • the object image 420 represents a state where a flag is stuck in front of the apple 400.
  • display images 470 and 480 in a form in which the same object is visually recognized from the viewpoint of the own device are displayed on the display units 14 and 54 of the image display devices 10 and 50, respectively.
  • the image display apparatus 10 captures the target article with both the right camera 16R and the left camera 16L, displays the right display image on the right display unit 14R based on the right camera image, and also displays the left camera image.
  • the left display image is displayed on the left display unit 14L based on (see FIGS. 3 and 9).
  • the user wearing the image display device 10 can visually recognize the display image with both eyes based on the right display image and the left display image.
  • the image display device 10 recognizes three-dimensionally for the user as compared to the case where a configuration in which a display image is displayed based only on an image obtained by photographing an article with one camera is employed.
  • the display image can be displayed on the display unit 14 in a manner that is easy to do.
  • control unit 30 executes the processing of S22 to S30 in FIG. 4 to display the display portion by the right display image and the display by the left display image when displaying the display image on the display unit 14. Misalignment with the part can also be eliminated. Therefore, according to the image display apparatus 10 of the present embodiment, it is possible to display a display image in a manner that is less uncomfortable for the user. Therefore, according to the present embodiment, the user's uncomfortable feeling can be reduced.
  • control unit 30 stores the generated adjustment information in the user information storage area 34 in association with the new user ID and the new password (S28 and S30 in FIG. 4). Then, when the user ID and password stored in the user information storage area 34 are input in the subsequent startup processing (FIG. 4) (YES in S14), the control unit 30 associates with the user ID and the like. Then, the adjustment information stored in the user information storage area 34 is read (S16). After that, the control unit 30 displays the right display image on the right display unit 14R and displays the left display image on the left display unit 14L according to the display position indicated by the read adjustment information.
  • the image display apparatus 10 can store adjustment information indicating the display position for each user, and can reflect the display position indicated by the adjustment information when the user authentication is successful.
  • the image display device 10 can display a display image on the display unit 14 in a manner that is easy for the user to recognize for each user.
  • the control unit 30 also displays display image data (that is, right display image data and left display image data) displayed on the display unit of another image display device in the device group including the own device from the server 80. (S52 in FIG. 9), based on the display image data, right image data and left image data to be displayed on the display unit of the own device are generated (S54). Then, the control unit 30 causes the display unit 14 to display a display image (see 110 in FIG. 3) based on the right image data and the left image data generated in S54 (S56). Further, the control unit 30 generates right display image data and left display image data representing the display image displayed in S56, and transmits them to the server 80 (S58).
  • display image data that is, right display image data and left display image data
  • the server 80 When the server 80 receives the right display image data and the left display image data from the image display device 10, the server 80 transmits the image display device to another image display device (for example, the image display device 50) in the device group including the image display device 10.
  • the right display image data and the left display image data received from 10 are transmitted. Therefore, as shown in FIGS. 10 and 11, the image display devices 10 and 50 can display display images related to each other on the display units 14 and 54.
  • the image display device 10 is an example of a “first image display device”.
  • the image display device 50 is an example of an “external device” or “second image display device”.
  • the right display unit 14R and the left display unit 14L are examples of a “right eye display unit” and a “left eye display unit”, respectively.
  • the right image data and the left image data generated in S54 of FIG. 9 are examples of “first type right image data” and “first type left image data”, respectively.
  • the right display image and the left display image displayed in S56 of FIG. 9 are examples of the “first type right display image” and the “first type left display image”, respectively.
  • the left / right position adjustment instruction performed in S24, and the fine adjustment instruction performed in S26 are examples of the “change instruction”.
  • the vertical position adjustment performed in S22, the horizontal position adjustment performed in S24, and the fine adjustment performed in S26 are examples of the “first adjustment process”.
  • the display position for the right display unit and the display position for the left display unit indicated by the adjustment information generated in S28 are examples of “right adjustment position” and “left adjustment position”, respectively.
  • the user ID is an example of “identification information”.
  • the right display image data and the left display image data transmitted to the server 80 in S58 of FIG. 9 are examples of “second type right image data” and “second type left image data”, respectively.
  • the right display image data and the left display image data received from the server 80 in S52 of FIG. 9 (that is, received from the image display device 50 via the server 80) are “third type right image data”, It is an example of "3rd type left image data.”
  • a display process executed by the control unit 30 of the image display apparatus 10 of the present embodiment will be described. After the activation process (see FIG. 4) is finished and the menu screen 300 is displayed on the display unit 14, when the user performs an operation of selecting an icon (for example, the icon 324) corresponding to a desired application, The display process of FIG. 12 is started.
  • the control unit 30 determines whether or not the setting of the own device is the transmission side.
  • the memory 32 of the image display apparatus 10 stores information indicating whether the own device functions as a transmission side terminal or a reception side terminal.
  • the transmission-side terminal is a device that transmits data representing a display image displayed on its own device to another device via the server 80.
  • the receiving side terminal receives data representing the display image displayed on the transmitting side terminal from the transmitting side terminal via the server 80 and displays the same display image as the display image displayed on the transmitting side terminal. Terminal.
  • the user can set in advance whether the image display device 10 functions as a transmission-side terminal or a reception-side terminal.
  • the control unit 30 determines YES in S70 and proceeds to S72.
  • the control unit 30 determines NO in S70, and proceeds to S80.
  • control unit 30 acquires the right camera image currently captured by the right camera 16R from the right camera 16R, and acquires the left camera image currently captured by the left camera 16L from the left camera 16L. .
  • the control unit 30 In S74, the control unit 30 generates right image data for displaying a right display image (see 110R in FIG. 3) on the right display unit 14R of the own device based on the right camera image acquired in S70. At the same time, the control unit 30 generates left image data for displaying a left display image (see 110L in FIG. 3) on the left display unit 14L of the own device based on the left camera image acquired in S70.
  • the right image data and the left image data include object image data to be combined with a real image.
  • control unit 30 causes the display unit 14 to display a display image (see 110 in FIG. 3) based on the right image data and the left image data generated in S74. That is, the control unit 30 displays the right display image on the right display unit 14R based on the right image data, and displays the left display image on the left display unit 14L based on the left image data.
  • the control unit 30 In subsequent S78, the control unit 30 generates right display image data indicating the right display image displayed in S76 and left display image data indicating the left display image, and transmits them to the server 80.
  • the server 80 receives the right display image data and the left display image data from the image display device 10
  • the server 80 transmits the image display device 10 to another image display device (for example, the image display device 50) that is a receiving side terminal in the device group.
  • the received right display image data and left display image data are transmitted.
  • the same display image is displayed on the display units of the image display devices 10 and 50, respectively.
  • control unit 30 repeatedly executes the processes of S72 to S78 until a predetermined end operation is performed.
  • the control unit 30 can change the display content of the display image according to the operation, such as changing the display mode of the object image included in the display image according to the user's operation.
  • control unit 30 displays data of the display image displayed on the display unit of the image display device 10 that is the transmitting terminal (that is, the server 80). , Right display image data and left display image data).
  • the control unit 30 causes the display unit 14 to display a display image based on the right display image data and the left display image data received in S80. That is, the control unit 30 displays the right display image on the right display unit 14R based on the right display image data, and displays the left display image on the left display unit 14L based on the left display image data. Thereby, the same image as the display image data displayed on the display part of the other image display apparatus which is a transmission side terminal is displayed on the display part 14.
  • FIG. 13 For example: FIG. 13
  • a display process (see FIG. 12) is executed by the image display device 10 and the image display device 50 of the present embodiment, the display units 14 and 54 of the devices 10 and 50.
  • FIG. 13 A specific example of the display image displayed on the screen will be described.
  • a user U1 wearing the image display device 10 and a user U2 wearing the image display device 50 exist in the room R.
  • an education application that is, an application corresponding to the icon 324 in FIG. 8
  • display processing (see FIG. 12) is executed.
  • the image display device 10 is set as a display side terminal, and the image display device 50 is set as a reception side terminal.
  • the user U1 who is a lecturer teaches how to cook for the user U2 who is a student role using the image display system 2.
  • the user U1 is looking at the pan 500 which is an actual article existing in the room R (that is, the pan 500 exists within the shooting range of the camera 16).
  • a part of the bread 500 is sliced in advance.
  • the display image 550 is displayed on the display unit 14 as a result of executing the processing of S72 to S78 of FIG.
  • the display image 550 includes a real image 501 of the pan 500, an object image 510 for an explanatory message, and a knife object image 512.
  • the display image 600 is displayed on the display unit 54 as a result of executing the processing of S80 and S82 of FIG.
  • the display image 600 is the same image as the display image 550 displayed on the display unit 14 of the image display device 10.
  • the display images 550 and 600 having the same contents are displayed on the display units 14 and 54 of the image display devices 10 and 50, respectively.
  • the image display system 2 of the present embodiment can also exhibit the same operational effects as the image display system 2 of the first embodiment. Further, as described above, in the present embodiment, the display images 550 and 600 having the same contents are displayed on the display units 14 and 54 of the image display devices 10 and 50, respectively. That is, each user can visually recognize the same image.
  • the right image data and the left image data generated in S74 of FIG. 12 are examples of “first type right image data” and “first type left image data”, respectively.
  • the right display image data and the left display image data transmitted to the server 80 in S78 are examples of “second type right image data” and “second type left image data”, respectively.
  • the right display image data and the left display image data received from the server 80 in S80 (that is, received from the transmitting terminal via the server 80) are “third type right image data” and “third type”, respectively. Is an example of “left image data”.
  • the adjustment screen 710 of this embodiment includes marks 712 and 714 for position adjustment at positions close to the user, marks 722 and 724 for position adjustment at positions far from the user, and a right adjustment button 730. And a left adjustment button 732 and an OK button 750 for confirmation.
  • the marks 712 and 714 are mark images that are visually recognized so as to be displayed at positions close to the user.
  • the marks 722 and 724 are mark images that are visually recognized so as to be displayed at positions far from the user.
  • the marks 722 and 724 are displayed separately in four places. Among the marks, the mark 712 and the mark 722 are displayed on the right display unit 14R, and the mark 714 and the mark 724 are displayed on the left display unit 14L.
  • the right adjustment button 730 is an adjustment button for adjusting the display position of each image (in this case, the mark 712 and the mark 722) displayed on the right display unit 14R
  • the left adjustment button 732 is a left display. This is an adjustment button for adjusting the display position of each image (in this case, the mark 714 and the mark 724) displayed on the portion 14L in the vertical and horizontal directions.
  • the right adjustment button 730 is operated, the display positions of the mark 712 and the mark 722 are changed simultaneously with the operation.
  • the left adjustment button 732 is operated, the display positions of the mark 714 and the mark 724 change simultaneously with the operation.
  • the right adjustment button 730, the left adjustment button 732, and the OK button 750 are displayed on one of the right display portion 14R and the left display portion 14L.
  • the user can visually recognize the adjustment screen 710 as shown in FIG. 14 by viewing the above elements with both eyes.
  • the user operates the buttons 730 and 732 while viewing the marks 712, 714, 722, and 724 with both eyes, and adjusts the mark 712 and the mark 714 so that they overlap, and the mark 722 and the mark 724 overlap.
  • the marks 712 and 714 so as to overlap with each other, the display position of the image displayed at a position close to the user when viewed from the user is adjusted among the images 110R and 110L.
  • the marks 722 and 724 so as to overlap each other, the display position of an image displayed at a position far from the user among the images 110R and 110L is adjusted.
  • the user operates the OK button 750 to determine the position.
  • the control unit 30 temporarily stores the determined display position in the memory 32, and proceeds to S28 of FIG.
  • the subsequent processing is the same as in the first embodiment.
  • the way human objects are viewed differs depending on whether an object at a close position is viewed or an object at a distant position.
  • the human eye has a function of adjusting so as to compensate for a difference in appearance when an object at a close position and an object at a distant position are viewed at different timings. Therefore, when the image display device 10 performs an adjustment process for viewing an image displayed at a close position and an adjustment process for viewing an image displayed at a distant position at different timings, the display is performed at a close position.
  • an image to be displayed and an image displayed at a distant position are displayed at the same time, it may be difficult for the user to visually recognize them.
  • the user adjusts the marks 712 and 714 so that the marks 722 and 724 appear to overlap while looking at the adjustment screen 710. Therefore, according to the present embodiment, even when the images 110R and 110L include an image at a close position and an image at a distant position when viewed from the user, the image 110R is easily recognized three-dimensionally by the user. 110L can be displayed on the display unit 14.
  • the marks 712 and 714 of the present embodiment are examples of “first right mark image” and “first left mark image”, respectively.
  • the marks 722 and 724 are examples of a “second right mark image” and a “second left mark image”, respectively.
  • a button 832 and an OK button 840 for confirmation are included.
  • the mark 812 is a mark image displayed on the right display unit 14R
  • the mark 814 is a mark image displayed on the left display unit 14L.
  • the mark 812 has a shape that matches the outer shape of the actual monitor portion of the television monitor 850 that exists in the user's field of view, and is displayed at a position that overlaps the outer shape of the monitor portion. That is, in this embodiment, the control unit 30 recognizes the shape of the monitor portion of the television monitor 850 from the right camera image taken by the right camera 16R and the left camera image taken by the left camera 16L, and monitors the monitor. An image of the mark 812 having a shape that matches the portion is generated and displayed on the right display unit 14R.
  • the mark 814 has the same shape as the mark 812 (that is, a shape that matches the external shape of the monitor portion of the television monitor).
  • the right adjustment button 830, the left adjustment button 832, and the OK button 840 are displayed on one of the right display portion 14R and the left display portion 14L.
  • the user can visually recognize the adjustment screen 810 as shown in FIG. 15 by viewing each of the above elements with both eyes.
  • the user operates the buttons 830 and 832 while adjusting the marks 812 and 814 displayed at close positions with both eyes, and adjusts the marks 812 and 814 to overlap each other.
  • the user can move the mark 814 and adjust the mark 814 so as to overlap the mark 812 that is already displayed on the television monitor 850. That is, the user can make adjustments based on the TV monitor 850 that is an actual object.
  • the positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are adjusted.
  • the user operates the OK button 840 to determine the position.
  • the control unit 30 temporarily stores the determined display position in the memory 32, and proceeds to S28 of FIG. The subsequent processing is the same as in the first embodiment.
  • the user can change the display position of the mark 814 so that the mark 812 displayed so as to overlap the television monitor 850 and the mark 814 appear to overlap each other.
  • the marks 812 and 814 can be aligned with reference to the television monitor 850 (that is, an actual object). Therefore, the marks 812 and 814 can be accurately aligned as compared with the case where the television monitor 850 is not used as a reference. Therefore, according to the above configuration, it is possible to display the images 110R and 110L on the display unit 14 in a more appropriate manner that allows the user to easily recognize three-dimensionally.
  • the marks 812 and 814 of the present embodiment are examples of a “right mark image” and a “left mark image”, respectively.
  • the marks 812 and 814 in the above example are examples of “first image” and “second image”, respectively.
  • the television monitor 850 is an example of “object”.
  • the configuration of the image display apparatus 1000 is different from that of the first embodiment.
  • the image display apparatus 1000 of the present embodiment is different from the first embodiment in that the display unit 1014 is a light-shielding display and blocks the user's field of view when the user wears the image display apparatus 1000. Is different. Other components are almost the same as those in the first embodiment.
  • the control unit 30 faces the right eye of the user in the display unit 1014 when displaying the display image on the display unit 1014.
  • the right display image is displayed in the area
  • the left display image is displayed in the area of the display unit 1014 facing the user's left eye.
  • the image display device 10 (50, 1000) includes one component in which all the components 14 to 32 (54 to 72, 1014) are mounted on the frame 12 (52). It is configured as a device.
  • the present invention is not limited to this, and some of the components of the image display device may be provided outside the frame.
  • the memory 32 may be provided outside the frame 12 so as to be able to communicate with the control unit 30.
  • the image display device 10 may be formed by combining the components mounted on the frame 12 and the components provided outside the frame 12.
  • the image display device 10 has the operation unit 19 provided outside the control box 18.
  • the image display device 10 is not limited to this, and the physical operation unit 19 may not be provided.
  • the input of various instructions may all be performed by the control unit 30 detecting a user gesture performed within the shooting range of the camera 16 (that is, the specific range).
  • a connection unit that can connect an external input device such as a keyboard may be provided. In that case, input of various instructions may be performed by an external input device connected to the connection unit.
  • the right camera 16R and the left camera 16L are disposed above the right display unit 14R and the left display unit 14L, respectively.
  • the arrangement positions of the right camera 16R and the left camera 16L are not limited to this, the right camera captures a range corresponding to the user's right eye view range, and the left camera captures a range corresponding to the user's left eye view range. If possible, they may be arranged at arbitrary positions.
  • the right image data for displaying the right display image on the right display unit 14R is generated based on the right camera image
  • the left display image is displayed on the left display unit 14L.
  • the left image data for this is generated based on the left camera image.
  • the right image data is generated based on the right image of the combined image of the right camera image and the left camera image
  • the left image data is generated based on the left image of the combined image. May be.
  • the image display devices 10 and 50 may perform wireless communication directly without using the server 80.
  • the image display device 10 and the image display device 50 may execute wireless communication other than Wi-Fi communication, such as Bluetooth (registered trademark) communication.
  • the image display device set in the receiving terminal may not be provided with a camera. That is, the device that is the receiving terminal may be a reception-only device.
  • each of the image display devices has a substantially glasses-like frame, and can be worn on the user's head like wearing glasses.
  • the image display device is not limited to this, and may have an arbitrary support frame such as a hat shape or a helmet shape as long as the image display device can be mounted on the user's head.
  • An image display device is formed by mounting a camera, a control box, etc. on eyewear (glasses, sunglasses, etc.) generally used for purposes such as vision correction and eye protection. May be. In that case, the lens portion of the eyewear may be used as the display unit.
  • Modification 9 In the third embodiment, instead of displaying the adjustment screen 710, the control unit 30 performs an up / down adjustment screen for adjusting the vertical position, a left / right adjustment screen for adjusting the left / right position, Adjustments may be made by displaying fine adjustment screens for adjustment in order. Similarly, in the fourth embodiment, instead of displaying the adjustment screen 810, the control unit displays a vertical adjustment screen for adjusting the vertical position, a horizontal adjustment screen for adjusting the horizontal position, and a fine adjustment for fine adjustment. Adjustments may be made by displaying the adjustment screens in order.
  • the control unit 30 may display the mark 814 on the television monitor 850 in place of the mark 812.
  • an object that exists in the user's field of view and is used as a reference for position adjustment is not limited to the television monitor 850 shown in FIG. 15, and may be any object. Therefore, for example, a dedicated article for position adjustment may be used.

Abstract

An image display device for imaging a candidate article with both a right camera and a left camera, and causing a right display image to be displayed on a right display unit on the basis of the right camera image and causing a left display image to be displayed on a left display unit on the basis of the left camera image. A user wearing the image display device can visually recognize a display image with both eyes on the basis of the right display image and the left display image. A control unit adjusts the display position of the right display image on the right display unit and the display position of the left display image on the left display unit in accordance with an indication of the user. When displaying the display image on a display unit 14, it is possible to resolve a position aberration between a display portion by the right display image and a display portion by the left display image.

Description

画像表示装置及び画像表示システムImage display device and image display system
 本明細書によって開示される技術は、ユーザの頭部に装着して用いられる画像表示装置と、その画像表示装置を備える画像表示システムに関する。 The technology disclosed in this specification relates to an image display device that is used while being worn on a user's head, and an image display system including the image display device.
 例えば、特開2014-93050号公報(以下、特許文献1という)には、ユーザの頭部に装着して用いられる画像表示装置が開示されている。この種の画像表示装置は、ユーザの視界に対応する範囲の画像(即ち、現実画像)を撮影するカメラと、撮影された現実画像を表示する表示部と、表示部に表示される画像に関連するオブジェクト画像を表示部に表示されている現実画像に合成して表示させるコンピュータと、を備える。 For example, Japanese Patent Laying-Open No. 2014-93050 (hereinafter referred to as Patent Document 1) discloses an image display device used by being mounted on a user's head. This type of image display device relates to a camera that captures an image in a range corresponding to a user's field of view (ie, a real image), a display unit that displays the captured real image, and an image displayed on the display unit. And a computer that displays the object image to be combined with the real image displayed on the display unit.
 特許文献1の画像表示装置では、現実画像にオブジェクト画像を合成して表示させる場合に、オブジェクト画像の表示位置の調整が難しく、例えば、オブジェクト画像が立体的に見えない等、ユーザが違和感を受ける場合がある。 In the image display device of Patent Literature 1, when an object image is combined with a real image and displayed, it is difficult to adjust the display position of the object image, and the user feels uncomfortable, for example, the object image cannot be seen stereoscopically. There is a case.
 本明細書では、ユーザの違和感を低減できる技術を開示する。 This specification discloses a technology that can reduce the user's uncomfortable feeling.
 本明細書によって開示される第1の画像表示装置は、第1のユーザの頭部に装着可能な第1のフレームと、第1のフレームに備えられ、第1のフレームを装着した第1のユーザの右眼に対向する位置に配置される第1の右眼用表示部と、第1のフレームに備えられ、第1のフレームを装着した第1のユーザの左眼に対向する位置に配置される第1の左眼用表示部と、第1のフレームを装着した第1のユーザの右眼の視界範囲に対応する範囲を撮影する右カメラと、第1のフレームを装着した第1のユーザの左眼の視界範囲に対応する範囲を撮影する左カメラと、第1の制御部と、を備えている。第1の制御部は、右カメラによって撮影された右カメラ画像と左カメラによって撮影された左カメラ画像とのうちの少なくとも右カメラ画像を利用して第1種の右画像データを生成し、右カメラ画像と左カメラ画像とのうち少なくとも左カメラ画像を利用して第1種の左画像データを生成し、第1種の右画像データによって表される第1種の右ディスプレイ画像を第1の右眼用表示部に表示させ、第1種の左画像データによって表される第1種の左ディスプレイ画像を第1の左眼用表示部に表示させ、第1のユーザが第1種の右ディスプレイ画像と第1種の左ディスプレイ画像とに基づいて両眼で視認可能な第1種のディスプレイ画像において、第1種の右ディスプレイ画像による表示部分と第1種の左ディスプレイ画像による表示部分との位置ズレが無くなるように、第1の右眼用表示部における第1種の右ディスプレイ画像の表示位置と、第1の左眼用表示部における第1種の左ディスプレイ画像の表示位置と、のうちの少なくとも一方を、変化指示に従って変化させるための第1の調整処理を実行する。 A first image display device disclosed in this specification includes a first frame that can be mounted on a head of a first user, a first frame that is provided in the first frame, and that is mounted on the first frame. The first right-eye display unit disposed at a position facing the user's right eye and the first frame, disposed at a position facing the left eye of the first user wearing the first frame A first left-eye display unit, a right camera that captures a range corresponding to the viewing range of the right eye of the first user wearing the first frame, and the first wearing the first frame A left camera that captures a range corresponding to the visual field range of the user's left eye and a first control unit are provided. The first control unit generates the first type of right image data using at least the right camera image of the right camera image captured by the right camera and the left camera image captured by the left camera. The first type of left image data is generated using at least the left camera image of the camera image and the left camera image, and the first type of right display image represented by the first type of right image data is represented by the first type. Displayed on the right eye display unit, the first type left display image represented by the first type left image data is displayed on the first left eye display unit, and the first user selects the first type right image. In a first type display image that can be viewed with both eyes based on the display image and the first type left display image, a display part by the first type right display image and a display part by the first type left display image of The display position of the first type of right display image in the first right-eye display unit and the display position of the first type of left display image in the first left-eye display unit so that the displacement is eliminated. A first adjustment process for changing at least one of them according to the change instruction is executed.
 上記の構成によると、画像表示装置は、対象の物品を右カメラと左カメラの両方で撮影し、第1種の右ディスプレイ画像を第1の右眼用表示部に表示させるとともに、第1種の左ディスプレイ画像を第1の左眼用表示部に表示させる。第1のフレームを装着した第1のユーザは、第1種の右ディスプレイ画像と第1種の左ディスプレイ画像とに基づいて、両眼で第1種のディスプレイ画像を視認することができる。そして、第1の調整処理が実行されることにより、第1のユーザが第1種のディスプレイ画像を視認する際における、第1種の右ディスプレイ画像による表示部分と第1種の左ディスプレイ画像による表示部分との位置ズレを解消することができる。ここで言う「位置」は、横方向の位置、縦方向の位置、奥行き方向の位置を含む。これにより、画像表示装置は第1種のディスプレイ画像を、ユーザにとって違和感の少ない態様で表示させることができる。従って、上記の構成によると、ユーザの違和感を低減することができる。 According to the above configuration, the image display device captures the target article with both the right camera and the left camera, displays the first type right display image on the first right-eye display unit, and the first type. Are displayed on the first left-eye display unit. The first user wearing the first frame can visually recognize the first type display image with both eyes based on the first type right display image and the first type left display image. Then, by executing the first adjustment process, when the first user visually recognizes the first type display image, the display portion by the first type right display image and the first type left display image are used. The positional deviation from the display portion can be eliminated. The “position” here includes a horizontal position, a vertical position, and a depth direction position. Thereby, the image display apparatus can display the first type display image in a manner that is less uncomfortable for the user. Therefore, according to said structure, a user's discomfort can be reduced.
 ここで、「表示部(即ち、第1の右眼用表示部及び第1の左眼用表示部)に画像(即ち、第1種の右ディスプレイ画像及び第1種の左ディスプレイ画像)を表示させる」とは、画像表示装置を装着したユーザが、表示部を見た際に、その画像を見ることができれば足りる。即ち、表示部が、投光された光を反射するだけの構成を有し、ユーザが、表示部によって反射された反射光を見る(即ち、網膜で受光する)ことによって、画像を認識することができるものである場合も含む。以下本明細書において同様である。 Here, “images (that is, first type right display image and first type left display image) are displayed on the display unit (that is, the first right eye display unit and the first left eye display unit). “To do” is sufficient if the user wearing the image display device can see the image when viewing the display unit. That is, the display unit has a configuration that only reflects the projected light, and the user recognizes the image by viewing the reflected light reflected by the display unit (that is, receiving light by the retina). Including the case where it is possible. The same applies hereinafter.
 第1の調整処理は、第1の右マーク画像と、第1の右マーク画像よりも第1のユーザから見て遠方に配置されるように視認される第2の右マーク画像と、を第1の右眼用表示部に表示させ、第1の左マーク画像と、第1の左マーク画像よりも第1のユーザから見て遠方に配置されるように視認される第2の左マーク画像と、を第1の左眼用表示部に表示させ、第1のユーザから見て、第1の右マーク画像と第1の左マーク画像とが重なり、かつ、第2の右マーク画像と第2の右マーク画像とが重なって見えるように、第1の右マーク画像及び第2の右マークの表示位置と、第1の左マーク画像及び第2の左マークの表示位置と、のうちの少なくとも一方を変更することを含んでもよい。 The first adjustment process includes a first right mark image and a second right mark image that is visually recognized so as to be arranged farther from the first user than the first right mark image. The first left mark image displayed on the first right-eye display unit and the second left mark image visually recognized so as to be arranged farther from the first user than the first left mark image Are displayed on the first display unit for the left eye, and when viewed from the first user, the first right mark image and the first left mark image overlap, and the second right mark image The display position of the first right mark image and the second right mark, and the display position of the first left mark image and the second left mark so that the two right mark images appear to overlap. It may include changing at least one of them.
 人間の物の見方は、近い位置の物体を見る場合と、遠い位置の物体を見る場合と、で異なる。そして、人間の眼は、近い位置の物体と遠い位置の物体を別々のタイミングで見る場合、見え方の違いを補うように調整する機能を有する。そのため、上記の画像表示装置において、近い位置に表示される画像を見るための調整処理と、遠い位置に表示される画像を見るための調整処理と、を別々のタイミングで行うと、近い位置に表示される画像と遠い位置に表示される画像とが同時に表示される場合に、第1のユーザが、それらを立体的に視認し難い場合がある。この点、上記の構成によると、第1のユーザは、第1の調整処理において、第1のユーザから見て、第1の右マーク画像と第1の左マーク画像とが重なり、かつ、第2の右マーク画像と第2の右マーク画像とが重なって見えるように、第1の右マーク画像及び第2の右マークの表示位置と、第1の左マーク画像及び第2の左マークの表示位置と、のうちの少なくとも一方を変更することができる。従って、上記の構成によると、第1種のディスプレイ画像が、第1のユーザから見て、近い位置の画像と遠い位置の画像とを含む場合であっても、第1のユーザにとって立体的に認識し易い態様で、第1種のディスプレイ画像を表示部に表示させることができる。 ¡The way human objects are viewed differs depending on whether an object at a close position is viewed or an object at a distant position. The human eye has a function of adjusting so as to compensate for a difference in appearance when an object at a close position and an object at a distant position are viewed at different timings. Therefore, in the above image display device, when the adjustment process for viewing an image displayed at a close position and the adjustment process for viewing an image displayed at a distant position are performed at different timings, the close position is obtained. When an image to be displayed and an image to be displayed at a distant position are displayed at the same time, the first user may not easily view them three-dimensionally. In this regard, according to the above configuration, the first user, in the first adjustment process, overlaps the first right mark image and the first left mark image as viewed from the first user, and Display positions of the first right mark image and the second right mark, and the first left mark image and the second left mark so that the second right mark image and the second right mark image appear to overlap each other. At least one of the display position and the display position can be changed. Therefore, according to the above configuration, even if the first type of display image includes an image at a close position and an image at a distant position as viewed from the first user, the first user has a three-dimensional view. The first type display image can be displayed on the display unit in an easily recognizable manner.
 第1の調整処理は、右カメラで撮影される右カメラ画像と、左カメラで撮影される左カメラ画像と、に含まれる物体の形状を認識し、物体の形状に適合する形状の右マーク画像を第1の右眼用表示部に表示させるとともに、右マーク画像に適合する形状の左マーク画像を第1の左眼用表示部に表示させ、さらに、右マーク画像と左マーク画像とのうちの一方である第1の画像の少なくとも一部を、第1のユーザから見て物体に重なるように視認できる態様で表示させ、第1のユーザから見て、右マーク画像と左マーク画像とのうちの他方である第2の画像が第1の画像と重なって見えるように、第2の画像の表示位置を変更することを含んでもよい。 The first adjustment processing recognizes the shape of an object included in a right camera image captured by the right camera and a left camera image captured by the left camera, and a right mark image having a shape that matches the shape of the object Is displayed on the first right-eye display unit, a left mark image having a shape suitable for the right mark image is displayed on the first left-eye display unit, and the right mark image and the left mark image are further displayed. At least a part of the first image is displayed in such a manner that the first image can be visually recognized so as to overlap the object when viewed from the first user, and the right mark image and the left mark image are viewed from the first user. It may include changing the display position of the second image so that the second image, which is the other of them, appears to overlap the first image.
 この構成によると、第1のユーザは、第1の調整処理において、少なくとも一部が物体に重なるように表示された第1の画像と、第2の画像と、が重なって見えるように、第2の画像の表示位置を変更することができる。物体を基準として、2つの画像の位置合わせを行うことができる。そのため、物体を基準にしない場合に比べて、2つの画像の位置合わせを正確に行うことができる。従って、上記の構成によると、より適切に、第1のユーザにとって立体的に認識し易い態様で、第1種のディスプレイ画像を表示部に表示させることができる。 According to this configuration, in the first adjustment process, the first user can make the first image displayed so that at least a part overlaps the object and the second image appear to overlap each other. The display position of the second image can be changed. With the object as a reference, the two images can be aligned. Therefore, the two images can be accurately aligned as compared with the case where the object is not used as a reference. Therefore, according to the above configuration, it is possible to display the first type display image on the display unit more appropriately in such a manner that the first user can easily recognize three-dimensionally.
 第1の画像表示装置は、記憶装置をさらに備えていてもよい。第1の制御部は、第1の調整処理において、第1の右眼用表示部における第1種の右ディスプレイ画像の表示位置と、第1の左眼用表示部における第1種の左ディスプレイ画像の表示位置と、のうちの少なくとも一方が変化された後で、第1の調整処理によって変化された後の第1の右眼用表示部における第1種の右ディスプレイ画像の表示位置である右調整位置と、第1の調整処理によって変化された後の第1の左眼用表示部における第1種の左ディスプレイ画像の表示位置である左調整位置と、第1のユーザを示す識別情報と、を対応付けて記憶装置に記憶させ、右調整位置と、左調整位置と、識別情報と、が記憶装置に記憶された後で、識別情報が入力される場合に、第1の右眼用表示部における右調整位置に対応する位置に第1種の右ディスプレイ画像を表示させるとともに、第1の左眼用表示部における左調整位置に対応する位置に第1種の左ディスプレイ画像を表示させてもよい。 The first image display device may further include a storage device. In the first adjustment process, the first control unit displays the display position of the first type of right display image on the first right eye display unit and the first type of left display on the first left eye display unit. The display position of the first type of right display image on the first right-eye display unit after being changed by the first adjustment processing after at least one of the display position of the image is changed. Identification information indicating the right adjustment position, the left adjustment position that is the display position of the first type of left display image in the first left-eye display unit after being changed by the first adjustment process, and the first user Are stored in the storage device in association with each other, and when the identification information is input after the right adjustment position, the left adjustment position, and the identification information are stored in the storage device, the first right eye The first type is located at a position corresponding to the right adjustment position on the display unit. Together to display the display image may be displayed first kind of left display image at a position corresponding to left adjustment position in the first left-eye display unit.
 この構成によると、第1の画像表示装置は、第1のユーザのための右調整位置及び左調整位置を識別情報に対応付けて記憶装置に記憶させ、その後識別情報が入力される場合に、記憶された右調整位置と左調整位置とに基づいて、第1種の右ディスプレイ画像と第1種の左ディスプレイ画像とを表示させる。即ち、識別情報が入力される場合に、第1のユーザが行った第1の調整処理の結果を反映することができる。画像表示装置は、第1のユーザにとって認識し易い態様で第1種のディスプレイ画像を表示部に表示させることができる。 According to this configuration, the first image display device stores the right adjustment position and the left adjustment position for the first user in the storage device in association with the identification information, and then when the identification information is input, Based on the stored right adjustment position and left adjustment position, a first type of right display image and a first type of left display image are displayed. That is, when the identification information is input, the result of the first adjustment process performed by the first user can be reflected. The image display device can display the first type display image on the display unit in a manner that is easily recognized by the first user.
 第1の画像表示装置は、第1の画像表示装置とは異なる外部装置との間で通信を実行するための第1の通信インターフェースをさらに備えていてもよい。第1の制御部は、第1種の右画像データに基づいて第2種の右画像データを生成してもよい。第2種の右画像データは、外部装置の対象右眼用表示部に第2種の右ディスプレイ画像を表示させるためのデータであってもよい。第2種の右ディスプレイ画像は、第1種の右ディスプレイ画像に関係する画像であってもよい。第1の制御部は、第1種の左画像データに基づいて第2種の左画像データを生成してもよい。第2種の左画像データは、外部装置の対象左眼用表示部に第2種の左ディスプレイ画像を表示させるためのデータであってもよい。第2種の左ディスプレイ画像は、第1種の左ディスプレイ画像に関係する画像であってもよい。第1の制御部は、第2種の右画像データと第2種の左画像データを第1の通信インターフェースを介して外部装置に送信してもよい。 The first image display device may further include a first communication interface for executing communication with an external device different from the first image display device. The first control unit may generate the second type of right image data based on the first type of right image data. The second type of right image data may be data for displaying the second type of right display image on the target right eye display unit of the external device. The second type of right display image may be an image related to the first type of right display image. The first control unit may generate the second type of left image data based on the first type of left image data. The second type of left image data may be data for displaying the second type of left display image on the target left eye display unit of the external device. The second type of left display image may be an image related to the first type of left display image. The first control unit may transmit the second type of right image data and the second type of left image data to the external device via the first communication interface.
 この構成によると、第1の画像表示装置は、第1のユーザが視認している第1種のディスプレイ画像に関係するディスプレイ画像を、外部装置のユーザに視認させることができる。第1のユーザと外部装置のユーザとに、互いに関係する画像を視認させることができる。 According to this configuration, the first image display device can allow the user of the external device to visually recognize the display image related to the first type of display image visually recognized by the first user. The first user and the user of the external device can visually recognize images related to each other.
 第1の制御部は、第1の通信インターフェースを介して、外部装置から第3種の右画像データと第3種の左画像データとを受信し、第3種の右画像データによって表される第3種の右ディスプレイ画像を第1の右眼用表示部に表示させ、第3種の左画像データによって表される第3種の左ディスプレイ画像を第1の左眼用表示部に表示させてもよい。第3種の右ディスプレイ画像は、外部装置の対象右眼用表示部に表示される対象右ディスプレイ画像に関係する画像であってもよい。第3種の左ディスプレイ画像は、外部装置の対象左眼用表示部に表示される対象左ディスプレイ画像に関係する画像であってもよい。 The first control unit receives the third type of right image data and the third type of left image data from the external device via the first communication interface, and is represented by the third type of right image data. The third type right display image is displayed on the first right eye display unit, and the third type left display image represented by the third type left image data is displayed on the first left eye display unit. May be. The third type right display image may be an image related to the target right display image displayed on the target right eye display unit of the external device. The third type of left display image may be an image related to the target left display image displayed on the target left eye display unit of the external device.
 この構成によると、第1の画像装置は、外部装置のユーザが視認しているディスプレイ画像に関係するディスプレイ画像を第1のユーザに視認させることができる。第1のユーザと外部装置のユーザとに、互いに関係する画像を視認させることができる。 According to this configuration, the first image device can cause the first user to visually recognize a display image related to the display image visually recognized by the user of the external device. The first user and the user of the external device can visually recognize images related to each other.
 本明細書は、さらに、上記の第1の画像表示装置と、第2の画像表示装置と、を備える画像表示システムを開示する。第2の画像表示装置は、第1のユーザとは異なる第2のユーザの頭部に装着可能な第2のフレームと、第2のフレームに備えられ、第2のフレームを装着した第2のユーザの右眼に対向する位置に配置される第2の右眼用表示部と、第2のフレームに備えられ、第2のフレームを装着した第2のユーザの左眼に対向する位置に配置される第2の左眼用表示部と、第1の画像表示装置との間で通信を実行するための第2の通信インターフェースと、第2の制御部と、を備えている。第2の制御部は、第2の通信インターフェースを介して、第1の画像表示装置から第2種の右画像データと第2種の左画像データとを受信し、第2種の右画像データによって表される第2種の右ディスプレイ画像を第2の右眼用表示部に表示させ、第2種の左画像データによって表される第2種の左ディスプレイ画像を第2の左眼用表示部に表示させ、第2のユーザが第2種の右ディスプレイ画像と第2種の左ディスプレイ画像とに基づいて両眼で視認可能な第2種のディスプレイ画像において、第2種の右ディスプレイ画像による表示部分と第2種の左ディスプレイ画像による表示部分との位置ズレが無くなるように、第2の右眼用表示部における第2種の右ディスプレイ画像の表示位置と、第2の左眼用表示部における第2種の左ディスプレイ画像の表示位置と、のうちの少なくとも一方を、第2のユーザによって入力される変化指示に従って変化させるための第2の調整処理を実行する。 The present specification further discloses an image display system including the first image display device and the second image display device. The second image display device includes a second frame that can be attached to the head of a second user different from the first user, and a second frame that is provided in the second frame and that is attached to the second frame. A second right-eye display unit disposed at a position facing the user's right eye, and a second frame provided at the position facing the left eye of the second user wearing the second frame. A second left-eye display unit, a second communication interface for executing communication with the first image display device, and a second control unit. The second control unit receives the second type of right image data and the second type of left image data from the first image display device via the second communication interface, and receives the second type of right image data. Is displayed on the second right-eye display unit, and the second-type left display image represented by the second-type left image data is displayed for the second left-eye. The second type of right display image is displayed in the second type of display image that can be viewed by both eyes based on the second type of right display image and the second type of left display image. The display position of the second type of right display image in the second right eye display unit and the second left eye display so that there is no positional deviation between the display part of FIG. 2 and the display part of the second type of left display image Type 2 left display on the display The display position of the ray image, at least one of, performing a second adjusting process for changing according to the change instruction input by the second user.
 この構成によると、第2の画像表示装置は、第1のユーザが視認している第1種のディスプレイ画像に関係する第2種のディスプレイ画像を、第2のユーザに視認させることができる。第1のユーザと第2のユーザとに互いに関係する画像を視認させることができる。そしてその際に、第1の画像表示装置は、第1のユーザにとって認識し易い対象で第1種のディスプレイ画像を表示部に表示させることができ、第2の画像表示装置は、第2のユーザにとって認識し易い態様で第2種のディスプレイ画像を表示部に表示させることができる。 According to this configuration, the second image display device can cause the second user to visually recognize the second type of display image related to the first type of display image visually recognized by the first user. Images related to each other can be visually recognized by the first user and the second user. At that time, the first image display device can display the first type of display image on the display unit as a target that is easily recognized by the first user, and the second image display device The second type display image can be displayed on the display unit in a manner that is easy for the user to recognize.
 なお、上記の第1及び第2の画像表示装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も、新規で有用である。 Note that a control method, a computer program, and a computer-readable recording medium storing the computer program for realizing the first and second image display apparatuses are also novel and useful.
画像表示システムの概要を示す。An outline of the image display system is shown. 画像表示システムのブロック図を示す。1 shows a block diagram of an image display system. 画像表示装置による画像表示手法の概要を示す。An outline of an image display method by the image display apparatus will be described. 第1実施例の起動処理のフローチャートを示す。The flowchart of the starting process of 1st Example is shown. 第1実施例の上下調整画面の例を示す。The example of the up-down adjustment screen of 1st Example is shown. 第1実施例の左右調整画面の例を示す。The example of the left-right adjustment screen of 1st Example is shown. 第1実施例の微調整画面の例を示す。The example of the fine adjustment screen of 1st Example is shown. 第1実施例のメニュー画面の例を示す。The example of the menu screen of 1st Example is shown. 第1実施例の表示処理のフローチャートを示す。The flowchart of the display process of 1st Example is shown. 第1実施例の表示処理による各画像表示装置の画像の表示例を示す。The example of a display of the image of each image display apparatus by the display process of 1st Example is shown. 第1実施例の表示処理による各画像表示装置の画像の表示例を示す。The example of a display of the image of each image display apparatus by the display process of 1st Example is shown. 第2実施例の表示処理のフローチャートを示す。The flowchart of the display process of 2nd Example is shown. 第2実施例の表示処理による各画像表示装置の画像の表示例を示す。The example of a display of the image of each image display apparatus by the display process of 2nd Example is shown. 第3実施例の調整画面の例を示す。The example of the adjustment screen of 3rd Example is shown. 第4実施例の調整画面の例を示す。The example of the adjustment screen of 4th Example is shown. 第5実施例の画像表示装置の外観を示す。An appearance of an image display apparatus according to a fifth embodiment is shown.
(第1実施例)
(画像表示システム2の構成;図1、図2)
 図1、図2に示すように、画像表示システム2は、画像表示装置10、50と、サーバ80とを備える。画像表示装置10、50とサーバ80とは、インターネット4を介して相互に無線通信(具体的にはWi-Fi通信)を実行可能である。
(First embodiment)
(Configuration of image display system 2; FIGS. 1 and 2)
As shown in FIGS. 1 and 2, the image display system 2 includes image display devices 10 and 50 and a server 80. The image display apparatuses 10 and 50 and the server 80 can perform wireless communication (specifically, Wi-Fi communication) with each other via the Internet 4.
(画像表示装置10の構成)
 画像表示装置10は、ユーザの頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。図1に示すように、画像表示装置10は、フレーム12と、右表示部14Rと、左表示部14Lと、右投影部15Rと、左投影部15Lと、右カメラ16Rと、左カメラ16Lと、コントロールボックス18と、操作部19とを備えている。
(Configuration of Image Display Device 10)
The image display device 10 is an image display device (a so-called head mounted display) used by being mounted on a user's head. As shown in FIG. 1, the image display device 10 includes a frame 12, a right display unit 14R, a left display unit 14L, a right projection unit 15R, a left projection unit 15L, a right camera 16R, and a left camera 16L. A control box 18 and an operation unit 19 are provided.
 フレーム12は、眼鏡フレーム状の部材である。ユーザは、眼鏡を装着するようにフレーム12を装着することによって、画像表示装置10を頭部に装着することができる。 The frame 12 is a spectacle frame-shaped member. The user can wear the image display device 10 on the head by wearing the frame 12 like wearing glasses.
 右表示部14R、左表示部14Lは、それぞれ、透光性の表示部材である。ユーザが画像表示装置10を頭部に装着すると、ユーザの右眼に対向する位置に右表示部14Rが配置され、左眼に対向する位置に左表示部14Lが配置される。以下、右表示部14R、左表示部14Lを総称して「表示部14」と呼ぶ場合がある。 The right display portion 14R and the left display portion 14L are translucent display members, respectively. When the user wears the image display device 10 on the head, the right display unit 14R is disposed at a position facing the user's right eye, and the left display unit 14L is disposed at a position facing the left eye. Hereinafter, the right display unit 14R and the left display unit 14L may be collectively referred to as “display unit 14”.
 右投影部15R、左投影部15Lは、それぞれ、右表示部14R、左表示部14Lに画像を投影する部材である。右投影部15R、左投影部15Lは、それぞれ、右表示部14R、左表示部14Lの側部に設けられている。以下、右投影部15R、左投影部15Lを総称して「投影部15」と呼ぶ場合がある。本実施例では、投影部15は、制御部30の指示に従って、所定の仮想画像(以下では「オブジェクト画像」と呼ぶ)を表示部14に投影する。これにより、ユーザは、表示部14越しにユーザが視認可能な現実世界の対象物又は/及び空間の所定の位置に、上記オブジェクト画像が合成されたかの様に、現実世界の対象物又は/及び空間とオブジェクト画像とを見ることができる。現実世界の対象物又は及び空間とオブジェクト画像との組合せの画像(即ち、ユーザが視認する画像)のことを、以下では「ディスプレイ画像」と呼ぶ場合がある。以下、本明細書では、制御部30が、投影部15に画像の投影を指示することによって、表示部14に所望の画像を表示させることを説明する場合に、投影部15の動作の説明を省略し、単に「制御部30が表示部14に所望の画像を表示させる」などと表現する場合がある。 The right projection unit 15R and the left projection unit 15L are members that project images onto the right display unit 14R and the left display unit 14L, respectively. The right projection unit 15R and the left projection unit 15L are provided on the sides of the right display unit 14R and the left display unit 14L, respectively. Hereinafter, the right projection unit 15R and the left projection unit 15L may be collectively referred to as “projection unit 15”. In the present embodiment, the projection unit 15 projects a predetermined virtual image (hereinafter referred to as “object image”) on the display unit 14 in accordance with an instruction from the control unit 30. As a result, the user can view the real-world object or / and space as if the object image was synthesized at a predetermined position in the real-world object or / and space that can be visually recognized by the user through the display unit 14. And the object image. An image of a real-world object or a combination of a space and an object image (that is, an image visually recognized by a user) may be referred to as a “display image” below. Hereinafter, in this specification, when it is explained that the control unit 30 displays a desired image on the display unit 14 by instructing the projection unit 15 to project an image, the operation of the projection unit 15 will be described. It may be omitted and simply expressed as “the control unit 30 causes the display unit 14 to display a desired image”.
 右カメラ16Rは、フレーム12のうち、右表示部14Rの上方位置(即ち、ユーザの右眼の上方に対応する位置)に配置されているカメラである。一方、左カメラ16Lは、フレーム12のうち、左表示部14Lの上方位置(即ち、ユーザの左眼の上方に対応する位置)に配置されているカメラである。右カメラ16Rと左カメラ16Lのそれぞれによって、画像表示装置10を装着するユーザの視界範囲に対応する範囲(以下では「特定範囲」と呼ぶ場合がある)を異なる角度から撮影することができる。即ち、右カメラ16Rはユーザの右眼の視界範囲を撮影し、左カメラ16Lはユーザの左眼の視界範囲を撮影すると言うこともできる。また、以下、右カメラ16Rと左カメラ16Lを総称して「カメラ16」と呼ぶ場合がある。 The right camera 16R is a camera disposed in the frame 12 at a position above the right display unit 14R (that is, a position corresponding to above the user's right eye). On the other hand, the left camera 16L is a camera disposed in the frame 12 at an upper position of the left display unit 14L (that is, a position corresponding to the upper portion of the user's left eye). Each of the right camera 16R and the left camera 16L can capture a range corresponding to the field of view of the user wearing the image display device 10 (hereinafter may be referred to as a “specific range”) from different angles. That is, it can be said that the right camera 16R captures the viewing range of the user's right eye, and the left camera 16L captures the viewing range of the user's left eye. Hereinafter, the right camera 16R and the left camera 16L may be collectively referred to as “camera 16”.
 コントロールボックス18は、フレーム12の一部に取り付けられている箱体である。コントロールボックス18には、画像表示装置10の制御系統を司る各要素が収容されている。具体的に言うと、図2に示すように、コントロールボックス18には、センサ20、Wi-Fiインターフェース22と、制御部30と、メモリ32とが収納されている。以下では、インターフェースのことを「I/F」と記載する。 The control box 18 is a box attached to a part of the frame 12. The control box 18 accommodates each element that controls the control system of the image display apparatus 10. Specifically, as shown in FIG. 2, the control box 18 houses a sensor 20, a Wi-Fi interface 22, a control unit 30, and a memory 32. Hereinafter, the interface is described as “I / F”.
 操作部19は、コントロールボックス18の外面に備えられている。操作部19は、ユーザが操作可能なボタンであり、ユーザは、操作部19を操作することによって、様々な指示を画像表示装置10に入力することができる。 The operation unit 19 is provided on the outer surface of the control box 18. The operation unit 19 is a button that can be operated by the user, and the user can input various instructions to the image display device 10 by operating the operation unit 19.
 図2を参照して、コントロールボックス18内の各構成要素について説明する。センサ20は、3軸加速度センサである。センサ20は、X,Y,Zの3軸の加速度を検出する。センサ20の検出値を用いて、制御部30は、画像表示装置10の姿勢、及び、運動状態を特定することができる。 Referring to FIG. 2, each component in the control box 18 will be described. The sensor 20 is a triaxial acceleration sensor. The sensor 20 detects acceleration of three axes of X, Y, and Z. Using the detection value of the sensor 20, the control unit 30 can specify the posture and motion state of the image display device 10.
 Wi-FiI/F22は、インターネット4を介して、外部の装置(例えば、サーバ80)とWi-Fi通信を実行するためのI/Fである。 The Wi-Fi I / F 22 is an I / F for executing Wi-Fi communication with an external device (for example, the server 80) via the Internet 4.
 制御部30は、メモリ32に記憶されているプログラムに従って様々な処理を実行する。制御部30が実行する処理の内容は後で詳しく説明する(図4、図9等参照)。また、制御部30は、表示部14、投影部15、カメラ16、センサ20、Wi-FiI/F22、及び、メモリ32と電気的に接続されており、これらの各要素の動作を制御することができる。 The control unit 30 executes various processes according to the program stored in the memory 32. Details of processing executed by the control unit 30 will be described later in detail (see FIGS. 4 and 9). The control unit 30 is electrically connected to the display unit 14, the projection unit 15, the camera 16, the sensor 20, the Wi-Fi I / F 22, and the memory 32, and controls the operation of each of these elements. Can do.
 メモリ32は、様々なプログラムを記憶している。メモリ32には、画像表示装置10のユーザに関係するユーザ情報を記憶するためのユーザ情報記憶領域34が設けられている。ユーザ情報は、ユーザを識別するためのユーザIDと、当該ユーザの認証に利用されるパスワードと、調整情報と、を含む。調整情報は、ユーザIDに対応するユーザが画像表示装置10を用いて画像(即ちディスプレイ画像)を視認する際の左右のディスプレイ画像の表示位置を、当該ユーザのための適切な位置に調整するための情報である。ユーザ情報は、後述の記録処理(図4参照)が実行されることによってメモリ32に記憶される。また、図示していないが、メモリ32は、画像表示装置10を識別するための装置IDも記憶している。 The memory 32 stores various programs. The memory 32 is provided with a user information storage area 34 for storing user information related to the user of the image display device 10. The user information includes a user ID for identifying the user, a password used for authentication of the user, and adjustment information. The adjustment information is for adjusting the display positions of the left and right display images when the user corresponding to the user ID visually recognizes the image (that is, the display image) using the image display device 10 to an appropriate position for the user. Information. The user information is stored in the memory 32 by executing a recording process (see FIG. 4) described later. Although not shown, the memory 32 also stores a device ID for identifying the image display device 10.
(画像表示装置50の構成)
 画像表示装置50は、画像表示装置10と同様の構成を有する。即ち、画像表示装置50も、画像表示装置10と同様に、フレーム52と、右表示部54Rと、左表示部54Lと、右カメラ56Rと、左カメラ56Lと、コントロールボックス58と、操作部59とを有する。そして、コントロールボックス58内には、センサ60と、Wi-FiI/F62と、制御部70と、メモリ72とが備えられる。メモリ72にはユーザ情報記憶領域74が備えられる。また、メモリ72は、画像表示装置50を識別するための装置IDも記憶している。以下、本実施例では、画像表示装置10の制御部30が実行する各処理(例えば、図4の起動処理、図9の表示処理等)の例を説明する場合があるが、画像表示装置50の制御部70も、画像表示装置10の制御部30が実行する処理と同様の処理をすべて実行することができる。
(Configuration of image display device 50)
The image display device 50 has the same configuration as the image display device 10. That is, the image display device 50 also has the frame 52, the right display unit 54R, the left display unit 54L, the right camera 56R, the left camera 56L, the control box 58, and the operation unit 59, as with the image display device 10. And have. In the control box 58, a sensor 60, a Wi-Fi I / F 62, a control unit 70, and a memory 72 are provided. The memory 72 is provided with a user information storage area 74. The memory 72 also stores a device ID for identifying the image display device 50. Hereinafter, in the present embodiment, an example of each process (for example, the startup process in FIG. 4, the display process in FIG. 9, etc.) executed by the control unit 30 of the image display apparatus 10 may be described. The control unit 70 can also execute all the same processes as the processes executed by the control unit 30 of the image display apparatus 10.
(サーバ80の構成)
 サーバ80は、画像表示装置10、50の管理者(例えば、画像表示装置10、50を提供する企業等)によって設置されるサーバである。サーバ80は、画像表示装置10、50を、予め定められた装置グループに含まれる装置として管理するとともに、画像表示装置10、50間の画像データの通信を中継する。サーバ80は、表示部82と、操作部84と、Wi-FiI/F86と、制御部88と、メモリ90とを備える。
(Configuration of server 80)
The server 80 is a server installed by an administrator of the image display devices 10 and 50 (for example, a company that provides the image display devices 10 and 50). The server 80 manages the image display devices 10 and 50 as devices included in a predetermined device group, and relays image data communication between the image display devices 10 and 50. The server 80 includes a display unit 82, an operation unit 84, a Wi-Fi I / F 86, a control unit 88, and a memory 90.
 表示部82は、様々な情報を表示可能なディスプレイである。操作部84は、キーボード及びマウスを備える。サーバ80のユーザは、操作部84を操作することによって様々な指示をサーバ80に入力することができる。Wi-FiI/F86は、インターネット4を介して、外部の装置(例えば、画像表示装置10、50)とWi-Fi通信を実行するためのI/Fである。制御部88は、メモリ90に記憶されているプログラムに従って様々な処理を実行する。また、メモリ90は、画像表示装置10、50の装置IDと、予め定められたグループIDとを対応付けて記憶している。即ち、メモリ90には、画像表示装置10と画像表示装置50とが、グループIDによって表される装置グループ内に含まれていることを示す情報が記憶されている。 The display unit 82 is a display capable of displaying various information. The operation unit 84 includes a keyboard and a mouse. The user of the server 80 can input various instructions to the server 80 by operating the operation unit 84. The Wi-Fi I / F 86 is an I / F for executing Wi-Fi communication with an external device (for example, the image display devices 10 and 50) via the Internet 4. The control unit 88 executes various processes according to programs stored in the memory 90. The memory 90 stores the device IDs of the image display devices 10 and 50 in association with predetermined group IDs. That is, the memory 90 stores information indicating that the image display device 10 and the image display device 50 are included in the device group represented by the group ID.
(画像表示手法の概要;図3)
 ここで、本実施例の画像表示装置10において、表示部14にディスプレイ画像110が表示される手法(仕組み)の概要を説明しておく。図3では、現実の物品であるマグカップ100の画像(以下「現実画像」と呼ぶ)101に、仮想画像であるオブジェクト画像102を組み合わせた態様のディスプレイ画像110をユーザU1に視認させる例を想定している。オブジェクト画像102は、マグカップ100に顔が付いたように見せるための仮想画像と、マグカップ100から吹き出しが出ているように見せるための仮想画像とを含む。
(Outline of image display method; Fig. 3)
Here, an outline of a technique (mechanism) for displaying the display image 110 on the display unit 14 in the image display apparatus 10 of the present embodiment will be described. In FIG. 3, an example is assumed in which the user U1 visually recognizes a display image 110 in which an object image 102 that is a virtual image is combined with an image 101 (hereinafter referred to as “real image”) 101 of a mug 100 that is an actual article. ing. The object image 102 includes a virtual image for making the mug 100 appear as if it has a face, and a virtual image for making it appear as if a balloon is coming out of the mug 100.
 図3に示すように、この例では、ユーザU1が、画像表示装置10を自身の頭部に装着した状態で、表示部14を介して、現実の物品であるマグカップ100を視認している。このとき、カメラ16の撮影範囲(即ち、ユーザの視界範囲)にはマグカップ100が含まれている。右カメラ16Rと左カメラ16Lはそれぞれマグカップ100を異なる角度から撮影している。 As shown in FIG. 3, in this example, the user U1 is viewing the mug 100, which is an actual article, via the display unit 14 with the image display device 10 attached to his / her head. At this time, the shooting range of the camera 16 (that is, the user's field of view) includes the mug 100. The right camera 16R and the left camera 16L each photograph the mug 100 from different angles.
 制御部30は、右カメラ16Rによって撮影された右カメラ画像に基づいて、右表示部14Rに右ディスプレイ画像110Rを表示させるための右画像データを生成する。同様に、制御部30は、左カメラ16Lによって撮影された左カメラ画像に基づいて、左表示部14Lに左ディスプレイ画像110Lを表示させるための左画像データを生成する。 The control unit 30 generates right image data for displaying the right display image 110R on the right display unit 14R based on the right camera image photographed by the right camera 16R. Similarly, the control unit 30 generates left image data for displaying the left display image 110L on the left display unit 14L based on the left camera image captured by the left camera 16L.
 制御部30は、生成された右画像データに基づいて、右表示部14Rに右ディスプレイ画像110R(即ち右オブジェクト画像102R)を表示させるとともに、左表示部14Lに左ディスプレイ画像110L(即ち左オブジェクト画像102L)を表示させる。右ディスプレイ画像110Rには、ユーザU1が右眼で視認しているマグカップ100の右現実画像101Rと、右現実画像101Rに合成された右オブジェクト画像102Rとが含まれる。左ディスプレイ画像110Lには、ユーザU1が左眼で視認しているマグカップ100の左現実画像101Lと、左現実画像101Lに合成された左オブジェクト画像102Lとが含まれる。右ディスプレイ画像110R中の右オブジェクト画像102Rの表示位置と、左ディスプレイ画像110L中の左オブジェクト画像102Lの表示位置とは、互いにわずかに異なっている。これは、右眼と左眼との間の視差を考慮したものである。ユーザU1の右眼は、右ディスプレイ画像110Rを視認し、左眼は、左ディスプレイ画像110Lを視認する。その結果、ユーザU1は、両眼でディスプレイ画像110を視認することができる。 Based on the generated right image data, the control unit 30 displays the right display image 110R (that is, the right object image 102R) on the right display unit 14R and the left display image 110L (that is, the left object image) on the left display unit 14L. 102L) is displayed. The right display image 110R includes the right real image 101R of the mug 100 that the user U1 is viewing with the right eye, and the right object image 102R synthesized with the right real image 101R. The left display image 110L includes a left reality image 101L of the mug 100 that the user U1 is viewing with the left eye, and a left object image 102L synthesized with the left reality image 101L. The display position of the right object image 102R in the right display image 110R and the display position of the left object image 102L in the left display image 110L are slightly different from each other. This takes into account the parallax between the right eye and the left eye. The right eye of the user U1 visually recognizes the right display image 110R, and the left eye visually recognizes the left display image 110L. As a result, the user U1 can visually recognize the display image 110 with both eyes.
 以下では、制御部30が、右表示部14Rに右ディスプレイ画像110Rを表示させ、左表示部14Lに左ディスプレイ画像110Lを表示させることにより、ユーザに両眼でディスプレイ画像110を視認させることを、単に「制御部30が表示部14にディスプレイ画像110を表示させる」のように説明する場合がある。 In the following, the control unit 30 displays the right display image 110R on the right display unit 14R and displays the left display image 110L on the left display unit 14L, thereby allowing the user to visually recognize the display image 110 with both eyes. It may be simply described as “the control unit 30 causes the display unit 14 to display the display image 110”.
 上記の通り、本実施例の画像表示装置10は、右カメラ16Rによって撮影された右カメラ画像に基づいて右画像データが生成され、左カメラ16Lによって撮影された左カメラ画像に基づいて左画像データが生成される。そして、各画像データに基づいて右ディスプレイ画像110Rと左ディスプレイ画像110Lとがそれぞれ右表示部14Rと左表示部14Lとに表示される。2個のカメラ16R、16Lによるカメラ画像に基づいて画像110R,110Lが表示されるため、1個のカメラによるカメラ画像に基づいて画像が表示される場合に比べて、ユーザU1は、ディスプレイ画像110に含まれるオブジェクト画像120等を立体的に認識し易い。 As described above, the image display apparatus 10 according to the present embodiment generates right image data based on the right camera image captured by the right camera 16R, and generates left image data based on the left camera image captured by the left camera 16L. Is generated. Then, based on each image data, the right display image 110R and the left display image 110L are displayed on the right display unit 14R and the left display unit 14L, respectively. Since the images 110R and 110L are displayed based on the camera images obtained by the two cameras 16R and 16L, the user U1 displays the display image 110 as compared with the case where the images are displayed based on the camera images obtained by the single camera. It is easy to recognize the object image 120 included in the image three-dimensionally.
 上記の通り、本実施例の画像表示装置10では、上記の手法によって右ディスプレイ画像110Rと左ディスプレイ画像110L(即ち右オブジェクト画像102Rと左オブジェクト画像102L)とがそれぞれ右表示部14Rと左表示部14Lとに表示されることで、ユーザU1は、1個のディスプレイ画像110を視認することができる。ただし、ユーザ毎に右眼と左眼との間隔、高さ、位置等が異なるため、画像110R、110Lを、右表示部14Rと左表示部14Lの毎回決まった位置に表示させると、ユーザU1の右眼が視認する画像と左眼が視認する画像との間にズレが生じ、オブジェクト画像120が二重に表示される等、ディスプレイ画像110がユーザに適切に視認されない場合がある。以下、このような事態のことを「画像の位置ズレ」と呼ぶ場合がある。画像の位置ズレは、ユーザの右眼と左眼の位置関係によって生じる他に、ユーザの視界中の焦点位置(即ち、ユーザが焦点を合わせている特徴点との距離)が変化することによっても生じ得る。例えば、ユーザが比較的近くの位置に焦点を合わせている場合と、ユーザが比較的遠くの位置に焦点を合わせている場合とでは、両眼の輻輳角が異なる。両眼の輻輳角が異なることにより、上記のような画像の位置ズレが生じ得る。 As described above, in the image display apparatus 10 of the present embodiment, the right display image 110R and the left display image 110L (that is, the right object image 102R and the left object image 102L) are respectively displayed on the right display unit 14R and the left display unit by the above-described method. By being displayed on 14L, the user U1 can visually recognize one display image 110. However, since the distance, height, position, and the like between the right eye and the left eye are different for each user, if the images 110R and 110L are displayed at fixed positions in the right display unit 14R and the left display unit 14L each time, the user U1 The display image 110 may not be properly viewed by the user, for example, when the object image 120 is displayed twice, such as a shift occurs between the image viewed by the right eye and the image viewed by the left eye. Hereinafter, such a situation may be referred to as “image position shift”. In addition to the positional misalignment of the image caused by the positional relationship between the right eye and the left eye of the user, the position of the focus in the user's field of view (that is, the distance from the feature point on which the user is focused) also changes. Can occur. For example, the convergence angle of both eyes differs between when the user focuses on a relatively near position and when the user focuses on a relatively far position. Due to the difference in the convergence angle of both eyes, the above-described image misalignment may occur.
 本実施例の画像表示装置10では、画像の位置ズレを抑制するために、後述の起動処理(図4参照)が実行される。起動処理が実行されることにより、右表示部14Rにおける右ディスプレイ画像110Rの表示位置と、左表示部14Lにおける左ディスプレイ画像110Lの表示位置とが、画像表示装置10を装着するユーザに適した位置に調整される。そして、調整が行われた状態で、画像を表示部14に表示させるための表示処理(図9参照)が実行される。以下、起動処理(図4参照)及び表示処理(図9参照)について詳しく説明する。 In the image display device 10 of the present embodiment, a startup process (see FIG. 4) described later is executed in order to suppress image positional deviation. By executing the activation process, the display position of the right display image 110R on the right display unit 14R and the display position of the left display image 110L on the left display unit 14L are positions suitable for the user wearing the image display device 10. Adjusted to And the display process (refer FIG. 9) for displaying an image on the display part 14 in the state by which adjustment was performed is performed. Hereinafter, the startup process (see FIG. 4) and the display process (see FIG. 9) will be described in detail.
(起動処理;図4)
 図4を参照して、本実施例の画像表示装置10の制御部30が実行する起動処理について説明する。ユーザが画像表示装置10を自身の頭部に装着し、画像表示装置10の電源をオンすると、制御部30は、図4の起動処理を開始する。
(Startup process; Fig. 4)
With reference to FIG. 4, the starting process which the control part 30 of the image display apparatus 10 of a present Example performs is demonstrated. When the user wears the image display device 10 on his / her head and turns on the power of the image display device 10, the control unit 30 starts the activation process of FIG. 4.
 S10では、制御部30は、表示部14に所定のログイン画面(図示しない)を表示させる。ログイン画面は、ユーザに、登録済みのユーザID及びパスワードの入力を要求するための画面である。ログイン画面が表示されている間に、ユーザは、カメラ16の撮影範囲(即ち特定範囲)内において所定のジェスチャーを行うことによって、既に登録済みの自己のユーザID及びパスワードを入力することができる。また、ユーザは、自己のユーザID及びパスワードが未登録の場合、新規登録を希望する旨の所定の新規登録開始操作を行うこともできる。以下では、ユーザが画像表示装置10に対して各種操作を入力する場合、ユーザが特定範囲内においてジェスチャーを行うことによって操作を入力するものとする。なお、他の例では、ユーザは、操作部19を操作することによって、ユーザID等の入力操作及び新規登録開始操作を含む各種操作を行ってもよい。 In S10, the control unit 30 causes the display unit 14 to display a predetermined login screen (not shown). The login screen is a screen for requesting the user to input a registered user ID and password. While the login screen is displayed, the user can input his / her registered user ID and password by performing a predetermined gesture within the shooting range (that is, the specific range) of the camera 16. In addition, when the user ID and password are not registered, the user can perform a predetermined new registration start operation for requesting new registration. Hereinafter, when the user inputs various operations to the image display device 10, the user inputs the operations by performing a gesture within a specific range. In another example, the user may perform various operations including an input operation such as a user ID and a new registration start operation by operating the operation unit 19.
 続くS12では、制御部30は、ユーザID及びパスワードが入力されたか否かを判断する。制御部30は、表示部14にログイン画面が表示されている間に、特定範囲内で、ユーザID及びパスワードを入力する操作が行われたことを検出すると、S12でYESと判断し、S14に進む。一方、制御部30は、表示部14にログイン画面が表示されている間に、特定範囲内で新規登録開始操作が行われたことを検出すると、S12でNOと判断し、S20に進む。 In subsequent S12, the control unit 30 determines whether a user ID and a password have been input. When the control unit 30 detects that an operation for inputting the user ID and password is performed within the specific range while the login screen is displayed on the display unit 14, the control unit 30 determines YES in S12, and then proceeds to S14. move on. On the other hand, when the control unit 30 detects that a new registration start operation is performed within the specific range while the login screen is displayed on the display unit 14, the control unit 30 determines NO in S12 and proceeds to S20.
 S14では、制御部30は、ユーザによって入力されたユーザID及びパスワードの認証が成功するか否かを判断する。具体的には、制御部30は、入力されたユーザID及びパスワードの組合せ(以下では、「特定のユーザID等」と呼ぶ)と一致する組合せを含むユーザ情報が、メモリ32のユーザ情報記憶領域34内に存在するか否かを判断する。ユーザ情報記憶領域34内に特定のユーザID等を含むユーザ情報が既に存在する場合、制御部30はS14でYESと判断し、S16に進む。一方、ユーザ情報記憶領域34内に特定のユーザID等を含むユーザ情報が存在しない場合、制御部30はS14でNOと判断し、S10に戻る。 In S14, the control unit 30 determines whether or not the authentication of the user ID and password input by the user is successful. Specifically, the control unit 30 includes a user information storage area in the memory 32 that includes user information including a combination that matches a combination of input user ID and password (hereinafter referred to as “specific user ID etc.”). It is determined whether or not it is present in 34. When user information including a specific user ID or the like already exists in the user information storage area 34, the control unit 30 determines YES in S14, and proceeds to S16. On the other hand, when there is no user information including a specific user ID or the like in the user information storage area 34, the control unit 30 determines NO in S14 and returns to S10.
 S16では、制御部30は、特定のユーザID等に対応付けられてユーザ情報記憶領域34内に記憶されている調整情報を読み出す。これ以後、制御部30は、読み出された調整情報が示す表示位置に従って、右表示部14Rに右ディスプレイ画像110Rを表示させるとともに、左表示部14Lに左ディスプレイ画像110Lを表示させる。S18を終えると、S32に進む。 In S16, the control unit 30 reads the adjustment information stored in the user information storage area 34 in association with a specific user ID or the like. Thereafter, the control unit 30 displays the right display image 110R on the right display unit 14R and the left display image 110L on the left display unit 14L according to the display position indicated by the read adjustment information. When S18 ends, the process proceeds to S32.
 一方、S20(即ち、ユーザによって新規登録開始操作が行われた場合)では、制御部30は、所定の新規情報入力画面(図示しない)を表示部14に表示させ、新規ユーザID及び新規パスワードが入力されることを監視する。ユーザは、表示部14に新規情報入力画面が表示されている間に、特定範囲内で所定の入力ジェスチャーを行うことによって、新規ユーザID及び新規パスワードを入力することができる。この場合、制御部30はS20でYESと判断し、S22に進む。なお、ユーザによって入力された新規ユーザID及び新規パスワードの組合せが、既にユーザ情報記憶領域34内に登録されている場合には、制御部30は、表示部14に、新規ユーザID及び新規パスワードの変更を要求するメッセージを表示させる。 On the other hand, in S20 (that is, when a new registration start operation is performed by the user), the control unit 30 displays a predetermined new information input screen (not shown) on the display unit 14, and the new user ID and new password are displayed. Monitor input. The user can input a new user ID and a new password by performing a predetermined input gesture within a specific range while the new information input screen is displayed on the display unit 14. In this case, the control unit 30 determines YES in S20, and proceeds to S22. When the combination of the new user ID and the new password input by the user is already registered in the user information storage area 34, the control unit 30 displays the new user ID and the new password on the display unit 14. Display a message requesting a change.
 S22では、制御部30は、右表示部14R及び左表示部14Lに表示される画像110R、110Lの上下位置調整を行う。具体的には、S22では、制御部30は、図5の上下調整画面210を表示部14に表示させる。上下調整画面210には、上下位置調整のためのマーク212、214と、画像の表示位置を上げるための上移動ボタン216と、画像の表示位置を下げるための下移動ボタン218と、確定のためのOKボタン220と、が含まれる。2つのマーク212、214のうち、マーク212は、右表示部14Rに表示され、マーク214は、左表示部14Lに表示される。上移動ボタン216、下移動ボタン218、OKボタン220は、右表示部14Rと左表示部14Lの一方に表示される。ユーザは、これらの要素を両眼で見ることによって、図5に示すような上下調整画面210を視認することができる。ユーザは、2つのマーク212、214を両眼で見ながら、ボタン216、218を操作し、2つのマーク212、214が重なるように調整する。2つのマーク212、214が重なるように調整されることにより、右表示部14R及び左表示部14Lに表示される画像110R、110Lの上下位置が調整される。ユーザは、2つのマーク212、214が重なるように調整された時点で(即ち、上下位置が調整された時点で)OKボタン220を操作し、上下位置を確定させる。この場合、制御部30は、確定された上下位置をメモリ32に一時記憶させるとともに、S24に進む。 In S22, the control unit 30 adjusts the vertical positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L. Specifically, in S22, the control unit 30 causes the display unit 14 to display the up / down adjustment screen 210 of FIG. The vertical adjustment screen 210 includes marks 212 and 214 for adjusting the vertical position, an up button 216 for raising the image display position, a down button 218 for lowering the image display position, and confirmation. The OK button 220 is included. Of the two marks 212 and 214, the mark 212 is displayed on the right display unit 14R, and the mark 214 is displayed on the left display unit 14L. The up movement button 216, the down movement button 218, and the OK button 220 are displayed on one of the right display portion 14R and the left display portion 14L. The user can visually recognize the vertical adjustment screen 210 as shown in FIG. 5 by viewing these elements with both eyes. While viewing the two marks 212 and 214 with both eyes, the user operates the buttons 216 and 218 to adjust the two marks 212 and 214 so that they overlap. By adjusting the two marks 212 and 214 to overlap, the vertical positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are adjusted. The user operates the OK button 220 when the two marks 212 and 214 are adjusted so as to overlap (that is, when the vertical position is adjusted), and determines the vertical position. In this case, the control unit 30 temporarily stores the determined vertical position in the memory 32, and proceeds to S24.
 S24では、制御部30は、画像110R、110Lの左右位置調整を行う。具体的には、S24では、制御部30は、図6の左右調整画面230を表示部14に表示させる。左右調整画面230には、左右位置調整のためのマーク232、234と、左右の画像の表示間隔を広げるための離間移動ボタン236と、左右の画像の表示間隔を狭くするための近接移動ボタン238と、確定のためのOKボタン240と、が含まれる。2つのマーク232、234のうち、マーク232は、右表示部14Rに表示され、マーク234は、左表示部14Lに表示される。離間移動ボタン236、近接移動ボタン238、OKボタン240は、右表示部14Rと左表示部14Lの一方に表示される。ユーザは、これらの要素を両眼で見ることによって、図6に示すような左右調整画面230を視認することができる。ユーザは、2つのマーク232、234を両眼で見ながら、ボタン236、238を操作し、2つのマーク232、234が重なるように調整する。2つのマーク232、234が重なるように調整されることにより、右表示部14R及び左表示部14Lに表示される画像110R、110Lの左右位置(別言すると間隔)が調整される。ユーザは、2つのマーク232、234が重なるように調整された時点で(即ち、左右位置が調整された時点で)OKボタン240を操作し、左右位置を確定させる。この場合、制御部30は、確定された左右位置をメモリ32に一時記憶させるとともに、S26に進む。 In S24, the control unit 30 adjusts the left and right positions of the images 110R and 110L. Specifically, in S24, the control unit 30 displays the left / right adjustment screen 230 of FIG. The left and right adjustment screen 230 includes marks 232 and 234 for adjusting the left and right positions, a separation movement button 236 for increasing the display interval between the left and right images, and a proximity movement button 238 for reducing the display interval between the left and right images. And an OK button 240 for confirmation. Of the two marks 232 and 234, the mark 232 is displayed on the right display unit 14R, and the mark 234 is displayed on the left display unit 14L. The separation movement button 236, the proximity movement button 238, and the OK button 240 are displayed on one of the right display portion 14R and the left display portion 14L. The user can visually recognize the left-right adjustment screen 230 as shown in FIG. 6 by viewing these elements with both eyes. While viewing the two marks 232 and 234 with both eyes, the user operates the buttons 236 and 238 to adjust the two marks 232 and 234 so that they overlap. By adjusting so that the two marks 232 and 234 overlap, the left and right positions (in other words, the intervals) of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are adjusted. The user operates the OK button 240 when the two marks 232 and 234 are adjusted so as to overlap each other (that is, when the left and right positions are adjusted) to determine the left and right positions. In this case, the control unit 30 temporarily stores the determined left and right positions in the memory 32 and proceeds to S26.
 S26では、制御部30は、画像110R、110Lの表示位置の微調整を行う。具体的には、S26では、制御部30は、図7の微調整画面250を表示部14に表示させる。制御部30は、図7の微調整画面250を表示部14に表示させる。微調整画面250には、位置調整のためのマーク252、254と、右表示部14Rに表示される画像の表示位置を上下左右に微調整するための右調整ボタン256と、左表示部14Lに表示される画像の表示位置を上下左右に微調整するための左調整ボタン258と、確定のためのOKボタン260と、が含まれる。2つのマーク252、254のうち、マーク252は、右表示部14Rに表示され、マーク254は、左表示部14Lに表示される。右調整ボタン256、左調整ボタン258、OKボタン260は、右表示部14Rと左表示部14Lの一方に表示される。ユーザは、これらの要素を両眼で見ることによって、図7に示すような微調整画面250を視認することができる。ユーザは、2つのマーク252、254を両眼で見ながら、ボタン256、258を操作し、2つのマーク252、254が重なるように調整する。2つのマーク252、254が重なるように調整されることにより、右表示部14R及び左表示部14Lに表示される画像110R,110Lの表示位置がそれぞれ微調整される。ユーザは、2つのマーク252、254が重なるように調整された時点でOKボタン260を操作し、位置を確定させる。この場合、制御部30は、確定された表示位置をメモリ32に一時記憶させるとともに、S28に進む。 In S26, the control unit 30 finely adjusts the display positions of the images 110R and 110L. Specifically, in S26, the control unit 30 displays the fine adjustment screen 250 of FIG. The control unit 30 displays the fine adjustment screen 250 of FIG. The fine adjustment screen 250 includes marks 252 and 254 for position adjustment, a right adjustment button 256 for finely adjusting the display position of the image displayed on the right display unit 14R vertically and horizontally, and a left display unit 14L. A left adjustment button 258 for finely adjusting the display position of the displayed image vertically and horizontally, and an OK button 260 for confirmation are included. Of the two marks 252, 254, the mark 252 is displayed on the right display unit 14R, and the mark 254 is displayed on the left display unit 14L. The right adjustment button 256, the left adjustment button 258, and the OK button 260 are displayed on one of the right display portion 14R and the left display portion 14L. The user can view a fine adjustment screen 250 as shown in FIG. 7 by viewing these elements with both eyes. While viewing the two marks 252 and 254 with both eyes, the user operates the buttons 256 and 258 to adjust the two marks 252 and 254 so that they overlap. By adjusting so that the two marks 252 and 254 overlap, the display positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are finely adjusted, respectively. The user operates the OK button 260 when the two marks 252 and 254 are adjusted so as to overlap each other, and determines the position. In this case, the control unit 30 temporarily stores the determined display position in the memory 32, and proceeds to S28.
 S28では、制御部30は、S22~S26で確定された表示位置を示す調整情報を生成する。次いで、S30では、制御部30は、S28で生成された調整情報を、新規ユーザID及び新規パスワードと対応付けてユーザ情報記憶領域34に記憶させる。これ以後、制御部30は、S28で生成された調整情報が示す表示位置に従って、右表示部14Rに右ディスプレイ画像110Rを表示させるとともに、左表示部14Lに左ディスプレイ画像110Lを表示させる。S30を終えると、S32に進む。 In S28, the control unit 30 generates adjustment information indicating the display position determined in S22 to S26. Next, in S30, the control unit 30 stores the adjustment information generated in S28 in the user information storage area 34 in association with the new user ID and the new password. Thereafter, the control unit 30 displays the right display image 110R on the right display unit 14R and the left display image 110L on the left display unit 14L according to the display position indicated by the adjustment information generated in S28. When S30 ends, the process proceeds to S32.
 S32では、制御部30は、表示部14にメニュー画面300(図8参照)を表示させる。図8に示すように、メニュー画面300は、メニューオブジェクト画像320を含む。本実施例では、表示部14は透光性のディスプレイであるため、ユーザは、表示部14越しに視認できる現実の物品(即ち、室内の光景)にメニューオブジェクト画像320が合わされた態様のメニュー画面300を見ることができる。 In S32, the control unit 30 causes the display unit 14 to display the menu screen 300 (see FIG. 8). As shown in FIG. 8, the menu screen 300 includes a menu object image 320. In the present embodiment, since the display unit 14 is a translucent display, the menu screen has a mode in which the menu object image 320 is combined with an actual article (that is, an indoor scene) that can be viewed through the display unit 14. 300 can be seen.
 図8に示すように、メニューオブジェクト画像320は、メインメニューを表している。メニューオブジェクト画像320は、選択可能な3個のアイコン322、324、326と、メニューオブジェクト画像320の表示を終了させるための終了ボタン328と、を含む。各アイコン322~326は、画像表示装置10の各機能に対応している。この例では、アイコン322はゲームアプリを示し、アイコン324は教育アプリを示し、アイコン326は、画像表示装置10に関する各種設定を変更するための設定機能を示す。ユーザは、所望のアイコンにタッチするジェスチャーを行う(即ち、所望のアイコンを選択する操作を行う)ことにより、所望のアイコンに対応する機能を起動させることができる。S32でメニュー画面300が表示されると、図4の起動処理が終了する。 As shown in FIG. 8, the menu object image 320 represents the main menu. The menu object image 320 includes three selectable icons 322, 324, and 326, and an end button 328 for ending the display of the menu object image 320. Each icon 322 to 326 corresponds to each function of the image display device 10. In this example, the icon 322 indicates a game application, the icon 324 indicates an education application, and the icon 326 indicates a setting function for changing various settings related to the image display device 10. The user can activate a function corresponding to the desired icon by performing a gesture of touching the desired icon (that is, performing an operation of selecting the desired icon). When the menu screen 300 is displayed in S32, the activation process in FIG. 4 ends.
 図4の起動処理によって表示部14にメニュー画面300が表示された後で、ユーザが設定機能を示すアイコン326を選択し、さらに表示位置の調整を指示すると、制御部30は、右表示部14R及び左表示部14Lに表示される画像110R、110Lの左右位置を再調整することができる。その場合、制御部30は、図4のS22~S30の処理を再実行し、ユーザの指示に従って、上下位置調整(S22)、左右位置調整(S24)、微調整(S26)を再び行う。この場合、制御部30は、再実行されたS28で生成された調整情報が示す表示位置に従って、右表示部14Rに右ディスプレイ画像110Rを表示させるとともに、左表示部14Lに左ディスプレイ画像110Lを表示させる。このように、ユーザは、図4の起動処理の終了後も、自己の状態に合わせて、画像の表示位置の調整を随時実行することができる。 After the menu screen 300 is displayed on the display unit 14 by the activation process of FIG. 4, when the user selects the icon 326 indicating the setting function and further instructs the adjustment of the display position, the control unit 30 displays the right display unit 14R. In addition, the left and right positions of the images 110R and 110L displayed on the left display unit 14L can be readjusted. In this case, the control unit 30 re-executes the processes of S22 to S30 in FIG. 4, and again performs the vertical position adjustment (S22), the horizontal position adjustment (S24), and the fine adjustment (S26) according to the user instruction. In this case, the control unit 30 displays the right display image 110R on the right display unit 14R and displays the left display image 110L on the left display unit 14L in accordance with the display position indicated by the re-executed adjustment information generated in S28. Let As described above, the user can adjust the display position of the image as needed in accordance with his / her state even after the start-up process of FIG. 4 is completed.
(表示処理;図9)
 図9を参照して、本実施例の画像表示装置10の制御部30が実行する表示処理について説明する。上記の起動処理(図4参照)が終了し、表示部14にメニュー画面300が表示された後で、ユーザが、所望のアプリに対応するアイコン(例えばアイコン322)を選択する操作を実行すると、図9の表示処理が開始される。
(Display processing; FIG. 9)
With reference to FIG. 9, the display process which the control part 30 of the image display apparatus 10 of a present Example performs is demonstrated. After the activation process (see FIG. 4) is finished and the menu screen 300 is displayed on the display unit 14, when the user performs an operation of selecting an icon (for example, the icon 322) corresponding to a desired application, The display process of FIG. 9 is started.
 S50では、制御部30は、右カメラ16Rから、右カメラ16Rが現在撮影している右カメラ画像を取得するとともに、左カメラ16Lから、左カメラ16Lが現在撮影している左カメラ画像を取得する。 In S50, the control unit 30 acquires the right camera image currently captured by the right camera 16R from the right camera 16R, and acquires the left camera image currently captured by the left camera 16L from the left camera 16L. .
 続くS52では、制御部30は、サーバ80から、自機が含まれる装置グループ内の他の画像表示装置(例えば画像表示装置50)の表示部に表示されているディスプレイ画像のデータ(即ち、右ディスプレイ画像データ及び左ディスプレイ画像データ)を受信する。 In subsequent S52, the control unit 30 displays data of the display image displayed on the display unit of another image display device (for example, the image display device 50) in the device group including the own device from the server 80 (that is, the right side). Display image data and left display image data).
 続くS54では、制御部30は、S50で取得された右カメラ画像、及び、S52で受信された右画像データに基づいて、自機の右表示部14Rに右ディスプレイ画像(図3の110R参照)を表示させるための右画像データを生成する。同時に、制御部30は、S50で取得された左カメラ画像、及び、S52で受信された左画像データに基づいて、自機の左表示部14Lに左ディスプレイ画像(図3の110L参照)を表示させるための左画像データを生成する。右画像データ及び左画像データは、現実画像に合成するためのオブジェクト画像のデータを含む。 In subsequent S54, the control unit 30 displays the right display image on the right display unit 14R of its own device based on the right camera image acquired in S50 and the right image data received in S52 (see 110R in FIG. 3). The right image data for displaying is generated. At the same time, the control unit 30 displays a left display image (see 110L in FIG. 3) on the left display unit 14L of the own device based on the left camera image acquired in S50 and the left image data received in S52. Left image data for generating the image is generated. The right image data and the left image data include object image data to be combined with a real image.
 続くS56では、制御部30は、S54で生成された右画像データ及び左画像データに基づいて、表示部14にディスプレイ画像(図3の110参照)を表示させる。即ち、制御部30は、右画像データに基づいて右表示部14Rに右ディスプレイ画像を表示させ、左画像データに基づいて左表示部14Lに左ディスプレイ画像を表示させる。S56で表示されるディスプレイ画像は、例えば、現実画像(図3の101参照)に、オブジェクト画像(図3の102参照)が組み合わされた態様の画像である。 In subsequent S56, the control unit 30 causes the display unit 14 to display a display image (see 110 in FIG. 3) based on the right image data and the left image data generated in S54. That is, the control unit 30 displays the right display image on the right display unit 14R based on the right image data, and displays the left display image on the left display unit 14L based on the left image data. The display image displayed in S56 is, for example, an image in a form in which an object image (see 102 in FIG. 3) is combined with a real image (see 101 in FIG. 3).
 続くS58では、制御部30は、S56で表示された右ディスプレイ画像(即ち、現実画像とオブジェクト画像を含む画像)を示す右ディスプレイ画像データと、左ディスプレイ画像(即ち、現実画像とオブジェクト画像を含む画像)を示す左ディスプレイ画像データとを生成し、サーバ80に送信する。サーバ80は、画像表示装置10から右ディスプレイ画像データ及び左ディスプレイ画像データを受信すると、画像表示装置10が含まれる装置グループ内の他の画像表示装置(例えば画像表示装置50)に、画像表示装置10から受信した右ディスプレイ画像データ及び左ディスプレイ画像データを送信する。これにより、画像表示装置10、50の表示部14、54には、それぞれ、同じ対象物を自機の視点から視認した態様のディスプレイ画像が表示される。 In subsequent S58, the control unit 30 includes right display image data indicating the right display image (that is, an image including the real image and the object image) displayed in S56, and a left display image (that is, the real image and the object image). Left display image data indicating (image) is generated and transmitted to the server 80. When the server 80 receives the right display image data and the left display image data from the image display device 10, the server 80 transmits the image display device to another image display device (for example, the image display device 50) in the device group including the image display device 10. The right display image data and the left display image data received from 10 are transmitted. Thereby, the display image of the aspect which visually recognized the same target object from the own viewpoint from the display units 14 and 54 of the image display apparatuses 10 and 50, respectively, is displayed.
 制御部30は、所定の終了操作が行われるまで、S50~S58の処理を繰り返し実行する。制御部30は、ユーザの操作に応じて、ディスプレイ画像に含まれるオブジェクト画像の表示態様を変更させる等、操作に応じてディスプレイ画像の表示内容を変更することができる。さらに、制御部30は、サーバ80から受信される右画像データ及び左画像データの内容に応じて、ディスプレイ画像の表示内容を変更することもできる。 The control unit 30 repeatedly executes the processes of S50 to S58 until a predetermined end operation is performed. The control unit 30 can change the display content of the display image according to the operation, such as changing the display mode of the object image included in the display image according to the user's operation. Further, the control unit 30 can change the display content of the display image according to the contents of the right image data and the left image data received from the server 80.
(具体例;図10、図11)
 続いて、図10、図11を参照して、本実施例の画像表示装置10と画像表示装置50とによって表示処理(図9参照)が実行される場合において、各装置10、50の表示部14、54に表示されるディスプレイ画像の具体例を説明する。この例では、図10に示すように、部屋R内に、画像表示装置10を装着したユーザU1と、画像表示装置50を装着したユーザU2とが存在する。この例では、画像表示装置10、50では、ともに、ゲームアプリ(即ち、図8のアイコン322に対応するアプリ)が起動されており、表示処理(図9参照)が実行されている。ユーザU1、U2は、それぞれ、異なる位置から、部屋R内に存在する現実の物品であるリンゴ400を見ている(即ち、カメラ16、56の撮影範囲内にリンゴ400が存在している)。
(Specific examples: FIGS. 10 and 11)
Subsequently, referring to FIG. 10 and FIG. 11, when display processing (see FIG. 9) is executed by the image display device 10 and the image display device 50 of the present embodiment, the display unit of each device 10, 50. A specific example of the display image displayed on 14 and 54 will be described. In this example, as shown in FIG. 10, a user U1 wearing the image display device 10 and a user U2 wearing the image display device 50 exist in the room R. In this example, in both the image display devices 10 and 50, a game application (that is, an application corresponding to the icon 322 in FIG. 8) is activated, and display processing (see FIG. 9) is executed. Each of the users U1 and U2 sees the apple 400, which is an actual article existing in the room R, from a different position (that is, the apple 400 exists within the shooting range of the cameras 16 and 56).
 図10では、ゲーム内におけるユーザU1の操作(具体的には、ユーザU1が仮想の弓を用いて矢を射る操作)により、リンゴ400に矢を模したオブジェクト画像410が刺さった様子を示している。画像表示装置10が図9のS50~S58の処理を実行することによって、表示部14にはディスプレイ画像450が表示される。ディスプレイ画像450は、リンゴ400の現実画像401と、矢のオブジェクト画像410とを含む。ディスプレイ画像450では、オブジェクト画像410は、矢が紙面の奥側に向かって刺さっている様子を表わしている。また、画像表示装置50が図9のS50~S58の処理を実行することによって、表示部54にはディスプレイ画像460が表示される。ディスプレイ画像460も、リンゴ400の現実画像401と、矢のオブジェクト画像410とを含む。ただし、ディスプレイ画像460では、オブジェクト画像410は、矢が紙面の左側に向かって刺さっている様子を表わしている。このように、画像表示装置10、50の表示部14、54には、それぞれ、同じ対象物を自機の視点から視認した態様のディスプレイ画像450、460が表示される。 FIG. 10 shows a state in which an object image 410 imitating an arrow is stabbed into the apple 400 by an operation of the user U1 in the game (specifically, an operation in which the user U1 shoots an arrow using a virtual bow). Yes. When the image display apparatus 10 executes the processes of S50 to S58 in FIG. 9, a display image 450 is displayed on the display unit. Display image 450 includes a real image 401 of apple 400 and an object image 410 of an arrow. In the display image 450, the object image 410 represents a state in which an arrow is stuck toward the back side of the page. Further, the display image 460 is displayed on the display unit 54 by the image display device 50 executing the processing of S50 to S58 of FIG. The display image 460 also includes a real image 401 of the apple 400 and an arrow object image 410. However, in the display image 460, the object image 410 represents a state in which an arrow is stuck toward the left side of the page. In this way, display images 450 and 460 in a form in which the same object is viewed from the viewpoint of the own device are displayed on the display units 14 and 54 of the image display apparatuses 10 and 50, respectively.
 そして、図11では、さらに、ゲーム内におけるユーザU2の操作(具体的には、ユーザU2が仮想の旗竿を突き立てる操作)により、リンゴ400に旗を模したオブジェクト画像420がさらに刺さった様子を示している。この際、画像表示装置10の表示部14にはディスプレイ画像470が表示される。ディスプレイ画像470は、さらに、旗のオブジェクト画像420を含む。ディスプレイ画像470では、オブジェクト画像420は、リンゴ400の左側に旗が刺さっている様子を表わしている。また、画像表示装置50の表示部54にはディスプレイ画像480が表示される。ディスプレイ画像480も、旗のオブジェクト画像420をさらに含む。ディスプレイ画像480では、オブジェクト画像420は、リンゴ400の正面に旗が刺さっている様子を表わしている。このように、画像表示装置10、50の表示部14、54には、それぞれ、同じ対象物を自機の視点から視認した態様のディスプレイ画像470、480が表示される。 FIG. 11 further shows that the object image 420 imitating the flag of the apple 400 is further stabbed by an operation of the user U2 in the game (specifically, an operation in which the user U2 pushes up a virtual flagpole). ing. At this time, a display image 470 is displayed on the display unit 14 of the image display device 10. Display image 470 further includes a flag object image 420. In the display image 470, the object image 420 represents a state where a flag is stuck on the left side of the apple 400. Further, a display image 480 is displayed on the display unit 54 of the image display device 50. Display image 480 also includes a flag object image 420. In the display image 480, the object image 420 represents a state where a flag is stuck in front of the apple 400. As described above, display images 470 and 480 in a form in which the same object is visually recognized from the viewpoint of the own device are displayed on the display units 14 and 54 of the image display devices 10 and 50, respectively.
 以上、本実施例の画像表示システム2の構成及び動作について説明した。本実施例では、画像表示装置10は、対象の物品を右カメラ16Rと左カメラ16Lの両方で撮影し、右カメラ画像に基づいて右ディスプレイ画像を右表示部14Rに表示させるとともに、左カメラ画像に基づいて左ディスプレイ画像を左表示部14Lに表示させる(図3、図9参照)。画像表示装置10を装着したユーザは、右ディスプレイ画像と左ディスプレイ画像とに基づいて、両眼でディスプレイ画像を視認することができる。そのため、本実施例の構成によると、画像表示装置10は、1個のカメラによって物品を撮影した画像のみに基づいてディスプレイ画像を表示させる構成を採用する場合に比べて、ユーザにとって立体的に認識しやすい態様でディスプレイ画像を表示部14に表示させることができる。 The configuration and operation of the image display system 2 according to the present embodiment have been described above. In the present embodiment, the image display apparatus 10 captures the target article with both the right camera 16R and the left camera 16L, displays the right display image on the right display unit 14R based on the right camera image, and also displays the left camera image. The left display image is displayed on the left display unit 14L based on (see FIGS. 3 and 9). The user wearing the image display device 10 can visually recognize the display image with both eyes based on the right display image and the left display image. Therefore, according to the configuration of the present embodiment, the image display device 10 recognizes three-dimensionally for the user as compared to the case where a configuration in which a display image is displayed based only on an image obtained by photographing an article with one camera is employed. The display image can be displayed on the display unit 14 in a manner that is easy to do.
 さらに、本実施例では、制御部30は、図4のS22~S30の処理を実行することにより、表示部14にディスプレイ画像を表示する際における、右ディスプレイ画像による表示部分と左ディスプレイ画像による表示部分との位置ズレを解消することもできる。そのため、本実施例の画像表示装置10によると、ユーザにとって違和感の少ない態様でディスプレイ画像を表示させることができる。従って、本実施例によると、ユーザの違和感を低減することができる。 Further, in the present embodiment, the control unit 30 executes the processing of S22 to S30 in FIG. 4 to display the display portion by the right display image and the display by the left display image when displaying the display image on the display unit 14. Misalignment with the part can also be eliminated. Therefore, according to the image display apparatus 10 of the present embodiment, it is possible to display a display image in a manner that is less uncomfortable for the user. Therefore, according to the present embodiment, the user's uncomfortable feeling can be reduced.
 また、制御部30は、生成された調整情報を新規ユーザID及び新規パスワードと対応付けてユーザ情報記憶領域34に記憶させる(図4のS28、S30)。そして、制御部30は、次回以降の起動処理(図4)において、ユーザ情報記憶領域34に記憶されているユーザID及びパスワードが入力されると(S14でYES)、当該ユーザID等に対応付けられてユーザ情報記憶領域34に記憶されている調整情報を読み出す(S16)。そして、その後、制御部30は、読み出された調整情報が示す表示位置に従って、右表示部14Rに右ディスプレイ画像を表示させるとともに、左表示部14Lに左ディスプレイ画像を表示させる。そのため、画像表示装置10は、ユーザ毎の表示位置を示す調整情報を記憶しておき、ユーザの認証が成功する場合に、その調整情報が示す表示位置を反映することができる。画像表示装置10は、ユーザ毎に、当該ユーザにとって認識し易い態様でディスプレイ画像を表示部14に表示させることができる。 Further, the control unit 30 stores the generated adjustment information in the user information storage area 34 in association with the new user ID and the new password (S28 and S30 in FIG. 4). Then, when the user ID and password stored in the user information storage area 34 are input in the subsequent startup processing (FIG. 4) (YES in S14), the control unit 30 associates with the user ID and the like. Then, the adjustment information stored in the user information storage area 34 is read (S16). After that, the control unit 30 displays the right display image on the right display unit 14R and displays the left display image on the left display unit 14L according to the display position indicated by the read adjustment information. Therefore, the image display apparatus 10 can store adjustment information indicating the display position for each user, and can reflect the display position indicated by the adjustment information when the user authentication is successful. The image display device 10 can display a display image on the display unit 14 in a manner that is easy for the user to recognize for each user.
 また、制御部30は、サーバ80から、自機が含まれる装置グループ内の他の画像表示装置の表示部に表示されているディスプレイ画像のデータ(即ち、右ディスプレイ画像データ及び左ディスプレイ画像データ)を受信し(図9のS52)、そのディスプレイ画像データに基づいて、自機の表示部に表示させるための右画像データ及び左画像データを生成する(S54)。そして、制御部30は、制御部30は、S54で生成された右画像データ及び左画像データに基づいて、表示部14にディスプレイ画像(図3の110参照)を表示させる(S56)。さらに、制御部30は、S56で表示されたディスプレイ画像を表わす右ディスプレイ画像データ及び左ディスプレイ画像データを生成し、サーバ80に送信する(S58)。サーバ80は、画像表示装置10から右ディスプレイ画像データ及び左ディスプレイ画像データを受信すると、画像表示装置10が含まれる装置グループ内の他の画像表示装置(例えば画像表示装置50)に、画像表示装置10から受信した右ディスプレイ画像データ及び左ディスプレイ画像データを送信する。従って、図10、図11に示すように、画像表示装置10、50は、互いに関係するディスプレイ画像を表示部14、54に表示させることができる。 The control unit 30 also displays display image data (that is, right display image data and left display image data) displayed on the display unit of another image display device in the device group including the own device from the server 80. (S52 in FIG. 9), based on the display image data, right image data and left image data to be displayed on the display unit of the own device are generated (S54). Then, the control unit 30 causes the display unit 14 to display a display image (see 110 in FIG. 3) based on the right image data and the left image data generated in S54 (S56). Further, the control unit 30 generates right display image data and left display image data representing the display image displayed in S56, and transmits them to the server 80 (S58). When the server 80 receives the right display image data and the left display image data from the image display device 10, the server 80 transmits the image display device to another image display device (for example, the image display device 50) in the device group including the image display device 10. The right display image data and the left display image data received from 10 are transmitted. Therefore, as shown in FIGS. 10 and 11, the image display devices 10 and 50 can display display images related to each other on the display units 14 and 54.
 本実施例と請求の範囲の対応関係を説明しておく。画像表示装置10が「第1の画像表示装置」の一例である。画像表示装置50が「外部装置」、「第2の画像表示装置」の一例である。右表示部14R、左表示部14Lが、それぞれ「右眼用表示部」、「左眼用表示部」の一例である。図9のS54で生成される右画像データ、左画像データが、それぞれ、「第1種の右画像データ」、「第1種の左画像データ」の一例である。図9のS56で表示される右ディスプレイ画像、左ディスプレイ画像が、それぞれ、「第1種の右ディスプレイ画像」、「第1種の左ディスプレイ画像」の一例である。図4のS22で行われる上下位置調整の指示、S24で行われる左右位置調整の指示、S26で行われる微調整の指示が、「変化指示」の一例である。S22で行われる上下位置調整、S24で行われる左右位置調整、S26で行われる微調整が、「第1の調整処理」の一例である。S28で生成される調整情報によって示される右表示部のための表示位置、左表示部のための表示位置が、それぞれ、「右調整位置」、「左調整位置」の一例である。ユーザIDが「識別情報」の一例である。図9のS58でサーバ80に送信される右ディスプレイ画像データ及び左ディスプレイ画像データが、それぞれ「第2種の右画像データ」、「第2種の左画像データ」の一例である。図9のS52でサーバ80から受信される(即ち、サーバ80を介して画像表示装置50から受信される)右ディスプレイ画像データ及び左ディスプレイ画像データが、それぞれ「第3種の右画像データ」、「第3種の左画像データ」の一例である。 The correspondence between this embodiment and the claims will be described. The image display device 10 is an example of a “first image display device”. The image display device 50 is an example of an “external device” or “second image display device”. The right display unit 14R and the left display unit 14L are examples of a “right eye display unit” and a “left eye display unit”, respectively. The right image data and the left image data generated in S54 of FIG. 9 are examples of “first type right image data” and “first type left image data”, respectively. The right display image and the left display image displayed in S56 of FIG. 9 are examples of the “first type right display image” and the “first type left display image”, respectively. The up / down position adjustment instruction performed in S22 in FIG. 4, the left / right position adjustment instruction performed in S24, and the fine adjustment instruction performed in S26 are examples of the “change instruction”. The vertical position adjustment performed in S22, the horizontal position adjustment performed in S24, and the fine adjustment performed in S26 are examples of the “first adjustment process”. The display position for the right display unit and the display position for the left display unit indicated by the adjustment information generated in S28 are examples of “right adjustment position” and “left adjustment position”, respectively. The user ID is an example of “identification information”. The right display image data and the left display image data transmitted to the server 80 in S58 of FIG. 9 are examples of “second type right image data” and “second type left image data”, respectively. The right display image data and the left display image data received from the server 80 in S52 of FIG. 9 (that is, received from the image display device 50 via the server 80) are “third type right image data”, It is an example of "3rd type left image data."
(第2実施例)
 第1実施例と異なる点を中心に説明する。本実施例の画像表示システム2も、基本的な構成は第1実施例と共通するが、画像表示装置10の制御部30が実行する表示処理の内容が第1実施例とは異なる(図12参照)。
(Second embodiment)
A description will be given centering on differences from the first embodiment. The basic structure of the image display system 2 of this embodiment is the same as that of the first embodiment, but the contents of display processing executed by the control unit 30 of the image display device 10 are different from those of the first embodiment (FIG. 12). reference).
 図12を参照して、本実施例の画像表示装置10の制御部30が実行する表示処理について説明する。上記の起動処理(図4参照)が終了し、表示部14にメニュー画面300が表示された後で、ユーザが、所望のアプリに対応するアイコン(例えばアイコン324)を選択する操作を実行すると、図12の表示処理が開始される。S70では、制御部30は、自機の設定が送信側であるか否かを判断する。本実施例では、画像表示装置10のメモリ32には、自機が送信側端末として機能するのか、受信側端末として機能するのか、の設定を表わす情報が記憶されている。 With reference to FIG. 12, a display process executed by the control unit 30 of the image display apparatus 10 of the present embodiment will be described. After the activation process (see FIG. 4) is finished and the menu screen 300 is displayed on the display unit 14, when the user performs an operation of selecting an icon (for example, the icon 324) corresponding to a desired application, The display process of FIG. 12 is started. In S70, the control unit 30 determines whether or not the setting of the own device is the transmission side. In the present embodiment, the memory 32 of the image display apparatus 10 stores information indicating whether the own device functions as a transmission side terminal or a reception side terminal.
 ここで、送信側端末とは、自機に表示されているディスプレイ画像を表わすデータをサーバ80を介して、他の装置に送信する装置である。受信側端末とは、サーバ80を介して、送信側端末から、送信側端末に表示されているディスプレイ画像を表わすデータを受信し、送信側端末に表示されているディスプレイ画像と同じディスプレイ画像を表示する端末である。画像表示装置10を送信側端末として機能させるのか、受信側端末として機能させるのかは、ユーザが予め設定しておくことができる。メモリ32に自機が送信側端末である設定を表わす情報が記憶されている場合、制御部30は、S70でYESと判断し、S72に進む。一方、メモリ32に自機が受信側端末である設定を表わす情報が記憶されている場合、制御部30は、S70でNOと判断し、S80に進む。 Here, the transmission-side terminal is a device that transmits data representing a display image displayed on its own device to another device via the server 80. The receiving side terminal receives data representing the display image displayed on the transmitting side terminal from the transmitting side terminal via the server 80 and displays the same display image as the display image displayed on the transmitting side terminal. Terminal. The user can set in advance whether the image display device 10 functions as a transmission-side terminal or a reception-side terminal. When the memory 32 stores information indicating the setting that the own device is the transmission side terminal, the control unit 30 determines YES in S70 and proceeds to S72. On the other hand, when the information indicating the setting that the own device is the receiving terminal is stored in the memory 32, the control unit 30 determines NO in S70, and proceeds to S80.
 S72では、制御部30は、右カメラ16Rから、右カメラ16Rが現在撮影している右カメラ画像を取得するとともに、左カメラ16Lから、左カメラ16Lが現在撮影している左カメラ画像を取得する。 In S72, the control unit 30 acquires the right camera image currently captured by the right camera 16R from the right camera 16R, and acquires the left camera image currently captured by the left camera 16L from the left camera 16L. .
 S74では、制御部30は、S70で取得された右カメラ画像に基づいて、自機の右表示部14Rに右ディスプレイ画像(図3の110R参照)を表示させるための右画像データを生成する。同時に、制御部30は、S70で取得された左カメラ画像に基づいて、自機の左表示部14Lに左ディスプレイ画像(図3の110L参照)を表示させるための左画像データを生成する。右画像データ及び左画像データは、現実画像に合成するためのオブジェクト画像のデータを含む。 In S74, the control unit 30 generates right image data for displaying a right display image (see 110R in FIG. 3) on the right display unit 14R of the own device based on the right camera image acquired in S70. At the same time, the control unit 30 generates left image data for displaying a left display image (see 110L in FIG. 3) on the left display unit 14L of the own device based on the left camera image acquired in S70. The right image data and the left image data include object image data to be combined with a real image.
 S76では、制御部30は、S74で生成された右画像データ及び左画像データに基づいて、表示部14にディスプレイ画像(図3の110参照)を表示させる。即ち、制御部30は、右画像データに基づいて右表示部14Rに右ディスプレイ画像を表示させ、左画像データに基づいて左表示部14Lに左ディスプレイ画像を表示させる。 In S76, the control unit 30 causes the display unit 14 to display a display image (see 110 in FIG. 3) based on the right image data and the left image data generated in S74. That is, the control unit 30 displays the right display image on the right display unit 14R based on the right image data, and displays the left display image on the left display unit 14L based on the left image data.
 続くS78では、制御部30は、S76で表示された右ディスプレイ画像を示す右ディスプレイ画像データと、左ディスプレイ画像を示す左ディスプレイ画像データとを生成し、サーバ80に送信する。サーバ80は、画像表示装置10から右ディスプレイ画像データ及び左ディスプレイ画像データを受信すると、装置グループ内の受信側端末である他の画像表示装置(例えば画像表示装置50)に、画像表示装置10から受信した右ディスプレイ画像データ及び左ディスプレイ画像データを送信する。この結果、本実施例では、画像表示装置10、50の表示部には、それぞれ、同じディスプレイ画像が表示される。 In subsequent S78, the control unit 30 generates right display image data indicating the right display image displayed in S76 and left display image data indicating the left display image, and transmits them to the server 80. When the server 80 receives the right display image data and the left display image data from the image display device 10, the server 80 transmits the image display device 10 to another image display device (for example, the image display device 50) that is a receiving side terminal in the device group. The received right display image data and left display image data are transmitted. As a result, in the present embodiment, the same display image is displayed on the display units of the image display devices 10 and 50, respectively.
 その後、制御部30は、所定の終了操作が行われるまで、S72~S78の処理を繰り返し実行する。制御部30は、ユーザの操作に応じて、ディスプレイ画像に含まれるオブジェクト画像の表示態様を変更させる等、操作に応じてディスプレイ画像の表示内容を変更することができる。 Thereafter, the control unit 30 repeatedly executes the processes of S72 to S78 until a predetermined end operation is performed. The control unit 30 can change the display content of the display image according to the operation, such as changing the display mode of the object image included in the display image according to the user's operation.
 一方、S80(即ち、自機が受信側端末である場合)では、制御部30は、サーバ80から、送信側端末である画像表示装置10の表示部に表示されているディスプレイ画像のデータ(即ち、右ディスプレイ画像データ及び左ディスプレイ画像データ)を受信する。 On the other hand, in S80 (that is, in the case where the own device is a receiving terminal), the control unit 30 displays data of the display image displayed on the display unit of the image display device 10 that is the transmitting terminal (that is, the server 80). , Right display image data and left display image data).
 続くS82では、制御部30は、S80で受信された右ディスプレイ画像データ及び左ディスプレイ画像データに基づいて、表示部14にディスプレイ画像を表示させる。即ち、制御部30は、右ディスプレイ画像データに基づいて右表示部14Rに右ディスプレイ画像を表示させ、左ディスプレイ画像データに基づいて左表示部14Lに左ディスプレイ画像を表示させる。これにより、表示部14には、送信側端末である他の画像表示装置の表示部に表示されているディスプレイ画像データと同じ画像が表示される。 In subsequent S82, the control unit 30 causes the display unit 14 to display a display image based on the right display image data and the left display image data received in S80. That is, the control unit 30 displays the right display image on the right display unit 14R based on the right display image data, and displays the left display image on the left display unit 14L based on the left display image data. Thereby, the same image as the display image data displayed on the display part of the other image display apparatus which is a transmission side terminal is displayed on the display part 14. FIG.
(具体例;図13)
 続いて、図13を参照して、本実施例の画像表示装置10と画像表示装置50とによって表示処理(図12参照)が実行される場合に、各装置10、50の表示部14、54に表示されるディスプレイ画像の具体例を説明する。この例では、図13に示すように、部屋R内に、画像表示装置10を装着したユーザU1と、画像表示装置50を装着したユーザU2とが存在する。この例では、画像表示装置10、50では、ともに、教育アプリ(即ち、図8のアイコン324に対応するアプリ)が起動されており、表示処理(図12参照)が実行されている。そして、画像表示装置10が表示側端末として設定されており、画像表示装置50が受信側端末として設定されている。この例では、画像表示システム2を利用して、講師役であるユーザU1が、生徒役であるユーザU2に対して、料理の仕方等を教授する状況を想定している。ユーザU1は、部屋R内に存在する現実の物品であるパン500を見ている(即ち、カメラ16の撮影範囲内にパン500が存在している)。なお、パン500の一部は予めスライスされている。
(Specific example: FIG. 13)
Subsequently, referring to FIG. 13, when a display process (see FIG. 12) is executed by the image display device 10 and the image display device 50 of the present embodiment, the display units 14 and 54 of the devices 10 and 50. A specific example of the display image displayed on the screen will be described. In this example, as shown in FIG. 13, a user U1 wearing the image display device 10 and a user U2 wearing the image display device 50 exist in the room R. In this example, in both the image display devices 10 and 50, an education application (that is, an application corresponding to the icon 324 in FIG. 8) is activated, and display processing (see FIG. 12) is executed. The image display device 10 is set as a display side terminal, and the image display device 50 is set as a reception side terminal. In this example, it is assumed that the user U1 who is a lecturer teaches how to cook for the user U2 who is a student role using the image display system 2. The user U1 is looking at the pan 500 which is an actual article existing in the room R (that is, the pan 500 exists within the shooting range of the camera 16). A part of the bread 500 is sliced in advance.
 図13では、講師役であるユーザU1の操作(具体的には、ユーザU1が仮想のナイフを用いてパンをカットする操作)により、パン500の周囲に、説明用のメッセージを示すオブジェクト画像510と、ナイフを模したオブジェクト画像512とが配置された様子を示している。画像表示装置10(即ち送信側端末)では、図12のS72~S78の処理が実行される結果、表示部14にディスプレイ画像550が表示される。ディスプレイ画像550は、パン500の現実画像501と、説明用のメッセージのオブジェクト画像510と、ナイフのオブジェクト画像512とを含む。また、画像表示装置50(即ち受信側端末)では、図12のS80、S82の処理が実行される結果、表示部54にディスプレイ画像600が表示される。ディスプレイ画像600は、画像表示装置10の表示部14に表示されているディスプレイ画像550と同じ画像である。このように、画像表示装置10、50の表示部14、54には、それぞれ、同じ内容のディスプレイ画像550、600が表示される。 In FIG. 13, an object image 510 showing an explanatory message around the pan 500 by the operation of the user U1 who is a lecturer (specifically, an operation in which the user U1 cuts bread using a virtual knife). And an object image 512 simulating a knife is shown. In the image display device 10 (that is, the transmission side terminal), the display image 550 is displayed on the display unit 14 as a result of executing the processing of S72 to S78 of FIG. The display image 550 includes a real image 501 of the pan 500, an object image 510 for an explanatory message, and a knife object image 512. Further, in the image display device 50 (that is, the receiving terminal), the display image 600 is displayed on the display unit 54 as a result of executing the processing of S80 and S82 of FIG. The display image 600 is the same image as the display image 550 displayed on the display unit 14 of the image display device 10. Thus, the display images 550 and 600 having the same contents are displayed on the display units 14 and 54 of the image display devices 10 and 50, respectively.
 本実施例の画像表示システム2も、第1実施例の画像表示システム2と同様の作用効果を発揮することができる。また、上記の通り、本実施例では、画像表示装置10、50の表示部14、54には、それぞれ、同じ内容のディスプレイ画像550、600が表示される。即ち、各ユーザが同じ画像を視認することができる。図12のS74で生成される右画像データ及び左画像データが、それぞれ「第1種の右画像データ」、「第1種の左画像データ」の一例である。S78でサーバ80に送信される右ディスプレイ画像データ及び左ディスプレイ画像データが、それぞれ「第2種の右画像データ」、「第2種の左画像データ」の一例である。S80でサーバ80から受信される(即ち、サーバ80を介して送信側端末から受信される)右ディスプレイ画像データ及び左ディスプレイ画像データが、それぞれ「第3種の右画像データ」、「第3種の左画像データ」の一例である。 The image display system 2 of the present embodiment can also exhibit the same operational effects as the image display system 2 of the first embodiment. Further, as described above, in the present embodiment, the display images 550 and 600 having the same contents are displayed on the display units 14 and 54 of the image display devices 10 and 50, respectively. That is, each user can visually recognize the same image. The right image data and the left image data generated in S74 of FIG. 12 are examples of “first type right image data” and “first type left image data”, respectively. The right display image data and the left display image data transmitted to the server 80 in S78 are examples of “second type right image data” and “second type left image data”, respectively. The right display image data and the left display image data received from the server 80 in S80 (that is, received from the transmitting terminal via the server 80) are “third type right image data” and “third type”, respectively. Is an example of “left image data”.
(第3実施例)
 第1実施例と異なる点を中心に説明する。本実施例では、右表示部14R及び左表示部14Lに表示される画像110R、110Lの位置調整のための処理の内容が第1実施例とは異なる。上記の通り、第1実施例では、図4のS22~S26において、制御部30は、上下位置調整、左右位置調整、微調整をそれぞれ行う(図5~図7参照)。これに対し、本実施例では、図4のS22~S26の処理に代えて、制御部30は、図14の調整画面710を表示部14に表示させて調整を行う。本実施例の調整画面710には、ユーザから見て近い位置における位置調整のためのマーク712、714と、ユーザから見て遠い位置における位置調整のためのマーク722、724と、右調整ボタン730と、左調整ボタン732と、確定のためのOKボタン750と、が含まれる。
(Third embodiment)
A description will be given centering on differences from the first embodiment. In the present embodiment, the contents of processing for adjusting the positions of the images 110R and 110L displayed on the right display portion 14R and the left display portion 14L are different from those in the first embodiment. As described above, in the first embodiment, in S22 to S26 of FIG. 4, the control unit 30 performs vertical position adjustment, left and right position adjustment, and fine adjustment, respectively (see FIGS. 5 to 7). On the other hand, in this embodiment, instead of the processing of S22 to S26 of FIG. 4, the control unit 30 performs adjustment by displaying the adjustment screen 710 of FIG. The adjustment screen 710 of this embodiment includes marks 712 and 714 for position adjustment at positions close to the user, marks 722 and 724 for position adjustment at positions far from the user, and a right adjustment button 730. And a left adjustment button 732 and an OK button 750 for confirmation.
 マーク712、714は、ユーザから見て近い位置に表示されるように視認されるマーク画像である。一方、マーク722、724は、ユーザから見て遠い位置に表示されるように視認されるマーク画像である。なお、図14の例では、マーク722、724は、4か所に分かれて表示されている。各マークのうち、マーク712及びマーク722は、右表示部14Rに表示され、マーク714及びマーク724は、左表示部14Lに表示される。 The marks 712 and 714 are mark images that are visually recognized so as to be displayed at positions close to the user. On the other hand, the marks 722 and 724 are mark images that are visually recognized so as to be displayed at positions far from the user. In the example of FIG. 14, the marks 722 and 724 are displayed separately in four places. Among the marks, the mark 712 and the mark 722 are displayed on the right display unit 14R, and the mark 714 and the mark 724 are displayed on the left display unit 14L.
 右調整ボタン730は、右表示部14Rに表示される各画像(この場合はマーク712とマーク722)の表示位置を上下左右に調整するための調整ボタンであり、左調整ボタン732は、左表示部14Lに表示される各画像(この場合はマーク714とマーク724)の表示位置を上下左右に調整するための調整ボタンである。右調整ボタン730が操作されると、操作に伴って、マーク712及びマーク722の表示位置が同時に変化する。同様に、左調整ボタン732が操作されると、操作に伴って、マーク714及びマーク724の表示位置が同時に変化する。本実施例では、右調整ボタン730と、左調整ボタン732と、OKボタン750と、は右表示部14Rと左表示部14Lの一方に表示される。ユーザは、上記の要素を両眼で見ることによって、図14に示すような調整画面710を視認することができる。 The right adjustment button 730 is an adjustment button for adjusting the display position of each image (in this case, the mark 712 and the mark 722) displayed on the right display unit 14R, and the left adjustment button 732 is a left display. This is an adjustment button for adjusting the display position of each image (in this case, the mark 714 and the mark 724) displayed on the portion 14L in the vertical and horizontal directions. When the right adjustment button 730 is operated, the display positions of the mark 712 and the mark 722 are changed simultaneously with the operation. Similarly, when the left adjustment button 732 is operated, the display positions of the mark 714 and the mark 724 change simultaneously with the operation. In the present embodiment, the right adjustment button 730, the left adjustment button 732, and the OK button 750 are displayed on one of the right display portion 14R and the left display portion 14L. The user can visually recognize the adjustment screen 710 as shown in FIG. 14 by viewing the above elements with both eyes.
 ユーザは、マーク712、714、722、724を両眼で見ながら、ボタン730、732を操作し、マーク712とマーク714とが重なり、かつ、マーク722とマーク724とが重なるように調整する。マーク712、714が重なるように調整されることにより、画像110R,110Lのうち、ユーザから見て近い位置に表示される画像の表示位置が調整される。そして、マーク722、724が重なるように調整されることにより、画像110R,110Lのうち、ユーザから見て遠い位置に表示される画像の表示位置が調整される。ユーザは、マーク712、714、及び、マーク722、724が重なるように調整された時点でOKボタン750を操作し、位置を確定させる。この場合、制御部30は、確定された表示位置をメモリ32に一時記憶させ、図4のS28に進む。これ以降の処理は第1実施例と同様である。 The user operates the buttons 730 and 732 while viewing the marks 712, 714, 722, and 724 with both eyes, and adjusts the mark 712 and the mark 714 so that they overlap, and the mark 722 and the mark 724 overlap. By adjusting the marks 712 and 714 so as to overlap with each other, the display position of the image displayed at a position close to the user when viewed from the user is adjusted among the images 110R and 110L. Then, by adjusting the marks 722 and 724 so as to overlap each other, the display position of an image displayed at a position far from the user among the images 110R and 110L is adjusted. When the user adjusts the marks 712 and 714 and the marks 722 and 724 to overlap each other, the user operates the OK button 750 to determine the position. In this case, the control unit 30 temporarily stores the determined display position in the memory 32, and proceeds to S28 of FIG. The subsequent processing is the same as in the first embodiment.
 人間の物の見方は、近い位置の物体を見る場合と、遠い位置の物体を見る場合と、で異なる。そして、人間の眼は、近い位置の物体と遠い位置の物体を別々のタイミングで見る場合、見え方の違いを補うように調整する機能を有する。そのため、画像表示装置10において、近い位置に表示される画像を見るための調整処理と、遠い位置に表示される画像を見るための調整処理と、を別々のタイミングで行うと、近い位置に表示される画像と遠い位置に表示される画像とが同時に表示される場合に、ユーザが、それらを立体的に視認し難い場合がある。この点、本実施例によると、ユーザは、調整画面710を見ながら、マーク712、714が重なって見えるように調整するとともに、マーク722、724が重なって見えるように調整する。従って、本実施例によると、画像110R、110Lが、ユーザから見て、近い位置の画像と遠い位置の画像とを含む場合であっても、ユーザにとって立体的に認識し易い態様で、画像110R、110Lを表示部14に表示させることができる。 ¡The way human objects are viewed differs depending on whether an object at a close position is viewed or an object at a distant position. The human eye has a function of adjusting so as to compensate for a difference in appearance when an object at a close position and an object at a distant position are viewed at different timings. Therefore, when the image display device 10 performs an adjustment process for viewing an image displayed at a close position and an adjustment process for viewing an image displayed at a distant position at different timings, the display is performed at a close position. When an image to be displayed and an image displayed at a distant position are displayed at the same time, it may be difficult for the user to visually recognize them. In this regard, according to the present embodiment, the user adjusts the marks 712 and 714 so that the marks 722 and 724 appear to overlap while looking at the adjustment screen 710. Therefore, according to the present embodiment, even when the images 110R and 110L include an image at a close position and an image at a distant position when viewed from the user, the image 110R is easily recognized three-dimensionally by the user. 110L can be displayed on the display unit 14.
 本実施例のマーク712、714が、それぞれ、「第1の右マーク画像」、「第1の左マーク画像」の一例である。マーク722、724が、それぞれ、「第2の右マーク画像」、「第2の左マーク画像」の一例である。 The marks 712 and 714 of the present embodiment are examples of “first right mark image” and “first left mark image”, respectively. The marks 722 and 724 are examples of a “second right mark image” and a “second left mark image”, respectively.
(第4実施例)
 第1実施例と異なる点を中心に説明する。本実施例では、右表示部14R及び左表示部14Lに表示される画像110R、110Lの位置調整のための処理の内容が第1実施例とは異なる。本実施例では、図4のS22~S26の処理に代えて、制御部30は、図15の調整画面810を表示部14に表示させて調整を行う。本実施例の調整画面810には、カメラ16の撮影範囲(即ち、ユーザの視界範囲)に存在する実際の物体(図15の例ではテレビモニタ850)と、位置調整のためのマーク812、814と、右表示部14Rに表示される画像の表示位置を上下左右に調整するための右調整ボタン830と、左表示部14Lに表示される画像の表示位置を上下左右に調整するための左調整ボタン832と、確定のためのOKボタン840と、が含まれる。
(Fourth embodiment)
A description will be given centering on differences from the first embodiment. In the present embodiment, the contents of processing for adjusting the positions of the images 110R and 110L displayed on the right display portion 14R and the left display portion 14L are different from those in the first embodiment. In this embodiment, instead of the processing of S22 to S26 in FIG. 4, the control unit 30 performs adjustment by displaying the adjustment screen 810 in FIG. In the adjustment screen 810 of the present embodiment, an actual object (television monitor 850 in the example of FIG. 15) existing in the shooting range of the camera 16 (that is, the view range of the user), and marks 812 and 814 for position adjustment. A right adjustment button 830 for adjusting the display position of the image displayed on the right display unit 14R vertically and horizontally, and a left adjustment for adjusting the display position of the image displayed on the left display unit 14L vertically and horizontally. A button 832 and an OK button 840 for confirmation are included.
 2つのマーク812、814のうち、マーク812は、右表示部14Rに表示されるマーク画像であり、マーク814は、左表示部14Lに表示されるマーク画像である。マーク812は、ユーザの視界範囲に存在する実際のテレビモニタ850のモニタ部分の外形に適合する形状を有しており、モニタ部分の外形に重なる位置に表示される。即ち、本実施例では、制御部30は、右カメラ16Rによって撮影された右カメラ画像、及び、左カメラ16Lによって撮影された左カメラ画像から、テレビモニタ850のモニタ部分の形状を認識し、モニタ部分と適合する形状のマーク812の画像を生成して右表示部14Rに表示させている。マーク814は、マーク812と同じ形状(即ち、テレビモニタのモニタ部分の外形に適合する形状)を有している。 Of the two marks 812 and 814, the mark 812 is a mark image displayed on the right display unit 14R, and the mark 814 is a mark image displayed on the left display unit 14L. The mark 812 has a shape that matches the outer shape of the actual monitor portion of the television monitor 850 that exists in the user's field of view, and is displayed at a position that overlaps the outer shape of the monitor portion. That is, in this embodiment, the control unit 30 recognizes the shape of the monitor portion of the television monitor 850 from the right camera image taken by the right camera 16R and the left camera image taken by the left camera 16L, and monitors the monitor. An image of the mark 812 having a shape that matches the portion is generated and displayed on the right display unit 14R. The mark 814 has the same shape as the mark 812 (that is, a shape that matches the external shape of the monitor portion of the television monitor).
 また、右調整ボタン830、左調整ボタン832、及び、OKボタン840は、右表示部14Rと左表示部14Lの一方に表示される。ユーザは、上記の各要素を両眼で見ることによって、図15に示すような調整画面810を視認することができる。ユーザは、近い位置に表示されているマーク812、814を両眼で見ながら、ボタン830、832を操作し、マーク812、814が重なるように調整する。この際、ユーザは、マーク814を動かして、マーク814を、テレビモニタ850に既に重ねて表示されているマーク812に重ねるように調整することができる。即ち、ユーザは、実際の物体であるテレビモニタ850を基準として調整を行うことができる。マーク812、814が重なるように調整されることにより、右表示部14R及び左表示部14Lに表示される画像110R、110Lの位置が調整される。ユーザは、マーク812、814が重なるように調整された時点でOKボタン840を操作し、位置を確定させる。この場合、制御部30は、確定された表示位置をメモリ32に一時記憶させ、図4のS28に進む。これ以降の処理は第1実施例と同様である。 Also, the right adjustment button 830, the left adjustment button 832, and the OK button 840 are displayed on one of the right display portion 14R and the left display portion 14L. The user can visually recognize the adjustment screen 810 as shown in FIG. 15 by viewing each of the above elements with both eyes. The user operates the buttons 830 and 832 while adjusting the marks 812 and 814 displayed at close positions with both eyes, and adjusts the marks 812 and 814 to overlap each other. At this time, the user can move the mark 814 and adjust the mark 814 so as to overlap the mark 812 that is already displayed on the television monitor 850. That is, the user can make adjustments based on the TV monitor 850 that is an actual object. By adjusting the marks 812 and 814 to overlap, the positions of the images 110R and 110L displayed on the right display unit 14R and the left display unit 14L are adjusted. When the user adjusts the marks 812 and 814 to overlap, the user operates the OK button 840 to determine the position. In this case, the control unit 30 temporarily stores the determined display position in the memory 32, and proceeds to S28 of FIG. The subsequent processing is the same as in the first embodiment.
 本実施例によると、ユーザは、テレビモニタ850に重なるように表示されたマーク812と、マーク814と、が重なって見えるように、マーク814の表示位置を変更することができる。テレビモニタ850(即ち、実際の物体)を基準として、マーク812、814の位置合わせを行うことができる。そのため、テレビモニタ850を基準にしない場合に比べて、マーク812、814の位置合わせを正確に行うことができる。従って、上記の構成によると、より適切に、ユーザにとって立体的に認識し易い態様で、画像110R,110Lを表示部14に表示させることができる。 According to the present embodiment, the user can change the display position of the mark 814 so that the mark 812 displayed so as to overlap the television monitor 850 and the mark 814 appear to overlap each other. The marks 812 and 814 can be aligned with reference to the television monitor 850 (that is, an actual object). Therefore, the marks 812 and 814 can be accurately aligned as compared with the case where the television monitor 850 is not used as a reference. Therefore, according to the above configuration, it is possible to display the images 110R and 110L on the display unit 14 in a more appropriate manner that allows the user to easily recognize three-dimensionally.
 本実施例のマーク812、814が、それぞれ、「右マーク画像」、「左マーク画像」の一例である。また、上記の例のマーク812、814が、それぞれ、「第1の画像」、「第2の画像」の一例である。また、テレビモニタ850が「物体」の一例である。 The marks 812 and 814 of the present embodiment are examples of a “right mark image” and a “left mark image”, respectively. In addition, the marks 812 and 814 in the above example are examples of “first image” and “second image”, respectively. The television monitor 850 is an example of “object”.
(第5実施例)
 第1実施例と異なる点を中心に説明する。本実施例では、図16に示すように、画像表示装置1000の構成が、第1実施例とは異なる。本実施例の画像表示装置1000は、表示部1014が遮光性のディスプレイであって、ユーザが画像表示装置1000を装着した際に、ユーザの視界を遮るものである点において、第1実施例とは異なる。その他の構成要素は第1実施例とほぼ同様である。
(5th Example)
A description will be given centering on differences from the first embodiment. In the present embodiment, as shown in FIG. 16, the configuration of the image display apparatus 1000 is different from that of the first embodiment. The image display apparatus 1000 of the present embodiment is different from the first embodiment in that the display unit 1014 is a light-shielding display and blocks the user's field of view when the user wears the image display apparatus 1000. Is different. Other components are almost the same as those in the first embodiment.
 上記の通り、本実施例では、表示部1014が遮光性のディスプレイであるため、制御部30は、表示部1014にディスプレイ画像を表示させる場合、表示部1014のうちのユーザの右眼に対向する領域に右ディスプレイ画像を表示させ、表示部1014のうちのユーザの左眼に対向する領域に左ディスプレイ画像を表示させる。 As described above, in the present embodiment, since the display unit 1014 is a light-shielding display, the control unit 30 faces the right eye of the user in the display unit 1014 when displaying the display image on the display unit 1014. The right display image is displayed in the area, and the left display image is displayed in the area of the display unit 1014 facing the user's left eye.
 以上、実施例を詳細に説明したが、これらは例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。 As mentioned above, although the Example was described in detail, these are only illustrations and do not limit a claim. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. For example, the following modifications may be adopted.
(変形例1)上記の各実施例では、画像表示装置10(50、1000)は、フレーム12(52)にすべての構成要素14~32(54~72、1014)が搭載された1個の装置として構成されている。これに限られず、画像表示装置の構成要素の一部がフレーム外に設けられていてもよい。例えば、メモリ32が、制御部30と通信可能な態様でフレーム12の外に設けられていてもよい。この変形例では、フレーム12に搭載されている構成要素と、フレーム12の外に設けられている構成要素とを組み合わせることによって画像表示装置10が形成されていればよい。 (Modification 1) In each of the above-described embodiments, the image display device 10 (50, 1000) includes one component in which all the components 14 to 32 (54 to 72, 1014) are mounted on the frame 12 (52). It is configured as a device. However, the present invention is not limited to this, and some of the components of the image display device may be provided outside the frame. For example, the memory 32 may be provided outside the frame 12 so as to be able to communicate with the control unit 30. In this modification, the image display device 10 may be formed by combining the components mounted on the frame 12 and the components provided outside the frame 12.
(変形例2)上記の各実施例では、画像表示装置10は、コントロールボックス18の外に備えられている操作部19を有する。これに限られず、画像表示装置10には、物理的な操作部19が設けられていなくてもよい。各種指示の入力は、すべて、制御部30が、カメラ16の撮影範囲(即ち上記の特定範囲)内で行われるユーザのジェスチャーを検出することによって行われてもよい。また、操作部19に代えて、キーボード等の外部の入力装置を接続可能な接続部が設けられていてもよい。その場合、各種指示の入力は、接続部に接続された外部の入力装置によって行われてもよい。 (Modification 2) In each of the above-described embodiments, the image display device 10 has the operation unit 19 provided outside the control box 18. The image display device 10 is not limited to this, and the physical operation unit 19 may not be provided. The input of various instructions may all be performed by the control unit 30 detecting a user gesture performed within the shooting range of the camera 16 (that is, the specific range). Further, instead of the operation unit 19, a connection unit that can connect an external input device such as a keyboard may be provided. In that case, input of various instructions may be performed by an external input device connected to the connection unit.
(変形例3)上記の各実施例では、右カメラ16R、左カメラ16Lは、それぞれ、右表示部14R、左表示部14Lの上方位置に配置されている。右カメラ16R、左カメラ16Lの配置位置はこれに限られず、右カメラがユーザの右眼の視界範囲に対応する範囲を撮影し、左カメラがユーザの左眼の視界範囲に対応する範囲を撮影可能であれば、任意の位置に配置されていてもよい。 (Modification 3) In each of the above-described embodiments, the right camera 16R and the left camera 16L are disposed above the right display unit 14R and the left display unit 14L, respectively. The arrangement positions of the right camera 16R and the left camera 16L are not limited to this, the right camera captures a range corresponding to the user's right eye view range, and the left camera captures a range corresponding to the user's left eye view range. If possible, they may be arranged at arbitrary positions.
(変形例4)上記の各実施例では、右表示部14Rに右ディスプレイ画像を表示させるための右画像データは、右カメラ画像に基づいて生成され、左表示部14Lに左ディスプレイ画像を表示させるための左画像データは、左カメラ画像に基づいて生成される。これに限られず、右画像データは、右カメラ画像と左カメラ画像との合成画像のうち右側の画像に基づいて生成され、左画像データは、上記の合成画像のうち左側の画像に基づいて生成されてもよい。 (Modification 4) In each of the above embodiments, the right image data for displaying the right display image on the right display unit 14R is generated based on the right camera image, and the left display image is displayed on the left display unit 14L. The left image data for this is generated based on the left camera image. The right image data is generated based on the right image of the combined image of the right camera image and the left camera image, and the left image data is generated based on the left image of the combined image. May be.
(変形例5)上記の第2実施例において、画像表示装置10、50は、サーバ80を介さずに直接無線通信を行ってもよい。その場合、例えば、画像表示装置10と画像表示装置50は、Bluetooth(登録商標)通信等、Wi-Fi通信以外の無線通信を実行してもよい。 (Modification 5) In the second embodiment, the image display devices 10 and 50 may perform wireless communication directly without using the server 80. In this case, for example, the image display device 10 and the image display device 50 may execute wireless communication other than Wi-Fi communication, such as Bluetooth (registered trademark) communication.
(変形例6)上記の第2実施例において、受信側端末に設定されている画像表示装置には、カメラが備えられていなくてもよい。即ち、受信側端末である装置は、受信専用機であってもよい。 (Modification 6) In the second embodiment described above, the image display device set in the receiving terminal may not be provided with a camera. That is, the device that is the receiving terminal may be a reception-only device.
(変形例7)上記の各実施例では、画像表示装置は、いずれも、略眼鏡状のフレームを有しており、眼鏡を装着するようにユーザの頭部に装着可能なものである。これに限られず、画像表示装置は、ユーザの頭部に装着可能であれば、帽子状、ヘルメット状等、任意の支持枠を有していてもよい。 (Modification 7) In each of the above embodiments, each of the image display devices has a substantially glasses-like frame, and can be worn on the user's head like wearing glasses. The image display device is not limited to this, and may have an arbitrary support frame such as a hat shape or a helmet shape as long as the image display device can be mounted on the user's head.
(変形例8)画像表示装置は、視力矯正、目の保護等の用途のために一般的に使用されているアイウェア(眼鏡、サングラス等)に、カメラ及びコントロールボックス等を装着することによって形成されてもよい。その場合、アイウェアのレンズ部分が表示部として利用されてもよい。 (Modification 8) An image display device is formed by mounting a camera, a control box, etc. on eyewear (glasses, sunglasses, etc.) generally used for purposes such as vision correction and eye protection. May be. In that case, the lens portion of the eyewear may be used as the display unit.
(変形例9)上記の第3実施例において、制御部30は、調整画面710を表示することに代えて、上下位置調整のための上下調整画面、左右位置調整のための左右調整画面、微調整のための微調整画面、を順に表示させて調整を行うようにしてもよい。同様に、第4実施例において、制御部は、調整画面810を表示することに代えて、上下位置調整のための上下調整画面、左右位置調整のための左右調整画面、微調整のための微調整画面、を順に表示させて調整を行うようにしてもよい。 (Modification 9) In the third embodiment, instead of displaying the adjustment screen 710, the control unit 30 performs an up / down adjustment screen for adjusting the vertical position, a left / right adjustment screen for adjusting the left / right position, Adjustments may be made by displaying fine adjustment screens for adjustment in order. Similarly, in the fourth embodiment, instead of displaying the adjustment screen 810, the control unit displays a vertical adjustment screen for adjusting the vertical position, a horizontal adjustment screen for adjusting the horizontal position, and a fine adjustment for fine adjustment. Adjustments may be made by displaying the adjustment screens in order.
(変形例10)第4実施例において、制御部30は、調整画面810を表示させる際に、マーク812に代えて、マーク814をテレビモニタ850に重ねて表示させるようにしてもよい。 (Modification 10) In the fourth embodiment, when the adjustment screen 810 is displayed, the control unit 30 may display the mark 814 on the television monitor 850 in place of the mark 812.
(変形例11)第4実施例において、ユーザの視界範囲に存在し、位置調整の基準に用いられる物体は、図15に示すテレビモニタ850に限られず、任意の物体であってもよい。従って、例えば、位置調整のための専用の物品が用いられてもよい。 (Modification 11) In the fourth embodiment, an object that exists in the user's field of view and is used as a reference for position adjustment is not limited to the television monitor 850 shown in FIG. 15, and may be any object. Therefore, for example, a dedicated article for position adjustment may be used.
 また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。 Further, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

Claims (7)

  1.  第1の画像表示装置であって、
     第1のユーザの頭部に装着可能な第1のフレームと、
     前記第1のフレームに備えられ、前記第1のフレームを装着した前記第1のユーザの右眼に対向する位置に配置される第1の右眼用表示部と、
     前記第1のフレームに備えられ、前記第1のフレームを装着した前記第1のユーザの左眼に対向する位置に配置される第1の左眼用表示部と、
     前記第1のフレームを装着した前記第1のユーザの右眼の視界範囲に対応する範囲を撮影する右カメラと、
     前記第1のフレームを装着した前記第1のユーザの左眼の視界範囲に対応する範囲を撮影する左カメラと、
     第1の制御部と、を備えており、
     前記第1の制御部は、
      前記右カメラによって撮影された右カメラ画像と前記左カメラによって撮影された左カメラ画像とのうちの少なくとも前記右カメラ画像を利用して第1種の右画像データを生成し、
      前記右カメラ画像と前記左カメラ画像とのうち少なくとも前記左カメラ画像を利用して第1種の左画像データを生成し、
      前記第1種の右画像データによって表される第1種の右ディスプレイ画像を前記第1の右眼用表示部に表示させ、
      前記第1種の左画像データによって表される第1種の左ディスプレイ画像を前記第1の左眼用表示部に表示させ、
      前記第1のユーザが前記第1種の右ディスプレイ画像と前記第1種の左ディスプレイ画像とに基づいて両眼で視認可能な第1種のディスプレイ画像において、第1種の右ディスプレイ画像による表示部分と第1種の左ディスプレイ画像による表示部分との位置ズレが無くなるように、前記第1の右眼用表示部における前記第1種の右ディスプレイ画像の表示位置と、前記第1の左眼用表示部における前記第1種の左ディスプレイ画像の表示位置と、のうちの少なくとも一方を、変化指示に従って変化させるための第1の調整処理を実行する、
     第1の画像表示装置。
    A first image display device,
    A first frame attachable to the head of the first user;
    A first right-eye display unit provided in the first frame and disposed at a position facing the right eye of the first user wearing the first frame;
    A first left-eye display unit provided in the first frame and disposed at a position facing the left eye of the first user wearing the first frame;
    A right camera that captures a range corresponding to the field of view of the right eye of the first user wearing the first frame;
    A left camera that captures a range corresponding to a visual field range of the left eye of the first user wearing the first frame;
    A first control unit,
    The first controller is
    First type right image data is generated using at least the right camera image of a right camera image photographed by the right camera and a left camera image photographed by the left camera,
    First type left image data is generated using at least the left camera image of the right camera image and the left camera image,
    Displaying a first type of right display image represented by the first type of right image data on the first right-eye display unit;
    Displaying a first type of left display image represented by the first type of left image data on the first left-eye display unit;
    In the first type of display image that the first user can visually recognize with both eyes based on the first type of right display image and the first type of left display image, display by the first type of right display image The display position of the first type of right display image on the first right-eye display unit and the first left eye so that there is no positional deviation between the portion and the display part of the first type of left display image Executing a first adjustment process for changing at least one of the display position of the first type of left display image on the display unit according to a change instruction;
    1st image display apparatus.
  2.  前記第1の調整処理は、
      第1の右マーク画像と、前記第1の右マーク画像よりも前記第1のユーザから見て遠方に配置されるように視認される第2の右マーク画像と、を前記第1の右眼用表示部に表示させ、
      第1の左マーク画像と、前記第1の左マーク画像よりも前記第1のユーザから見て遠方に配置されるように視認される第2の左マーク画像と、を前記第1の左眼用表示部に表示させ、
      前記第1のユーザから見て、前記第1の右マーク画像と前記第1の左マーク画像とが重なり、かつ、前記第2の右マーク画像と前記第2の右マーク画像とが重なって見えるように、前記第1の右マーク画像及び前記第2の右マークの表示位置と、前記第1の左マーク画像及び前記第2の左マークの表示位置と、のうちの少なくとも一方を変更することを含む、
     請求項1に記載の第1の画像表示装置。
    The first adjustment process includes:
    The first right eye includes a first right mark image and a second right mark image that is visually recognized so as to be arranged farther from the first user than the first right mark image. Display on the display for
    The first left eye includes a first left mark image and a second left mark image that is visually recognized so as to be arranged farther from the first user than the first left mark image. Display on the display for
    As viewed from the first user, the first right mark image and the first left mark image overlap, and the second right mark image and the second right mark image appear to overlap. As described above, at least one of the display position of the first right mark image and the second right mark and the display position of the first left mark image and the second left mark is changed. including,
    The first image display device according to claim 1.
  3.  前記第1の調整処理は、
      前記右カメラで撮影される前記右カメラ画像と、前記左カメラで撮影される前記左カメラ画像と、に含まれる物体の形状を認識し、
      前記物体の形状に適合する形状の右マーク画像を前記第1の右眼用表示部に表示させるとともに、前記右マーク画像に適合する形状の左マーク画像を前記第1の左眼用表示部に表示させ、
      さらに、前記右マーク画像と前記左マーク画像とのうちの一方である第1の画像の少なくとも一部を、前記第1のユーザから見て前記物体に重なるように視認できる態様で表示させ、
      前記第1のユーザから見て、前記右マーク画像と前記左マーク画像とのうちの他方である第2の画像が前記第1の画像と重なって見えるように、前記第2の画像の表示位置を変更することを含む、
     請求項1に記載の第1の画像表示装置。
    The first adjustment process includes:
    Recognizing the shape of an object included in the right camera image captured by the right camera and the left camera image captured by the left camera;
    A right mark image having a shape suitable for the shape of the object is displayed on the first right eye display unit, and a left mark image having a shape suitable for the right mark image is displayed on the first left eye display unit. Display
    Further, at least a part of the first image that is one of the right mark image and the left mark image is displayed in a manner that can be visually recognized so as to overlap the object when viewed from the first user,
    The display position of the second image so that the second image, which is the other of the right mark image and the left mark image, appears to overlap the first image when viewed from the first user. Including changing the
    The first image display device according to claim 1.
  4.  記憶装置をさらに備えており、
     前記第1の制御部は、
      前記第1の調整処理において、前記第1の右眼用表示部における前記第1種の右ディスプレイ画像の表示位置と、前記第1の左眼用表示部における前記第1種の左ディスプレイ画像の表示位置と、のうちの少なくとも一方が変化された後で、前記第1の調整処理によって変化された後の前記第1の右眼用表示部における前記第1種の右ディスプレイ画像の表示位置である右調整位置と、前記第1の調整処理によって変化された後の前記第1の左眼用表示部における前記第1種の左ディスプレイ画像の表示位置である左調整位置と、前記第1のユーザを示す識別情報と、を対応付けて前記記憶装置に記憶させ、
      前記右調整位置と、前記左調整位置と、前記識別情報と、が前記記憶装置に記憶された後で、前記識別情報が入力される場合に、前記第1の右眼用表示部における前記右調整位置に対応する位置に前記第1種の右ディスプレイ画像を表示させるとともに、前記第1の左眼用表示部における前記左調整位置に対応する位置に前記第1種の左ディスプレイ画像を表示させる、
     請求項1から3のいずれか一項に記載の第1の画像表示装置。
    A storage device,
    The first controller is
    In the first adjustment process, the display position of the first type of right display image in the first right eye display unit and the first type of left display image in the first left eye display unit. The display position of the first type of right display image on the first right-eye display unit after being changed by the first adjustment process after at least one of the display position and the display position is changed. A right adjustment position; a left adjustment position that is a display position of the first type of left display image in the first left-eye display unit after being changed by the first adjustment process; Storing the identification information indicating the user in association with the storage device,
    When the identification information is input after the right adjustment position, the left adjustment position, and the identification information are stored in the storage device, the right eye in the first right-eye display unit The first type right display image is displayed at a position corresponding to the adjustment position, and the first type left display image is displayed at a position corresponding to the left adjustment position in the first left-eye display unit. ,
    The 1st image display apparatus as described in any one of Claim 1 to 3.
  5.  前記第1の画像表示装置とは異なる外部装置との間で通信を実行するための第1の通信インターフェースをさらに備えており、
     前記第1の制御部は、
      前記第1種の右画像データに基づいて第2種の右画像データを生成し、前記第2種の右画像データは、前記外部装置の対象右眼用表示部に第2種の右ディスプレイ画像を表示させるためのデータであり、前記第2種の右ディスプレイ画像は、前記第1種の右ディスプレイ画像に関係する画像であり、
      前記第1種の左画像データに基づいて第2種の左画像データを生成し、前記第2種の左画像データは、前記外部装置の対象左眼用表示部に第2種の左ディスプレイ画像を表示させるためのデータであり、前記第2種の左ディスプレイ画像は、前記第1種の左ディスプレイ画像に関係する画像であり、
      前記第2種の右画像データと前記第2種の左画像データを前記第1の通信インターフェースを介して前記外部装置に送信する、
     請求項1から4のいずれか一項に記載の第1の画像表示装置。
    A first communication interface for executing communication with an external device different from the first image display device;
    The first controller is
    Second type right image data is generated based on the first type right image data, and the second type right image data is displayed on the target right eye display unit of the external device. And the second type right display image is an image related to the first type right display image,
    Second type left image data is generated based on the first type left image data, and the second type left image data is displayed on the target left eye display unit of the external device. And the second type of left display image is an image related to the first type of left display image,
    Transmitting the second type of right image data and the second type of left image data to the external device via the first communication interface;
    The 1st image display apparatus as described in any one of Claim 1 to 4.
  6.  前記第1の制御部は、
     前記第1の通信インターフェースを介して、前記外部装置から第3種の右画像データと第3種の左画像データとを受信し、
      前記第3種の右画像データによって表される第3種の右ディスプレイ画像を前記第1の右眼用表示部に表示させ、
      前記第3種の左画像データによって表される第3種の左ディスプレイ画像を前記第1の左眼用表示部に表示させ、
     前記第3種の右ディスプレイ画像は、前記外部装置の対象右眼用表示部に表示される対象右ディスプレイ画像に関係する画像であり、
     前記第3種の左ディスプレイ画像は、前記外部装置の対象左眼用表示部に表示される対象左ディスプレイ画像に関係する画像である、
     請求項5に記載の第1の画像表示装置。
    The first controller is
    Receiving the third type of right image data and the third type of left image data from the external device via the first communication interface;
    Displaying a third type of right display image represented by the third type of right image data on the first right-eye display unit;
    Displaying a third type of left display image represented by the third type of left image data on the first left-eye display unit;
    The third type right display image is an image related to a target right display image displayed on the target right eye display unit of the external device,
    The third type left display image is an image related to a target left display image displayed on the target left eye display unit of the external device.
    The first image display device according to claim 5.
  7.  請求項5又は6に記載の第1の画像表示装置と、第2の画像表示装置と、を備える画像表示システムであって、
     第2の画像表示装置は、
     前記第1のユーザとは異なる第2のユーザの頭部に装着可能な第2のフレームと、
     前記第2のフレームに備えられ、前記第2のフレームを装着した前記第2のユーザの右眼に対向する位置に配置される第2の右眼用表示部と、
     前記第2のフレームに備えられ、前記第2のフレームを装着した前記第2のユーザの左眼に対向する位置に配置される第2の左眼用表示部と、
     前記第1の画像表示装置との間で通信を実行するための第2の通信インターフェースと、
     第2の制御部と、を備えており、
     前記第2の制御部は、
      前記第2の通信インターフェースを介して、前記第1の画像表示装置から第2種の右画像データと第2種の左画像データとを受信し、
      前記第2種の右画像データによって表される第2種の右ディスプレイ画像を前記第2の右眼用表示部に表示させ、
      前記第2種の左画像データによって表される第2種の左ディスプレイ画像を前記第2の左眼用表示部に表示させ、
      前記第2のユーザが前記第2種の右ディスプレイ画像と前記第2種の左ディスプレイ画像とに基づいて両眼で視認可能な第2種のディスプレイ画像において、第2種の右ディスプレイ画像による表示部分と第2種の左ディスプレイ画像による表示部分との位置ズレが無くなるように、前記第2の右眼用表示部における前記第2種の右ディスプレイ画像の表示位置と、前記第2の左眼用表示部における前記第2種の左ディスプレイ画像の表示位置と、のうちの少なくとも一方を、前記第2のユーザによって入力される変化指示に従って変化させるための第2の調整処理を実行する、
     画像表示システム。
    An image display system comprising the first image display device according to claim 5 and a second image display device,
    The second image display device
    A second frame attachable to a head of a second user different from the first user;
    A second right-eye display unit provided in the second frame and disposed at a position facing the right eye of the second user wearing the second frame;
    A second left-eye display unit provided in the second frame and disposed at a position facing the left eye of the second user wearing the second frame;
    A second communication interface for executing communication with the first image display device;
    A second control unit,
    The second controller is
    Receiving the second type of right image data and the second type of left image data from the first image display device via the second communication interface;
    Displaying a second type of right display image represented by the second type of right image data on the second right-eye display unit;
    Displaying a second type of left display image represented by the second type of left image data on the second left-eye display unit;
    In the second type display image that the second user can visually recognize with both eyes based on the second type right display image and the second type left display image, the display by the second type right display image The display position of the second type of right display image on the second right-eye display unit and the second left eye so that the positional deviation between the portion and the display part of the second type of left display image is eliminated. Executing a second adjustment process for changing at least one of the display position of the second type of left display image on the display unit according to a change instruction input by the second user;
    Image display system.
PCT/JP2016/081358 2016-10-21 2016-10-21 Image display device and image display system WO2018073969A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018546133A JP6867566B2 (en) 2016-10-21 2016-10-21 Image display device and image display system
PCT/JP2016/081358 WO2018073969A1 (en) 2016-10-21 2016-10-21 Image display device and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/081358 WO2018073969A1 (en) 2016-10-21 2016-10-21 Image display device and image display system

Publications (1)

Publication Number Publication Date
WO2018073969A1 true WO2018073969A1 (en) 2018-04-26

Family

ID=62019585

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/081358 WO2018073969A1 (en) 2016-10-21 2016-10-21 Image display device and image display system

Country Status (2)

Country Link
JP (1) JP6867566B2 (en)
WO (1) WO2018073969A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022038637A (en) * 2020-08-27 2022-03-10 グローブライド株式会社 Fishing gear identification apparatus and fishing gear management system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005093687A1 (en) * 2004-03-26 2005-10-06 Atsushi Takahashi 3d entity digital magnifying glass system having 3d visual instruction function
JP2006293605A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method and system
JP2012138654A (en) * 2010-12-24 2012-07-19 Sony Corp Head-mounted display
JP2012165085A (en) * 2011-02-04 2012-08-30 Seiko Epson Corp Head-mounted type display device and control method of head-mounted type display device
JP2013232744A (en) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 Display system, display adjustment system, display adjustment method and program
JP2016004493A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Image processor and control method thereof
JP2016126365A (en) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 Display system, display device, information display method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005093687A1 (en) * 2004-03-26 2005-10-06 Atsushi Takahashi 3d entity digital magnifying glass system having 3d visual instruction function
JP2006293605A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method and system
JP2012138654A (en) * 2010-12-24 2012-07-19 Sony Corp Head-mounted display
JP2012165085A (en) * 2011-02-04 2012-08-30 Seiko Epson Corp Head-mounted type display device and control method of head-mounted type display device
JP2013232744A (en) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 Display system, display adjustment system, display adjustment method and program
JP2016004493A (en) * 2014-06-18 2016-01-12 キヤノン株式会社 Image processor and control method thereof
JP2016126365A (en) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 Display system, display device, information display method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022038637A (en) * 2020-08-27 2022-03-10 グローブライド株式会社 Fishing gear identification apparatus and fishing gear management system
JP7464479B2 (en) 2020-08-27 2024-04-09 グローブライド株式会社 Fishing tackle identification device and fishing tackle management system

Also Published As

Publication number Publication date
JP6867566B2 (en) 2021-04-28
JPWO2018073969A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP6339239B2 (en) Head-mounted display device and video display system
JP6378781B2 (en) Head-mounted display device and video display system
KR20180103066A (en) Image display system, image display system control method, image transmission system, and head mount display
KR102117376B1 (en) Information processing device
WO2016017245A1 (en) Information processing device, information processing method, and image display system
JP2016031439A (en) Information processing apparatus and information processing method, computer program, and image display system
WO2017085974A1 (en) Information processing apparatus
GB2495159A (en) A head-mounted somatosensory control and display system based on a user's body action
JP2014192550A (en) Head-mounted display device, and control method of head-mounted display device
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
US20140361987A1 (en) Eye controls
JPWO2016013272A1 (en) Information processing apparatus, information processing method, and image display system
WO2017022291A1 (en) Information processing device
JP6631014B2 (en) Display system and display control method
KR20190069480A (en) Sight training device to improve fusion function
EP3402410B1 (en) Detection system
JP6867566B2 (en) Image display device and image display system
WO2017191702A1 (en) Image processing device
US20120120051A1 (en) Method and system for displaying stereoscopic images
WO2012147482A1 (en) Stereoscopic image display device and stereoscopic image display method
JP2016090853A (en) Display device, control method of display device and program
JP5037713B1 (en) Stereoscopic image display apparatus and stereoscopic image display method
JP6683218B2 (en) Head-mounted display device and control method for head-mounted display device
KR20110136326A (en) System for rendering of stereoscopic
WO2017163649A1 (en) Image processing device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16919414

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018546133

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16919414

Country of ref document: EP

Kind code of ref document: A1