WO2018020661A1 - 表示装置、表示制御装置および表示制御方法 - Google Patents

表示装置、表示制御装置および表示制御方法 Download PDF

Info

Publication number
WO2018020661A1
WO2018020661A1 PCT/JP2016/072317 JP2016072317W WO2018020661A1 WO 2018020661 A1 WO2018020661 A1 WO 2018020661A1 JP 2016072317 W JP2016072317 W JP 2016072317W WO 2018020661 A1 WO2018020661 A1 WO 2018020661A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
mode
video
additional information
Prior art date
Application number
PCT/JP2016/072317
Other languages
English (en)
French (fr)
Inventor
博彦 樋口
相川 勇之
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018530301A priority Critical patent/JP6440910B2/ja
Priority to US16/312,923 priority patent/US20190221184A1/en
Priority to PCT/JP2016/072317 priority patent/WO2018020661A1/ja
Priority to CN201680087865.3A priority patent/CN109478339A/zh
Priority to DE112016007015.2T priority patent/DE112016007015T5/de
Priority to TW105134395A priority patent/TW201804787A/zh
Publication of WO2018020661A1 publication Critical patent/WO2018020661A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Definitions

  • Glass-type display devices include an opaque type in which the display is opaque and the real world cannot be seen, and a transparent type in which the display is transparent and the real world and display information can be seen simultaneously. Since the transmissive glass does not cover the user's field of view, it is expected to be used in places where safety is important with movement. By displaying additional information about the actual object on the display of the transmission glass by the AR technology, it appears to the user wearing the transmission glass that the information is floating in front of the eye.
  • the camera is mounted on the transmissive glass, and the range that can be captured by the camera is the AR range that can add information to the real world.
  • the display angle of view of the display is narrower than the field of view of the human and the shooting angle of view of the camera. It was difficult to get an overview of the real world. In order to grasp the whole image, it is necessary for the user to frequently move the head and to interpolate the relationship between the real world and the added information in the head.
  • Patent Document 1 there is proposed a method of displaying an annotation indicating the direction of an object on the display when the object of the AR exists outside the display angle of view of the display. Thereby, even if an object exists outside the display angle of view, the direction of the object can be known.
  • Patent Document 1 it can be seen that there is an object outside the display field angle of the display, but there is a problem that it is impossible to grasp the entire image of the AR in a wider range than the display field angle. In other words, the feeling of looking into the AR world with box glasses is eased, but not solved. Therefore, the user needs to be aware of the positional relationship between the objects in his / her head. In addition, when there are many objects outside the display angle of view, many annotations are displayed on the display, and the user's view is blocked.
  • the present invention has been made to solve the above-described problems, and even if the shooting angle of view of the camera is larger than the display angle of view of the display and the field of view of the person, it is all within the shooting angle of view of the camera. It is intended to display the recognition target.
  • a display device includes a transmissive display unit arranged in front of the user's eyes, a photographing unit that photographs a real world with a photographing field angle larger than a display field angle of the display unit, and a real world photographed by the photographing unit
  • An AR recognizing unit for recognizing an object for displaying additional information, a mode determining unit for determining whether it is the actual superimposing mode or the video superimposing mode, and, in the actual superimposing mode, the target recognized by the AR recognizing unit
  • a display control unit that superimposes and displays additional information on the real world that is transmitted through the display unit, and superimposes and displays additional information of the target recognized by the AR recognition unit on the real world image captured by the imaging unit in the video superimposition mode.
  • the object superimposition mode for superimposing and displaying the target additional information on the real world transmitted through the display unit and the target additional information recognized by the AR recognition unit on the real world image captured by the imaging unit. Since it is possible to switch between the superimposed video display modes, all recognitions that are within the shooting field angle of the shooting unit even if the shooting field angle of the shooting unit is larger than the display field angle of the display unit and the human field of view The object can be displayed. As a result, the user can easily grasp the positional relationship of all the recognition targets inside and outside the display angle of view of the display unit, and does not need to search for the recognition target in the actual object superposition mode.
  • FIG. 6 is a diagram for explaining an actual object superposition mode in the display device according to Embodiment 1.
  • FIG. 6 is a diagram illustrating a video superposition mode in the display device according to Embodiment 1.
  • FIG. 3 is a flowchart illustrating an operation of the display device according to the first embodiment.
  • 6A is a diagram for explaining the operation of the range calculation unit in the display device according to Embodiment 1
  • FIGS. 6B, 6C, and 6D are diagrams for explaining examples of mode switching.
  • FIG. 7A and 7B are diagrams for explaining inclination correction of the display control unit in the display device according to Embodiment 1.
  • FIG. It is a figure explaining the actual thing superimposition mode in the display apparatus which concerns on Embodiment 1, and shows an example with a wide picking angle of view. It is a figure explaining the image
  • FIG. 1 is a block diagram showing a configuration example of a display device 1 according to Embodiment 1 of the present invention.
  • the display apparatus 1 is demonstrated as what is a smart glass.
  • the display apparatus 1 should just be a wearable terminal with which a user's body can be mounted
  • the display device 1 includes an imaging unit 2, an input unit 3, a recognition target registration unit 4, a display unit 5, and a display control device 6.
  • the display control device 6 includes an AR recognition unit 61, a mode determination unit 62, a range calculation unit 63, a range determination unit 64, and a display control unit 65.
  • the photographing unit 2 in the display device 1 is a camera 104.
  • the camera 104 is installed in a frame portion of a smart glass or the like, and captures a real-world image from a position close to the user's viewpoint.
  • the input unit 3 in the display device 1 is at least one of the input device 103 and the sensor 106.
  • the input device 103 is a button installed on a frame portion or the like of the smart glass, and accepts a command input when the user presses the button.
  • the input device 103 is a microphone installed in a smart glass or the like and a voice recognition device using the microphone, and accepts a command input by a user's voice.
  • the sensor 106 is, for example, an acceleration sensor or an inclination sensor installed on the smart glass, and detects the movement of the user's head.
  • the display unit 5 in the display device 1 is a display 105.
  • the display 105 is installed on some or all of the lenses of the smart glasses. When the user wears the smart glasses, the display 105 is arranged in front of the eyes.
  • the display 105 is a transmissive type, and the user can simultaneously look over the information displayed on the display 105 and the real world.
  • the recognition target registration unit 4 in the display device 1 is a memory 102.
  • the recognition target registration unit 4 and the display control device 6 described below may be installed in a smart glass or may be configured as a separate device from the smart glass.
  • the recognition target registration unit 4 and the display control device 6, which are separate devices, and the photographing unit 2, the input unit 3 and the display unit 5 on the smart glass can exchange information by wireless communication or wired communication.
  • the display control device 6 in the display device 1 is a processor 101 that executes a program stored in the memory 102 as shown in FIG. 2A, or a processing circuit 111 that is dedicated hardware as shown in FIG. 2B. .
  • the functions of the AR recognition unit 61, the mode determination unit 62, the range calculation unit 63, the range determination unit 64, and the display control unit 65 are software, It is realized by firmware or a combination of software and firmware.
  • Software or firmware is described as a program and stored in the memory 102.
  • the processor 101 reads out and executes a program stored in the memory 102, thereby realizing the function of each unit. That is, the display control device 6 includes a memory 102 for storing a program that, when executed by the processor 101, results in the steps shown in FIG. This program can also be said to cause a computer to execute the procedure or method of the display control device 6.
  • the processor 101 is, for example, a CPU (Central Processing Unit), a processing device, an arithmetic device, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor).
  • the memory 102 may be, for example, a nonvolatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), a flash memory, an SSD (Solid State Drive).
  • it may be a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a CD (Compact Disc) or a DVD (Digital Versatile Disc).
  • the processing circuit 111 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application-Specific Integrated Circuit). ), FPGA (Field-Programmable Gate Array), or a combination thereof.
  • the function of each part of the display control device 6 may be realized by a plurality of processing circuits 111, or the function of each part may be realized by a single processing circuit 111.
  • a part may be implement
  • the display control device 6 in the display device 1 can be realized by hardware, software, firmware, or a combination thereof.
  • the actual superposition mode is a mode in which additional information related to the real world in the AR recognition target is displayed on the display unit 5 so that the additional information is superimposed and displayed on the real world through the display unit 5. .
  • the user can look around the real world via the display unit 5.
  • the video superimposing mode is a mode in which a video obtained by photographing the real world is displayed on the display unit 5 and additional information related to the recognition target is superimposed on the video. In the video superimposing mode, the user's field of view is covered by the video displayed on the display unit 5, and thus the user cannot see the real world through the display unit 5.
  • FIG. 3 is a diagram illustrating the actual superposition mode.
  • the user 8 is wearing a smart glass that is the display device 1.
  • the real world 71 z represents the real world including outside the visual field 71 j of the user 8.
  • the visual field range 71d corresponds to the visual field 71j of the user 8 and is a range that the user 8 can see with the naked eye.
  • three houses are accommodated in the visual field 71 j of the user 8. Therefore, the user 8 sees the houses 71p, 71q, and 71r in the real world 71z as the houses 71a, 71b, and 71c in the visual field range 71d.
  • the display range 71 e is a range that can be displayed at the display angle of view 71 i of the display unit 5.
  • one house is accommodated in the display range 71e. That is, the house 71p in the real world 71z is accommodated as the house 71a in the display range 71e.
  • the shooting angle of view 71k represents the angle of view of the shooting unit 2.
  • the five houses 71p, 71q, 71r, 71s, and 71t photographed by the photographing unit 2 are AR recognition targets.
  • the house 71p falls within the display angle of view 71i, and additional information 71f regarding the house 71a corresponding to the house 71p in the real world 71z is displayed in the display range 71e.
  • the additional information 71f is, for example, a circle surrounding the house 71a and the name “HouseA” of the house 71a.
  • four simplified additional information 71g are displayed in the display range 71e.
  • the additional information 71g is a symbol simplified from the additional information 71f, and is displayed at a position indicating the direction of the houses 71q, 71r, 71s, 71t in the real world 71z in the display range 71e.
  • two simplified additional information 71g is displayed at the left end of the display range 71e
  • two simplified additional information 71g are displayed at the right end
  • two recognition targets are displayed on the left side of the user 8
  • two are displayed on the left side. It is expressed that there are two recognition objects.
  • FIG. 4 is a diagram for explaining the video superimposing mode.
  • the configuration of the real world 71z is the same as that in FIG.
  • the video range 72 y is a video range of the photographing unit 2 displayed on the display unit 5.
  • five houses 71p, 71q, 71r, 71s, and 71t in the real world 71z are displayed as houses 72a, 72b, 72c, 72d, and 72e in the video range 72y.
  • the display range 72x is a range that can be displayed at the display angle of view 71i of the display unit 5, and corresponds to the display range 71e in the actual object superposition mode. Since the shooting angle of view 71k of the shooting unit 2 is wider than the display angle of view 71i of the display unit 5, the display range 72x is included in the video range 72y. When the mode of the display device 1 is switched from the video superimposing mode to the actual superimposing mode, the display range 72x in the video superimposing mode becomes equal to the display range 71e in the actual superimposing mode.
  • the display unit 5 may display a frame corresponding to the display range 72x.
  • the shape of the frame may be a shape corresponding to the shape of the display range 72x, and is a rectangular frame in FIG.
  • the five houses 71p, 71q, 71r, 71s, and 71t taken by the photographing unit 2 are AR recognition targets.
  • additional information 72g regarding these five houses 72a, 72b, 72c, 72d, and 72e is displayed in the video range 72y.
  • the additional information 72g is, for example, a circle surrounding the house.
  • the display range 72x that is a range that can be displayed on the display angle of view 71i of the display unit 5
  • the additional information 72f obtained by enlarging the video of the home 72a is displayed for the home 72a closest to the center.
  • the AR recognizing unit 61 recognizes a target for displaying additional information from the real-world video imaged by the imaging unit 2. Specifically, the AR recognizing unit 61 uses information registered in the recognition target registering unit 4 to recognize a target that matches the information from the video captured by the photographing unit 2. Since the object recognition method may be performed using a well-known technique, description thereof is omitted. In the example of FIG. 3, information for recognizing a house is registered in the recognition target registration unit 4, and the AR recognition unit 61 falls within the shooting field angle 71 k of the shooting unit 2 using the information. One house 71p, 71q, 71r, 71s, 71t is recognized. The AR recognizing unit 61 outputs the recognized target information to the mode determining unit 62 and the range determining unit 64. The video imaged by the imaging unit 2 is input to the display control unit 65 via the AR recognition unit 61 and the range determination unit 64.
  • step ST2 the mode determination unit 62 determines whether the in-object superimposing mode or the video superimposing mode.
  • the mode determination unit 62 outputs the mode determination result to the range calculation unit 63 and the range determination unit 64. Further, the mode determination unit 62 outputs the target information recognized by the AR recognition unit 61 to the range calculation unit 63.
  • the mode is determined by, for example, a signal from the input unit 3.
  • the mode determination unit 62 calculates a head movement using a signal from the sensor 106 such as an acceleration sensor or an inclination sensor, and estimates that the user is looking for something based on the calculated head movement. In such a case, the video superimposing mode is determined.
  • the mode determination unit 62 determines that the actual object superposition mode is used when it is estimated that the user is watching something based on the calculated head movement.
  • the mode determination unit 62 may switch the mode using a signal from the input device 103 such as a command input by voice recognition or a command input by pressing a button.
  • the mode may be determined by information on the recognized object from the AR recognition unit 61.
  • the mode determination unit 62 determines that the object superposition mode is used when there is an object within the display range 72x that can be displayed at the display angle of view of the display unit 5, or when the AR recognition unit 61 cannot recognize anything, and the AR When the recognition unit 61 recognizes at least one target and the target exists outside the display range 72x that can be displayed at the display angle of view of the display unit 5, the video superimposing mode is determined.
  • step ST3 the display control device 6 proceeds to step ST4 when it is determined as the actual superimposing mode (step ST3 “YES”), and proceeds to step ST7 when it is determined as the video superimposing mode (step ST3 “NO”).
  • steps ST4 to ST6 as the actual superposition mode, as shown in FIG. 3, the additional information of the target recognized by the AR recognizing unit 61 is superimposed and displayed on the real world transmitted through the display unit 5.
  • steps ST7 to ST11 as the video superimposing mode, as shown in FIG. 4, the additional information of the target recognized by the AR recognizing unit 61 is superimposed and displayed on the real-world video captured by the photographing unit 2. become.
  • step ST4 the range determination unit 64 determines whether or not the target recognized by the AR recognition unit 61 is within a range that can be displayed at the display angle of view of the display unit 5.
  • the range determination unit 64 performs this determination for each target, and outputs the determination result to the display control unit 65.
  • the display control unit 65 determines whether the target is positioned within the range that can be displayed with the display angle of view of the display unit 5 or not based on the determination result of the range determination unit 64. Change the display mode of additional information. Specifically, the display control unit 65 performs processing of step ST5 for an object located within a range that can be displayed at the display angle of view of the display unit 5 based on the determination result of the range determination unit 64 (step ST4 “YES”). I do. On the other hand, the display control unit 65 performs the process of step ST6 for an object that is not within the range that can be displayed at the display angle of view of the display unit 5 (step ST4 “NO”).
  • step ST ⁇ b> 5 the display control unit 65 controls the display of the display unit 5 so that detailed additional information is displayed on a target located within a range that can be displayed with the display field angle of the display unit 5.
  • the circle and the name of the house by a balloon are displayed as detailed additional information 71f for the house 71a located within the display range 71e that can be displayed at the display angle of view 71i of the display unit 5. .
  • step ST ⁇ b> 6 the display control unit 65 controls the display of the display unit 5 so that simplified additional information is displayed for a target that is not within the range that can be displayed with the display field angle of the display unit 5. .
  • a circle symbol is displayed as simplified additional information 71g in the direction of the houses 71q, 71r, 71s, 71t located outside the display range 71e that can be displayed at the display field angle 71i of the display unit 5. .
  • the additional information 71f and 71g in the actual superposition mode is not limited to the information shown in FIG.
  • the display control unit 65 generates the additional information 71f and 71g using information registered in the recognition target registration unit 4.
  • step ST ⁇ b> 7 the mode determination unit 62 notifies the range calculation unit 63 that it is the video superimposition mode.
  • the range calculation unit 63 calculates a range that can be displayed at the display angle of view of the display unit 5 in the video superposition mode. Specifically, the range calculation unit 63 calculates the display range W2 that can be displayed at the display angle of view of the display unit 5, using the following equation (1).
  • FIG. 6A is a diagram for explaining the operation of the range calculation unit 63.
  • the range calculation unit 63 outputs, to the range determination unit 64 and the display control unit 65, information on the range that can be displayed with the display angle of view of the display unit 5 calculated using the equation (1).
  • W2 ⁇ / ⁇ ⁇ W1 (1)
  • W1 is a video range 72y that can be captured at the shooting angle of view ⁇ of the shooting unit 2
  • W2 is a display range 72x that can be displayed at the display angle of view ⁇ of the display unit 5.
  • the landscape that falls within W2, that is, the display range 72x in the video superimposing mode shown in FIG. 4, is the same as the landscape that falls within the display range 71e in the actual superposition mode shown in FIG.
  • the display control device 6 When the value of W2 is registered in advance in the range determination unit 64, the display control device 6 does not need to include the range calculation unit 63, and the process of step ST7 is also skipped.
  • the display control unit 65 causes the display unit 5 to display the real-world video imaged by the imaging unit 2.
  • the display control unit 65 may cause the display unit 5 to display an image in which a rectangular frame corresponding to the display range 72x is superimposed on the real-world image captured by the imaging unit 2.
  • the display control unit 65 zooms out or zooms in the video to be displayed on the display unit 5 in the video superposition mode when switching between the real superimposition mode and the video superposition mode, and the display image of the display unit 5 in the real superimposition mode. You may make it correspond to the range which can be displayed with a corner. An example of this operation will be described with reference to FIGS. 6B, 6C, and 6D.
  • 6B shows the actual superimposing mode
  • FIG. 6C shows the switching between the actual superimposing mode and the video superimposing mode
  • FIG. 6D shows the video superimposing mode.
  • the display control unit 65 uses the range information from the range calculating unit 63 to select one of the real world images captured by the imaging unit 2. Then, an image in a range that can be displayed at the display angle of view of the display unit 5 is displayed on the display unit 5. Subsequently, the display control unit 65 gradually zooms out the displayed image, and finally displays the entire real-world image captured by the imaging unit 2 on the display unit 5. Thereby, the switching from the actual superimposing mode to the video superimposing mode becomes smooth, and the positional relationship of the recognition target inside and outside the display angle of view of the display unit 5 can be easily grasped.
  • the display control unit 65 when switching from the video superimposing mode to the actual superimposing mode, the display control unit 65 performs control to erase the real-world video displayed on the display unit 5. At this time, the display control unit 65 gradually zooms in on the real-world video displayed on the display unit 5 using the range information from the range calculation unit 63. Finally, the display control unit 65 causes the display unit 5 to display an image in a range that can be displayed at the display angle of view of the real world image captured by the image capturing unit 2, and then displays the image. Turn off. Thereby, when switching from the video superimposing mode to the actual superimposing mode, the target that the user 8 is gazing smoothly changes to the actual.
  • step ST9 the range determination unit 64 determines whether or not the target recognized by the AR recognition unit 61 is within a range that can be displayed at the display angle of view of the display unit 5.
  • the range determination unit 64 performs this determination for each target, and outputs the determination result to the display control unit 65.
  • the display control unit 65 also has a case where the target is located within a range that can be displayed at the display angle of view of the display unit 5 based on the determination result of the range determination unit 64 in the video superimposition mode.
  • the display mode of the target additional information is changed depending on whether it is not located.
  • the display control unit 65 performs processing of step ST10 for an object located within a range that can be displayed at the display angle of view of the display unit 5 based on the determination result of the range determination unit 64 (step ST9 “YES”). I do.
  • the display control unit 65 performs the process of step ST11 for an object that is not within the range that can be displayed at the display angle of view of the display unit 5 (step ST9 “NO”).
  • step ST ⁇ b> 10 the display control unit 65 extracts and enlarges the video of the target with respect to the target closest to the center of the range among the targets located within the range that can be displayed at the display field angle of the display unit 5.
  • the display of the display unit 5 is controlled so that the additional information is displayed.
  • a balloon in which the video of the house 72a is enlarged is displayed as additional information 72f with respect to the house 72a closest to the center of the display range 72x that can be displayed at the display field angle 71i of the display unit 5.
  • the display control unit 65 may perform tilt correction when displaying the balloon-shaped additional information 72f in step ST10.
  • 7A and 7B are diagrams for explaining the inclination correction of the display control unit 65.
  • FIG. The display control unit 65 calculates the tilt angle ⁇ of the head of the user 8 based on a signal from the sensor 106 that is the input unit 3. Then, the display control unit 65 cuts out the target video from the real-world video captured by the imaging unit 2 to generate the balloon-shaped additional information 72f, and further rotates the additional information 72f by an angle ⁇ . To correct the tilt and display it on the display unit 5.
  • the tilt angle of the target in the balloon matches the tilt angle of the target in the real world, when the video superimposing mode is switched to the actual superimposing mode, the target being watched by the user 8 smoothly changes to the actual target.
  • step ST ⁇ b> 11 the display control unit 65 controls the display of the display unit 5 so that additional information is displayed for a target that is not within the range that can be displayed with the display angle of view of the display unit 5.
  • additional information 72g for the houses 72b, 72c, 72d, and 72e located outside the display range 72x that can be displayed at the display angle of view 71i of the display unit 5, circles surrounding these houses are displayed as additional information 72g. Is done.
  • a circle is displayed as additional information 72g for the house 72a located within the display range 72x.
  • the additional information 72f and 72g in the video superimposing mode is not limited to the information shown in FIG.
  • the display control unit 65 generates the additional information 72f and 72g using information registered in the recognition target registration unit 4.
  • the display device 1 includes the transmissive display unit 5 disposed in front of the user's eyes and the imaging unit that captures the real world with a shooting field angle larger than the display field angle of the display unit 5.
  • an AR recognizing unit 61 that recognizes an object for displaying additional information from real-world video captured by the imaging unit 2
  • a mode determination unit 62 that determines whether the actual superimposing mode or the video superimposing mode, In the superimposing mode, the additional information of the target recognized by the AR recognizing unit 61 is superimposed and displayed on the real world transmitted through the display unit 5, and in the video superimposing mode, the additional information of the target recognized by the AR recognizing unit 61 is It is a structure provided with the display control part 65 made to superimpose on the image
  • the shooting angle of view of the shooting unit 2 is changed by switching between the in-object superposition mode and the video superposition mode. It is possible to display all the recognition targets that are within the range. As a result, the user can easily grasp the positional relationship of all the recognition targets inside and outside the display angle of view of the display unit 5 and does not need to search for the recognition target in the actual superposition mode.
  • FIG. 8 is a diagram for explaining an actual object superposition mode when three cameras are used as the photographing unit 2.
  • FIG. 9 is a diagram for explaining a video superimposing mode when three cameras are used as the photographing unit 2.
  • the display control method according to the first embodiment can be used to check the actual object while capturing the whole image. It becomes easy.
  • the display control unit 65 in the display device 1 according to the first embodiment is within the range in which the target recognized by the AR recognition unit 61 can be displayed at the display angle of view of the display unit 5 in the actual object superimposing mode and the video superimposing mode.
  • the display mode of the additional information is changed depending on whether it is located or outside the range. With this configuration, the recognition target within the display field angle of the display unit 5 and the recognition target outside the display field angle can be distinguished and displayed.
  • the display mode of the additional information is changed in both the actual superimposing mode and the video superimposing mode. However, the additional information display mode is changed only in either the actual superimposing mode or the video superimposing mode. You may make it the structure to change.
  • the display control unit 65 in the display device 1 according to Embodiment 1 switches between the actual superimposing mode and the video superimposing mode
  • the display control unit 65 zooms out or zooms in the video to be displayed on the display unit 5 in the video superimposing mode.
  • the display unit 5 is configured to match the range that can be displayed at the display angle of view. With this configuration, the actual superimposing mode and the video superimposing mode can be switched smoothly, and the user does not need to search for a recognition target when switching modes.
  • the display control unit 65 in the display device 1 according to the first embodiment is configured so that the imaging unit 2 displays the target video closest to the center within the range that can be displayed at the display angle of view of the display unit 5. It is a configuration that is extracted from the captured real-world video and displayed in an enlarged manner. With this configuration, even if the object displayed on the display unit 5 is small and difficult to see, the actual item confirmation becomes easy.
  • the display control unit 65 in the display device 1 according to the first embodiment, in the video superimposing mode is a real-world image captured by the imaging unit 2 in a frame corresponding to a range that can be displayed at the display angle of view of the display unit 5.
  • the image is superimposed on the video.
  • any component of the embodiment can be modified or any component of the embodiment can be omitted within the scope of the invention.
  • the display device Since the display device according to the present invention displays all recognition targets of AR captured by the camera on the display, it is suitable for use in a display device such as a smart glass.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

表示装置(1)は、ユーザの眼前に配される透過型の表示部(5)と、表示部(5)の表示画角より大きい撮影画角で実世界を撮影する撮影部(2)と、撮影部(2)が撮影した実世界の映像の中から、付加情報を表示する対象を認識するAR認識部(61)と、現物重畳モードか映像重畳モードかを判定するモード判定部(62)と、現物重畳モードの場合、AR認識部(61)が認識した対象の付加情報を、表示部(5)を透過した実世界に重畳表示させ、映像重畳モードの場合、AR認識部(61)が認識した対象の付加情報を、撮影部(2)が撮影した実世界の映像に重畳表示させる表示制御部(65)とを備える。

Description

表示装置、表示制御装置および表示制御方法
 この発明は、拡張現実(AR;Augmented Reality)技術を利用した表示装置、表示装置の表示を制御する表示制御装置、および表示装置の表示を制御する表示制御方法に関するものである。
 グラス型の表示装置(いわゆるスマートグラス)には、ディスプレイが不透明であって実世界が見渡せない不透過型と、ディスプレイが透明であって実世界と表示情報を同時に見渡せる透過型とがある。透過型グラスは、ユーザの視界を覆わないため、移動を伴い安全性が重視される場所での利用が期待される。AR技術によって、透過型グラスのディスプレイに、現物に関する付加的な情報を表示することで、透過型グラスを装着したユーザには、眼前の現物に情報が浮かんでいるように見える。
 透過型グラスにはカメラが搭載されており、カメラで撮影できる範囲が、実世界に情報を付加できるARの範囲である。従来の透過型グラスにおいては、ディスプレイの表示画角が、人の視野およびカメラの撮影画角より狭いため、情報が付加された世界を箱メガネで覗くような表示になり、情報が付加された実世界の全体像を把握しにくかった。全体像を把握するには、ユーザが頭部を頻繁に動かし、頭の中で、実世界と付加された情報との関係性を補間する必要があった。
 例えば、特許文献1に係る発明では、ディスプレイの表示画角外にARの対象物が存在する場合、対象物の方向を示すアノテーションをディスプレイに表示する方法が提案されている。これにより、表示画角外に対象物が存在しても、その対象物の方向が分かるようになっている。
特開2005-174021号公報
 しかしながら、特許文献1に係る発明によればディスプレイの表示画角外に対象物があることは分かるが、表示画角より広い範囲のARの全体像を把握することはできないという課題があった。つまり、ARの世界を箱メガネで覗く感覚は緩和されるが、解消はされていない。そのため、ユーザは、頭の中で、対象物の位置関係を意識する必要があった。また、表示画角外にある対象物が多い場合、ディスプレイに多くのアノテーションが表示され、ユーザの視界が遮られる。
 この発明は、上記のような課題を解決するためになされたもので、カメラの撮影画角が、ディスプレイの表示画角および人の視野より大きくても、カメラの撮影画角に収まっている全ての認識対象を表示することを目的とする。
 この発明に係る表示装置は、ユーザの眼前に配される透過型の表示部と、表示部の表示画角より大きい撮影画角で実世界を撮影する撮影部と、撮影部が撮影した実世界の映像の中から、付加情報を表示する対象を認識するAR認識部と、現物重畳モードか映像重畳モードかを判定するモード判定部と、現物重畳モードの場合、AR認識部が認識した対象の付加情報を、表示部を透過した実世界に重畳表示させ、映像重畳モードの場合、AR認識部が認識した対象の付加情報を、撮影部が撮影した実世界の映像に重畳表示させる表示制御部とを備えるものである。
 この発明によれば、対象の付加情報を、表示部を透過した実世界に重畳表示させる現物重畳モードと、AR認識部が認識した対象の付加情報を、撮影部が撮影した実世界の映像に重畳表示させる映像重畳モードとを切り替え可能にしたので、撮影部の撮影画角が、表示部の表示画角および人の視野より大きくても、撮影部の撮影画角に収まっている全ての認識対象を表示することができる。これにより、ユーザは、表示部の表示画角内外にある全ての認識対象の位置関係が捉えやすくなり、現物重畳モードにおいて認識対象を探し回る必要がなくなる。
この発明の実施の形態1に係る表示装置の構成例を示すブロック図である。 図2Aおよび図2Bは、実施の形態1に係る表示装置のハードウェア構成例を示すハードウェア構成図である。 実施の形態1に係る表示装置における現物重畳モードを説明する図である。 実施の形態1に係る表示装置における映像重畳モードを説明する図である。 実施の形態1に係る表示装置の動作を示すフローチャートである。 図6Aは、実施の形態1に係る表示装置における範囲算出部の動作を説明する図であり、図6B、図6Cおよび図6Dは、モードの切り替え例を説明する図である。 図7Aおよび図7Bは、実施の形態1に係る表示装置における表示制御部の傾き補正を説明する図である。 実施の形態1に係る表示装置における現物重畳モードを説明する図であり、撮影画角が広い例を示す。 実施の形態1に係る表示装置における映像重畳モードを説明する図であり、撮影画角が広い例を示す。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る表示装置1の構成例を示すブロック図である。ここでは、表示装置1がスマートグラスであるものとして説明する。なお、表示装置1は、ユーザの身体に装着可能なウェアラブル端末であればよく、グラス形状に限定されるものではない。
 実施の形態1に係る表示装置1は、撮影部2、入力部3、認識対象登録部4、表示部5、および表示制御装置6を備えている。表示制御装置6は、AR認識部61、モード判定部62、範囲算出部63、範囲判定部64、および表示制御部65を備えている。
 図2Aおよび図2Bは、実施の形態1に係る表示装置1のハードウェア構成図の例である。
 表示装置1における撮影部2は、カメラ104である。カメラ104は、例えば、スマートグラスのフレーム部分等に設置され、ユーザの視点に近い位置から実世界の映像を撮影する。
 表示装置1における入力部3は、入力装置103またはセンサ106の少なくとも一方である。入力装置103は、スマートグラスのフレーム部分等に設置されたボタンであり、ユーザのボタン押下によるコマンド入力を受け付ける。または、入力装置103は、スマートグラス等に設置されたマイクと、このマイクを使用する音声認識装置とであり、ユーザの音声によるコマンド入力を受け付ける。
 センサ106は、例えば、スマートグラスに設置された加速度センサまたは傾きセンサ等であり、ユーザの頭部の動きを検出する。
 表示装置1における表示部5は、ディスプレイ105である。ディスプレイ105は、スマートグラスのレンズの一部または全部に設置され、ユーザがスマートグラスを装着したときにディスプレイ105が眼前に配される。このディスプレイ105は、透過型であり、ユーザは、ディスプレイ105に表示される情報と実世界とを同時に見渡すことができる。
 表示装置1における認識対象登録部4は、メモリ102である。
 なお、この認識対象登録部4および下記の表示制御装置6は、スマートグラスに設置されている構成でもよく、スマートグラスとは別体の装置として構成されていてもよい。別体の場合、別装置である認識対象登録部4および表示制御装置6と、スマートグラス上の撮影部2、入力部3および表示部5とは、無線通信または有線通信により情報の授受が可能であるものとする。
 表示装置1における表示制御装置6は、図2Aに示すような、メモリ102に格納されているプログラムを実行するプロセッサ101、または図2Bに示すような、専用のハードウェアである処理回路111である。
 図2Aに示すように、表示制御装置6がプロセッサ101である場合、AR認識部61、モード判定部62、範囲算出部63、範囲判定部64、および表示制御部65の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。即ち、表示制御装置6は、プロセッサ101により実行されるときに、後述する図5に示すステップが結果的に実行されることになるプログラムを格納するためのメモリ102を備える。また、このプログラムは、表示制御装置6の手順または方法をコンピュータに実行させるものであるともいえる。
 ここで、プロセッサ101とは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)等のことである。
 メモリ102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、SSD(Solid State Drive)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
 図2Bに示すように、表示装置1が専用のハードウェアである場合、処理回路111は、例えば単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application-Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。表示制御装置6の各部の機能を複数の処理回路111で実現してもよいし、各部の機能をまとめて1つの処理回路111で実現してもよい。
 なお、表示制御装置6の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、表示装置1における表示制御装置6は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって実現することができる。
 次に、実施の形態1に係る表示装置1における現物重畳モードと、映像重畳モードとを説明する。
 現物重畳モードとは、ARの認識対象となる実世界の現物に関する付加情報が、表示部5に表示されることによって、表示部5を透過した実世界に付加情報が重畳表示されるモードである。現物重畳モードでは、ユーザは、表示部5を介して実世界を見渡すことができる。
 映像重畳モードとは、実世界を撮影した映像が表示部5に表示され、認識対象に関する付加情報が、この映像に重畳表示されるモードである。映像重畳モードでは、表示部5に表示される映像によりユーザの視界が覆われるため、ユーザは、表示部5を透過して実世界を見渡すことができない。
 図3は、現物重畳モードを説明する図である。
 ユーザ8は、表示装置1であるスマートグラスを装着している。図3において、実世界71zは、ユーザ8の視野71j外も含めた実世界を表現している。視野範囲71dは、ユーザ8の視野71jと対応した、ユーザ8が肉眼で見ることができる範囲である。図3において、ユーザ8の視野71j内には3つの家が収まっている。よって、ユーザ8には、実世界71zにある家71p,71q,71rが、視野範囲71dに家71a,71b,71cとして見えている。
 表示範囲71eは、表示部5の表示画角71iで表示できる範囲である。図3において、表示範囲71eには1つの家が収まっている。つまり、実世界71zにある家71pが、表示範囲71eに家71aとして収まっている。
 撮影画角71kは、撮影部2の画角を表している。図3において、撮影画角71k内には5つの家が収まっている。つまり、撮影部2は、実世界71zにある家71p,71q,71r,71s,71tを撮影している。
 撮影部2が撮影している5つの家71p,71q,71r,71s,71tは、ARの認識対象であるものとする。これらの5つの家のうち、家71pは、表示画角71iに収まっており、表示範囲71eには、実世界71zの家71pに対応した家71aに関する付加情報71fが表示されている。付加情報71fは、例えば、家71aを囲む丸印と、家71aの名称「HouseA」である。一方、表示画角71iに収まらなかった4つの家71q,71r,71s,71tについては、表示範囲71eに簡略化された4つの付加情報71gが表示されている。付加情報71gは、付加情報71fより簡略化された記号であり、表示範囲71eにおいて実世界71zの家71q,71r,71s,71tの方向を表す位置に表示されている。図3の例では、表示範囲71eの左端に2つの簡略化された付加情報71g、右端に2つの簡略化された付加情報71gが表示され、ユーザ8の左側に2つの認識対象、左側に2つの認識対象が存在していることが表現されている。
 図4は、映像重畳モードを説明する図である。
 実世界71zの構成は、図3と同様である。
 映像範囲72yは、表示部5に表示している、撮影部2の映像の範囲である。図4において、実世界71zにある5つの家71p,71q,71r,71s,71tが、映像範囲72yに家72a,72b,72c,72d,72eとして表示されている。
 表示範囲72xは、表示部5の表示画角71iで表示できる範囲であり、現物重畳モードの表示範囲71eに相当する。表示部5の表示画角71iより撮影部2の撮影画角71kのほうが広いため、映像範囲72yの中に表示範囲72xが内包された状態となる。
 表示装置1のモードを、映像重畳モードから現物重畳モードに切り替えると、映像重畳モードの表示範囲72xは、現物重畳モードの表示範囲71eに等しくなる。
 なお、表示部5は、表示範囲72xに相当する枠を表示してもよい。この枠の形状は、表示範囲72xの形状に相当する形状であればよく、図4では矩形枠である。
 現物重畳モードと同様に、映像重畳モードにおいても、撮影部2が撮影している5つの家71p,71q,71r,71s,71tは、ARの認識対象である。映像重畳モードにおいて、映像範囲72yには、これらの5つの家72a,72b,72c,72d,72eに関する付加情報72gが表示されている。付加情報72gは、例えば、家を囲む丸印である。さらに、表示部5の表示画角71iに表示できる範囲である表示範囲72xのうち、中心に最も近い家72aに対し、この家72aの映像を拡大した付加情報72fが表示されている。
 次に、図5のフローチャートを用いて、表示装置1の動作を説明する。
 ステップST1において、AR認識部61は、撮影部2が撮影した実世界の映像の中から、付加情報を表示する対象を認識する。具体的には、AR認識部61は、認識対象登録部4に登録されている情報を用いて、撮影部2が撮影した映像の中から情報に一致する対象を認識する。対象の認識方法は、周知の技術を用いて行えばよいため、説明を省略する。
 図3の例では、認識対象登録部4に家を認識するための情報が登録してあり、AR認識部61は、その情報を用いて、撮影部2の撮影画角71kに収まっている5つの家71p,71q,71r,71s,71tを認識する。
 AR認識部61は、認識した対象の情報を、モード判定部62および範囲判定部64へ出力する。撮影部2が撮影した映像は、AR認識部61および範囲判定部64を経由して、表示制御部65へ入力される。
 ステップST2において、モード判定部62は、現物重畳モードか映像重畳モードかを判定する。モード判定部62は、モードの判定結果を、範囲算出部63および範囲判定部64へ出力する。また、モード判定部62は、AR認識部61が認識した対象の情報を、範囲算出部63へ出力する。
 モードは、例えば、入力部3からの信号によって決まる。モード判定部62は、加速度センサまたは傾きセンサ等、センサ106の信号を用いて頭部の動きを算出し、算出した頭部の動きに基づいてユーザが何かを探している状態であると推定した場合に映像重畳モードと判定する。一方、モード判定部62は、算出した頭部の動きに基づいてユーザが何かを注視している状態であると推定した場合に現物重畳モードと判定する。または、モード判定部62は、音声認識によるコマンド入力またはボタン押下によるコマンド入力等、入力装置103の信号を用いて、モードを切り替えてもよい。
 あるいは、モードは、AR認識部61からの認識した対象の情報によって決まってもよい。モード判定部62は、表示部5の表示画角で表示できる表示範囲72x内に対象が存在する場合、もしくは、AR認識部61で何も認識できなかった場合に現物重畳モードと判定し、AR認識部61で少なくとも1つの対象を認識し、かつ、表示部5の表示画角で表示できる表示範囲72x外に対象が存在する場合に映像重畳モードと判定する。
 ステップST3において、表示制御装置6は、現物重畳モードと判定した場合(ステップST3“YES”)、ステップST4へ進み、映像重畳モードと判定した場合(ステップST3“NO”)、ステップST7へ進む。ステップST4~ST6では、現物重畳モードとして、図3に示したように、AR認識部61が認識した対象の付加情報が、表示部5を透過した実世界に重畳表示されることになる。他方、ステップST7~ST11では、映像重畳モードとして、図4に示したように、AR認識部61が認識した対象の付加情報が、撮影部2が撮影した実世界の映像に重畳表示されることになる。
 以下では、ステップST4~ST6の現物重畳モードおよびステップST7~ST11の映像重畳モードのより詳細な例として、認識された対象がどの位置に存在するかによって付加情報の表示様態を変更する動作を説明する。
 ステップST4において、範囲判定部64は、AR認識部61が認識した対象が、表示部5の表示画角で表示できる範囲内に位置するか否かを判定する。範囲判定部64は、各々の対象に対してこの判定を行い、判定結果を表示制御部65へ出力する。
 表示制御部65は、現物重畳モードの場合、範囲判定部64の判定結果に基づき、対象が、表示部5の表示画角で表示できる範囲内に位置する場合と位置しない場合とで、対象の付加情報の表示様態を変更する。具体的には、表示制御部65は、範囲判定部64の判定結果に基づき、表示部5の表示画角で表示できる範囲内に位置する対象について(ステップST4“YES”)、ステップST5の処理を行う。一方、表示制御部65は、表示部5の表示画角で表示できる範囲内に位置しない対象について(ステップST4“NO”)、ステップST6の処理を行う。
 ステップST5において、表示制御部65は、表示部5の表示画角で表示できる範囲内に位置する対象に対して、詳細な付加情報を表示させるよう、表示部5の表示を制御する。
 図3の例では、表示部5の表示画角71iで表示できる表示範囲71e内に位置する家71aに対して、丸印と吹き出しによる家の名称とが、詳細な付加情報71fとして表示される。
 ステップST6において、表示制御部65は、表示部5の表示画角で表示できる範囲内に位置していない対象に対して、簡略化した付加情報を表示させるよう、表示部5の表示を制御する。
 図3の例では、表示部5の表示画角71iで表示できる表示範囲71e外に位置する家71q,71r,71s,71tの方向に、丸記号が、簡略化した付加情報71gとして表示される。
 なお、現物重畳モードにおける付加情報71f,71gは、図3に示した情報に限定されるものではなく、認識対象に関する情報であれば何でもよい。表示制御部65は、例えば、認識対象登録部4に登録されている情報を用いて、付加情報71f,71gを生成する。
 ステップST7において、モード判定部62は、映像重畳モードであることを範囲算出部63へ通知する。範囲算出部63は、映像重畳モードにおいて表示部5の表示画角で表示できる範囲を算出する。具体的には、範囲算出部63は、以下の式(1)を用いて、表示部5の表示画角で表示できる表示範囲W2を算出する。また、図6Aは、範囲算出部63の動作を説明する図である。
 範囲算出部63は、式(1)を用いて算出した、表示部5の表示画角で表示できる範囲の情報を、範囲判定部64および表示制御部65へ出力する。
  W2=α/β×W1   (1)
 ここで、W1は、撮影部2の撮影画角βで撮影できる映像範囲72yであり、W2は、表示部5の表示画角αで表示できる表示範囲72xである。W2、つまり図4に示した映像重畳モードにおける表示範囲72xに収まる風景は、図3に示した現物重畳モードにおける表示範囲71eに収まる風景と同じである。
 なお、範囲判定部64に対して予めW2の値を登録しておく場合には、表示制御装置6が範囲算出部63を備える必要はなく、ステップST7の処理もスキップする。
 ステップST8において、表示制御部65は、撮影部2が撮影した実世界の映像を、表示部5に表示させる。なお、表示制御部65は、撮影部2が撮影した実世界の映像上に、表示範囲72xに相当する矩形枠を重畳させた映像を、表示部5に表示させてもよい。表示部5の表示画角で表示できる表示範囲72xに相当する矩形枠を表示することで、映像重畳モードから現物重畳モードへの切り替え前に、どの範囲が現物重畳モードで見える範囲であるかが明確になる。
 このとき、表示制御部65は、現物重畳モードと映像重畳モードとを切り替える際、映像重畳モードにおいて表示部5に表示させる映像をズームアウトまたはズームインして、現物重畳モードにおいて表示部5の表示画角で表示できる範囲に一致させるようにしてもよい。この動作例を、図6B、図6Cおよび図6Dを用いて説明する。図6Bは現物重畳モード、図6Cは現物重畳モードと映像重畳モードとの切り替え途中、図6Dは映像重畳モードを示す。
 具体的には、現物重畳モードから映像重畳モードへ切り替える際、まず、表示制御部65は、範囲算出部63からの範囲の情報を用いて、撮影部2が撮影した実世界の映像のうちの、表示部5の表示画角で表示できる範囲の映像を表示部5に表示させる。続いて表示制御部65は、表示中の映像を徐々にズームアウトさせていき、最終的に、撮影部2が撮影した実世界の映像全体を表示部5に表示させる。これにより、現物重畳モードから映像重畳モードへの切り替わりが滑らかになり、表示部5の表示画角内外の認識対象の位置関係を容易に把握可能となる。
 反対に、映像重畳モードから現物重畳モードへ切り替える際、表示制御部65は、表示部5に表示させている実世界の映像を消す制御を行う。そのとき、表示制御部65は、範囲算出部63からの範囲の情報を用いて、表示部5に表示させている実世界の映像を徐々にズームインさせていく。そして表示制御部65は、最終的に、撮影部2が撮影した実世界の映像のうちの、表示部5の表示画角で表示できる範囲の映像を表示部5に表示させた後、映像を消す。これにより、映像重畳モードから現物重畳モードへ切り替わった際、ユーザ8が注視している対象が円滑に現物に変化する。
 ステップST9において、範囲判定部64は、AR認識部61が認識した対象が、表示部5の表示画角で表示できる範囲内に位置するか否かを判定する。範囲判定部64は、各々の対象に対してこの判定を行い、判定結果を表示制御部65へ出力する。
 表示制御部65は、現物重畳モードと同様に、映像重畳モードの場合も、範囲判定部64の判定結果に基づき、対象が、表示部5の表示画角で表示できる範囲内に位置する場合と位置しない場合とで、対象の付加情報の表示様態を変更する。具体的には、表示制御部65は、範囲判定部64の判定結果に基づき、表示部5の表示画角で表示できる範囲内に位置する対象について(ステップST9“YES”)、ステップST10の処理を行う。一方、表示制御部65は、表示部5の表示画角で表示できる範囲内に位置しない対象について(ステップST9“NO”)、ステップST11の処理を行う。
 ステップST10において、表示制御部65は、表示部5の表示画角で表示できる範囲内に位置する対象のうち、その範囲の中心に最も近い対象に対して、この対象の映像を抽出し拡大した付加情報を表示させるよう、表示部5の表示を制御する。
 図4の例では、表示部5の表示画角71iで表示できる表示範囲72xの中心に最も近い家72aに対して、この家72aの映像を拡大した吹き出しが、付加情報72fとして表示される。
 なお、表示制御部65は、ステップST10において吹き出し状の付加情報72fを表示させる際に、傾き補正を行ってもよい。図7Aおよび図7Bに、表示制御部65の傾き補正を説明する図を示す。表示制御部65は、入力部3であるセンサ106からの信号に基づいて、ユーザ8の頭部の傾き角度θを算出する。そして、表示制御部65は、撮影部2が撮影した実世界の映像の中から対象の映像を切り出して吹き出し状の付加情報72fを生成し、さらにその付加情報72fを角度-θだけ回転させることによって傾き補正し、表示部5に表示させる。吹き出し内の対象の傾き角度が実世界の対象の傾き角度に一致することにより、映像重畳モードから現物重畳モードへ切り替わった際、ユーザ8が注視している対象が円滑に現物に変化する。
 ステップST11において、表示制御部65は、表示部5の表示画角で表示できる範囲内に位置していない対象に対して、付加情報を表示させるよう、表示部5の表示を制御する。
 図4の例では、表示部5の表示画角71iで表示できる表示範囲72x外に位置する家72b,72c,72d,72eに対して、これらの家を囲む丸印が、付加情報72gとして表示される。なお、図4の例では、表示範囲72x内に位置する家72aに対しても、丸印が付加情報72gとして表示されている。
 なお、映像重畳モードにおける付加情報72f,72gは、図4に示した情報に限定されるものではなく、認識対象に関する情報であれば何でもよい。表示制御部65は、例えば、認識対象登録部4に登録されている情報を用いて、付加情報72f,72gを生成する。
 このように、実施の形態1に係る表示装置1は、ユーザの眼前に配される透過型の表示部5と、表示部5の表示画角より大きい撮影画角で実世界を撮影する撮影部2と、撮影部2が撮影した実世界の映像の中から、付加情報を表示する対象を認識するAR認識部61と、現物重畳モードか映像重畳モードかを判定するモード判定部62と、現物重畳モードの場合、AR認識部61が認識した対象の付加情報を、表示部5を透過した実世界に重畳表示させ、映像重畳モードの場合、AR認識部61が認識した対象の付加情報を、撮影部2が撮影した実世界の映像に重畳表示させる表示制御部65とを備える構成である。この構成により、撮影部2の撮影画角が、表示部5の表示画角およびユーザの視野より大きくても、現物重畳モードと映像重畳モードとを切り替えることで、撮影部2の撮影画角に収まっている全ての認識対象を表示することができる。その結果、ユーザは、表示部5の表示画角内外にある全ての認識対象の位置関係が捉えやすくなり、現物重畳モードにおいて認識対象を探し回る必要がなくなる。
 上記説明では、1台のカメラを撮影部2として用いる構成を説明したが、複数台のカメラを撮影部2として用いる構成であってもよい。ここで、図8は、3台のカメラを撮影部2として用いた場合の現物重畳モードを説明する図である。図9は、3台のカメラを撮影部2として用いた場合の映像重畳モードを説明する図である。複数台のカメラを用いることにより撮影画角71kが広がり、より多くの対象が認識可能となる。そのため、現物重畳モードにおいて、図3に比べて図8の方が、表示画角外にある認識対象の存在を示す付加情報71gの表示数が多い。映像重畳モードにおいて、図4に比べて図9の方が、付加情報72gが付与される認識対象の数が多い。このように、表示部5の表示画角に比べて撮影部2の撮影画角が極端に広い場合でも、実施の形態1に係る表示制御方法を用いると、全体像を捉えつつ、現物確認が容易になる。
 また、実施の形態1に係る表示装置1における表示制御部65は、現物重畳モードおよび映像重畳モードにおいて、AR認識部61が認識した対象が、表示部5の表示画角で表示できる範囲内に位置する場合と当該範囲外に位置する場合とで、付加情報の表示様態を変更する構成である。この構成により、表示部5の表示画角内の認識対象と表示画角外の認識対象とを区別して表示することができる。
 なお、実施の形態1では、現物重畳モードおよび映像重畳モードの両方において付加情報の表示様態を変更する構成にしたが、現物重畳モードまたは映像重畳モードのいずれか一方のみにおいて付加情報の表示様態を変更する構成にしてもよい。
 また、実施の形態1に係る表示装置1における表示制御部65は、現物重畳モードと映像重畳モードとを切り替える際、映像重畳モードにおいて表示部5に表示させる映像をズームアウトまたはズームインして、現物重畳モードにおいて表示部5の表示画角で表示できる範囲に一致させる構成である。この構成により、現物重畳モードと映像重畳モードとが滑らかに切り替わるようになり、モード切り替え時にユーザが認識対象を探し回る必要がない。
 また、実施の形態1に係る表示装置1における表示制御部65は、映像重畳モードの場合、表示部5の表示画角で表示できる範囲内の中心に最も近い対象の映像を、撮影部2が撮影した実世界の映像から抽出し拡大表示する構成である。この構成により、表示部5に表示された対象が小さく見にくい場合でも、現物確認が容易になる。
 また、実施の形態1に係る表示装置1における表示制御部65は、映像重畳モードの場合、表示部5の表示画角で表示できる範囲に相当する枠を、撮影部2が撮影した実世界の映像に重畳表示させる構成である。この構成により、映像重畳モードから現物重畳モードへの切り替え前に、どの範囲が現物重畳モードで見える範囲であるかが明確になる。
 なお、本発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、または実施の形態の任意の構成要素の省略が可能である。
 この発明に係る表示装置は、カメラで捉えている全てのARの認識対象をディスプレイに表示するようにしたので、スマートグラスなどの表示装置に用いるのに適している。
 1 表示装置、2 撮影部、3 入力部、4 認識対象登録部、5 表示部、6 表示制御装置、8 ユーザ、61 AR認識部、62 モード判定部、63 範囲算出部、64 範囲判定部、65 表示制御部、71a~71c,71p~71t,72a~72e 家、71d 視野範囲、71e,72x 表示範囲、71f,71g,72f,72g 付加情報、71i 表示画角、71j 視野、71k 撮影画角、71z 実世界、72y 映像範囲、101 プロセッサ、102 メモリ、103 入力装置、104 カメラ、105 ディスプレイ、106 センサ、111 処理回路。

Claims (7)

  1.  ユーザの眼前に配される透過型の表示部と、
     前記表示部の表示画角より大きい撮影画角で実世界を撮影する撮影部と、
     前記撮影部が撮影した前記実世界の映像の中から、付加情報を表示する対象を認識するAR認識部と、
     現物重畳モードか映像重畳モードかを判定するモード判定部と、
     前記現物重畳モードの場合、前記AR認識部が認識した前記対象の付加情報を、前記表示部を透過した前記実世界に重畳表示させ、前記映像重畳モードの場合、前記AR認識部が認識した前記対象の付加情報を、前記撮影部が撮影した前記実世界の映像に重畳表示させる表示制御部とを備える表示装置。
  2.  前記表示制御部は、前記現物重畳モードまたは前記映像重畳モードの少なくとも一方において、前記AR認識部が認識した前記対象が、前記表示部の表示画角で表示できる範囲内に位置する場合と当該範囲外に位置する場合とで、付加情報の表示様態を変更することを特徴とする請求項1記載の表示装置。
  3.  前記表示制御部は、前記現物重畳モードと前記映像重畳モードとを切り替える際、前記映像重畳モードにおいて前記表示部に表示させる映像をズームアウトまたはズームインして、前記現物重畳モードにおいて前記表示部の表示画角で表示できる範囲に一致させることを特徴とする請求項1記載の表示装置。
  4.  前記表示制御部は、前記映像重畳モードの場合、前記表示部の表示画角で表示できる範囲内の中心に最も近い対象の映像を、前記撮影部が撮影した前記実世界の映像から抽出し拡大表示することを特徴とする請求項1記載の表示装置。
  5.  前記表示制御部は、前記映像重畳モードの場合、前記表示部の表示画角で表示できる範囲に相当する枠を、前記撮像部が撮影した前記実世界の映像に重畳表示させることを特徴とする請求項1記載の表示装置。
  6.  ユーザの眼前に配される透過型の表示部および実世界を撮影する撮影部を備える表示装置の表示を制御する表示制御装置であって、
     前記撮影部が撮影した前記実世界の映像の中から、付加情報を表示する対象を認識するAR認識部と、
     現物重畳モードか映像重畳モードかを判定するモード判定部と、
     前記現物重畳モードの場合、前記AR認識部が認識した前記対象の付加情報を、前記表示部を透過した前記実世界に重畳表示させ、前記映像重畳モードの場合、前記AR認識部が認識した前記対象の付加情報を、前記撮影部が撮影した前記実世界の映像に重畳表示させる表示制御部とを備えることを特徴とする表示制御装置。
  7.  ユーザの眼前に配される透過型の表示部および実世界を撮影する撮影部を備える表示装置の表示を制御する表示制御方法であって、
     AR認識部が、前記撮影部が撮影した前記実世界の映像の中から、付加情報を表示する対象を認識するステップと、
     モード判定部が、現物重畳モードか映像重畳モードかを判定するステップと、
     表示制御部が、前記現物重畳モードの場合、前記AR認識部が認識した前記対象の付加情報を、前記表示部を透過した前記実世界に重畳表示させ、前記映像重畳モードの場合、前記AR認識部が認識した前記対象の付加情報を、前記撮影部が撮影した前記実世界の映像に重畳表示させるステップとを備えることを特徴とする表示制御方法。
PCT/JP2016/072317 2016-07-29 2016-07-29 表示装置、表示制御装置および表示制御方法 WO2018020661A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018530301A JP6440910B2 (ja) 2016-07-29 2016-07-29 表示装置、表示制御装置および表示制御方法
US16/312,923 US20190221184A1 (en) 2016-07-29 2016-07-29 Display device, display control device, and display control method
PCT/JP2016/072317 WO2018020661A1 (ja) 2016-07-29 2016-07-29 表示装置、表示制御装置および表示制御方法
CN201680087865.3A CN109478339A (zh) 2016-07-29 2016-07-29 显示装置、显示控制装置和显示控制方法
DE112016007015.2T DE112016007015T5 (de) 2016-07-29 2016-07-29 Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren
TW105134395A TW201804787A (zh) 2016-07-29 2016-10-25 顯示裝置、顯示控制裝置以及顯示控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/072317 WO2018020661A1 (ja) 2016-07-29 2016-07-29 表示装置、表示制御装置および表示制御方法

Publications (1)

Publication Number Publication Date
WO2018020661A1 true WO2018020661A1 (ja) 2018-02-01

Family

ID=61015991

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/072317 WO2018020661A1 (ja) 2016-07-29 2016-07-29 表示装置、表示制御装置および表示制御方法

Country Status (6)

Country Link
US (1) US20190221184A1 (ja)
JP (1) JP6440910B2 (ja)
CN (1) CN109478339A (ja)
DE (1) DE112016007015T5 (ja)
TW (1) TW201804787A (ja)
WO (1) WO2018020661A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112532801A (zh) * 2020-12-04 2021-03-19 上海影创信息科技有限公司 基于热分布检测的vr设备的安全防护方法和系统
US11487354B2 (en) * 2018-03-28 2022-11-01 Sony Corporation Information processing apparatus, information processing method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US11410330B2 (en) * 2017-05-30 2022-08-09 Edx Technologies, Inc. Methods, devices, and systems for determining field of view and producing augmented reality
US11800231B2 (en) * 2019-09-19 2023-10-24 Apple Inc. Head-mounted display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2005174021A (ja) * 2003-12-11 2005-06-30 Canon Inc 情報提示方法及び装置
JP2012242932A (ja) * 2011-05-17 2012-12-10 Hitachi Solutions Ltd 情報提供システム及び端末装置
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (139)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US6127990A (en) * 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US9183306B2 (en) * 1998-12-18 2015-11-10 Microsoft Technology Licensing, Llc Automated selection of appropriate information based on a computer user's context
US7073129B1 (en) * 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
US7542050B2 (en) * 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US8194002B2 (en) * 2004-09-14 2012-06-05 The Boeing Company Situational awareness components of an enhanced vision system
US7920165B2 (en) * 2005-09-26 2011-04-05 Adderton Dennis M Video training system
SE0601216L (sv) * 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
CN101320553A (zh) * 2007-06-08 2008-12-10 鹏智科技(深圳)有限公司 图片显示装置及方法
KR101009881B1 (ko) * 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
EP2378392B1 (en) * 2008-12-25 2016-04-13 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
US8970448B2 (en) * 2009-06-18 2015-03-03 Hiperwall, Inc. Systems, methods, and devices for manipulation of images on tiled displays
JP2011203446A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
KR101350033B1 (ko) * 2010-12-13 2014-01-14 주식회사 팬택 증강 현실 제공 단말기 및 방법
JP5765019B2 (ja) * 2011-03-31 2015-08-19 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US8576140B2 (en) * 2011-06-29 2013-11-05 Xerox Corporation Methods and systems for simultaneous local and contextual display
US8854282B1 (en) * 2011-09-06 2014-10-07 Google Inc. Measurement method
US9155964B2 (en) * 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
JP5718197B2 (ja) * 2011-09-14 2015-05-13 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US20150199081A1 (en) * 2011-11-08 2015-07-16 Google Inc. Re-centering a user interface
US10598929B2 (en) * 2011-11-09 2020-03-24 Google Llc Measurement method and system
US20150185971A1 (en) * 2011-11-09 2015-07-02 Google Inc. Ring-Based User-Interface
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
EP2600316A1 (en) * 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US20130139082A1 (en) * 2011-11-30 2013-05-30 Google Inc. Graphical Interface Having Adjustable Borders
US9229231B2 (en) * 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US9183807B2 (en) * 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content
US9182815B2 (en) * 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US20160011724A1 (en) * 2012-01-06 2016-01-14 Google Inc. Hands-Free Selection Using a Ring-Based User-Interface
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US8922481B1 (en) * 2012-03-16 2014-12-30 Google Inc. Content annotation
US8947322B1 (en) * 2012-03-19 2015-02-03 Google Inc. Context detection and context-based user-interface population
JP6056178B2 (ja) * 2012-04-11 2017-01-11 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US20130297460A1 (en) * 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
JP5538483B2 (ja) * 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
JP6094190B2 (ja) * 2012-12-10 2017-03-15 ソニー株式会社 情報処理装置および記録媒体
US10359841B2 (en) * 2013-01-13 2019-07-23 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
US10380799B2 (en) * 2013-07-31 2019-08-13 Splunk Inc. Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment
JP6111932B2 (ja) * 2013-08-26 2017-04-12 ソニー株式会社 行動支援装置、行動支援方法、プログラム、および記憶媒体
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
JP6610258B2 (ja) * 2013-11-05 2019-11-27 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2015095147A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US9484005B2 (en) * 2013-12-20 2016-11-01 Qualcomm Incorporated Trimming content for projection onto a target
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9664902B1 (en) * 2014-02-05 2017-05-30 Google Inc. On-head detection for wearable computing device
US9639968B2 (en) * 2014-02-18 2017-05-02 Harman International Industries, Inc. Generating an augmented view of a location of interest
WO2015127464A1 (en) * 2014-02-24 2015-08-27 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
US9501871B2 (en) * 2014-04-30 2016-11-22 At&T Mobility Ii Llc Explorable augmented reality displays
JP6481209B2 (ja) * 2014-05-15 2019-03-13 ソニー株式会社 端末装置、システム、情報提示方法およびプログラム
EP3138080B1 (en) * 2014-06-03 2021-08-11 Apple Inc. Method and system for presenting a digital information related to a real object
US10007350B1 (en) * 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US9507066B2 (en) * 2014-06-30 2016-11-29 Microsoft Technology Licensing, Llc Eyepiece for near eye display system
CN106662988B (zh) * 2014-08-27 2020-10-27 索尼公司 显示控制装置、显示控制方法及存储介质
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
US9934573B2 (en) * 2014-09-17 2018-04-03 Intel Corporation Technologies for adjusting a perspective of a captured image for display
US10750153B2 (en) * 2014-09-22 2020-08-18 Samsung Electronics Company, Ltd. Camera system for three-dimensional video
US9269239B1 (en) * 2014-09-22 2016-02-23 Rockwell Collins, Inc. Situational awareness system and method
US10216996B2 (en) * 2014-09-29 2019-02-26 Sony Interactive Entertainment Inc. Schemes for retrieving and associating content items with real-world objects using augmented reality and object recognition
EP3207542A1 (en) * 2014-10-15 2017-08-23 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
US10256859B2 (en) * 2014-10-24 2019-04-09 Usens, Inc. System and method for immersive and interactive multimedia generation
US9778814B2 (en) * 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
US9767613B1 (en) * 2015-01-23 2017-09-19 Leap Motion, Inc. Systems and method of interacting with a virtual object
GB2534921B (en) * 2015-02-06 2021-11-17 Sony Interactive Entertainment Inc Head-mountable display system
US9690103B2 (en) * 2015-02-16 2017-06-27 Philip Lyren Display an image during a communication
WO2016141054A1 (en) * 2015-03-02 2016-09-09 Lockheed Martin Corporation Wearable display system
CN105988578B (zh) * 2015-03-04 2019-06-21 华为技术有限公司 一种交互式视频显示的方法、设备及系统
CN107912061B (zh) * 2015-03-06 2021-06-01 伊利诺斯工具制品有限公司 用于焊接的传感器辅助头戴式显示器
JP6481456B2 (ja) * 2015-03-26 2019-03-13 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10365490B2 (en) * 2015-05-19 2019-07-30 Maxell, Ltd. Head-mounted display, head-up display and picture displaying method
DE102015006612B4 (de) * 2015-05-21 2020-01-23 Audi Ag Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille
JP6344311B2 (ja) * 2015-05-26 2018-06-20 ソニー株式会社 表示装置、情報処理システム及び制御方法
KR101700767B1 (ko) * 2015-06-02 2017-01-31 엘지전자 주식회사 헤드 마운티드 디스플레이
US9977493B2 (en) * 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
JP6693060B2 (ja) * 2015-07-06 2020-05-13 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム
KR101734287B1 (ko) * 2015-08-04 2017-05-11 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어방법
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP6645096B2 (ja) * 2015-09-29 2020-02-12 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
CN108351736B (zh) * 2015-11-02 2022-01-28 索尼公司 可穿戴显示器、图像显示装置和图像显示系统
US11256334B2 (en) * 2015-11-27 2022-02-22 Nz Technologies Inc. Method and system for interacting with medical information
JP6766824B2 (ja) * 2015-12-10 2020-10-14 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017107482A (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6798106B2 (ja) * 2015-12-28 2020-12-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN108700982B (zh) * 2016-02-08 2021-11-23 索尼公司 信息处理设备、信息处理方法以及程序
JP6551263B2 (ja) * 2016-03-02 2019-07-31 株式会社デンソー ヘッドアップディスプレイ装置
JP6711033B2 (ja) * 2016-03-08 2020-06-17 富士通株式会社 表示制御方法、通信装置、表示制御プログラムおよび表示制御装置
US10650601B2 (en) * 2016-03-29 2020-05-12 Sony Corporation Information processing device and information processing method
JP6736944B2 (ja) * 2016-03-29 2020-08-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20170289533A1 (en) * 2016-03-30 2017-10-05 Seiko Epson Corporation Head mounted display, control method thereof, and computer program
US10643390B2 (en) * 2016-03-30 2020-05-05 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
US9726896B2 (en) * 2016-04-21 2017-08-08 Maximilian Ralph Peter von und zu Liechtenstein Virtual monitor display technique for augmented reality environments
US20170308157A1 (en) * 2016-04-25 2017-10-26 Seiko Epson Corporation Head-mounted display device, display system, control method for head-mounted display device, and computer program
US9671626B2 (en) * 2016-05-19 2017-06-06 Maximilian Ralph Peter von und zu Liechtenstein Apparatus and method for augmenting human vision by means of adaptive polarization filter grids
JPWO2017200049A1 (ja) * 2016-05-20 2019-04-11 マクセル株式会社 撮像装置およびその設定画面
US9762851B1 (en) * 2016-05-31 2017-09-12 Microsoft Technology Licensing, Llc Shared experience with contextual augmentation
US10395428B2 (en) * 2016-06-13 2019-08-27 Sony Interactive Entertainment Inc. HMD transitions for focusing on specific content in virtual-reality environments
WO2017222497A1 (en) * 2016-06-20 2017-12-28 Carestream Health, Inc. Dental restoration assessment and manufacturing using virtual model
US10067344B2 (en) * 2016-07-01 2018-09-04 Intel Corporation Variable transmissivity virtual image projection system
CN109478091A (zh) * 2016-07-12 2019-03-15 富士胶片株式会社 图像显示系统、以及头戴式显示器的控制装置及其工作方法和工作程序
US10838210B2 (en) * 2016-07-25 2020-11-17 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear
CA2976543A1 (en) * 2016-08-23 2018-02-23 8696322 Canada Inc. System and method for augmented reality head up display for vehicles
US10192363B2 (en) * 2016-08-28 2019-01-29 Microsoft Technology Licensing, Llc Math operations in mixed or virtual reality
EP3528024B1 (en) * 2016-10-17 2023-04-19 Sony Group Corporation Information processing device, information processing method, and program
JP2018082363A (ja) * 2016-11-18 2018-05-24 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
KR101851338B1 (ko) * 2016-12-02 2018-04-23 서울과학기술대학교 산학협력단 실감형 미디어 영상을 제공하는 장치
US10373342B1 (en) * 2017-01-10 2019-08-06 Lucasfilm Entertainment Company Ltd. Content generation in an immersive environment
US10726814B2 (en) * 2017-01-27 2020-07-28 Canon Kabushiki Kaisha Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
JP2018148257A (ja) * 2017-03-01 2018-09-20 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
CN108664037B (zh) * 2017-03-28 2023-04-07 精工爱普生株式会社 头部佩戴型显示装置以及无人机的操纵方法
IL252056A (en) * 2017-05-01 2018-04-30 Elbit Systems Ltd Head-up display device, system and method
JP7065383B2 (ja) * 2017-06-30 2022-05-12 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
US10817128B2 (en) * 2017-07-11 2020-10-27 Logitech Europe S.A. Input device for VR/AR applications
JP2019016316A (ja) * 2017-07-11 2019-01-31 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法
JP6877842B2 (ja) * 2017-07-20 2021-05-26 アルパイン株式会社 車載表示システム
JP2019061590A (ja) * 2017-09-28 2019-04-18 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
US10556185B2 (en) * 2017-09-29 2020-02-11 Sony Interactive Entertainment America Llc Virtual reality presentation of real world space
JP2019082891A (ja) * 2017-10-31 2019-05-30 セイコーエプソン株式会社 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
US11094095B2 (en) * 2017-11-07 2021-08-17 Disney Enterprises, Inc. Focal length compensated augmented reality
JP2019109849A (ja) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
JP7003633B2 (ja) * 2017-12-20 2022-01-20 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
US10699485B2 (en) * 2018-01-04 2020-06-30 Universal City Studios Llc Systems and methods for textual overlay in an amusement park environment
US10650597B2 (en) * 2018-02-06 2020-05-12 Servicenow, Inc. Augmented reality assistant
US20190254753A1 (en) * 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
JP7048358B2 (ja) * 2018-03-07 2022-04-05 矢崎総業株式会社 車両用表示投影装置
US11145096B2 (en) * 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
JP2019164420A (ja) * 2018-03-19 2019-09-26 セイコーエプソン株式会社 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
WO2019226688A1 (en) * 2018-05-22 2019-11-28 Agilent Technologies, Inc. Method and system for implementing augmented reality (ar)-based assistance within work environment
US10861242B2 (en) * 2018-05-22 2020-12-08 Magic Leap, Inc. Transmodal input fusion for a wearable system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2005174021A (ja) * 2003-12-11 2005-06-30 Canon Inc 情報提示方法及び装置
JP2012242932A (ja) * 2011-05-17 2012-12-10 Hitachi Solutions Ltd 情報提供システム及び端末装置
WO2014162852A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487354B2 (en) * 2018-03-28 2022-11-01 Sony Corporation Information processing apparatus, information processing method, and program
CN112532801A (zh) * 2020-12-04 2021-03-19 上海影创信息科技有限公司 基于热分布检测的vr设备的安全防护方法和系统

Also Published As

Publication number Publication date
TW201804787A (zh) 2018-02-01
JPWO2018020661A1 (ja) 2018-12-13
US20190221184A1 (en) 2019-07-18
DE112016007015T5 (de) 2019-03-21
CN109478339A (zh) 2019-03-15
JP6440910B2 (ja) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6440910B2 (ja) 表示装置、表示制御装置および表示制御方法
JP6678122B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4725595B2 (ja) 映像処理装置、映像処理方法、プログラム及び記録媒体
JP4922106B2 (ja) カメラ及びこれに適用されるパノラマ撮影ガイド表示方法,パノラマ撮影ガイド表示プログラム
JP5258399B2 (ja) 画像投影装置及びその制御方法
JP2013076924A5 (ja)
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
WO2018003859A1 (ja) 表示装置、プログラム、表示方法および制御装置
JP5228074B2 (ja) 情報処理装置、表示制御方法
JP2015039522A (ja) リハビリ装置および幻肢痛治療支援装置
JP5530322B2 (ja) 表示装置および表示方法
KR20170062439A (ko) 제어 장치, 제어 방법 및 프로그램
JP2012235225A (ja) 撮影機器及び画像データの記録方法
JP5675197B2 (ja) 表示装置
WO2017038248A1 (ja) 機器操作装置、機器操作方法、及び電子機器システム
JP2017046065A (ja) 情報処理装置
TW201332351A (zh) 多鏡頭影像擷取裝置及其立體影像顯示方法
WO2017081915A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2021125867A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム
US20110234762A1 (en) Apparatus and method for capturing three-dimensional image
JP2008083078A (ja) カメラ
US20240077723A1 (en) Control apparatus, display apparatus, control method, and storage medium
US20220385883A1 (en) Image processing apparatus, image processing method, and storage medium
JP4452100B2 (ja) 映像コミュニケーションシステム
JP7009066B2 (ja) 表示装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018530301

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16910564

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16910564

Country of ref document: EP

Kind code of ref document: A1