WO2018142679A1 - 表示装置及びその制御方法 - Google Patents

表示装置及びその制御方法 Download PDF

Info

Publication number
WO2018142679A1
WO2018142679A1 PCT/JP2017/037315 JP2017037315W WO2018142679A1 WO 2018142679 A1 WO2018142679 A1 WO 2018142679A1 JP 2017037315 W JP2017037315 W JP 2017037315W WO 2018142679 A1 WO2018142679 A1 WO 2018142679A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
display unit
display device
mode
Prior art date
Application number
PCT/JP2017/037315
Other languages
English (en)
French (fr)
Inventor
山田 正彦
Original Assignee
株式会社ワコム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ワコム filed Critical 株式会社ワコム
Priority to CN201780075508.XA priority Critical patent/CN110199324B/zh
Publication of WO2018142679A1 publication Critical patent/WO2018142679A1/ja
Priority to US16/438,563 priority patent/US11183141B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Definitions

  • the present invention relates to a technique for providing augmented reality by displaying a virtual image on a display unit.
  • FIG. 1 is a diagram showing an appearance of a display device 1 according to a first embodiment of the present invention.
  • FIG. 1A shows the display device 1 viewed from the front side, and FIG. Each display device 1 is shown.
  • the display device 1 is a circular device, and has a circular display portion 2 at the center thereof.
  • a donut-shaped housing 3 having an imaging unit 4 (built-in camera) on the back surface is provided around the display unit 2, a donut-shaped housing 3 having an imaging unit 4 (built-in camera) on the back surface.
  • an external camera including a camera connected to a telephoto lens, a telescope, etc.
  • Communication may be performed.
  • the display device 1 is used while holding the housing 3 and looking at the display unit 2.
  • FIG. 2 is a schematic block diagram showing functional blocks of the display device 1.
  • the display device 1 functionally includes a first detection unit 5, a second detection unit 6, a communication unit 7, a storage, in addition to the display unit 2 and the imaging unit 4 also illustrated in FIG. 1.
  • a unit 8 and a control unit 9 are provided.
  • the display device 1 is configured to be usable together with the electronic pen 10 as an indicator.
  • the display unit 2 is a transparent liquid crystal display (LCD) panel, and is configured so that the transmittance can be changed according to the voltage value applied from the control unit 9.
  • This change in transmittance is realized, for example, by attaching a liquid crystal film (electronic shutter) whose orientation direction changes according to the value of the voltage applied from the control unit 9 on the back surface of the transparent LCD panel.
  • the transmittance of the display unit 2 is greater than 0%, the image of the real world object on the other side of the display device 1 enters the user's eyes through the display unit 2. Therefore, when a virtual image is displayed on the display unit 2, a user sees an object in the real world and a virtual image displayed on the display unit 2, thereby augmenting reality (AR: Augmented (Reality) is realized (AR1 mode described later).
  • AR Augmented (Reality)
  • the imaging unit 4 is a camera built in the display device 1 and configured to output the captured video to the control unit 9 in real time.
  • the control unit 9 outputs the video input from the imaging unit 4 to the display unit 2 in real time.
  • a video of a real-world object captured by the imaging unit 4 enters the eyes of the user. Therefore, when a virtual image is displayed overlaid on the output video of the imaging unit 4, the real world object and the virtual image displayed on the display unit 2 appear to overlap with each other.
  • Reality AR: Augmented Reality
  • AR2 mode described later is realized (AR2 mode described later).
  • the first detection unit 5 is a transparent sensor disposed on the back surface of the display unit 2 and plays a role of detecting the indication position of the indicator on the display unit 2.
  • various methods such as an active electrostatic coupling method, a capacitance method, an electromagnetic induction method, and a pressure-sensitive method can be used.
  • an active electrostatic coupling method that can handle both the touch with the electronic pen 10 and the touch with the finger.
  • the description will be continued on the assumption that the active electrostatic coupling method is used.
  • the first detection unit 5 includes, for example, a plurality of first linear conductors (not shown) each extending in the X direction, and a plurality of each extending in the Y direction orthogonal to the X direction in the panel plane. And a second linear conductor (not shown), which are used to detect the position indicated by the electronic pen 10 or the finger.
  • the first detection unit 5 sequentially supplies a signal to each of the plurality of first linear conductors, and supplies the signals to the plurality of second linear conductors. Each is configured to receive sequentially. And it is comprised so that the reception intensity
  • the first detection unit 5 can determine the intersection where the finger is approaching, that is, the position indicated by the finger, by determining the reception intensity of the signal as described above.
  • the first detection unit 5 outputs the detected indication position to the control unit 9 as coordinate data including two-dimensional XY coordinate values, as in the case of the electronic pen 10.
  • the second detection unit 6 is a functional unit having a function of detecting position information (for example, latitude and longitude) and direction of the display device 1.
  • position information detection function is realized by using, for example, a GPS receiver
  • direction detection function is realized by using, for example, a sensor capable of detecting acceleration, magnetism, angular velocity, and the like.
  • the second detection unit 6 is configured to send the detected position information and orientation to the control unit 9.
  • the communication unit 7 is a communication device having a function of performing data communication with the electronic pen 10 and an arbitrary information terminal (not shown).
  • the communication performed by the communication unit 7 is different from the communication performed between the electronic pen 10 and the first detection unit 5.
  • the communication unit 7 may communicate with the electronic pen 10 or any information terminal by wireless communication, or may communicate with the electronic pen 10 or any information terminal by wired communication.
  • communication between the communication unit 7 and the electronic pen 10 is performed by Bluetooth (registered trademark), and communication between the communication unit 7 and the information terminal is performed by a wireless LAN.
  • the storage unit 8 is a functional unit that stores computer programs and data.
  • the storage unit 8 is realized by a storage device such as a DRAM (Dynamic Random Access Memory), a flash memory, a hard disk, or a combination thereof.
  • DRAM Dynamic Random Access Memory
  • the control unit 9 is a processor that executes each operation of the display device 1 described in the present embodiment by reading and executing a program stored in the storage unit 8, and is illustrated in FIG. Connected to each part.
  • a virtual image corresponding to the position information and orientation detected by the second detection unit 6 is displayed on the display unit 2, and the operation is performed according to the indicated position detected by the first detection unit 5.
  • an operation of changing the display form of the virtual image is included. Specifically, this operation is realized by the control unit 9 operating while switching its own mode among the three modes of the AR1 mode, the AR2 mode, and the non-AR mode.
  • AR1 mode is a mode for realizing augmented reality by displaying a virtual image superimposed on a real-world object that can be seen through the transparent display unit 2.
  • the control unit 9 in this mode sets the transmittance of the display unit 2 to the first value (a value greater than 0%. For example, the maximum value of the transmittance (preferably 100%)) and then the second value.
  • a virtual image corresponding to the position information and orientation detected by the detection unit 6 is formed and output to the display unit 2.
  • FIG. 3A is a diagram showing a display example in the AR1 mode.
  • the display device 1 is held by the user in a state where Mt.
  • Fuji R1 that is an actual object is on the other side of the display unit 2.
  • the control unit 9 has entered the AR1 mode, the display unit 2 becomes transparent except in the area where the human image V2 that is a virtual image is displayed.
  • Fuji M1 on the side will be visible.
  • the human image V2 is superimposed on Mt. Fuji R1
  • the user will experience augmented reality.
  • the non-AR mode is a mode in which only the virtual image is displayed on the display unit 2.
  • the control unit 9 in this mode sets the transmittance of the display unit 2 to a second value smaller than the first value (for example, the minimum value of the transmittance (preferably 0%)), and then sets the second value.
  • a virtual image corresponding to the position information and orientation detected by the detection unit 6 is formed and output to the display unit 2.
  • the stroke data is generated based on a series of designated positions detected by the first detection unit 5, stored in the storage unit 8, and displayed on the display unit 2. Etc. are included.
  • control unit 9 the change of the display form of the virtual image by the control unit 9 will be specifically described with reference to an example in which the display device 1 is used for astronomical observation.
  • FIG. 4 is a diagram illustrating an example of switching between the AR1 mode, the AR2 mode, and the non-AR mode.
  • 4A shows a state in which the constellation quick-view board is displayed on the display unit 2 (non-AR mode), and FIG. 4B shows that a celestial body in the actual starry sky is visible through the display unit 2.
  • 4C shows a state (AR2 mode) in which an image of a celestial body imaged by the imaging unit 4 is displayed on the display unit 2.
  • FIG. 4A shows a state in which the constellation quick-view board is displayed on the display unit 2 (non-AR mode)
  • FIG. 4B shows that a celestial body in the actual starry sky is visible through the display unit 2.
  • 4C shows a state (AR2 mode) in which an image of a celestial body imaged by the imaging unit 4 is displayed on the display unit 2.
  • the control unit 9 has a function of displaying on the display unit 2 a constellation quick-viewing board (virtual image) widely used in astronomical observation.
  • the mode of the control unit 9 when displaying the constellation quick-view board is a non-AR mode, and a virtual image is displayed on the display unit 2.
  • the constellation chart has a configuration in which a mask is arranged on the constellation map.
  • the mask is provided with an elliptical opening for displaying a celestial body above the horizon in the actual starry sky.
  • the configuration of the constellation quick-view board displayed on the display unit 2 in the example of FIG. 4A is basically the same as that of the above-described constellation quick-view board, and an astronomical display area VA corresponding to the opening and a mask (opening). And a mask region VM corresponding to a portion other than the portion.
  • the control unit 9 When displaying the constellation quick-view board, the control unit 9 first enters the non-AR mode. Then, the current date and time are acquired from a built-in calendar and a built-in clock (not shown), the current latitude and longitude are acquired from the position information detected by the second detection unit 6, the acquired current date and time, the acquired current latitude and An all-sky image corresponding to the longitude is displayed in the celestial body display area VA together with additional information such as the longitude and declination. As a result, the user can check the starry sky of the whole sky at the current position and the current date and time in the celestial body display area VA.
  • a latitude / longitude display unit V4 and a date / time display unit V5 are provided in the mask area VM, and the control unit 9 displays the acquired current date / time on the date / time display unit V5, and displays the acquired current latitude and longitude as a latitude. Displayed on the longitude display section V4.
  • control unit 9 is configured to display a mark V6 indicating the direction detected by the second detection unit 6 in the astronomical display area VA.
  • the mark V6 is, for example, a double circle image, and the control unit 9 adjusts the display position of the mark V6 so that the center of the double circle matches the direction detected by the second detection unit 6.
  • the display of the mark V6 allows the user to grasp globally which direction the star is facing.
  • the user can easily find the constellation in the actual starry sky.
  • a user who wants to observe the Orion seat changes the orientation of the display device 1 so that the mark V6 approaches the Orion seat image V7 in the celestial body display area VA (an arrow A indicates this movement). Since the display device 1 after changing the direction is oriented in the direction of the Orion in the actual starry sky, if the display device 1 is moved, the actual Orion will appear in front of the user's eyes.
  • This mode change by the control unit 9 includes a case where the mode is switched to the AR1 mode and a case where the mode is switched to the AR2 mode according to the content of the user's touch operation. Each will be described below.
  • the control unit 9 enters the AR1 mode and controls the voltage applied to the display unit 2 to control the transmittance of the display unit 2 to the first value.
  • the constellation quick-view board is deleted from the display unit 2, and instead, the information (star shape, celestial name, etc.) of the stars displayed near the mark V6 in the celestial display area VA is displayed as a virtual image. Part 2 is displayed.
  • the user can confirm, for example, the shape of the constellation on the actual starry sky.
  • virtual images displayed in this way include names of stars, star clusters, nebulae, planets, comets, etc. (including Messier, NGC, etc.), artificial satellites, Virtual images showing the equator (including the ecliptic, declination, etc.), the ecliptic, etc. can be used.
  • the control unit 9 enters the AR2 mode and controls the voltage applied to the display unit 2 to control the transmittance of the display unit 2 to the third level. Set to value.
  • the constellation quick-view board is deleted from the display unit 2 and the imaging unit 4 is activated, and images supplied in real time from the imaging unit 4 are sequentially output to the display unit 2. Thereby, the output video of the imaging unit 4 is displayed on the display unit 2.
  • a virtual image similar to that in the AR1 mode may be displayed on the display unit 2 at the same time.
  • the user can confirm, for example, the shape of the constellation on the actual starry sky, as in the AR1 mode.
  • FIG. 4 (c) shows a case where the Orion Nebula (nebula near the center of the Orion image V7) is touched in the celestial display area VA.
  • the control unit 9 displays the output video of the imaging unit 4 on the display unit 2. By doing so, the user can check the celestial object on the display unit 2 which is difficult to check with the naked eye (that is, difficult to check in the display state of FIG. 4B).
  • the control unit 9 also displays a return button indicating that the display is returned to the constellation quick reference board as one of the virtual images in both cases of the display of FIG. 4B and the display of FIG. 4C. It is configured to display V9.
  • the control unit 9 returns its own mode to the non-AR mode, and displays the constellation quick-view board shown in FIG. As a result, the user can confirm the constellation quick-view board again.
  • the control unit 9 sets its own mode to the AR2 mode and displays the display of FIG. Do.
  • the area displayed on the entire display unit 2 is an area corresponding to the touch position of the user.
  • the control unit 9 sets its own mode to the AR1 mode and displays the display of FIG. 4B. Do. Thereby, the user can confirm the celestial body in a wider range.
  • control part 9 is good also as changing the display state of the display part 2 by triggers other than a touch.
  • the display may be switched to the display shown in FIG. 4B in response to the mark V6 approaching a predetermined constellation (for example, Orion image V7) during display of the constellation quick reference board.
  • the display unit 2 is switched to display of the constellation quick-view board in accordance with the orientation of the display unit 2 being away from the displayed constellation (for example, Orion image V7). Also good.
  • control unit 9 will be described in more detail with reference to the processing flow of the control unit 9. Also in this description, the case where the display device 1 is used for astronomical observation (see FIG. 4) will be described as an example.
  • control unit 9 first starts to operate in the non-AR mode (step S1).
  • step S1 determines whether or not the inside of the astronomical display area VA has been touched by referring to the output data of the first detection unit 5 (step S2). If it is determined that the touch has not been made, the operation in step S1 is repeated. On the other hand, when it determines with having touched, the content of touch operation is determined by further referring to the output data of the 1st detection part 5 (step S3). And when it determines with the content of touch operation being 1st operation (for example, single tap), the control part 9 starts operation
  • FIG. 7 shows the operation of the control unit 9 in the AR1 mode (step S4).
  • the control unit 9 that has entered the AR1 mode first sets the transmittance of the display unit 2 to the first value (step S20).
  • the constellation quick reference board displayed in the non-AR mode is deleted.
  • step S20 is drawn with a broken line is that step S20 need not be performed when the transmittance of the display unit 2 has already become the first value.
  • control unit 9 acquires the current date and time, position information, and orientation in the same manner as in the non-AR mode (step S21), and displays a virtual image corresponding to the acquired current date and time, position information, and orientation. 2 is displayed (step S22).
  • FIG. 8 shows the operation of the control unit 9 in the AR2 mode (step S7).
  • the controller 9 having entered the AR1 mode first sets the transmittance of the display unit 2 to a third value (step S30).
  • step S30 is drawn with a broken line because step S30 need not be performed when the transmittance of the display unit 2 has already reached the third value.
  • control unit 9 displays the output video of the imaging unit 4 on the display unit 2 based on the touched position (step S31). At this time, the constellation quick reference board displayed in the non-AR mode is deleted.
  • control unit 9 acquires the current date and time, position information, and orientation in the same manner as in the non-AR mode (step S32), and the image is displayed on the display unit 2 from the acquired current date and time, position information, and orientation.
  • the position range of the real world is estimated (step S33).
  • a virtual image corresponding to the estimated position range is displayed on the display unit 2 (step S34).
  • step S4 determines whether the display part 2 was touched by the user with reference to the output data of the 1st detection part 5 (step S6). If it is determined that the touch has not been made, the operation in step S6 is repeated. On the other hand, when it determines with having touched, the touched area
  • a predetermined area for example, the return button V9 illustrated in FIG. 4B
  • step S7 determines whether or not the display unit 2 has been touched by the user by referring to the output data of the first detection unit 5 (step S8). If it is determined that the touch has not been made, the operation in step S7 is repeated. On the other hand, when it is determined that the touch has been made, the touched region is determined by further referring to the output data of the first detection unit 5 (step S9). When it is determined that the touched area is within a predetermined area (for example, the return button V9 illustrated in FIG. 4C), the control unit 9 starts the operation in the non-AR mode (step S1). . On the other hand, when it is determined that the touched area is another area, the control unit 9 starts an operation in the AR1 mode (step S6).
  • a predetermined area for example, the return button V9 illustrated in FIG. 4C
  • the user first performs polar alignment of the equator as a preparation.
  • the control unit 9 causes the display unit 2 of the display device 1 to display the constellation quick-view board shown in FIG.
  • the control unit 9 always faces the direction of the celestial body corresponding to the position (hereinafter referred to as “tracking target celestial body”).
  • the automatic tracking function of the equatorial mount 21 is set, and its own mode is set to the AR2 mode. What is displayed on the display unit 2 in the AR2 mode is an image taken by the camera 20.
  • the state in which the tracking target celestial body is introduced into the display unit 2 can be maintained even after a lapse of time, so that the user always superimposes the tracking target celestial body and the tracking target celestial body on the display unit 2. It is possible to confirm the virtual image that has been displayed.
  • the display device 1 In addition to the functions described in the first embodiment, the display device 1 according to the present embodiment cooperates with other display devices 1 to view images taken by other people's cameras on the display unit 2. Configured to be able to.
  • the display devices 1 a and 1 b are configured to be able to communicate with each other via the network 30. Specifically, this communication is executed using the communication unit 7 shown in FIG.
  • an identification number for identifying each individual is assigned in advance to the display device 1 according to the present embodiment, and this identification number is stored in the storage unit 8 in advance.
  • the control unit 9 of the display device 1b first transmits an identification number stored in the storage unit 8.
  • the control unit 9 of the display device 1a determines whether or not communication with the display device 1b can be started by performing authentication using this identification number, and starts communication with the display device 1b only when it is determined that communication can be started. To do.
  • the control unit 9 of the display device 1a displays not only the mark Va indicating the direction of the display device 1a on the display unit 2 of the display device 1a but also the mark Vb indicating the direction of the display device 1b. Is also displayed.
  • the mark Va and the mark Vb are different in appearance such as shape and color.
  • the control unit 9 of the display device 1b displays not only the mark Vb indicating the direction of the display device 1b but also the mark Va indicating the direction of the display device 1a on the display unit 2 of the display device 1b.
  • the control unit 9 of the display device 1b distributes the video acquired from the external camera 20b to the display device 1a (for example, streaming distribution). )I do.
  • the display device 1a can display an image of the camera 20b viewed on the display device 1b.
  • the control unit 9 of the display device 1a distributes the video acquired from the external camera 20a to the display device 1b.
  • the display device 1b can display an image of the camera 20a viewed on the display device 1a.
  • the display device 1 on the distribution side only needs to be able to acquire video from the camera 20 and distribute it to other display devices 1, so even if it is another type of device. I do not care.
  • a distribution server that distributes video captured by the camera 20 to the display devices 1 around the world may be provided. This example is particularly useful when distributing video taken with a camera attached to a large telescope that many users want to see, such as the Hubble telescope and astronomical telescopes installed at various observatories. It is.
  • the display device 1 has a function of enlarging and displaying a virtual image on a screen or the like using light from an external light source (hereinafter referred to as a “planetarium function”). Called).
  • FIG. 11 is a diagram illustrating a usage state of the display device 1 according to the present embodiment.
  • the control unit 9 When executing the planetarium function, the control unit 9 according to the present embodiment enters the AR1 mode and displays the virtual celestial image V10 to be projected on the display unit 2.
  • the virtual celestial image V10 is an image showing a starry sky. More specifically, the virtual celestial image V10 is a negative image in which the celestial object is opaque and the other part is transparent.
  • the controller 9 irradiates one surface of the display device 1 with light from the external light source 31 while the virtual celestial image V10 is displayed on the display unit 2 as described above, the light source 31 sandwiches the display device 1 therebetween.
  • a virtual celestial image V10 is projected on the screen 32 on the opposite side of the screen.
  • the user can enjoy the virtual celestial image V10 enlarged and displayed on the screen.
  • a room wall is preferably used as the screen 32.
  • the transmittance of the display unit 2 is the first value
  • a real-world object (Mt. Fuji in FIG. 13) on the other side of the display device 1 is introduced into the display unit 2.
  • the user inputs the line image V12 with the electronic pen 10 so as to trace the object in the real world, whereby the line image V12 is displayed on the display unit 2, and the object in the real world can be traced.
  • the control unit 9 changes its mode to the non-AR mode and displays it.
  • the transmittance of part 2 is set to the second value. As a result, the user can confirm the line image V12 on the display unit 2 as shown in FIG.
  • FIG. 13 shows an example in which a slider V13 (second image) is displayed on the display unit 2 instead of the switching button V11.
  • the control unit 9 is configured to control the transmittance of the display unit 2 based on the position on the slider V13 of the indicated position detected by the first detection unit 5.
  • the control unit 9 sets the transmittance of the display unit 2 to the first value when the slider V13 is at one end, and sets the transmittance of the display unit 2 to the second value when the slider V13 is at the other end. Or the third value.
  • the transmittance of the display unit 2 is set to an intermediate value between the first value and the second value or the third value.
  • an intermediate transmittance can be set, as shown in FIG. 13B, it is possible to make the line image V12 more conspicuous by reducing the transmittance to about half.
  • the display device 1 according to the present embodiment is configured to be able to configure a 3D image in the display device 1 in addition to the functions described in the fourth embodiment.
  • FIG. 14 is a diagram showing a usage state of the display device 1 according to the present embodiment.
  • the user according to the example in the figure traces the building 33 from the three directions D1 to D3 using the function described in the fourth embodiment, and stores the virtual images generated for each in the storage unit 8.
  • the control unit 9 stores the orientation of the display device 1 detected by the second detection unit 6 during tracing and the virtual image generated by the user in association with each other.
  • the control unit 9 combines the plurality of virtual images stored in the storage unit 8 on the basis of the orientations of the display devices 1 associated with the 3D images. Is generated.
  • the user can obtain a 3D image of the building 33 by a simple operation of tracing the building 33 from a plurality of directions.
  • the display device 1 according to the present embodiment is configured to have a game function in addition to the functions described in the first embodiment. This game is to find a monster composed of virtual images in the real world.
  • the control unit 9 first enters the AR1 mode (step S40), and sets the transmittance of the display unit 2 to the first value. Then, the position range of the real world contained in the display unit 2 is estimated from the position information and orientation detected by the second detection unit 6 (step S41), and the storage unit stores the positions included in the estimated position range. When the monster image 8 stores the monster image, the monster image is displayed on the display unit 2 so as to overlap with the real world scenery as shown in FIG. 15A (step S42).
  • step S42 the control unit 9 controls the enlargement ratio for each monster image based on the distance between the position information stored in the storage unit 8 and the current position of the display device 1 correspondingly. This makes it possible to provide a user experience that monsters farther away look smaller. However, if such control of the enlargement ratio is performed, a situation may occur in which a monster appears far away but it cannot be seen well. In such a case, it is the user's feeling that he wants to enlarge. The operations after step S43 are executed to satisfy this feeling.
  • the control unit 9 determines whether or not the displayed monster image has been touched (step S43). If it is determined that the touch has not been made, the process returns to step S41 to continue the process. On the other hand, when it is determined that the touch has been made, the control unit 9 enters the AR2 mode (step S44) and cuts out the range (position and size) of the output video of the imaging unit 4 based on the position of the touched monster image. Is determined (step S45).
  • the position of the cutout range is determined so that the monster image is included in the cutout range. Further, the size of the cut-out range is preferably smaller as the distance from the monster (correspondingly, the distance between the position information stored in the storage unit 8 and the current position of the display device 1) is larger. It is good also as setting beforehand by.
  • control unit 9 changes the enlargement ratio of the monster image according to the size of the cutout range determined in step S45 (step S46). For example, when the size of the cutout range corresponds to 1 ⁇ 4 of the area of the output video of the imaging unit 4, the monster image enlargement ratio is set to four times the area ratio.
  • step S49 the determination in step S49 is performed because the monster may go out of the real world range displayed on the display unit 2 by moving the display device 1 by the user. If the determination result in step S49 is negative, the control unit 9 can be quickly returned to the AR1 mode when the monster image is no longer displayed in the display unit 2 by returning to the AR1 mode. Become.
  • FIG. 17 is a diagram illustrating a usage state of the display device 1 according to a modification of the present embodiment.
  • the display device 1 according to the present modification is different from the display device 1 according to the present embodiment in that the output video of the imaging unit 4 is displayed in a reduced size instead of being enlarged.
  • the monster image Since the user originally does not know the position where the monster is located (position information stored in the storage unit 8 as the position of the monster image), the monster image is successfully displayed in the display unit 2 as shown in FIG. It may not be captured. Even in such a case, since it becomes possible to confirm a wider range by pressing the switching button V15, the user can search for a monster more easily.
  • FIG. 18 is a diagram showing a usage state of the display device 1 according to the present embodiment.
  • the storage unit 8 according to the present embodiment stores the above-described fluoroscopic image and volume data in association with each other based on patient information (ID).
  • FIG. 19 is a process flowchart showing the operation of the control unit 9 of the display device 1 according to the present embodiment.
  • the operation of the control unit 9 according to the present embodiment will be described with reference to this flowchart.
  • the control unit 9 processes a portion corresponding to the outside of the human body to be transparent. As a result, an area A1 through which the other side of the display device 1 can be seen is provided around the fluoroscopic image V16 as shown in FIG.
  • the display device 1 that is displaying a fluoroscopic image V16 that is a fluoroscopic image of the abdomen is placed in front of the abdomen of the patient.
  • the user of the display device 1 can handle the fluoroscopic image as if the inside of the patient's abdomen is seen through.
  • the control unit 9 that has displayed the fluoroscopic image V16 in step S61 determines whether or not the switching button V17 has been touched by the user (step S62). When it is determined that the touch is not performed, the display of the fluoroscopic image V16 is continued. On the other hand, when it determines with having touched, the control part 9 acquires the vector which shows direction of the present display apparatus 1 from the 2nd detection part 6 first, and memorize
  • step S65 the cross-sectional image stored in the storage unit 8 in association with the same angle as the fluoroscopic image V16 displayed in step S61 is displayed on the display unit 2 (step S65).
  • the coronal image V20 shown in FIG. 18B is displayed in step S65.
  • control unit 9 obtains a vector indicating the current orientation of the display device 1 from the second detection unit 6 again, and calculates an angle (rotation matrix) formed with the vector stored in step S63 (step S66). And the display of the display part 2 is updated by the cross-sectional image corresponding to the calculated angle (step S67). For example, if the calculated angle indicates 90 ° upward rotation, the display 2 is updated with the axial image V21 shown in FIG. 18C, and the calculated angle indicates 90 ° rightward rotation. If so, the display on the display unit 2 is updated with the sagittal image V22 shown in FIG.
  • step S67 the control unit 9 determines again whether or not the switching button V17 is touched by the user (step S68). If it is determined that the touch has not been made, the process returns to step S66, and the cross-sectional image display process in the non-AR mode is continued. On the other hand, when it is determined that the touch has been made, the control unit 9 returns to step S60 and proceeds to a fluoroscopic image display process in the AR1 mode. Although not shown in the figure, in a subsequent step S61, a fluoroscopic image corresponding to the last calculated angle may be displayed.
  • the present embodiment it is possible to display a fluoroscopic image in the AR1 mode and display a cross-sectional image in the non-AR mode.
  • a fluoroscopic image in the AR1 mode when switching from the AR1 mode to the non-AR mode, it is possible to display a cross-sectional image photographed on the same plane as the photographing plane of the displayed fluoroscopic image, so that a natural image switching for the user is possible. Can be realized.
  • the cross-sectional image can be generated from the volume data in accordance with the inclination of the display device 1, so that switching between the cross-sectional images is also natural for the user. Switching can be realized.
  • the stroke data obtained as a result is associated with the displayed image. Then, it may be stored in the storage unit 8. By doing so, it becomes possible to confirm the written contents again later.
  • the display device 1 is configured to have a function of additionally displaying additional information such as a correct answer to a test question in addition to the functions described in the first embodiment.
  • FIG. 20 is a diagram illustrating a usage state of the display device 1 according to the present embodiment.
  • the control unit 9 according to the present embodiment performs user authentication using, for example, an ID / password when the additional information addition display function is activated. As a result, only a person who knows the ID / password (for example, an examiner) can activate the additional information addition display function.
  • the storage unit 8 stores in advance the configuration of the test question sheet (including the position of each of one or more answer fields) that is the target of the additional information addition display function and the correct answer of each answer field. ing.
  • the test question paper 34 shown in FIG. 20A is an example thereof, and has one or more answer columns 34a.
  • the control unit 9 that has activated the additional information addition display function starts imaging by the imaging unit 4 after entering the AR1 mode or the AR2 mode. Then, the imaging is continued until the test question sheet stored in the storage unit 8 appears in the video output from the imaging unit 4, and when the test question sheet stored in the storage unit 8 appears, Based on the position of the test question sheet inside, the position of each of the one or more answer fields included therein is determined. This position determination is continuously executed at a predetermined cycle because the position of the display device 1 is not normally determined at one place.
  • the control unit 9 determines whether or not the determined position is included in the display unit 2, and displays the answer field determined to be included in the display unit 2.
  • the correct answer is displayed at the corresponding position in 2.
  • the correct answer to be displayed here is stored in the storage unit 8 in association with each answer column. As a result, the user can check the correct answer in each answer field on the display unit 2.
  • the paper that is the subject of this embodiment is not limited to test questions, and the display device 1 can also display correct answers in the answer columns provided for textbooks, reference books, question collections, etc., as described above. .
  • the display device 1 has been described on the assumption that the display device 1 is compatible with the non-AR mode, the AR1 mode, and the AR2 mode. This can also be realized by the display device 1 corresponding to only one of the AR2 modes. For example, in the example of FIG. 4, even if the display device 1 does not support the AR2 mode, a virtual image is displayed between the non-AR mode of FIG. 4A and the AR1 mode of FIG. It is possible to change the form. Further, even if the display device 1 does not support the AR1 mode, it is possible to change the display form of the virtual image between the non-AR mode of FIG. 4A and the AR2 mode of FIG. 4C. It is.
  • Control unit 10 Electronic pen 20 Camera 21 Equatorial mount 30 Network 31 Light source 32 Screen 33 Building 34 Test question paper 34a Answer column V2 Human image V4 Latitude / longitude display part V5 Date / time display part V6 Mark V7 Orion image V8 Constellation image V9 Back button V10 Virtual celestial image V11, V15, V17 Switching button V12 Line image V13 Slider V14 Monster image V16 Perspective image V20 Coronal image V21 Axial image V 22 Sagittal image V23 Oblique image VA Astronomical display area VM Mask area

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】拡張現実を表す表示部上の仮想画像の表示形態を容易に変更する。 【解決手段】本発明による表示装置1は、透明性の表示部2と、表示部2上における指示体の指示位置を検出する第1の検出部5と、表示部2の位置情報及び向きを検出する第2の検出部6と、第2の検出部6によって検出された位置情報及び向きに対応する仮想画像を表示部2に表示させ、第1の検出部5によって検出された指示位置に応じてその表示形態を変更する制御部9と、を備えることを特徴とする。

Description

表示装置及びその制御方法
 本発明は、表示部に仮想画像を表示させることによって拡張現実を提供するための技術に関する。
 現実世界に情報を付加することによって現実世界を拡張する拡張現実(AR:Augmented Reality)が開発されている。例えば、透明の表示部に仮想画像を表示させる技術がある(例えば、特許文献1,2参照)。
米国特許第8941683号明細書 特許第5649842号公報
 しかしながら、従来の技術には、仮想画像の表示形態を変更することが困難であるという技術的課題がある。
 本発明は、このような技術的課題に鑑みてなされたものであり、仮想画像の表示形態を効果的に変更するための技術を提供することを目的とする。
 本発明の一実施の形態に係る表示装置は、透明性の表示部と、前記表示部上の指示位置を検出する第1の検出部と、前記表示部の位置情報及び向きを検出する第2の検出部と、前記位置情報及び前記向きに対応する仮想画像を前記表示部に表示させ、前記指示位置に応じて前記仮想画像の表示形態を変更する表示制御部と、を備える。
 本発明の他の一実施の形態に係る表示装置の制御方法は、透明性の表示部を有する表示装置の制御方法であって、前記表示部上における指示体の指示位置を検出する第1の検出工程と、前記表示部の位置情報及び向きを検出する第2の検出工程と、前記位置情報及び前記向きに対応する仮想画像を前記表示部に表示させる表示工程と、前記指示位置に応じて前記仮想画像の表示形態を変更する制御工程と、を含む。
 本発明によれば、仮想画像の表示形態を効果的に変更することができるという効果を奏する。
本発明の第1の実施の形態に係る表示装置1の外観を示す図である。 図1に示した表示装置1の機能ブロックを示す略ブロック図である。 (a)は、AR1モードでの表示例を示す図であり、(b)は、非ARモードでの表示例を示す図である。 AR1モード、AR2モード、及び非ARモードの切り替えの例を示す図である。 図2に示した制御部9の動作の全体を示す処理フロー図である。 図2に示した制御部9の非ARモードにおける動作を示す処理フロー図である。 図2に示した制御部9のAR1モードにおける動作を示す処理フロー図である。 図2に示した制御部9のAR2モードにおける動作を示す処理フロー図である。 表示装置1と、カメラ20が備え付けられた赤道儀21とを示す図である。 本発明の第2の実施の形態に係る表示装置1の使用状態を示す図である。 本発明の第3の実施の形態に係る表示装置1の使用状態を示す図である。 本発明の第4の実施の形態に係る表示装置1の使用状態を示す図である。 本発明の第4の実施の形態の変形例に係る表示装置1の使用状態を示す図である。 本発明の第5の実施の形態に係る表示装置1の使用状態を示す図である。 本発明の第6の実施の形態に係る表示装置1の使用状態を示す図である。 本発明の第6の実施の形態に係る表示装置1の制御部9の動作を示す処理フロー図である。 本発明の第6の実施の形態の変形例に係る表示装置1の使用状態を示す図である。 本発明の第7の実施の形態に係る表示装置1の使用状態を示す図である。 本発明の第7の実施の形態に係る表示装置1の制御部9の動作を示す処理フロー図である。 本発明の第8の実施の形態に係る表示装置1の使用状態を示す図である。
 以下、本発明の実施の形態に係る表示装置を、図を参照しながら説明する。
 図1は、本発明の第1の実施の形態に係る表示装置1の外観を示す図であり、図1(a)は表側から見た表示装置1を、図1(b)は裏側から見た表示装置1をそれぞれ示している。同図に示すように、表示装置1は円形の装置であり、その中央に、円形の表示部2を有して構成される。表示部2の周囲には、裏面に撮像部4(内蔵カメラ)を有するドーナツ型の筐体3が設けられる。なお、詳しくは後述するが、表示装置1とは別体の外部カメラ(望遠レンズや望遠鏡等に接続されたカメラを含む)を撮像部4として用い、表示装置1とこの外部カメラとの間で通信を行うこととしてもよい。ユーザがこの表示装置1を使用する場合、筐体3を手で持ち、表示部2を眺める状態で使用する。
 また、図2は、表示装置1の機能ブロックを示す略ブロック図である。同図に示すように、表示装置1は機能的に、図1にも示した表示部2及び撮像部4の他、第1の検出部5、第2の検出部6、通信部7、記憶部8、及び制御部9を備えて構成される。また、表示装置1は、指示体としての電子ペン10とともに使用可能に構成される。
 表示部2は、透明性の液晶ディスプレイ(LCD:Liquid Crystal Display)パネルであり、制御部9から印加される電圧の値によって透過率を変更可能に構成される。この透過率の変更は、例えば、透明なLCDパネルの裏面に、制御部9から印加される電圧の値に応じて配向方向が変化する液晶フィルム(電子シャッター)を貼り付けることによって実現される。表示部2の透過率が0%より大きい値となっている場合、ユーザの目には、表示装置1の向こう側にある現実世界の物体の映像が表示部2を通って入り込む。したがって、表示部2に仮想画像が表示されている場合、ユーザには、現実世界の物体と、表示部2に表示される仮想画像とが重なって見えることになり、これによって拡張現実(AR:Augmented Reality)が実現される(後述するAR1モード)。
 撮像部4は、表示装置1に内蔵されたカメラであり、撮像した映像をリアルタイムで制御部9に出力可能に構成される。制御部9は、撮像部4から入力された映像をリアルタイムで表示部2に出力する。撮像部4の出力映像が表示部2上に表示されている場合、ユーザの目には、撮像部4によって撮影された現実世界の物体の映像が入り込む。したがって、撮像部4の出力映像に重ねて仮想画像を表示した場合、ユーザには、現実世界の物体と、表示部2に表示される仮想画像とが重なって見えることになり、これによっても拡張現実(AR:Augmented Reality)が実現される(後述するAR2モード)。
 第1の検出部5は表示部2の裏面に配置される透明センサであり、表示部2上における指示体の指示位置を検出する役割を果たす。第1の検出部5による指示位置の具体的な検出方式としては、アクティブ静電結合方式、静電容量方式、電磁誘導方式、感圧方式など各種の方式を用いることが可能であるが、表示装置1においては、電子ペン10によるタッチと指によるタッチとの両方に対応できるアクティブ静電結合方式を使用することが好適である。以下、アクティブ静電結合方式の使用を前提として説明を続ける。
 第1の検出部5は、例えば、それぞれX方向に延在する複数の第1の線状導体(図示せず)と、それぞれX方向とパネル面内で直交するY方向に延在する複数の第2の線状導体(図示せず)とを有し、これらを用いて、電子ペン10又は指による指示位置を検出するよう構成される。
 初めに電子ペン10による指示位置を検出する場合について説明すると、まずアクティブ静電結合方式による電子ペン10は一般に、表示装置1に向けて位置検出用信号を送信する機能を有して構成される。第1の検出部5は、各複数の第1及び第2の線状導体のそれぞれにおいてこの位置検出用信号の検出を行い、それぞれにおける位置検出用信号の受信強度を判定する。この受信強度は線状導体と電子ペン10の距離が近いほど強くなることから、第1の検出部5は、この受信強度から電子ペン10による指示位置を検出することができる。第1の検出部5は、検出した指示位置を2次元のXY座標値からなる座標データとして制御部9に出力する。
 次に指による指示位置を検出する場合について説明すると、第1の検出部5は、複数の第1の線状導体のそれぞれに順次信号を供給し、それを複数の第2の線状導体のそれぞれで順次受信するよう構成される。そして、こうして受信される信号の受信強度を第1及び第2の線状導体の組み合わせごとに判定するよう構成される。ある第1及び第2の線状導体の交点に指が近づいていると、第1の線状導体から第2の線状導体に流れる電流の一部が人体によって吸収されることになるため、第2の線状導体における受信信号の強度が弱くなる。したがって第1の検出部5は、上記のようにして信号の受信強度を判定することによって、指が接近している交点、すなわち指による指示位置を判定することができる。第1の検出部5は、検出した指示位置を、電子ペン10の場合と同様、2次元のXY座標値からなる座標データとして制御部9に出力する。
 電子ペン10は、位置検出用信号の他にも、ペン先に加わる圧力(筆圧値)を示す筆圧情報、側面に設けられるサイドスイッチのオンオフを示すサイドスイッチ情報、予め記憶している固有IDなどの各種情報を送信可能に構成される。第1の検出部5は、電子ペン10からこれらの情報を受信した場合、電子ペン10による指示位置を示す座標データと組み合わせ、一対の情報として制御部9に送出するよう構成される。
 第2の検出部6は、表示装置1の位置情報(例えば、緯度や経度)及び向きを検出する機能を有する機能部である。第2の検出部6の機能のうち位置情報の検出機能は例えばGPS受信機を用いて実現され、向きの検出機能は例えば加速度・磁気・角速度等を検出可能なセンサを用いて実現される。第2の検出部6は、検出した位置情報及び向きを制御部9に送出するよう構成される。
 通信部7は、電子ペン10及び任意の情報端末(図示せず)との間でデータ通信を行う機能を有する通信装置である。なお、通信部7が行う通信は、電子ペン10と第1の検出部5との間で行われる通信とは異なるものである。通信部7は、無線通信によって電子ペン10又は任意の情報端末と通信を行ってもよいし、有線通信によって電子ペン10又は任意の情報端末と通信を行ってもよい。一例では、通信部7と電子ペン10との間の通信はブルートゥース(登録商標)によって行われ、通信部7と情報端末との間の通信は無線LANによって行われる。
 記憶部8は、コンピュータプログラムやデータを格納する機能部である。記憶部8は、例えばDRAM(Dynamic Random Access Memory)、フラッシュメモリ、ハードディスクなどの記憶装置又はこれらの組み合わせによって実現される。
 制御部9は、記憶部8に記憶されるプログラムを読み込んで実行することにより本実施の形態で説明する表示装置1の各動作を実行するプロセッサであり、図示しないバスなどによって、図2に示す各部と接続される。
 制御部9が行う動作には、第2の検出部6によって検出された位置情報及び向きに対応する仮想画像を表示部2に表示させ、第1の検出部5によって検出された指示位置に応じて、この仮想画像の表示形態を変更するという動作が含まれる。この動作は、具体的には、制御部9がAR1モード、AR2モード、及び非ARモードという3つのモードの間で自身のモードを切り替えながら動作することによって、実現される。
 AR1モードは、透明な表示部2を通して見える現実世界の物体に仮想画像を重ねて表示することにより、拡張現実を実現するモードである。このモードにある制御部9は、表示部2の透過率を第1の値(0%より大きい値。例えば、透過率の最大値(好適には100%))としたうえで、第2の検出部6によって検出された位置情報及び向きに対応する仮想画像を形成して表示部2に出力するよう構成される。
 図3(a)は、AR1モードでの表示例を示す図である。同図には、現実の物体である富士山R1が表示部2の向こう側にある状態で、ユーザによって表示装置1が把持されている例を示している。この場合において制御部9がAR1モードにエントリしていると、仮想画像である人画像V2が表示されている領域以外では表示部2が透明となるので、ユーザには、表示部2を通してその向こう側にある富士山R1が見えることになる。その結果、富士山R1に人画像V2が重畳されているように見えるので、ユーザは拡張現実を体験することになる。
 AR2モードは、撮像部4の出力映像に仮想画像を重ねて表示することにより、拡張現実を実現するモードである。この場合の制御部9は、表示部2の透過率を第1の値よりも小さい第3の値(例えば、透過率の最小値(好適には0%))とするとともに、撮像部4に撮像を開始させる。そして、撮像部4からリアルタイム供給される映像を表示部2に逐次出力するとともに、第2の検出部6によって検出された位置情報及び向きに対応する仮想画像を形成して表示部2に出力するよう構成される。撮像部4を通して表示される現実の物体は表示部2上に仮想画像と重ねて表示されることになるので、図3(a)に示すAR1モード同様の表示がなされ、ユーザは拡張現実を体験することになる。
 非ARモードは、表示部2に仮想画像のみを表示させるモードである。このモードにある制御部9は、表示部2の透過率を第1の値よりも小さい第2の値(例えば、透過率の最小値(好適には0%))としたうえで、第2の検出部6によって検出された位置情報及び向きに対応する仮想画像を形成して表示部2に出力するよう構成される。
 図3(b)は、非ARモードでの表示例を示す図である。同図には、図3(a)の状態において、制御部9を非ARモードに切り替えた場合の例を示している。制御部9が非ARモードにエントリすると表示部2が不透明になるので、ユーザは、表示部2の向こう側にある富士山R1を、少なくとも表示部2上では見ることができなくなる。その結果、ユーザの目には、仮想画像である人画像V2が映る状態となる。
 制御部9が行う動作には、その他にも、第1の検出部5によって検出された一連の指示位置に基づいてストロークデータを生成し、記憶部8に格納するとともに表示部2に表示させる処理などが含まれる。
 以下、制御部9による仮想画像の表示形態の変更について、表示装置1を天体観測に利用する例を参照しながら、具体的に説明する。
 図4は、AR1モード、AR2モード、及び非ARモードの切り替えの例を示す図である。図4(a)は、表示部2上に星座早見盤が表示されている状態(非ARモード)を示し、図4(b)は、表示部2を通して実際の星空にある天体が視認可能となっている状態(AR1モード)を示し、図4(c)は、撮像部4で撮影された天体の画像が表示部2に表示されている状態(AR2モード)を示している。
 まず図4(a)に着目すると、制御部9は、天文観測で広く利用されている星座早見盤(仮想画像)を表示部2上に表示する機能を有する。星座早見盤を表示する場合の制御部9のモードは非ARモードであり、表示部2上には仮想画像が表示される。
 ここで星座早見盤の構成について簡単に説明しておくと、星座早見盤は、星座図の上に、マスクが配置された構成を有している。マスクには、実際の星空にて地平線より上にある天体を表示するための楕円形の開口部が設けられる。
 図4(a)の例において表示部2に表示される星座早見盤の構成は、基本的には上述した星座早見盤と同様であり、開口部に相当する天体表示領域VAと、マスク(開口部以外の部分)に相当するマスク領域VMとを含む。
 星座早見盤を表示する場合の制御部9は、まず非ARモードにエントリする。そして、図示しない内蔵カレンダー及び内蔵時計から現在日時を取得するとともに、第2の検出部6によって検出された位置情報から現在の緯度及び経度を取得し、取得した現在日時並びに取得した現在の緯度及び経度に対応する全天画像を、赤経及び赤緯などの付加情報とともに天体表示領域VA内に表示する。これによりユーザは、天体表示領域VA内において、現在位置及び現在日時における全天の星空を確認することが可能になる。マスク領域VM内には緯度経度表示部V4及び日時表示部V5が設けられており、制御部9は、取得した現在日時を日時表示部V5に表示するとともに、取得した現在の緯度及び経度を緯度経度表示部V4に表示する。
 また、制御部9は、第2の検出部6によって検出された向きを示すマークV6を天体表示領域VA内に表示するように構成される。マークV6は例えば二重円の画像であり、制御部9は、二重円の中心が第2の検出部6によって検出された向きに一致するようマークV6の表示位置を調整する。マークV6の表示により、ユーザは、自身が星空のどの辺りを向いているかを大局的に把握することが可能になる。
 図4(a)に示した星座早見盤を用いると、ユーザは、実際の星空において簡単に星座を見つけられるようになる。一例を挙げると、例えばオリオン座を観察したいユーザは、天体表示領域VA内でマークV6がオリオン座画像V7に近づくように、表示装置1の向きを変える(矢印Aでこの動きを表示)。こうして向きを変えた後の表示装置1は実際の星空におけるオリオン座の方向を向いているので、表示装置1をどければ、ユーザの眼前に実際のオリオン座が現れることになる。
 表示部2に星座早見盤が表示されている状態で天体表示領域VA内の任意の位置をユーザがタッチすると、制御部9は、このタッチに応じて自身のモードを変更することにより、表示部2の表示状態を変更する。制御部9によるこのモード変更には、ユーザのタッチ操作の内容に応じて、AR1モードに切り替える場合と、AR2モードに切り替える場合とがある。以下、それぞれについて説明する。
 まず、タッチ操作の内容が例えばいわゆるシングルタップ操作であった場合の制御部9は、AR1モードにエントリし、表示部2に加える電圧を制御することによって表示部2の透過率を第1の値に設定する。また、表示部2から星座早見盤を消去し、その代わりに、天体表示領域VA内においてマークV6近傍に表示していた星の情報(星座の形や天体の名称等)を仮想画像とし、表示部2に表示する。これによりユーザは、実際の星空上で、例えば星座の形を確認することが可能になる。
 図4(b)には、図4(a)の天体表示領域VA内の任意の位置をユーザがタッチした時点で、天体表示領域VA内においてマークV6がオリオン座画像V7の近傍に位置していた場合(すなわち、表示装置1がオリオン座の方向を向いていた場合)を示している。この場合のユーザは、透明になった表示部2を通して、現実のオリオン座を見ることになる。また、制御部9は、図4(b)に示すように、オリオン座を中心とする所定範囲内の星座を示す星座画像V8を表示部2に表示する。これにより、星座画像V8を実際の星空に重ねて表示した状態が表示部2上に作り出されることになる。なお、こうして表示する仮想画像としては、図4(b)に示した星座画像V8の他にも、星、星団、星雲、惑星、彗星等の名前(メシエ、NGC等も含む)、人工衛星、赤道(赤経、赤緯等も含む)、黄道等を示す仮想画像が使用され得る。
 次に、タッチ操作の内容が例えばいわゆるダブルタップ操作であった場合の制御部9は、AR2モードにエントリし、表示部2に加える電圧を制御することによって表示部2の透過率を第3の値に設定する。また、表示部2から星座早見盤を消去するとともに撮像部4を起動し、撮像部4からリアルタイム供給される映像を逐次、表示部2に出力する。これにより、撮像部4の出力映像が表示部2に表示される。このとき同時に表示部2に、AR1モードの場合と同様の仮想画像を表示することとしてもよい。これによりユーザは、AR1モードの場合と同様、実際の星空上で、例えば星座の形を確認することが可能になる。
 図4(c)には、天体表示領域VA内においてオリオン大星雲(オリオン座画像V7の中央付近にある星雲)がタッチされた場合を示している。制御部9は、撮像部4の出力映像を表示部2に表示する。こうすることでユーザは、肉眼では確認が難しい(すなわち、図4(b)の表示状態では確認が難しい)天体をも表示部2上で確認することが可能となる。
 制御部9はまた、図4(b)の表示を行う場合、及び、図4(c)の表示を行う場合のいずれにおいても、仮想画像のひとつとして、星座早見盤に戻ることを示す戻るボタンV9を表示するよう構成される。ユーザがこの戻るボタンV9をタッチした場合、制御部9は自身のモードを非ARモードに戻し、図4(a)に示した星座早見盤を再度表示部2に表示する。これによりユーザは、星座早見盤を再び確認することが可能になる。
 さらに、制御部9は、図4(b)の表示を行っている最中にユーザが戻るボタンV9以外の部分をタッチした場合、自身のモードをAR2モードとし、図4(c)の表示を行う。この場合において、表示部2の全体に表示する領域は、ユーザのタッチ位置に対応する領域とすることが好ましい。これによりユーザは、タッチ位置にある天体の映像を確認することが可能になる。また、制御部9は、図4(c)の表示を行っている最中にユーザが戻るボタンV9以外の部分をタッチした場合、自身のモードをAR1モードとし、図4(b)の表示を行う。これによりユーザは、より広い範囲で天体を確認することが可能になる。
 なお、制御部9は、タッチ以外の契機により、表示部2の表示状態を変更することとしてもよい。例えば、星座早見盤の表示中にマークV6が所定の星座(例えば、オリオン座画像V7)に近づいたことに応じて、図4(b)に示す表示に切り替えることとしてもよい。また、図4(b)に例示する画像を表示中に表示部2の向きが表示中の星座(例えば、オリオン座画像V7)から離れたことに応じて、星座早見盤の表示に切り替えることとしてもよい。
 次に、制御部9の処理フローを参照しながら、制御部9の動作について、さらに詳しく説明する。この説明においても、表示装置1を天体観測用に利用する場合(図4参照)を例にとって説明することとする。
 図5~図8は、制御部9の動作を示す処理フロー図である。図5に示すように、制御部9は、初めに非ARモードで動作を開始する(ステップS1)。
 図6には、非ARモードにおける制御部9の動作を示している。同図に示すように、非ARモードにある制御部9は、まず表示部2の透過率を第2の値に設定する(ステップS10)。なお、ステップS10を破線で描いているのは、表示部の透過率が既に第2の値になっている場合、ステップS10を行う必要がないからである。
 次いで制御部9は、図4(a)に示した星座早見盤を表示部2に表示した後(ステップS11)、図示しない内蔵時計から現在日時を取得し、図4(a)に示した日時表示部V5に表示する(ステップS12)とともに、第2の検出部6から表示装置1の位置情報を取得し、図4(a)に示した緯度経度表示部V4に表示する(ステップS13)。さらに制御部9は、取得した現在時刻及び位置情報に対応する全天画像(仮想画像)を取得し、図4(a)に示した天体表示領域VA内に表示する(ステップS14)。制御部9はまた、第2の検出部6から表示装置1の向きを取得し、取得した向きと対応する天体表示領域VA内の位置に、図4(a)に示したマークV6を表示する(ステップS15)。
 図5に戻る。ステップS1を実行した制御部9は、第1の検出部5の出力データを参照することにより、天体表示領域VA内がタッチされたか否かを判定する(ステップS2)。ここでタッチされていないと判定した場合には、ステップS1の動作を繰り返す。一方、タッチされたと判定した場合には、第1の検出部5の出力データをさらに参照することにより、タッチ操作の内容を判定する(ステップS3)。そして、タッチ操作の内容が第1の操作(例えばシングルタップ)であると判定した場合、制御部9は、AR1モードでの動作を開始する(ステップS4)。一方、タッチ操作の内容が第2の操作(例えばダブルタップ)であると判定した場合、制御部9は、AR2モードでの動作を開始する(ステップS7)。
 図7には、AR1モード(ステップS4)における制御部9の動作を示している。同図に示すように、AR1モードにエントリした制御部9は、まず表示部2の透過率を第1の値に設定する(ステップS20)。この時点で、非ARモードで表示していた星座早見盤は消去される。なお、ステップS20を破線で描いているのは、表示部2の透過率が既に第1の値になっている場合、ステップS20を行う必要がないからである。
 次に制御部9は、非ARモードの場合と同様にして現在日時、位置情報、及び向きを取得し(ステップS21)、取得した現在日時、位置情報、及び向きに対応する仮想画像を表示部2に表示する(ステップS22)。
 図8には、AR2モード(ステップS7)における制御部9の動作を示している。同図に示すように、AR1モードにエントリした制御部9は、まず表示部2の透過率を第3の値に設定する(ステップS30)。なお、ステップS30を破線で描いているのは、表示部2の透過率が既に第3の値になっている場合、ステップS30を行う必要がないからである。
 次に制御部9は、タッチされた位置に基づき、撮像部4の出力映像を表示部2に表示させる(ステップS31)。この時点で、非ARモードで表示していた星座早見盤は消去される。
 次に制御部9は、非ARモードの場合と同様にして現在日時、位置情報、及び向きを取得し(ステップS32)、取得した現在日時、位置情報、及び向きから、表示部2上に映っている現実世界の位置範囲を推定する(ステップS33)。そして、推定した位置範囲に対応する仮想画像を表示部2に表示する(ステップS34)。こうすることで、実際に表示部2上に映っている天体に対応する仮想画像を表示することが可能になる。
 図5に戻る。ステップS4を実行した制御部9は、第1の検出部5の出力データを参照することにより、表示部2がユーザによってタッチされたか否かを判定する(ステップS6)。ここでタッチされていないと判定した場合には、ステップS6の動作を繰り返す。一方、タッチされたと判定した場合には、第1の検出部5の出力データをさらに参照することにより、タッチされた領域を判定する(ステップS6)。そして、タッチされた領域が所定領域(例えば、図4(b)に示した戻るボタンV9)内であると判定した場合、制御部9は、非ARモードでの動作を開始する(ステップS1)。一方、タッチされた領域がその他の領域であると判定した場合、制御部9は、AR2モードでの動作を開始する(ステップS7)。
 また、ステップS7を実行した制御部9は、第1の検出部5の出力データを参照することにより、表示部2がユーザによってタッチされたか否かを判定する(ステップS8)。ここでタッチされていないと判定した場合には、ステップS7の動作を繰り返す。一方、タッチされたと判定した場合には、第1の検出部5の出力データをさらに参照することにより、タッチされた領域を判定する(ステップS9)。そして、タッチされた領域が所定領域(例えば、図4(c)に示した戻るボタンV9)内であると判定した場合、制御部9は、非ARモードでの動作を開始する(ステップS1)。一方、タッチされた領域がその他の領域であると判定した場合、制御部9は、AR1モードでの動作を開始する(ステップS6)。
 以上説明したように、本実施の形態による表示装置1によれば、ユーザのタッチ操作に応じて、拡張現実を表す表示部2上の仮想画像の表示形態を効果的に変更することが可能になる。
 なお、撮像部4を赤道儀に備え付け、この赤道儀のコントローラとして表示装置1を用いることも可能である。以下、図面を参照して詳しく説明する。
 図9は、表示装置1と、撮像部4としてのカメラ20が備え付けられた赤道儀21とを示す図である。カメラ20及び赤道儀21はそれぞれ、通信部7を介する無線通信により、制御部9と通信可能に構成される。カメラ20には望遠レンズが取り付けられていることが好ましく、そうすることは、図4(c)のような倍率で天体を観測したいときに便利である。また、カメラ20で撮像した天体の画像をリアルタイムで表示装置1に表示してもよいし、予め撮像し記憶しておいた画像を表示してもよいし、これから所定の露出時間で撮影を行い、その結果を表示することとしてもよい。
 ユーザはまず準備として、赤道儀の極軸合わせを行う。次いで、制御部9は表示装置1の表示部2に、図4(a)に示す星座早見盤を表示させる。そして、天体表示領域VA内の任意の位置をユーザがタッチすると、制御部9は、カメラ20がその位置に対応する天体(以下、「追尾対象天体」と称する)の方向を常に向くこととなるよう赤道儀21の自動追尾機能を設定するとともに、自身のモードをAR2モードとする。このAR2モードで表示部2に表示されるのは、カメラ20で撮影された映像である。これにより、時間が経過しても表示部2内に追尾対象天体が導入された状態を維持することができるので、ユーザは、表示部2において常に、追尾対象天体と、該追尾対象天体に重畳された仮想画像とを確認することが可能になる。
 次に、本発明の第2の実施の形態について説明する。本実施の形態による表示装置1は、第1の実施の形態で説明した機能に加えて、他の表示装置1と連携することにより、他人のカメラで撮影された映像を表示部2上で見ることができるように構成される。
 図10は、本実施の形態に係る表示装置1の使用状態を示す図である。同図に示す表示装置1a,1bは、それぞれが本実施の形態による表示装置1である。表示装置1aは東京で星空を観察している場合を示し、表示装置1bは北京で星空を観察している場合を示す。同図の例による表示装置1a,1bは、それぞれ外部のカメラ20a,20bからの映像をAR2モードにて表示している(図4(c)参照)。また、マークVaは表示装置1aの向きを示し、マークVbは表示装置1の向きを示す。
 表示装置1a,1bは、ネットワーク30を介して互いに通信可能に構成される。この通信は、具体的には、図2に示した通信部7を用いて実行される。ここで、本実施の形態による表示装置1には予め個々を特定する識別番号が割り当てられており、この識別番号は記憶部8に予め格納されている。表示装置1bの制御部9は、表示装置1aとの通信を開始する際、初めに記憶部8に格納されている識別番号を送信する。表示装置1aの制御部9は、この識別番号による認証を行うことによって表示装置1bとの通信を開始できるか否かを判定し、開始できると判定した場合にのみ表示装置1bとの通信を開始する。
 表示装置1bとの通信を開始した後、表示装置1aの制御部9は、表示装置1aの表示部2に表示装置1aの向きを示すマークVaだけでなく、表示装置1bの向きを示すマークVbをも表示する。マークVaとマークVbとは、形状、色彩等の外観が相違する。同様に、表示装置1bの制御部9は、表示装置1bの表示部2に表示装置1bの向きを示すマークVbだけでなく、表示装置1aの向きを示すマークVaをも表示する。表示装置1aにおいて天体表示領域VA内のマークVbがタッチされると、表示装置1bの制御部9は、表示装置1aに対し、外部のカメラ20bから取得している映像の配信(例えば、ストリーミング配信)を行う。これにより、表示装置1aにおいて、表示装置1bで見られるカメラ20bの映像を表示することが可能になる。同様に、表示装置1bにおいて天体表示領域VA内のマークVaがタッチされると、表示装置1aの制御部9は、表示装置1bに対し、外部のカメラ20aから取得している映像の配信を行う。これにより、表示装置1bにおいて、表示装置1aで見られるカメラ20aの映像を表示することが可能になる。
 なお、本実施の形態において、配信側の表示装置1はカメラ20からの映像の取得と、他の表示装置1への配信とを行うことができれば足りるので、他の種類の装置であっても構わない。例えば、表示装置1に代え、カメラ20で撮影された映像を世界中の表示装置1に対してストリーミング配信する配信サーバを設けることとしてもよい。この例は、例えばハッブル望遠鏡や各地の天文台に設置された天体望遠鏡など、多数のユーザがその映像を見てみたいと願う大型望遠鏡に付属のカメラで撮影された映像を配信する場合などに特に有効である。
 次に、本発明の第3の実施の形態について説明する。本実施の形態による表示装置1は、第1の実施の形態で説明した機能に加え、外部の光源からの光を利用して仮想画像をスクリーン等に拡大表示する機能(以下、「プラネタリウム機能」と称する)を有する。
 図11は、本実施の形態に係る表示装置1の使用状態を示す図である。本実施の形態による制御部9は、プラネタリウム機能を実行する場合、AR1モードにエントリするとともに、投影対象となる仮想天体画像V10を表示部2に表示する。この仮想天体画像V10は星空を示す画像であり、より具体的には、天体の存在するところが不透明とされ、他の部分は透明であるネガ画像となる。
 制御部9が上記のようにして仮想天体画像V10を表示部2に表示している状態で外部の光源31からの光を表示装置1の一方表面に照射すると、表示装置1を挟んで光源31の反対側にあるスクリーン32上に仮想天体画像V10が投影される。これにより、ユーザは、スクリーン上に拡大表示された仮想天体画像V10を楽しむことが可能になる。なお、スクリーン32として具体的には、例えば部屋の壁を利用することが好適である。
 次に、本発明の第4の実施の形態について説明する。本実施の形態による表示装置1は、第1の実施の形態で説明した機能に加え、トレーシングペーパーのように利用可能に構成される。
 図12は、本実施の形態に係る表示装置1の使用状態を示す図である。表示装置1をトレーシングペーパーのように用いる場合、図12(a)に示すように、制御部9は自身のモードをAR1モードとし、表示部2の透過率を第1の値に設定するとともに、表示部2上に切り替えボタンV11(第1の画像)を表示する。
 表示部2の透過率が第1の値となっていることから、表示部2内には、表示装置1の向こう側にある現実世界の物体(図13では富士山)が導入されている。ユーザは、この現実世界の物体をなぞるように電子ペン10による線画像V12の入力を行うことで、線画像V12が表示部2に表示され、現実世界の物体をトレースすることができる。
 ユーザが切り替えボタンV11をタッチした場合(第1の検出部5によって検出された指示位置が切り替えボタンV11上の位置である場合)、制御部9は自身のモードを非ARモードに変更し、表示部2の透過率を第2の値に設定する。これによりユーザは、図12(b)に示すように、ユーザは表示部2上で線画像V12を確認することが可能になる。
 なお、切り替えボタンV11に代えてスライダーを用いることとしてもよい。図13には、切り替えボタンV11に代えてスライダーV13(第2の画像)を表示部2上に表示した例を示している。制御部9は、第1の検出部5によって検出された指示位置のスライダーV13上における位置に基づき、表示部2の透過率を制御するよう構成される。具体的な例を挙げると、制御部9は、スライダーV13が一方端にある場合に表示部2の透過率を第1の値とし、他方端にある場合に表示部2の透過率を第2の値又は第3の値とする。また、スライダーV13が中間にある場合には、表示部2の透過率を第1の値と第2の値又は第3の値との間の中間値に設定する。この例によれば、中間の透過率を設定することができるので、図13(b)に示すように、透過率を半分程度にして相対的に線画像V12を目立たせることが可能になる。
 次に、本発明の第5の実施の形態について説明する。本実施の形態による表示装置1は、第4の実施の形態で説明した機能に加え、表示装置1内で3D画像を構成可能に構成される。
 図14は、本実施の形態に係る表示装置1の使用状態を示す図である。同図の例によるユーザは、第4の実施の形態で説明した機能を用いて、方向D1~D3の3方向から建造物33のトレースを行い、それぞれについて生成した仮想画像を記憶部8に記憶させる。このとき制御部9は、トレースしている最中に第2の検出部6で検出された表示装置1の向きと、ユーザによって生成された仮想画像とを対応付けて記憶する。そして制御部9は、すべての仮想画像の記憶が完了した後、記憶部8に記憶している複数の仮想画像を、それぞれに対応付けた表示装置1の向きに基づいて組み合わせることにより、3D画像を生成する。これによりユーザは、複数の方向から建造物33のトレースを行うという簡単な操作により、建造物33の3D画像を得ることが可能になる。
 次に、本発明の第6の実施の形態について説明する。本実施の形態による表示装置1は、第1の実施の形態で説明した機能に加え、ゲーム機能を有して構成される。このゲームは現実世界の中において仮想画像で構成されたモンスターを見つけるというものである。
 図15は、本実施の形態に係る表示装置1の使用状態を示す図である。本実施の形態による制御部9は、図15(a)に示す初期状態ではAR1モードであり、表示装置1の向こう側の現実世界の風景が表示部2を通してユーザの目に入り込んでいる。本実施の形態による制御部9は、この状態で表示部2上に仮想画像であるモンスター画像V14を表示するよう構成される。この表示のため、本実施の形態による記憶部8は、予め複数のモンスター画像をそれぞれ位置情報と対応付けて記憶している。
 図16は、本実施の形態に係る表示装置1の制御部9の動作を示す処理フロー図である。以下、このフロー図に沿って、本実施の形態による制御部9の動作を説明する。
 制御部9は、まず初めにAR1モードにエントリし(ステップS40)、表示部2の透過率を第1の値とする。そして、第2の検出部6により検出される位置情報及び向きから表示部2内に入っている現実世界の位置範囲を推定し(ステップS41)、その推定した位置範囲に含まれる位置について記憶部8がモンスター画像を記憶している場合に、そのモンスター画像を、図15(a)に示すように現実世界の風景と重ねて表示部2に表示する(ステップS42)。
 ステップS42において制御部9は、モンスター画像ごとに、対応して記憶部8に記憶される位置情報と表示装置1の現在位置との間の距離に基づき、その拡大率を制御する。これにより、遠くにいるモンスターほど小さく見える、というユーザ体験を提供することが可能になる。ただし、このような拡大率の制御を実施すると、遠くの方にモンスターがいるようだがよく見えない、という事態が発生することになる。このような場合、拡大して見たいというのがユーザの心情である。ステップS43以降の動作は、この心情を満足させるために実行されるものである。
 制御部9は、表示中のモンスター画像がタッチされたか否かを判定する(ステップS43)。ここでタッチされていないと判定した場合には、ステップS41に戻って処理を継続する。一方、タッチされたと判定した場合の制御部9は、AR2モードにエントリする(ステップS44)とともに、タッチされたモンスター画像の位置に基づいて撮像部4の出力映像の切り取り範囲(位置、大きさ)を決定する(ステップS45)。切り取り範囲の位置は、切り取り範囲内にモンスター画像が含まれるように決定される。また、切り取り範囲の大きさは、モンスターとの距離(対応して記憶部8に記憶される位置情報と表示装置1の現在位置との間の距離)が遠いほど小さくすることが好ましいが、ユーザにより予め設定されることとしてもよい。
 また、制御部9は、ステップS45で決定された切り取り範囲の大きさに応じて、モンスター画像の拡大率を変更する(ステップS46)。例えば、切り取り範囲の大きさが撮像部4の出力映像の面積の1/4に相当する場合には、モンスター画像の拡大率を面積比で4倍に設定する。
 続いて制御部9は、ステップS45で決定された切り取り範囲に従って撮像部4の出力映像を切り取り、図15(b)に示すように、表示部2の全体に拡大表示する(ステップS47)。そして、第2の検出部6により検出される位置情報及び向きから、表示部2上に映っている現実世界の位置範囲を推定し(ステップS48)、タッチされたモンスター画像に対応する位置がその中に含まれるか否かを判定する(ステップS49)。ここで含まれないと判定した場合には、ステップS40のAR1モードでの処理に戻る。一方、含まれると判定した場合には、図15(b)に示すように、タッチされたモンスター画像をステップS46で決定した拡大率で表示する(ステップS50)。そして、ステップS47に戻り、AR2モードでの処理を継続する。
 ここで、ステップS49の判定を行うのは、ユーザが表示装置1を動かすことによって、モンスターが表示部2に表示される現実世界の範囲の外に出てしまう場合があるからである。ステップS49の判定結果が否定である場合にはAR1モードに戻るようにすることで、モンスター画像が表示部2内に映らなくなった場合に、制御部9を速やかにAR1モードに戻すことが可能になる。
 本実施の形態によれば、ユーザは、モンスター画像をタッチすることで、遠くにいるモンスターを拡大して確認することが可能になる。しかも、周囲の現実世界の映像も同時に拡大されるので、ユーザは、違和感なくモンスター画像の拡大画像を確認することが可能になる。
 図17は、本実施の形態の変形例に係る表示装置1の使用状態を示す図である。本変形例による表示装置1は、撮像部4の出力映像を拡大ではなく縮小して表示する点で、本実施の形態による表示装置1と異なる。
 図17(a)に示す初期状態で制御部9はAR1モードであるのは、図15(a)と同様である。ただし、本変形例による表示装置1の制御部9は、表示部2上に切り替えボタンV15を表示する。この切り替えボタンV15をユーザがタッチした場合、制御部9は、自身のモードをAR2モードに切り替え、撮像部4の倍率を1より小さい所定値に設定したうえで、表示部2の表示をカメラである撮像部4の出力映像(の全体)に切り替える。また、モンスター画像についても、撮像部4の倍率に等しい拡大率(縮小率)で表示部2に表示する。こうすることで、表示部2上には、図17(b)に示すように、より広い範囲の映像がモンスター画像とともに映し出されることになる。
 ユーザは元々モンスターのいる位置(モンスター画像の位置として記憶部8に記憶されている位置情報)を知らないのであるから、図17(a)に示すように、表示部2内にうまくモンスター画像を捉えられない場合がある。そのような場合であっても、切り替えボタンV15を押すことでより広い範囲を確認することが可能になるので、ユーザは、より手軽にモンスターの探索を行えるようになる。
 次に、本発明の第7の実施の形態について説明する。本実施の形態による表示装置1は、第1の実施の形態で説明した機能に加え、医用画像の表示機能を有して構成される。具体的には、AR1モードでX線画像等の透視画像を表示し、非ARモードでCT、MRI等のボリュームデータから生成された任意断面の断面画像を表示するよう構成される。
 図18は、本実施の形態に係る表示装置1の使用状態を示す図である。本実施の形態による記憶部8は、上述した透視画像とボリュームデータとを患者情報(ID)に基づいて関連付けて記憶する。
 図19は、本実施の形態に係る表示装置1の制御部9の動作を示す処理フロー図である。以下、このフロー図に沿って、本実施の形態による制御部9の動作を説明する。
 制御部9は、まず初めに初期位置を決めるために、例えばユーザの頭の上に表示装置1の表示部2を上にした状態で乗せるようにユーザに指示する(例えば、表示部2上にこの指示情報を表示する)。初期位置の設定が終わったら、その位置からの移動を第2の検出部6の各種センサで検知する。制御部9は、AR1モードにエントリし(ステップS60)、表示部2の透過率を第1の値とする。そして、図18(a)に示すように、第2の検出部6で検出された情報から、正面から見た患者の位置に対応する透視画像V16を表示部2に表示する(ステップS61)。このとき制御部9は、切り替えボタンV17も表示部2に表示する。透視画像V16を表示するにあたり、制御部9は、人体の外側に相当する部分を透明に加工する。その結果、透視画像V16の周囲には、図18(a)に示すように、表示装置1の向こう側が透けて見える領域A1が設けられる。
 ここで、図18(a)では、腹部の透視画像である透視画像V16を表示中の表示装置1を、患者の腹部の前に掲げている。こうすることで、表示装置1のユーザは、あたかも患者の腹部内が透けて見えているかのような感覚で、透視画像を取り扱うことが可能になる。
 ステップS61で透視画像V16を表示した制御部9は、ユーザによって切り替えボタンV17がタッチされたか否かを判定する(ステップS62)。タッチされていないと判定した場合には、透視画像V16の表示を継続する。一方、タッチされたと判定した場合、制御部9は、まず第2の検出部6から現在の表示装置1の向きを示すベクトルを取得し、記憶部8に記憶する(ステップS63)。そして、非ARモードにエントリし(ステップS64)、表示部2の透過率を最小値とする。そして、ステップS61で表示した透視画像V16と同じ角度に対応付けて記憶部8に記憶される断面画像を表示部2に表示する(ステップS65)。図18の例では、透視画像V16が正面から撮影したものとなっているので、ステップS65では図18(b)に示すコロナル画像V20が表示されることになる。これにより、ユーザにとって自然な画像の切り替えを実現することができる。
 次に制御部9は、第2の検出部6から現在の表示装置1の向きを示すベクトルを再度取得し、ステップS63で記憶したベクトルとなす角度(回転行列)を算出する(ステップS66)。そして、算出した角度に対応する断面画像により、表示部2の表示を更新する(ステップS67)。例えば、算出した角度が90°上向きの回転を示していたならば、図18(c)に示すアキシャル画像V21により表示部2の表示を更新し、算出した角度が90°右向きの回転を示していたならば、図18(d)に示すサジタル画像V22により表示部2の表示を更新する。
 ステップS67の後、制御部9は、ユーザによって切り替えボタンV17がタッチされたか否かを再度判定する(ステップS68)。タッチされていないと判定した場合にはステップS66に戻り、非ARモードでの断面画像表示処理を継続する。一方、タッチされたと判定した場合の制御部9は、ステップS60に戻り、AR1モードでの透視画像表示処理に移行する。なお、同図には示していないが、この後のステップS61では、最後に算出した角度に対応する透視画像を表示することとしてもよい。
 以上説明したように、本実施の形態によれば、AR1モードで透視画像を表示し、非ARモードで断面画像を表示することが可能になる。しかも、AR1モードから非ARモードへの切り替えの際には、表示されている透視画像の撮影平面と同じ平面で撮影された断面画像を表示することができるので、ユーザにとって自然な画像の切り替えを実現することが可能になる。また、非ARモードで断面画像を表示している間には、表示装置1の傾きに応じて断面画像をボリュームデータから生成することができるので、断面画像間の切り替えについても、ユーザにとって自然な切り替えを実現することが可能になる。
 なお、本実施の形態において透視画像や断面画像を表示している際にユーザが電子ペン10で表示部2に入力を行った場合、その結果として得られるストロークデータを表示中の画像と対応付けて記憶部8に記憶することとしてもよい。こうすることで、書き込み内容を後に再度確認することが可能になる。
 次に、本発明の第8の実施の形態について説明する。本実施の形態による表示装置1は、第1の実施の形態で説明した機能に加え、試験問題に正解などの付加情報を追加表示する機能を有して構成される。
 図20は、本実施の形態に係る表示装置1の使用状態を示す図である。本実施の形態による制御部9は、付加情報追加表示機能を起動する場合、例えばID/パスワードによるユーザ認証を行う。これにより、ID/パスワードを知っている者(例えば試験官)のみが付加情報追加表示機能を起動できるようになる。
 また、本実施の形態による記憶部8は、付加情報追加表示機能の対象となる試験問題用紙の構成(1以上の回答欄それぞれの位置を含む)と、各回答欄の正解とを予め記憶している。図20(a)に示した試験問題用紙34はその一例であり、1以上の回答欄34aを有している。
 付加情報追加表示機能を起動した制御部9は、AR1モード又はAR2モードにエントリした後、撮像部4による撮像を開始する。そして、撮像部4から出力される映像の中に記憶部8によって記憶されている試験問題用紙が現れるまで撮像を続け、記憶部8によって記憶されている試験問題用紙が現れた場合に、映像の中の試験問題用紙の位置に基づいて、その中に含まれる1以上の回答欄それぞれの位置を決定する。この位置決定は、表示装置1の位置が通常一箇所に定まらないことから、所定周期で継続的に実行される。
 制御部9は、各回答欄の位置決定がなされる都度、決定した位置が表示部2内に含まれるか否かを判定し、表示部2内に含まれると判定した回答欄について、表示部2内の対応する位置にその正解を表示する。ここで表示対象となる正解は、各回答欄と対応付けて記憶部8に記憶されるものである。これによりユーザは、各解答欄の正解を表示部2上で確認することが可能になる。
 なお、本実施の形態の対象となる用紙は試験問題に限られるものではなく、教科書、参考書、問題集などについても、表示装置1は上記同様、それぞれに設けられる回答欄に正解を表示できる。
 また、回答欄に対応する表示部2内の領域をユーザがタッチした場合、制御部9は、その回答欄に関するさらなる付加情報(例えば、解説など)を表示することとしてもよい。この場合、この付加情報は、各回答欄と対応付けて記憶部8に予め記憶される。付加情報を表示する際には、制御部9は、非ARモードにエントリし、表示部2の全体を利用して付加情報を表示することとしてもよい。また、付加情報を表示するときに同時に切り替えボタンを表示し、その切り替えボタンをユーザがタッチした場合に、回答欄に正解を表示する状態に戻ることとしてもよい。
 以上、本発明の好ましい実施の形態について説明したが、本発明はこうした実施の形態に何等限定されるものではなく、本発明が、その要旨を逸脱しない範囲において、種々なる態様で実施され得ることは勿論である。
 例えば、上記各実施の形態では、表示装置1が非ARモード、AR1モード、AR2モードの3つに対応するものであることを前提として説明したが、本発明の少なくとも一部は、AR1モード及びAR2モードの一方のみに対応する表示装置1によっても実現可能である。例えば図4の例で言えば、表示装置1が仮にAR2モードに対応していないとしても、図4(a)の非ARモードと図4(b)のAR1モードとの間で仮想画像の表示形態を変更することが可能である。また、表示装置1が仮にAR1モードに対応していないとしても、図4(a)の非ARモードと図4(c)のAR2モードとの間で仮想画像の表示形態を変更することが可能である。
 また、上記各実施の形態では、表示装置1の形状が円形であるとしたが、表示装置1の形状を四角形などの他の形状としてもよいことは勿論である。
1,1a,1b     表示装置
2           表示部
3           筐体
4           撮像部
5           第1の検出部
6           第2の検出部
7           通信部
8           記憶部
9           制御部
10          電子ペン
20          カメラ
21          赤道儀
30          ネットワーク
31          光源
32          スクリーン
33          建造物
34          試験問題用紙
34a         回答欄
V2          人画像
V4          緯度経度表示部
V5          日時表示部
V6          マーク
V7          オリオン座画像
V8          星座画像
V9          戻るボタン
V10         仮想天体画像
V11,V15,V17 切り替えボタン
V12         線画像
V13         スライダー
V14         モンスター画像
V16         透視画像
V20         コロナル画像
V21         アキシャル画像
V22         サジタル画像
V23         オブリーク画像
VA          天体表示領域
VM          マスク領域

Claims (14)

  1.  透明性の表示部と、
     前記表示部上における指示体の指示位置を検出する第1の検出部と、
     前記表示部の位置情報及び向きを検出する第2の検出部と、
     前記位置情報及び前記向きに対応する仮想画像を前記表示部に表示させ、前記指示位置に応じて前記仮想画像の表示形態を変更する制御部と、
     を備えることを特徴とする表示装置。
  2.  前記制御部は、前記表示部の透過率を変更することを特徴とする請求項1に記載の表示装置。
  3.  前記表示部は、透過率を変更可能に構成され、
     前記制御部は、前記表示部の透過率を第1の値とするAR1モードと、前記表示部の透過率を前記第1の値より小さい第2の値とすることにより、前記仮想画像を前記表示部に表示させる非ARモードと、を少なくとも含む複数のモードのいずれかで動作可能に構成され、
     前記制御部はさらに、前記AR1モードで動作中に第1の画像を前記表示部に表示させ、前記指示位置が前記第1の画像上の位置である場合に、自身のモードを前記非ARモードに切り替えることによって前記仮想画像の表示形態を変更するよう構成される
     ことを特徴とする請求項1又は2に記載の表示装置。
  4.  前記複数のモードは、前記表示部の透過率を前記第1の値より小さい第3の値とし、かつ、撮像部の出力映像に前記仮想画像を重ねて前記表示部に表示させることにより、前記仮想画像を前記表示部に表示させるAR2モードを含む
     ことを特徴とする請求項3に記載の表示装置。
  5.  前記表示部は、透過率を変更可能に構成され、
     前記制御部はさらに、第2の画像を前記表示部に表示させ、前記指示位置の前記第2の画像上における位置に基づいて前記表示部の透過率を制御するよう構成される
     ことを特徴とする請求項1に記載の表示装置。
  6.  前記制御部は、前記指示位置に基づいてストロークデータを生成し、前記表示部に表示させることを特徴とする請求項1乃至5のいずれか一項に記載の表示装置。
  7.  前記制御部は、前記仮想画像の拡大率を変更することを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。
  8.  透明性の表示部を有する表示装置の制御方法であって、
     前記表示部上における指示体の指示位置を検出する第1の検出工程と、
     前記表示部の位置情報及び向きを検出する第2の検出工程と、
     前記位置情報及び前記向きに対応する仮想画像を前記表示部に表示させる表示工程と、
     前記指示位置に応じて前記仮想画像の表示形態を変更する制御工程と、
     を含むことを特徴とする表示装置の制御方法。
  9.  前記制御工程は、前記表示部の透過率を変更することを特徴とする請求項8に記載の表示装置の制御方法。
  10.  前記表示部は、透過率を変更可能に構成され、
     前記表示装置は、前記表示部の透過率を第1の値とするAR1モードと、前記表示部の透過率を前記第1の値より小さい第2の値とすることにより、前記仮想画像を前記表示部に表示させる非ARモードと、を少なくとも含む複数のモードのいずれかで動作可能に構成され、
     前記表示工程はさらに、前記AR1モードで前記表示装置が動作中に第1の画像を前記表示部に表示し、
     前記制御工程はさらに、前記指示位置が前記第1の画像上の位置である場合に、前記表示装置のモードを前記非ARモードに切り替えることによって前記仮想画像の表示形態を変更する
     ことを特徴とする請求項8又は9に記載の表示装置の制御方法。
  11.  前記複数のモードは、前記表示部の透過率を前記第1の値より小さい第3の値とし、かつ、撮像部の出力映像に前記仮想画像を重ねて表示することにより、前記仮想画像を前記表示部に表示させるAR2モードを含む
     ことを特徴とする請求項10に記載の表示装置の制御方法。
  12.  前記表示部は、透過率を変更可能に構成され、
     前記表示工程はさらに、第2の画像を前記表示部に表示させ、
     前記制御工程は、前記指示位置の前記第2の画像上における位置に基づいて前記表示部の透過率を制御する
     ことを特徴とする請求項8に記載の表示装置の制御方法。
  13.  前記制御工程は、前記指示位置に基づいてストロークデータを生成し、前記表示部に表示させることを特徴とする請求項8乃至12のいずれか一項に記載の表示装置の制御方法。
  14.  前記制御工程は、前記仮想画像の拡大率を変更することを特徴とする請求項8乃至13のいずれか一項に記載の表示装置の制御方法。
PCT/JP2017/037315 2017-01-31 2017-10-16 表示装置及びその制御方法 WO2018142679A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780075508.XA CN110199324B (zh) 2017-01-31 2017-10-16 显示装置及其控制方法
US16/438,563 US11183141B2 (en) 2017-01-31 2019-06-12 Display device and method for controlling same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017014995 2017-01-31
JP2017-014995 2017-01-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/438,563 Continuation US11183141B2 (en) 2017-01-31 2019-06-12 Display device and method for controlling same

Publications (1)

Publication Number Publication Date
WO2018142679A1 true WO2018142679A1 (ja) 2018-08-09

Family

ID=63039494

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/037315 WO2018142679A1 (ja) 2017-01-31 2017-10-16 表示装置及びその制御方法

Country Status (4)

Country Link
US (1) US11183141B2 (ja)
CN (1) CN110199324B (ja)
TW (1) TWI753960B (ja)
WO (1) WO2018142679A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11471151B2 (en) * 2018-07-16 2022-10-18 Cilag Gmbh International Safety logic for surgical suturing systems
US20200211295A1 (en) * 2018-11-09 2020-07-02 Edx Technologies, Inc. Methods and devices for transitioning among realities mediated by augmented and/or virtual reality devices
CN110047115B (zh) * 2019-03-26 2021-11-16 珠海格力电器股份有限公司 星辰图像拍摄方法、装置、计算机设备和存储介质
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190640A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd 情報表示方法および情報提供システム
WO2006013639A1 (ja) * 2004-08-04 2006-02-09 Hitachi, Ltd. 画像処理装置
JP2014203131A (ja) * 2013-04-01 2014-10-27 キヤノン株式会社 入力装置、入力処理方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006308674A (ja) * 2005-04-26 2006-11-09 Mitsubishi Electric Corp 画像表示装置
JP5649842B2 (ja) 2010-03-30 2015-01-07 新日鉄住金ソリューションズ株式会社 情報提供装置、情報提供方法、及びプログラム
MY173983A (en) * 2010-03-30 2020-03-02 Ns Solutions Corp Information providing apparatus, information providing method and program
US8941683B2 (en) 2010-11-01 2015-01-27 Microsoft Corporation Transparent display interaction
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
JP5783629B2 (ja) * 2011-07-08 2015-09-24 株式会社ドワンゴ 映像表示システム、映像表示方法、映像表示制御プログラム、動作情報送信プログラム
TW201333753A (zh) * 2012-02-15 2013-08-16 Top Victory Invest Ltd 具有實景導覽功能之透明顯示器
US11068049B2 (en) * 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9595137B2 (en) 2012-04-26 2017-03-14 Intel Corporation Augmented reality computing device, apparatus and system
JP5284524B1 (ja) * 2012-09-07 2013-09-11 株式会社東芝 電子機器および手書き文書処理方法
RU2015145510A (ru) * 2013-03-26 2017-05-03 Сейко Эпсон Корпорейшн Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения
EP3044950A4 (en) * 2013-09-12 2017-05-17 Intel Corporation Techniques for providing an augmented reality view
JP5900468B2 (ja) * 2013-11-21 2016-04-06 コニカミノルタ株式会社 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
US9746739B2 (en) * 2014-06-05 2017-08-29 Microsoft Technology Licensing, Llc See-through dimming panel

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190640A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd 情報表示方法および情報提供システム
WO2006013639A1 (ja) * 2004-08-04 2006-02-09 Hitachi, Ltd. 画像処理装置
JP2014203131A (ja) * 2013-04-01 2014-10-27 キヤノン株式会社 入力装置、入力処理方法及びプログラム

Also Published As

Publication number Publication date
CN110199324A (zh) 2019-09-03
TW201830205A (zh) 2018-08-16
US11183141B2 (en) 2021-11-23
TWI753960B (zh) 2022-02-01
CN110199324B (zh) 2023-12-29
US20190295495A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
WO2018142679A1 (ja) 表示装置及びその制御方法
Gruenefeld et al. Eyesee360: Designing a visualization technique for out-of-view objects in head-mounted augmented reality
USRE42336E1 (en) Intuitive control of portable data displays
US6445364B2 (en) Portable game display and method for controlling same
Suma et al. Leveraging change blindness for redirection in virtual environments
US11880956B2 (en) Image processing method and apparatus, and computer storage medium
EP3149698A1 (en) Method and system for image georegistration
US10062209B2 (en) Displaying an object in a panoramic image based upon a line-of-sight direction
CN110833694B (zh) 游戏中的显示控制方法及装置
CN101619974A (zh) 方位跟随显示设备、方位跟随显示方法和程序
CN108786110B (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
EP2466440A2 (en) Display control program, display control apparatus, display control system, and display control method
CN108830944B (zh) 光学透视式三维近眼显示系统及显示方法
CN108744511B (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN108351736A (zh) 可穿戴显示器、图像显示装置和图像显示系统
US11568579B2 (en) Augmented reality content generation with update suspension
WO2018139073A1 (ja) 表示制御装置、第2の表示装置、表示制御装置の制御方法、および制御プログラム
Carmo et al. PoI awareness, relevance and aggregation for augmented reality
Chuah et al. Experiences in using a smartphone as a virtual reality interaction device
US11972037B2 (en) Head mounted information processing apparatus and head mounted display system
JP5377071B2 (ja) 天体案内装置、天体案内方法及びプログラム
CN110197524A (zh) 立体显示方法、设备、装置和计算机可读存储介质
JP2014052607A (ja) 情報処理システム、端末装置、情報処理方法及びプログラム
JP6941715B2 (ja) 表示装置、表示プログラム、表示方法及び表示システム
CN114594855B (zh) 一种头显设备的多机交互方法、系统、终端设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17895133

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17895133

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP