WO2013111267A1 - ヘッドマウントディスプレイ及び表示方法 - Google Patents

ヘッドマウントディスプレイ及び表示方法 Download PDF

Info

Publication number
WO2013111267A1
WO2013111267A1 PCT/JP2012/051407 JP2012051407W WO2013111267A1 WO 2013111267 A1 WO2013111267 A1 WO 2013111267A1 JP 2012051407 W JP2012051407 W JP 2012051407W WO 2013111267 A1 WO2013111267 A1 WO 2013111267A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
mounted display
head
drawn
Prior art date
Application number
PCT/JP2012/051407
Other languages
English (en)
French (fr)
Inventor
泰憲 坪井
新飼 康広
猶原 真一
佐々木 智子
小林 孝史
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2012/051407 priority Critical patent/WO2013111267A1/ja
Publication of WO2013111267A1 publication Critical patent/WO2013111267A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a technique for displaying information.
  • Patent Document 1 displays a display representing a sense of distance from a virtual rider by displaying a left-eye image and a right-eye image having parallax according to the distance from the virtual runner. It describes what to do or change the sense of distance from the virtual runner by changing the focal position of the displayed image.
  • the main object of the present invention is to provide a head-mounted display and a display method capable of generating a sense of distance appropriately with respect to an image to be displayed with a simple process and apparatus configuration.
  • a head mounted display that allows a user to recognize an image superimposed on an observed scene includes a light source, a first image, and a second image indicating a distance in the depth direction of the scene. And a control means for irradiating the light to be recognized and drawn for comparison by the user from the light source, and a detection means for detecting the posture or motion of the user, wherein the control means is the detection means. Whether or not to display the second image is switched according to the posture or the motion detected by.
  • the display method performed by the head mounted display that has a light source and allows the user to recognize the first image and the second image superimposed on the observed scene is the first image and A control step of irradiating light from the light source for drawing the second image indicating the distance in the depth direction in the scene so that the user can compare and detect the posture or motion of the user A detection step, and the control step switches between displaying and not displaying the second image in accordance with the posture or the operation detected by the detection step.
  • the head mounted display that superimposes the observed scenery and allows the user to recognize the image includes a light source, a first image, and a distance in the depth direction of the first image in the scenery.
  • the schematic block diagram of the head mounted display which concerns on a present Example is shown.
  • the figure for demonstrating the reason for displaying the 2nd image which concerns on a present Example is shown.
  • the figure for demonstrating the 2nd image in a present Example concretely is shown.
  • the 2nd image which concerns on the modification 1 is shown.
  • the 2nd image which concerns on the modification 2 is shown.
  • a head mounted display that allows a user to recognize an image superimposed on an observed scene includes a light source, a first image, and a second image indicating a distance in the depth direction of the scene. And a control unit that irradiates the light to be recognized and drawn for comparison with the user from the light source, and a detection unit that detects the posture or motion of the user. Whether or not to display the second image is switched according to the detected posture or the motion.
  • the above head-mounted display has a light source and is preferably used for allowing a user to recognize an image (virtual image) superimposed on an observed scene.
  • the control unit irradiates light from the light source for rendering the first image and the second image indicating the distance in the depth direction in the scene so that the user can compare with each other.
  • the first image is an image indicating information about a predetermined object included in the scenery observed through the head-mounted display
  • the second image is an image expressing the depth (perspective) in the scenery. .
  • control means switches whether to display the second image according to the user's posture or action. That is, the control means hides the second image depending on the posture or operation of the user. Thereby, it becomes possible to appropriately suppress the second image from obstructing the field of view.
  • the control means displays the second image when the user is determined to perform a gaze operation based on the posture or the operation, and displays the second image or the posture or If it is determined from the operation that the user is not performing a gaze operation, the second image is not displayed.
  • control unit does not draw the second image when one first image is drawn, and two or more first images are drawn.
  • the second image is drawn in a region between the first images.
  • control unit causes the second image to be drawn only in a predetermined area including at least the first image, among the drawing areas by the light source, and the other areas. Does not draw the second image. Thereby, it becomes possible to appropriately suppress the second image from obstructing the field of view.
  • control means can determine that a gaze operation is being performed when it is detected that the user's head is stationary for a predetermined time or more.
  • the head-mounted display includes a photographing unit that captures a scene observed by the user, and the control unit includes a predetermined object in the scene captured by the photographing unit. Then, the second image is drawn. Thereby, the user can appropriately grasp the position of the predetermined object in the scenery.
  • the second image is drawn at predetermined distance intervals in the depth direction of the scenery in the scenery observed by the user. According to such a second image, a sense of distance (perspective) can be generated in the first image, and the position of the first image can be appropriately grasped by using the second image as a ruler. it can.
  • the second image is a grid line expressing a depth along a depth direction of a scene observed by the user.
  • the second image is drawn so that a part of the second image is recognized at a position corresponding to an object serving as a landmark in the scenery. Thereby, it is possible to appropriately grasp the position of the first image.
  • the second image is an image serving as a mark of the first image, and is an image expressing the depth of the scenery according to the size.
  • the second image is an image serving as a mark of the first image, and is an image expressing the depth of the landscape by a color density or a blurring condition.
  • the second image is an image serving as a mark of the first image, and is an image that is three-dimensionally represented according to the depth of the scenery.
  • the second image is drawn so as to be gradually recognized by the user.
  • the above head mounted display is used only for one eye. That is, the head mounted display displays an image only on one eye.
  • a display method performed by a head mounted display that has a light source and allows a user to recognize a first image and a second image superimposed on an observed scene, the first image, A control step of irradiating light from the light source for recognizing and drawing the second image indicating the distance in the depth direction in the scenery from the light source, and detection for detecting the posture or motion of the user And the control step switches whether to display the second image according to the posture or the motion detected by the detection step.
  • Control means for irradiating light from the light source so that the user can recognize and draw the two images shown in a comparable manner.
  • the said control means can display the 2nd image which shows the distance of said 1st images, when a plurality of said 1st images are displayed.
  • FIG. 1 is a schematic configuration diagram illustrating an example of a head mounted display 1 according to the present embodiment.
  • the head-mounted display is appropriately expressed as “HMD”.
  • the HMD 1 mainly includes a control unit 2, a light source unit 3, a half mirror 4, a camera 5, and a 6-axis sensor 6.
  • the HMD 1 is configured in, for example, a glasses type, and is configured to be wearable on the user's head.
  • the HMD 1 is configured to display an image only on one eye of the user, for example.
  • the control unit 2 has a CPU, RAM, ROM, and the like (not shown), and performs overall control of the HMD 1.
  • the control unit 2 mainly performs processing for generating an image to be presented to the user.
  • the control unit 2 is an example of the “detection unit” and “control unit” in the present invention.
  • the light source unit 3 emits light constituting the image generated by the control unit 2 toward the half mirror 4.
  • the light source unit 3 includes a laser light source, an LCD light source, and the like, and emits light from such a light source.
  • the half mirror 4 reflects the light from the light source unit 3 toward the user's eyeball. Thereby, the virtual image corresponding to the image formed by the HMD 1 is visually recognized by the user.
  • the half mirror 4 has substantially the same transmittance and reflectance, but instead of using such a half mirror 4, a mirror (so-called beam splitter) whose transmittance and reflectance are not equal may be used. .
  • the camera 5 captures a scene in front of the HMD 1 and generates a captured image.
  • the camera 5 supplies the generated captured image to the control unit 2.
  • the 6-axis sensor 6 includes a plurality of acceleration sensors and a plurality of angular velocity sensors. Specifically, the 6-axis sensor 6 is configured to detect X-axis, Y-axis, and Z-axis accelerations, and X-axis, Y-axis, and Z-axis angular velocities. The 6-axis sensor 6 supplies the detection value to the control unit 2. The detection value of the 6-axis sensor 6 indicates the posture and motion of the user's head. Instead of using such a 6-axis sensor 6, it is possible to detect the posture and motion of the user's head using an acceleration sensor or a gyro sensor.
  • control unit 2 in the HMD 1 performs control for allowing the user to recognize the image superimposed on the scenery observed through the half mirror 4. That is, control for AR display is performed. Specifically, the control unit 2 displays an image (hereinafter referred to as a “first image” as appropriate) indicating information on a predetermined object included in a scene observed through the half mirror 4. Control is performed so that the virtual image corresponding to is recognized at a position corresponding to the object in the scene. In one example, the control unit 2 analyzes an image captured by the camera 5 to identify an object whose information is to be displayed, generates information about the object, and generates a first image corresponding to the information. To do.
  • control unit 2 acquires information about an object from a navigation device (including a portable terminal device such as a smartphone) (not shown) and generates a first image corresponding to the information.
  • a navigation device including a portable terminal device such as a smartphone
  • the control unit 2 is configured so that the virtual image corresponding to the first image generated in this way corresponds to the object in the scene (for example, a position superimposed on the object, a position near the object, etc.).
  • the position where the first image is displayed is determined so as to be recognized.
  • the “first image” is an image indicating information about an object such as a place, a facility, or a signboard, and is represented by an icon, a tag, a comment, a balloon, or the like.
  • an image representing the depth (perspective) in the scenery (hereinafter referred to as “second image” as appropriate) is first. Display as an image guide. That is, the control unit 2 performs control for allowing the user to recognize the virtual image corresponding to the first image and the virtual image corresponding to the second image so that the user can compare them.
  • the words of the first image and the second image may be used for the virtual image corresponding to the first image and the second image.
  • FIG. 2 is a diagram schematically showing two first images 21 and 22 (virtual images) recognized by the user.
  • the first image 21 is an image related to an object located on the near side in the scenery observed through the half mirror 4, and the first image 22 is deeper than the object corresponding to the first image 21 in the scenery. It is assumed that the image is related to an object located on the side. In the example illustrated in FIG. 2, the first image 21 and the first image 22 are approximately the same size. In such a case, when the user recognizes the first images 21 and 22, the user determines which image is located on the near side and which image is located on the far side. It becomes difficult. That is, it becomes difficult for the user to appropriately grasp the positional relationship in the depth direction (front direction) for the first images 21 and 22.
  • the first image is displayed in a size corresponding to the position of the object (for example, the size of the first image is reduced as the object is in the back).
  • the size of the first image is reduced as the object is in the back.
  • the first image 21 on the near side and the first image 22 on the far side as shown in FIG. The size will be almost the same.
  • the control unit 2 allows the user to appropriately grasp the position in the depth direction of the first image, that is, in order to generate a sense of distance (perspective) in the first image.
  • a second image indicating the distance in the depth direction is displayed as a guide image of the first image.
  • the control unit 2 displays an image composed of grid lines expressing the depth along the depth direction of the scene observed by the user as the second image.
  • the control unit 2 switches between displaying and hiding the second image 30 according to the user's posture or action from the viewpoint of securing the user's field of view.
  • FIG. 3 is a diagram schematically showing the first images 21 and 22 (virtual images) and the second image 30 (virtual images) recognized by the user.
  • the first images 21 and 22 are the same as those shown in FIG.
  • the second image 30 is an image using the illusion principle for allowing the user to grasp the sense of distance, and is composed of grid lines 30a to 30h and the like.
  • the grid lines 30a to 30h are drawn by a one-point perspective method based on a vanishing point located in the front direction of the user according to perspective (perspective).
  • the second image 30 has a rectangular parallelepiped outer shape that narrows toward the vanishing point.
  • Grid lines 30a to 30d are line segments extending in the left-right direction on the bottom surface of the rectangular parallelepiped
  • grid lines 30e to 30h are line segments extending in the depth direction on the bottom surface of the rectangular parallelepiped.
  • the second image 30 includes a grid line extending in the vertical direction on the side surface of the rectangular parallelepiped and a grid line extending in the horizontal direction on the upper surface of the rectangular parallelepiped.
  • the grid lines 30a to 30h will be described as a representative.
  • the grid lines 30a to 30h are set according to the viewing angle of the user. Specifically, the grid lines 30a to 30d represent positions (distances) in the front direction (depth direction) of the user, and the grid lines 30e to 30h represent positions (distances) in the left and right direction of the user. .
  • the grid line 30a indicates a position 5 m away from the user in the front direction
  • the grid line 30b indicates a position 10 m away from the user in the front direction
  • the grid line 30c indicates the user position.
  • a position 15 m away from the front is shown.
  • the grid lines 30a to 30h are displayed in a color that is easy for the user to recognize (for example, green) or a color different from the first images 21 and 22.
  • the control unit 2 displays the first images 21 and 22 so as to overlap the second image 30 as described above.
  • the control unit 2 determines the first image at the display position of the first images 21 and 22 according to the position of the object included in the scene observed through the half mirror 4 determined as described above. 21 and 22 are displayed.
  • the control part 2 displays the 2nd image 30 so that the virtual image of the 2nd image 30 is recognized in the predetermined position predetermined in the user's visual field.
  • the control unit 2 displays the second image 30 at a position corresponding to the position of the first images 21 and 22.
  • the control unit 2 relates to the virtual image recognized by the user so that the first images 21 and 22 are positioned on the grid lines 30a to 30h of the second image 30 (for example, the first image on the grid line 30a).
  • the display position of the second image 30 is determined so that the image 21 is positioned (or the first image 22 is positioned on the grid line 30c).
  • the control unit 2 recognizes a virtual image recognized by the user at a position corresponding to an object that is a landmark in the scene, where a part of the grid lines 30a to 30h of the second image 30 is displayed. Next, the display position of the second image 30 is determined.
  • control unit 2 when the second image 30 is displayed, the control unit 2 performs control to draw the second image 30 so as to be gradually recognized by the user. Specifically, the control unit 2 performs control for rendering the second image 30 to fade in after the first images 21 and 22 are rendered. Note that various known techniques can be applied to the fade-in.
  • control unit 2 displays the second image 30 only in a range corresponding to the first images 21 and 22.
  • the control unit 2 defines the left-right direction, the up-down direction, and the depth direction of the second image 30 to be displayed by a range in which at least the first images 21 and 22 are included.
  • the depth direction of the second image 30 up to the grid line 30d on the back side of the first image 22 is displayed, and no grid line is displayed on the further back side of the grid line 30d.
  • the grid lines 30e on the left side of the first image 21 are displayed, and no grid lines are displayed on the left side of the grid lines 30e.
  • the relative positional relationship between the first image 21 and the first image 22 can be easily understood by displaying the first image 21 and the first image 22 so as to be connected by the second image 30. Therefore, even if the first image 21 and the first image 22 are displayed at positions separated by a predetermined distance or more, the second image 30 is connected so as to connect the two in the region between the first image 21 and the first image 22. Is preferably displayed.
  • the control unit 2 switches between display and non-display of the second image 30 as described above according to the user's posture or action. Specifically, the control unit 2 determines whether the user is performing a gaze operation based on the captured image captured by the camera 5 and / or the detection value of the 6-axis sensor 6. For example, when the photographed image or the detection value of the 6-axis sensor 6 indicates that the user's head is stationary (stopped), or when the head has not been moved much more than a certain time, the control unit 2 determines that the user is performing a gaze operation. The control unit 2 displays the second image 30 when it is determined that the user is performing the gaze operation, and does not display the second image 30 when it is determined that the user is not performing the gaze operation. .
  • the second image 30 is displayed only when the user performs a gaze operation (for example, when an arbitrary object is gaze), and when the user is not performing the gaze operation (for example, during movement or When the line of sight is directed in various directions), the second image 30 is not displayed.
  • a gaze operation for example, when an arbitrary object is gaze
  • the user is not performing the gaze operation (for example, during movement or When the line of sight is directed in various directions)
  • the second image 30 is not displayed.
  • the control unit 2 when the user is playing golf, the control unit 2 does not display the second image 30 when moving or performing a swing, a shot, or the like, and is performing a putter.
  • the second image 30 is displayed.
  • the control unit 2 determines not only the posture or motion of the user (determined based on the captured image or the detection value of the 6-axis sensor 6) but also whether or not the captured image includes a flag or a flagpole. It can be determined whether or not the user is putting a pattern. That is, it is possible to determine with high accuracy whether or not the second image 30 is necessary depending on an actual object in the captured image.
  • control unit 2 may display the second image only when there are two or more first images to be displayed. That is, when there is only one first image, the second image may not be displayed.
  • the second image is displayed as the guide image of the first image.
  • the position in the depth direction of the first image can be appropriately grasped by the user, that is, a sense of distance (perspective) can be generated in the first image.
  • a sense of distance can be generated in the first image without requiring an adjustment mechanism or advanced image processing as described in Patent Document 1 described above. Therefore, according to the present embodiment, it is possible to reduce the weight of the HMD 1, reduce the cost, simplify the operation, and the like.
  • Patent Document 1 cannot be applied to a configuration that displays an image only on one eye or a configuration that uses Maxwell's view by a laser light source (in this configuration, the focal length is changed). Can't). However, since the present embodiment generates a sense of distance (perspective) by displaying the second image, it is also applicable to a configuration in which an image is displayed only on one eye or a configuration that uses Maxwell's view with a laser light source. Can be applied appropriately.
  • the second image is displayed only when the user is performing a gaze operation, and the second image is not displayed when the user is not performing the gaze operation.
  • Modification 1 relates to a modification of the second image 30 (see FIG. 3).
  • FIG. 4 shows second images 31 to 36 according to the first modification.
  • FIG. 4 is a diagram schematically showing the first images 21 and 22 (virtual images) and the second images 31 to 36 (virtual images) recognized by the user.
  • the first images 21 and 22 are the same as those shown in FIG.
  • grid lines including curved lines
  • FIG. 4 is a diagram schematically showing the first images 21 and 22 (virtual images) and the second images 31 to 36 (virtual images) recognized by the user.
  • the first images 21 and 22 are the same as those shown in FIG.
  • grid lines including curved lines
  • FIG. 4A shows a second image 31 according to the first example in the first modification.
  • the second image 31 has a form excluding the upper surface of the rectangular parallelepiped corresponding to the second image 30.
  • the second image 31 is an image in which grid lines extending in the left-right direction and the depth direction are drawn on the bottom surface of the rectangular parallelepiped, and grid lines extending in the vertical direction are drawn on the side surface of the rectangular parallelepiped.
  • FIG. 4B shows a second image 32 according to the second example in the first modification.
  • the second image 32 has a form excluding the upper surface and the bottom surface of the rectangular parallelepiped corresponding to the second image 30.
  • the second image 32 is an image in which grid lines extending in the vertical direction and the depth direction are drawn on the side surface of the rectangular parallelepiped.
  • FIG. 4C shows a second image 33 according to the third example in the first modification.
  • the second image 33 has a form excluding the upper surface and the right side surface of the rectangular parallelepiped corresponding to the second image 30.
  • the second image 33 is an image in which grid lines extending in the left-right direction are drawn on the bottom surface of the rectangular parallelepiped, and grid lines extending in the vertical direction are drawn on the left side surface of the rectangular parallelepiped.
  • An image in which a grid line extending in the left-right direction is drawn on the bottom surface of the rectangular parallelepiped and a grid line extending in the up-down direction on the right side surface of the rectangular parallelepiped may be used as the second image.
  • the second image to be displayed includes an image (second image 33) in which grid lines are drawn on the left side surface, and a second image in which grid lines are drawn on the right side surface It is good to switch with.
  • FIG. 4D shows a second image 34 according to the fourth example in the first modification.
  • the second image 34 has a form excluding the upper surface and side surfaces of the rectangular parallelepiped corresponding to the second image 30.
  • the second image 34 is an image in which only grid lines extending in the left-right direction on the bottom surface of the rectangular parallelepiped are drawn.
  • FIG. 4E shows a second image 35 according to the fifth example in the first modification.
  • the second image 35 is an image composed of only two line segments. Specifically, the two line segments correspond to a part of two straight lines extending from the vanishing point located in the front direction of the user.
  • FIG. 4F shows a second image 36 according to the sixth example in the first modification.
  • the second image 36 is an image composed of a plurality of curves arranged side by side in the depth direction. Specifically, the second image 36 is configured such that the curve size decreases as it goes deeper, and the curve interval becomes narrower as it goes deeper.
  • Such a second image 36 is also drawn by a one-point perspective method based on a vanishing point located in the front direction of the user.
  • the second images 31 to 36 according to Modification 1 as described above can also allow the user to appropriately grasp the position of the first image in the depth direction, that is, the first image has a sense of distance (perspective). Can be made.
  • the second image is configured by grid lines and the like, but in the second modification, the second image is configured by a mark (marker) for the first image.
  • FIG. 5 shows second images 41 to 44 according to the second modification.
  • FIG. 5 is a diagram schematically showing the first images 21 and 22 (virtual images) and the second images 41 to 44 (virtual images) recognized by the user.
  • the first images 21 and 22 are the same as those shown in FIG.
  • FIG. 5A shows a second image 41 according to the first example in the second modification.
  • the second image 41 is composed of two arrow images 41a and 41b.
  • the arrow image 41 a corresponds to a marker for the first image 21, and the arrow image 41 b corresponds to a marker for the first image 22.
  • the arrow images 41a and 41b are configured to express the depth of the scenery according to their sizes. Specifically, the arrow images 41a and 41b are configured such that the size of the arrow images 41a and 41b decreases as the depth increases.
  • the first image 22 is located on the back side of the first image 21 (that is, the object corresponding to the first image 22 is more than the object corresponding to the first image 21).
  • the arrow image 41b is displayed in a smaller size than the arrow image 41a.
  • the arrow image 41a is displayed in a size larger than the arrow image 41b.
  • FIG. 5B shows a second image 42 according to the second example in the second modification.
  • the second image 42 is composed of two arrow images 42a and 42b.
  • the arrow image 42 a corresponds to a marker for the first image 21
  • the arrow image 42 b corresponds to a marker for the first image 22.
  • the arrow images 42a and 42b are configured to express the depth of the scene by the degree of blurring (in other words, the degree of blurring).
  • the arrow images 42a and 42b are configured so that the depth of blur increases with the depth of the image. In other words, the deeper the color, the thinner the color and the blurred outline.
  • the degree of blurring the degree of blurring
  • the arrow image 42b is displayed more blurred than the arrow image 42a. Specifically, the outline of the arrow image 42b is displayed in a blurred manner, and the color of the arrow image 42b is displayed in a lighter color than the color of the arrow image 42a.
  • the second image 42 may be configured so as to express the depth of the landscape according to the color depth.
  • the arrow image 42 b of the first image 22 located on the back side of the first image 21 is displayed in a lighter color than the arrow image 42 a of the first image 21.
  • FIG. 5C shows a second image 43 according to the third example in the second modification.
  • the second image 43 is composed of two arrow images 43a and 43b.
  • the arrow image 43a corresponds to a marker for the first image 21, and the arrow image 43b corresponds to a marker for the first image 22.
  • the arrow images 43a and 43b are expressed three-dimensionally. Specifically, the perspective images 43a and 43b are given a perspective according to the position (distance) in the depth direction. That is, the arrow images 43a and 43b are drawn by the one-point perspective method based on the vanishing point located in the front direction of the user according to the perspective method, similarly to the grid lines described above (see FIG. 3).
  • FIG. 5D shows a second image 44 according to the fourth example in the second modification.
  • the second image 44 includes two arrow images 44a and 44b and character images 44c and 44d indicating distances.
  • the arrow image 44a corresponds to a marker for the first image 21, and the arrow image 44b corresponds to a marker for the first image 22.
  • the character image 44c shows the distance (specifically 2 m) between the user and the object corresponding to the first image 21, and the character image 44d is the distance (specifically) between the user and the object corresponding to the first image 22. 10 m).
  • the second images 41 to 44 according to Modification 2 as described above can also allow the user to appropriately grasp the position in the depth direction of the first image, that is, the first image has a sense of distance (perspective). Can be made.
  • the second image shown in the above-described embodiment, the first modification, and the second modification is selected and displayed according to the contents of the first image, the user's preference, the surrounding environment, and the like. is there.
  • a second image selected according to user preferences can be displayed.
  • a grid is formed on the bottom or side as shown in FIG. 3 or FIGS. 4 (a) to 4 (d).
  • the second images 30, 31 to 34 on which lines are drawn can be displayed. By doing so, for example, in a scene of golf puttering, the grid lines of the second images 30, 31 to 34 can be used as a ruler.
  • the second image is displayed when the user is performing a gaze operation, and the second image is not displayed when the user is not performing the gaze operation.
  • the present invention is not limited thereto.
  • the second image is displayed and the user performs the gaze operation (for example, any The second image may not be displayed when the object is being watched. By doing so, it is possible to appropriately prevent the second image from obstructing the field of view when the user is performing a gaze operation.
  • switching between display and non-display of the second image is preferably set in accordance with the content of the first image, the user's preference, the surrounding environment, and the like.
  • the present invention is not limited to application to the HMD 1 and can contribute to various devices that perform AR display.
  • the present invention can be applied to a head-up display, a mobile phone such as a smartphone, a game machine with a camera, and the like.
  • the present invention can be suitably applied to an apparatus that performs AR display.
  • HMD Head mounted display
  • Control unit Control unit 3
  • Light source unit 4
  • Half mirror 5
  • Camera 6 6-axis sensor

Abstract

 ヘッドマウントディスプレイは、光源を有しており、観察される景色に重畳させた画像をユーザに認識させる。ヘッドマウントディスプレイは、第一画像と、景色における奥行き方向の距離を示す第二画像とを、ユーザに対比可能に認識させて描画するための光を光源から照射させる制御手段と、ユーザの姿勢又は動作を検出する検出手段と、を有する。制御手段は、検出手段によって検出された姿勢又は動作に応じて、第二画像の表示の有無を切り替える。

Description

ヘッドマウントディスプレイ及び表示方法
 本発明は、情報を表示する技術に関する。
 近年、ヘッドマウントディスプレイなどの表示装置を用いて、所定の情報をユーザの前方の景色に重畳して表示させるAR(Augmented Reality)に関する技術が提案されている。例えば特許文献1には、画像情報に応じた画像光を外光と共にユーザの眼に入射させ、画像情報に応じた表示を外景と重ねて行うヘッドマウントディスプレイに関して、仮想走行者の画像を表示させる技術が提案されている。具体的には、特許文献1には、仮想走行者との距離に応じた視差を有する左眼用画像と右眼用画像とを表示させることにより、仮想走行者との距離感を表す表示を行うことや、表示する画像の焦点位置を変更することにより、仮想走行者との距離感を変更することなどが記載されている。
特開2011-67277号公報
 上記した特許文献1に記載の技術では、左右の眼(両眼)に異なる画像を提示することで視差を生じさせたり、焦点距離を調整したりすることで、表示する画像に距離感(言い換えると遠近感)を生じさせている。しかしながら、特許文献1に記載の技術は、視差を利用しているため、両眼に画像を表示させる構成に適用が限定され、片眼のみに画像を表示させる構成には適用することができなかった。また、視差を利用した立体視には個人差があるため、当該技術では、ユーザの見え方に合わせた調整を行う必要があった。そのため、調整機構や高度な画像処理などが必要となり、装置が複雑化、高コスト化したり、画像処理に要する負荷が大きくなったりする傾向にあった。
 本発明が解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、簡便な処理や装置構成にて、表示させる画像について適切に距離感を生じさせることが可能なヘッドマウントディスプレイ及び表示方法を提供することを主な目的とする。
 請求項1に記載の発明では、観察される景色に重畳させた画像をユーザに認識させるヘッドマウントディスプレイは、光源と、第一画像と、前記景色における奥行き方向の距離を示す第二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御手段と、前記ユーザの姿勢又は動作を検出する検出手段と、を有し、前記制御手段は、前記検出手段によって検出された前記姿勢又は前記動作に応じて、前記第二画像の表示の有無を切り替える。
 請求項15に記載の発明では、光源を有し、観察される景色に重畳させた第一画像と第二画像とをユーザに認識させるヘッドマウントディスプレイによって行われる表示方法は、前記第一画像と、前記景色における奥行き方向の距離を示す前記第二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御工程と、前記ユーザの姿勢又は動作を検出する検出工程と、を有し、前記制御工程は、前記検出工程によって検出された前記姿勢又は前記動作に応じて、前記第二画像の表示の有無を切り替える。
 請求項16に記載の発明では、観察される景色に重畳させて、画像をユーザに認識させるヘッドマウントディスプレイは、光源と、第一画像と、前記第一画像の前記景色における奥行き方向の距離を示す記二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御手段と、有する。
本実施例に係るヘッドマウントディスプレイの概略構成図を示す。 本実施例に係る第二画像を表示する理由を説明するための図を示す。 本実施例における第二画像を具体的に説明するための図を示す。 変形例1に係る第二画像を示す。 変形例2に係る第二画像を示す。
 本発明の1つの観点では、観察される景色に重畳させた画像をユーザに認識させるヘッドマウントディスプレイは、光源と、第一画像と、前記景色における奥行き方向の距離を示す第二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御手段と、前記ユーザの姿勢又は動作を検出する検出手段と、を有し、前記制御手段は、前記検出手段によって検出された前記姿勢又は前記動作に応じて、前記第二画像の表示の有無を切り替える。
 上記のヘッドマウントディスプレイは、光源を有しており、観察される景色に重畳させた画像(虚像)をユーザに認識させるために好適に利用される。制御手段は、第一画像と、景色における奥行き方向の距離を示す第二画像とを、ユーザに対比可能に認識させて描画するための光を光源から照射させる。第一画像は、例えば、ヘッドマウントディスプレイを介して観察される景色に含まれる所定のオブジェクトについての情報を示す画像であり、第二画像は、当該景色における奥行き(遠近)を表現した画像である。このような第二画像を表示させることで、簡便な処理や装置構成にて、第一画像について奥行き方向における位置をユーザに適切に把握させることができる、つまり第一画像に距離感(遠近感)を生じさせることができる。
 また、制御手段は、ユーザの姿勢又は動作に応じて、第二画像の表示の有無を切り替える。つまり、制御手段は、ユーザの姿勢又は動作によっては、第二画像を非表示とする。これにより、第二画像が視界を妨げてしまうことを適切に抑制することが可能となる。
 上記のヘッドマウントディスプレイの一態様では、前記制御手段は、前記姿勢又は前記動作より、前記ユーザが注視動作を行っていると判断される場合には、前記第二画像を表示させ、前記姿勢又は前記動作より、前記ユーザが注視動作を行っていないと判断される場合には、前記第二画像を表示させない。これにより、ユーザが注視動作を行っていない場合に、第二画像が視界を妨げてしまうことを適切に抑制することが可能となる。
 上記のヘッドマウントディスプレイの他の一態様では、前記制御手段は、1の前記第一画像が描画される場合には前記第二画像を描画せず、2以上の前記第一画像が描画された場合に、前記第一画像同士の間の領域に前記第二画像を描画する。これにより、2以上の第一画像が描画された場合に、当該2以上の第一画像の位置関係を適切に把握させることができる。
 上記のヘッドマウントディスプレイの他の一態様では、前記制御手段は、前記光源による描画領域のうち、前記第一画像が少なくとも含まれる所定の領域にのみ前記第二画像を描画させ、それ以外の領域には前記第二画像を描画させない。これにより、第二画像が視界を妨げてしまうことを適切に抑制することが可能となる。
 好適な例では、前記制御手段は、前記ユーザの頭部が所定時間以上静止していることを検出した場合に、注視動作を行っていると判断することができる。
 上記のヘッドマウントディスプレイの他の一態様では、前記ユーザにより観察される景色を撮影する撮影手段を有し、前記制御手段は、前記撮影手段により撮影された景色に、所定の物体が存在する場合に、前記第二画像を描画させる。これにより、景色中の所定の物体の位置などを、ユーザに適切に把握させることができる。
 上記のヘッドマウントディスプレイの他の一態様では、前記第二画像は、前記ユーザにより観察される景色の中において、前記景色の奥行き方向に向かって所定の距離間隔ごとに描画される。このような第二画像によれば、第一画像に距離感(遠近感)を生じさせることができると共に、第二画像を物差しとして用いることで、第一画像の位置を適切に把握させることができる。
 上記のヘッドマウントディスプレイにおいて好適には、前記第二画像は、前記ユーザにより観察される景色の奥行き方向に沿って奥行きを表現したグリッド線である。
 上記のヘッドマウントディスプレイの他の一態様では、前記第二画像は、当該第二画像の一部が前記景色中の目印となる物体に対応した位置に認識されるように描画される。これにより、第一画像の位置を適切に把握させることが可能となる。
 上記のヘッドマウントディスプレイの好適な例では、前記第二画像は、前記第一画像の目印となる画像であって、大きさによって前記景色の奥行きを表現した画像である。
 上記のヘッドマウントディスプレイの他の好適な例では、前記第二画像は、前記第一画像の目印となる画像であって、色の濃さ又はぼかし具合によって前記景色の奥行きを表現した画像である。
 上記のヘッドマウントディスプレイの好適な他の例では、前記第二画像は、前記第一画像の目印となる画像であって、前記景色の奥行きに従って立体的に表現された画像である。
 上記のヘッドマウントディスプレイにおいて好適には、前記第二画像は、前記ユーザに徐々に認識されるように描画される。
 好適には、上記のヘッドマウントディスプレイは、片眼にのみ用いられる。つまり、ヘッドマウントディスプレイは、片眼にのみ画像を表示させる。
 本発明の他の観点では、光源を有し、観察される景色に重畳させた第一画像と第二画像とをユーザに認識させるヘッドマウントディスプレイによって行われる表示方法は、前記第一画像と、前記景色における奥行き方向の距離を示す前記第二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御工程と、前記ユーザの姿勢又は動作を検出する検出工程と、を有し、前記制御工程は、前記検出工程によって検出された前記姿勢又は前記動作に応じて、前記第二画像の表示の有無を切り替える。
 本発明の更に他の観点では、観察される景色に重畳させて、画像をユーザに認識させるヘッドマウントディスプレイは、光源と、第一画像と、前記第一画像の前記景色における奥行き方向の距離を示す記二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御手段と、を有する。好適には、前記制御手段は、複数の前記第一画像を表示した場合に、前記第一画像同士の距離を示す第二画像を表示させることができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [装置構成]
 図1は、本実施例に係るヘッドマウントディスプレイ1の一例を示した概略構成図である。以下では、ヘッドマウントディスプレイを適宜「HMD」と表記する。
 図1に示すように、HMD1は、主に、制御部2と、光源ユニット3と、ハーフミラー4と、カメラ5と、6軸センサ6と、を有する。HMD1は、例えば眼鏡型に構成されており、ユーザの頭部に装着可能に構成されている。また、HMD1は、例えばユーザの片眼にのみ画像を表示するように構成されている。
 制御部2は、図示しないCPUやRAMやROMなどを有しており、HMD1の全体的な制御を行う。制御部2は、主に、ユーザに提示するための画像を生成する処理を行う。制御部2は、本発明における「検出手段」及び「制御手段」の一例である。
 光源ユニット3は、制御部2によって生成された画像を構成する光を、ハーフミラー4に向けて出射する。例えば、光源ユニット3は、レーザ光源やLCD光源などを有しており、このような光源から光を出射する。
 ハーフミラー4は、光源ユニット3からの光を、ユーザの眼球に向けて反射する。これにより、HMD1によって形成された画像に対応する虚像が、ユーザに視認されることとなる。なお、ハーフミラー4は透過率と反射率とが概ね等しいが、このようなハーフミラー4を用いる代わりに、透過率と反射率とが等しくないようなミラー(所謂ビームスプリッタ)を用いても良い。
 カメラ5は、HMD1の前方の景色を撮影し、撮影画像を生成する。カメラ5は、生成した撮影画像を制御部2に供給する。
 6軸センサ6は、複数の加速度センサ及び複数の角速度センサによって構成されている。具体的には、6軸センサ6は、X軸、Y軸及びZ軸の加速度と、X軸、Y軸及びZ軸の角速度とを検出可能に構成されている。6軸センサ6は、検出値を制御部2に供給する。6軸センサ6の検出値は、ユーザの頭部の姿勢や動作を示している。なお、このような6軸センサ6を用いる代わりに、加速度センサやジャイロセンサを用いて、ユーザの頭部の姿勢や動作を検出することとしても良い。
 ここで、HMD1内の制御部2は、ハーフミラー4を透して観察される景色に重畳させた画像をユーザに認識させるための制御を行う。つまり、AR表示のための制御を行う。具体的には、制御部2は、ハーフミラー4を透して観察される景色に含まれる所定のオブジェクトについて、当該オブジェクトの情報を示す画像(以下では、適宜「第一画像」と呼ぶ。)に対応する虚像が、景色中の当該オブジェクトに応じた位置にて認識されるように制御を行う。1つの例では、制御部2は、カメラ5の撮影画像を解析することで情報を表示すべきオブジェクトを特定して、当該オブジェクトについての情報を生成し、当該情報に対応する第一画像を生成する。他の例では、制御部2は、図示しないナビゲーション装置(スマートフォンなどの携帯型端末装置も含む)などからオブジェクトについての情報を取得し、当該情報に対応する第一画像を生成する。いずれの例においても、制御部2は、このように生成した第一画像に対応する虚像が景色中のオブジェクトに応じた位置(例えばオブジェクトに重畳する位置や、オブジェクトの近傍の位置など)にて認識されるように、当該第一画像を表示させる位置を決定する。
 例えば、「第一画像」は、場所や、施設や、看板などの対象物についての情報を示す画像であり、アイコンや、タグや、コメントや、吹き出しなどによって表される。
 [制御方法]
 次に、本実施例において制御部2が行う制御方法について具体的に説明する。
 本実施例では、制御部2は、上記したような第一画像を表示させる際に、景色における奥行き(遠近)を表現した画像(以下、適宜「第二画像」と呼ぶ。)を、第一画像のガイドとして表示させる。つまり、制御部2は、第一画像に対応する虚像と第二画像に対応する虚像とをユーザに対比可能に認識させるための制御を行う。なお、以下では、冗長な説明を避けるため、第一画像及び第二画像に対応する虚像についても第一画像及び第二画像の文言を用いる場合がある。
 このような第二画像を表示する理由を、図2を参照して説明する。図2は、ユーザによって認識される2つの第一画像21、22(虚像)を概略的に示した図である。第一画像21は、ハーフミラー4を透して観察される景色において手前側に位置するオブジェクトに関する画像であり、第一画像22は、当該景色において、第一画像21に対応するオブジェクトよりも奥側に位置するオブジェクトに関する画像であるものとする。図2に示す例では、第一画像21と第一画像22とが概ね同一のサイズとなっている。このような場合、ユーザは、第一画像21、22を認識した際に、どちらの画像が手前側に位置するものであり、どちらの画像が奥側に位置するものであるかを判断することが困難となる。つまり、ユーザは、第一画像21、22について、奥行き方向(正面方向)における位置関係を適切に把握することが困難となる。
 なお、基本的には、第一画像は、オブジェクトの位置に応じたサイズにて表示される(例えば奥のものほど第一画像のサイズが小さくされる)。しかしながら、第一画像自体の大きさ(例えば第一画像の情報量などに応じている)によっては、図2に示したように手前側の第一画像21と奥側の第一画像22とのサイズが概ね同一になってしまう。
 以上のことから、本実施例では、制御部2は、第一画像について奥行き方向における位置をユーザに適切に把握させるべく、つまり第一画像に距離感(遠近感)を生じさせるべく、景色における奥行き方向の距離を示す第二画像を、第一画像のガイド画像として表示させる。具体的には、制御部2は、ユーザにより観察される景色の奥行き方向に沿って奥行きを表現したグリッド線で構成された画像を、第二画像として表示させる。また、本実施例では、制御部2は、ユーザの視界を確保する観点から、ユーザの姿勢又は動作に応じて、このような第二画像30の表示と非表示とを切り替える。
 図3を参照して、本実施例における第二画像について具体的に説明する。図3は、ユーザによって認識される、第一画像21、22(虚像)及び第二画像30(虚像)を概略的に示した図である。なお、第一画像21、22は、図2に示したものと同一である。
 図3に示すように、第二画像30は、ユーザに距離感を把握させるための、錯視の原理を利用した画像であり、グリッド線30a~30hなどによって構成されている。グリッド線30a~30hは、遠近法(パース)に従って、ユーザの正面方向に位置する消失点を基準とした一点透視図法によって描かれたものである。第二画像30は、消失点に向かって狭まっていく直方体の外形形状を有している。グリッド線30a~30dは、当該直方体の底面において左右方向に延びる線分であり、グリッド線30e~30hは、当該直方体の底面において奥行き方向に延びる線分である。なお、このようなグリッド線30a~30h以外にも、第二画像30は、当該直方体の側面において上下方向に延びるグリッド線や、当該直方体の上面において左右向に延びるグリッド線などを有するが、ここでは、グリッド線30a~30hを代表して説明する。
 また、グリッド線30a~30hは、ユーザの視野角に応じて設定されている。具体的には、グリッド線30a~30dは、ユーザの正面方向(奥行き方向)における位置(距離)を表しており、グリッド線30e~30hは、ユーザの左右方向における位置(距離)を表している。例えば、グリッド線30aは、ユーザから正面方向に向かって5m離れた位置を示しており、グリッド線30bは、ユーザから正面方向に向かって10m離れた位置を示しており、グリッド線30cは、ユーザから正面方向に向かって15m離れた位置を示している。更に、グリッド線30a~30hは、ユーザが認識し易い色(例えば緑色)や、第一画像21、22と異なる色などで表示される。
 制御部2は、上記のような第二画像30に対して、第一画像21、22を重ね合わせて表示させる。この場合、制御部2は、前述したように決定された、ハーフミラー4を透して観察される景色に含まれるオブジェクトの位置に応じた第一画像21、22の表示位置に、第一画像21、22を表示させる。そして、制御部2は、1つの例では、ユーザの視界において予め定めた所定の位置にて第二画像30の虚像が認識されるように、第二画像30を表示させる。他の例では、制御部2は、第一画像21、22の位置に応じた位置に、第二画像30を表示させる。この例では、制御部2は、ユーザによって認識される虚像に関して、第二画像30のグリッド線30a~30h上に第一画像21、22が位置するように(例えば、グリッド線30a上に第一画像21が位置するように、若しくはグリッド線30c上に第一画像22が位置するように)、第二画像30の表示位置を決定する。更に他の例では、制御部2は、ユーザによって認識される虚像に関して、第二画像30のグリッド線30a~30hの一部が景色中の目印となるオブジェクトに対応した位置にて認識されるように、第二画像30の表示位置を決定する。
 また、制御部2は、第二画像30を表示させる場合に、ユーザに徐々に認識されるように第二画像30を描画する制御を行う。具体的には、制御部2は、第一画像21、22を描画した後に、第二画像30をフェードインさせるように描画する制御を行う。なお、フェードインについては、公知の種々の技術を適用することができる。
 また、制御部2は、第一画像21、22に応じた範囲にのみ、第二画像30を表示させる。具体的には、制御部2は、第一画像21、22が少なくとも含まれるような範囲によって、表示させる第二画像30の左右方向、上下方向及び奥行き方向を規定する。図3に示す例では、第二画像30の奥行き方向に関しては、第一画像22の奥側のグリッド線30dまでが表示され、グリッド線30dの更に奥側にはグリッド線が表示されていない。加えて、第二画像30の左右方向に関しては、第一画像21の左側のグリッド線30eまでが表示され、グリッド線30eの更に左側にはグリッド線が表示されず、また、第一画像22の右側のグリッド線30hまでが表示され、グリッド線30hの更に右側にはグリッド線が表示されていない。つまり、第一画像22から所定以上左右方向、奥行き方向に離れた位置にはグリッド線を表示させないようにしている。このようにしているのは、第一画像21、22の位置関係を把握させるために必要と言えるグリッド線のみを表示させるためである。つまり、第一画像21、22の位置関係を把握するために特に必要ないと言えるグリッド線を表示しないことで、ユーザの視界を確保することを図ったものである。
 なお、第一画像21と第一画像22との間を第二画像30でつながるように表示させることで、第一画像21と第一画像22との相対的な位置関係が分かりやすくなる。よって、第一画像21と第一画像22とが所定距離以上離れた位置に表示されていても、第一画像21と第一画像22との間の領域に両者を繋ぐように第二画像30を表示させることが好ましい。
 更に、本実施例では、制御部2は、ユーザの姿勢又は動作に応じて、上記したような第二画像30の表示と非表示とを切り替える。具体的には、制御部2は、カメラ5によって撮影された撮影画像及び/又は6軸センサ6の検出値に基づいて、ユーザが注視動作を行っているか否かを判定する。例えば、撮影画像や6軸センサ6の検出値が、ユーザの頭部が静止(停止)していることを示している場合や、頭部が一定時間以上大きく動かされていない場合に、制御部2は、ユーザが注視動作を行っていると判定する。制御部2は、ユーザが注視動作を行っていると判定した場合には、第二画像30を表示させ、ユーザが注視動作を行っていないと判定した場合には、第二画像30を表示させない。こうすることで、ユーザが注視動作を行った場合(例えば任意のオブジェクトを注視している場合)にのみ、第二画像30が表示され、ユーザが注視動作を行っていない場合(例えば移動中や視線を様々な方向に向けている場合)には、第二画像30が表示されないこととなる。
 1つの例では、ユーザがゴルフをしている際に、制御部2は、移動中やスイングやショットなどを行っている場合には第二画像30を表示させず、パターを行っている場合に第二画像30を表示させる。この例において、制御部2は、ユーザの姿勢又は動作だけでなく(撮影画像や6軸センサ6の検出値によって判定される)、撮影画像に旗や旗竿などが含まれるか否かに応じて、ユーザがパターを行っているか否かを判断することができる。つまり、撮影画像中に実在する物体によって、第二画像30が必要とされるか否かの判断をより高精度に行うことができる。
 なお、制御部2は、表示すべき第一画像が2つ以上存在する場合にのみ、第二画像を表示させることとしても良い。つまり、第一画像が1つしか存在しない場合には、第二画像を表示させないこととしても良い。
 [本実施例による作用・効果]
 以上説明したように、本実施例では、第一画像のガイド画像として第二画像を表示させる。これにより、第一画像について奥行き方向における位置をユーザに適切に把握させることができる、つまり第一画像に距離感(遠近感)を生じさせることができる。このような本実施例によれば、前述した特許文献1に記載されたような調整機構や高度な画像処理などを要せずして、第一画像に距離感を生じさせることができる。したがって、本実施例によれば、HMD1の軽量化や、低コスト化や、操作の簡便化などを実現することが可能となる。
 また、特許文献1に記載された技術は、片眼のみに画像を表示させる構成や、レーザ光源によるマクスウェル視を利用する構成に適用することができなかった(当該構成では焦点距離を変更することができないため)。しかしながら、本実施例は、第二画像を表示させることによって距離感(遠近感)を生じさせているため、片眼のみに画像を表示させる構成や、レーザ光源によるマクスウェル視を利用する構成にも、適切に適用することができる。
 更に、本実施例では、ユーザが注視動作を行っている場合にのみ、第二画像を表示させ、ユーザが注視動作を行っていない場合には、第二画像を表示させない。これにより、ユーザが注視動作を行っていない場合(例えば移動中や視線を様々な方向に向けている場合)に、第二画像が視界を妨げてしまうことを適切に抑制することが可能となる。
 [変形例]
 以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
 (変形例1)
 変形例1は、上記した第二画像30(図3参照)の変形例に関する。
 図4は、変形例1に係る第二画像31~36を示している。具体的には、図4は、ユーザによって認識される、第一画像21、22(虚像)及び第二画像31~36(虚像)を概略的に示した図である。第一画像21、22は、図2に示したものと同一である。なお、ここでは、図3に示した第二画像30と異なる点についてのみ説明し、特に説明しない構成などについては、第二画像30と同様であるものとする。例えば、後述するグリッド線(曲線も含む)は、第二画像30と同様に、ユーザの正面方向に位置する消失点を基準とした一点透視図法によって描かれている。
 図4(a)は、変形例1における第1の例に係る第二画像31を示している。第二画像31は、第二画像30に対応する直方体の上面を除いた形態を有している。具体的には、第二画像31は、当該直方体の底面において左右方向及び奥行き方向に延びるグリッド線が描かれ、当該直方体の側面において上下方向に延びるグリッド線が描かれた画像である。
 図4(b)は、変形例1における第2の例に係る第二画像32を示している。第二画像32は、第二画像30に対応する直方体の上面及び底面を除いた形態を有している。具体的には、第二画像32は、当該直方体の側面において上下方向及び奥行き方向に延びるグリッド線が描かれた画像である。
 図4(c)は、変形例1における第3の例に係る第二画像33を示している。第二画像33は、第二画像30に対応する直方体の上面及び右の側面を除いた形態を有している。具体的には、第二画像33は、当該直方体の底面において左右方向に延びるグリッド線が描かれ、当該直方体の左の側面において上下方向に延びるグリッド線が描かれた画像である。なお、直方体の底面において左右方向に延びるグリッド線が描かれ、直方体の右の側面において上下方向に延びるグリッド線が描かれた画像を、第二画像として用いても良い。例えば、ユーザの利き目に応じて、表示させる第二画像を、左の側面にグリッド線が描かれた画像(第二画像33)と、右の側面にグリッド線が描かれた第二画像とで切り替えると良い。
 図4(d)は、変形例1における第4の例に係る第二画像34を示している。第二画像34は、第二画像30に対応する直方体の上面及び側面を除いた形態を有している。具体的には、第二画像34は、当該直方体の底面において左右方向に延びるグリッド線のみが描かれた画像である。
 図4(e)は、変形例1における第5の例に係る第二画像35を示している。第二画像35は、2つの線分のみから構成された画像である。具体的には、当該2つの線分は、ユーザの正面方向に位置する消失点から延びる2つの直線の一部に相当する。
 図4(f)は、変形例1における第6の例に係る第二画像36を示している。第二画像36は、奥行き方向に並べて配列された、複数の曲線から構成された画像である。具体的には、第二画像36は、奥に進むほど曲線のサイズが小さくなると共に、奥に進むほど曲線の間隔が狭くなるように構成されている。このような第二画像36も、ユーザの正面方向に位置する消失点を基準とした一点透視図法によって描かれたものである。
 以上のような変形例1に係る第二画像31~36によっても、第一画像について奥行き方向における位置をユーザに適切に把握させることができる、つまり第一画像に距離感(遠近感)を生じさせることができる。
 (変形例2)
 上記した実施例及び変形例1では、グリッド線などによって第二画像が構成されていたが、変形例2では、第一画像についての目印(マーカ)によって第二画像が構成されている。
 図5は、変形例2に係る第二画像41~44を示している。具体的には、図5は、ユーザによって認識される、第一画像21、22(虚像)及び第二画像41~44(虚像)を概略的に示した図である。第一画像21、22は、図2に示したものと同一である。
 図5(a)は、変形例2における第1の例に係る第二画像41を示している。第二画像41は、2つの矢印画像41a、41bから構成されている。矢印画像41aは、第一画像21についてのマーカに相当し、矢印画像41bは、第一画像22についてのマーカに相当する。矢印画像41a、41bは、その大きさによって景色の奥行きを表現するように構成されている。具体的には、矢印画像41a、41bは、奥のものほどサイズが小さくなるように構成されている。図5(a)に示す例では、第一画像22は第一画像21よりも奥側に位置するものであるため(つまり第一画像22に対応するオブジェクトは第一画像21に対応するオブジェクトよりも奥側に位置するため)、矢印画像41bが矢印画像41aよりも小さなサイズで表示される。言い換えると、第一画像21は第一画像22よりも手前側に位置するものであるため、矢印画像41aが矢印画像41bよりも大きなサイズで表示される。
 図5(b)は、変形例2における第2の例に係る第二画像42を示している。第二画像42は、2つの矢印画像42a、42bから構成されている。矢印画像42aは、第一画像21についてのマーカに相当し、矢印画像42bは、第一画像22についてのマーカに相当する。矢印画像42a、42bは、ぼかし具合(言い換えるとにじみ具合)によって景色の奥行きを表現するように構成されている。具体的には、矢印画像42a、42bは、奥のものほど、ぼかし具合が大きくなるように構成されている。つまり、奥のものほど、色が薄くされると共に、輪郭がぼかされる。図5(b)に示す例では、第一画像22は第一画像21よりも奥側に位置するものであるため、矢印画像42bが矢印画像42aよりもぼかして表示される。具体的には、矢印画像42bの輪郭がぼかして表示されると共に、矢印画像42bの色が矢印画像42aの色よりも薄い色で表示される。
 なお、上記のようにぼかし具合によって景色の奥行きを表現するように第二画像42を構成する代わりに、色の濃さによって景色の奥行きを表現するように第二画像を構成しても良い。この場合には、第一画像21よりも奥側に位置する第一画像22の矢印画像42bが、第一画像21の矢印画像42aよりも薄い色で表示される。
 図5(c)は、変形例2における第3の例に係る第二画像43を示している。第二画像43は、2つの矢印画像43a、43bから構成されている。矢印画像43aは、第一画像21についてのマーカに相当し、矢印画像43bは、第一画像22についてのマーカに相当する。矢印画像43a、43bは、立体的に表現されている。具体的には、矢印画像43a、43bは、奥行き方向における位置(距離)に応じたパースが付与される。つまり、矢印画像43a、43bは、前述したグリッド線と同様に(図3参照)、遠近法に従って、ユーザの正面方向に位置する消失点を基準とした一点透視図法によって描かれる。
 図5(d)は、変形例2における第4の例に係る第二画像44を示している。第二画像44は、2つの矢印画像44a、44bと、距離を示す文字画像44c、44dとから構成されている。矢印画像44aは、第一画像21についてのマーカに相当し、矢印画像44bは、第一画像22についてのマーカに相当する。文字画像44cは、ユーザと第一画像21に対応するオブジェクトとの距離(具体的には2m)を示しており、文字画像44dは、ユーザと第一画像22に対応するオブジェクトとの距離(具体的には10m)を示している。
 以上のような変形例2に係る第二画像41~44によっても、第一画像について奥行き方向における位置をユーザに適切に把握させることができる、つまり第一画像に距離感(遠近感)を生じさせることができる。
 (変形例3)
 変形例3は、第一画像の内容や、ユーザの好みや、周辺環境などに応じて、上記した実施例、変形例1及び変形例2で示した第二画像を選択して表示させるものである。1つの例では、ユーザの好みに応じて選択された第二画像を表示させることができる。他の例では、第一画像が地面近くに位置するオブジェクトに対して表示されるものである場合に、図3や図4(a)~(d)に示したような、底面や側面にグリッド線が描かれた第二画像30、31~34を表示させることができる。こうすることで、例えばゴルフのパターを行う場面において、第二画像30、31~34のグリッド線を物差しとして利用することができる。
 (変形例4)
 上記した実施例では、ユーザが注視動作を行っている場合に第二画像を表示させ、ユーザが注視動作を行っていない場合に第二画像を表示させない例を示したが、これに限定はされない。他の例では、ユーザが注視動作を行っていない場合(例えば移動中や視線を様々な方向に向けている場合)に、第二画像を表示させ、ユーザが注視動作を行った場合(例えば任意のオブジェクトを注視している場合)に、第二画像を表示させないこととすることができる。こうすることで、ユーザが注視動作を行っている場合に、第二画像が視界を妨げてしまうことを適切に抑制することが可能となる。
 なお、このような第二画像の表示と非表示との切り替えについても、第一画像の内容や、ユーザの好みや、周辺環境などに応じて設定することが好ましい。
 (変形例5)
 本発明は、HMD1への適用に限定はされず、AR表示を行う種々の装置にて寄与することができる。例えば、本発明は、ヘッドアップディスプレイや、スマートフォンなどの携帯電話や、カメラ付きゲーム機などに適用することができる。
 本発明は、AR表示を行う装置に好適に適用することができる。
 1 ヘッドマウントディスプレイ(HMD)
 2 制御部
 3 光源ユニット
 4 ハーフミラー
 5 カメラ
 6 6軸センサ

Claims (17)

  1.  観察される景色に重畳させた画像をユーザに認識させるヘッドマウントディスプレイであって、
     光源と、
     第一画像と、前記景色における奥行き方向の距離を示す第二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御手段と、
     前記ユーザの姿勢又は動作を検出する検出手段と、を有し、
     前記制御手段は、前記検出手段によって検出された前記姿勢又は前記動作に応じて、前記第二画像の表示の有無を切り替えることを特徴とするヘッドマウントディスプレイ。
  2.  前記制御手段は、前記姿勢又は前記動作より、前記ユーザが注視動作を行っていると判断される場合には、前記第二画像を表示させ、前記姿勢又は前記動作より、前記ユーザが注視動作を行っていないと判断される場合には、前記第二画像を表示させないことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3.  前記制御手段は、1の前記第一画像が描画される場合には前記第二画像を描画せず、2以上の前記第一画像が描画された場合に、前記第一画像同士の間の領域に前記第二画像を描画することを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
  4.  前記制御手段は、前記光源による描画領域のうち、前記第一画像が少なくとも含まれる所定の領域にのみ前記第二画像を描画させ、それ以外の領域には前記第二画像を描画させないことを特徴とする請求項1乃至3のいずれか一項に記載のヘッドマウントディスプレイ。
  5.  前記制御手段は、前記ユーザの頭部が所定時間以上静止していることを検出した場合に、注視動作を行っていると判断することを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  6.  前記ユーザにより観察される景色を撮影する撮影手段を有し、
     前記制御手段は、前記撮影手段により撮影された景色に、所定の物体が存在する場合に、前記第二画像を描画させることを特徴とする請求項1乃至5のいずれか一項に記載のヘッドマウントディスプレイ。
  7.  前記第二画像は、前記ユーザにより観察される景色の中において、前記景色の奥行き方向に向かって所定の距離間隔ごとに描画されることを特徴とする請求項1乃至6のいずれか一項に記載のヘッドマウントディスプレイ。
  8.  前記第二画像は、前記ユーザにより観察される景色の奥行き方向に沿って奥行きを表現したグリッド線であることを特徴とする請求項7に記載のヘッドマウントディスプレイ。
  9.  前記第二画像は、当該第二画像の一部が前記景色中の目印となる物体に対応した位置に認識されるように描画されることを特徴とする請求項1乃至8のいずれか一項に記載のヘッドマウントディスプレイ。
  10.  前記第二画像は、前記第一画像の目印となる画像であって、大きさによって前記景色の奥行きを表現した画像であることを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
  11.  前記第二画像は、前記第一画像の目印となる画像であって、色の濃さ又はぼかし具合によって前記景色の奥行きを表現した画像であることを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
  12.  前記第二画像は、前記第一画像の目印となる画像であって、前記景色の奥行きに従って立体的に表現された画像であることを特徴とする請求項又は2に記載のヘッドマウントディスプレイ。
  13.  前記第二画像は、前記ユーザに徐々に認識されるように描画されることを特徴とする請求項1乃至12のいずれか一項に記載のヘッドマウントディスプレイ。
  14.  片眼にのみ用いられることを特徴とする請求項1乃至13のいずれか一項に記載のヘッドマウントディスプレイ。
  15.  光源を有し、観察される景色に重畳させた第一画像と第二画像とをユーザに認識させるヘッドマウントディスプレイによって行われる表示方法であって、
     前記第一画像と、前記景色における奥行き方向の距離を示す前記第二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御工程と、
     前記ユーザの姿勢又は動作を検出する検出工程と、を有し、
     前記制御工程は、前記検出工程によって検出された前記姿勢又は前記動作に応じて、前記第二画像の表示の有無を切り替えることを特徴とする表示方法。
  16.  観察される景色に重畳させて、画像をユーザに認識させるヘッドマウントディスプレイであって、
     光源と、
     第一画像と、前記第一画像の前記景色における奥行き方向の距離を示す記二画像とを、前記ユーザに対比可能に認識させて描画するための光を前記光源から照射させる制御手段と、を有することを特徴とするヘッドマウントディスプレイ。
  17.  前記制御手段は、複数の前記第一画像を表示した場合に、前記第一画像同士の距離を示す第二画像を表示させることを特徴とする請求項16に記載のヘッドマウントディスプレイ。
PCT/JP2012/051407 2012-01-24 2012-01-24 ヘッドマウントディスプレイ及び表示方法 WO2013111267A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/051407 WO2013111267A1 (ja) 2012-01-24 2012-01-24 ヘッドマウントディスプレイ及び表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/051407 WO2013111267A1 (ja) 2012-01-24 2012-01-24 ヘッドマウントディスプレイ及び表示方法

Publications (1)

Publication Number Publication Date
WO2013111267A1 true WO2013111267A1 (ja) 2013-08-01

Family

ID=48873039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/051407 WO2013111267A1 (ja) 2012-01-24 2012-01-24 ヘッドマウントディスプレイ及び表示方法

Country Status (1)

Country Link
WO (1) WO2013111267A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049762A (ja) * 2015-09-01 2017-03-09 株式会社東芝 システム及び方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229433A (ja) * 2001-01-31 2002-08-14 Shimadzu Corp フライトシミュレータ
JP2005165778A (ja) * 2003-12-03 2005-06-23 Canon Inc 頭部装着型表示装置、及びその制御方法
JP2008098861A (ja) * 2006-10-10 2008-04-24 Ricoh Co Ltd 画像処理装置、プログラム及び記録媒体
JP2009060338A (ja) * 2007-08-31 2009-03-19 Nikon Corp 表示装置、電子カメラ
JP2010139901A (ja) * 2008-12-15 2010-06-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2011067277A (ja) * 2009-09-24 2011-04-07 Brother Industries Ltd ヘッドマウントディスプレイ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229433A (ja) * 2001-01-31 2002-08-14 Shimadzu Corp フライトシミュレータ
JP2005165778A (ja) * 2003-12-03 2005-06-23 Canon Inc 頭部装着型表示装置、及びその制御方法
JP2008098861A (ja) * 2006-10-10 2008-04-24 Ricoh Co Ltd 画像処理装置、プログラム及び記録媒体
JP2009060338A (ja) * 2007-08-31 2009-03-19 Nikon Corp 表示装置、電子カメラ
JP2010139901A (ja) * 2008-12-15 2010-06-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2011067277A (ja) * 2009-09-24 2011-04-07 Brother Industries Ltd ヘッドマウントディスプレイ

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049762A (ja) * 2015-09-01 2017-03-09 株式会社東芝 システム及び方法
US10671849B2 (en) 2015-09-01 2020-06-02 Kabushiki Kaisha Toshiba System and method for sensor based visual adjustments
US10679059B2 (en) 2015-09-01 2020-06-09 Kabushiki Kaisha Toshiba System and method for visual image adjustment
US10685232B2 (en) 2015-09-01 2020-06-16 Kabushiki Kaisha Toshiba Wearable device for displaying checklist of a work
US10682405B2 (en) 2015-09-01 2020-06-16 Kabushiki Kaisha Toshiba System and method and device for adjusting image positioning
US11002975B2 (en) 2015-09-01 2021-05-11 Kabushiki Kaisha Toshiba System and method for image generation based on a display-attachable wearable device
US11428944B2 (en) 2015-09-01 2022-08-30 Kabushiki Kaisha Toshiba Wearable device and method for visual image adjustment
US11789279B2 (en) 2015-09-01 2023-10-17 Kabushiki Kaisha Toshiba System and method for virtual image adjustment

Similar Documents

Publication Publication Date Title
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6195893B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
US10884576B2 (en) Mediated reality
JP6333801B2 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
WO2014128747A1 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2006301654A (ja) 画像呈示装置
JP2017021680A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
WO2014108799A2 (en) Apparatus and methods of real time presenting 3d visual effects with stereopsis more realistically and substract reality with external display(s)
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
US20180364488A1 (en) Display device
US20180359463A1 (en) Information processing device, information processing method, and program
EP3596919A1 (en) Head tracking based depth fusion
JP6250025B2 (ja) 入出力装置、入出力プログラム、および入出力方法
US20220060680A1 (en) Head mounted display apparatus
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2013111267A1 (ja) ヘッドマウントディスプレイ及び表示方法
JP2019008205A (ja) ヘッドマウントディスプレイ装置
JP6315427B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム、および投影装置
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2016158080A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6332658B1 (ja) 表示制御装置、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866628

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12866628

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP