WO2016046124A1 - Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung - Google Patents

Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung Download PDF

Info

Publication number
WO2016046124A1
WO2016046124A1 PCT/EP2015/071588 EP2015071588W WO2016046124A1 WO 2016046124 A1 WO2016046124 A1 WO 2016046124A1 EP 2015071588 W EP2015071588 W EP 2015071588W WO 2016046124 A1 WO2016046124 A1 WO 2016046124A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
screen
display device
generated
change
Prior art date
Application number
PCT/EP2015/071588
Other languages
English (en)
French (fr)
Inventor
Johannes Kindt
Stefan Saur
Original Assignee
Carl Zeiss Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Ag filed Critical Carl Zeiss Ag
Publication of WO2016046124A1 publication Critical patent/WO2016046124A1/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • Display device which can be placed on the head of a user, and methods for controlling such a display device
  • the present invention relates to a display device with a holding device which can be placed on the head of a user, an image module mechanically connected to the holding device, which has a screen on which an image is produced, and a first imaging optical unit mechanically connected to the holding device, which has the image formed on the screen as a virtual image so that the user can perceive it in the upside-down state of the holding device. Furthermore, the present invention relates to a method for controlling such a display device.
  • Such display devices may in particular be designed so that the user can only perceive the images generated by the display device and no longer the environment.
  • Such display devices are also referred to as HMD device (Head Mounted Display) device or as VR glasses (virtual reality glasses). Since the user can only perceive the images generated by the display device and no longer the environment, he immerses virtually in a virtual reality, which leaves a strong impression.
  • HMD device Head Mounted Display
  • VR glasses virtual reality glasses
  • a common user interface in such mobile phones is still an audio interface through which the mobile phone can be controlled by voice control.
  • the audio interface can not be operated quietly and discreetly.
  • not too many other audio sources should be present to ensure adequate error-free use through the audio interface. Proceeding from this, it is therefore an object of the invention to provide a display device of the type mentioned, which can be used safely and discreetly.
  • this object is achieved in the case of a display device with a holding device which can be placed on the head of a user, an image module mechanically connected to the holding device, which has a screen on which an image is generated, and a first imaging optical system which is mechanically connected to the holding device image formed on the screen as a virtual image so that the user can perceive it in the upside down state of the holding device,
  • the image module further comprises a control unit for driving the screen and a sensor unit for detecting the rotation of the image module by at least has one of three spatial axes, wherein the sensor unit of the control unit supplies signals which detects a change of the angular position about at least one spatial axis from the signals and a function of the detected change in the angular position in the generation of the image, a change in the representation effecting the image generated on the screen and / or controlling an application running on the image module that provides content contained in the image generated on the screen.
  • Such a change in the angular position can be easily increased by a head movement in louder when using the display device according to the invention
  • Property of the image generated on the screen changed. This means, in particular, that not a change in the content of the image and thus another image is generated. Only one property is changed in the generation of this image, such as e.g. the size of a text displayed or contained in the image and / or the size of the displayed image itself.
  • the image may in particular be a two-dimensional image and / or a two-dimensional image taken by a camera. In particular, the image may also be images or
  • a real-time representation is understood to mean, in particular, that they are displayed immediately after the recording and thus are displayed, for example, within a maximum of 0.5 seconds after the recording.
  • the change in the appearance of the image produced on the screen does not mean, in particular, that the user is given the virtual impression of moving through a landscape or a building, for example, because the change in the direction of rotation of the head is evaluated to represent him other parts of this virtual area.
  • the effect of the change in the characteristic of the image generated on the screen and / or the control of the application executed on the image module can only be effected when the change in the angular position exceeds a first limit value. This ensures that small head movements are not evaluated as control signals.
  • the effected change of the presentation-affecting property of the image generated on the screen can only be reversed if the change in the angular position falls below a second limit value.
  • the second limit is in particular smaller than the first limit. The hysteresis provided in this way ensures that no undesired toggling takes place when the change in the angular position is in the range of the first limit value.
  • the characteristic of the image produced on the screen that has an effect on the representation can be, in particular, the size of the image itself and / or a text displayed.
  • the change in the size of the representation can only be performed if the control unit recognizes text as the content of the generated image. This can be done by a
  • the change in the display-affecting property of the image formed on the screen can increase with increasing change in the angular position itself.
  • the increase in the change can be continuous, quasi-continuous or stepwise.
  • the change in the image-affecting property of the image generated on the screen and / or the control of the application executed on the image module can take place if a further boundary condition that results from the analysis of the data of the sensor unit is fulfilled.
  • a further boundary condition for example be detected whether the user is in a state of rest (for example, if he sits in a chair) or whether the user is walking or running.
  • the change in the effect on the representation of the property of the image generated on the screen can be carried out only in idle state.
  • the display device can also be designed so that a pattern of changes in the angular positions is evaluated as an interaction gesture that is assigned to a control command.
  • a pattern of changes in the angular positions is evaluated as an interaction gesture that is assigned to a control command.
  • a control command For example, tilt forward and then turn to the right enter a control command.
  • This may be e.g. to increase or decrease a value, to act as a menu guide, to select a menu item, etc.
  • This pattern can also be associated with other data that allow a better recognition of the pattern. For example, acceleration sensor data may be included in the pattern.
  • the described control of the display device can also be used for the image module itself.
  • the user can hold and tilt the image module in his hand and perform the described control by this tilting movement.
  • no holding device and no imaging optics is provided.
  • the display device according to the invention can be developed such that the sensor unit can detect a movement of the image module and the control unit from the of the
  • the change of an affect on the representation property of the image generated on the screen and / or the control of running on the screen application be effected.
  • Such a tapping or abutment of the holding device can be carried out discretely and also in a louder environment, without thereby distorting the input.
  • a discrete and secure control of the display device can take place.
  • the display device according to the invention can thus via a tap, push or
  • Tapping against the holding device an input can be performed.
  • the holding device is used as an input interface, which is sensitive to a touch of the holding device (in particular a tap, push or knock against the holding device), to which the holding device does not need to be specially adapted.
  • Holding device can be used as it is as an input interface, since the measurement of the interaction performed (typing, pushing, knocking, etc.) with the holding device by means of the sensor unit and the evaluation of the measured signals by means of the control unit, which are both part of the image module ,
  • the control unit from the supplied signals, the position of the performed tapping on the holding device, the strength of the performed tapping of the holding device, the time interval of at least two consecutive tap events and / or recognize the direction in which when tapping was pushed or knocked against the holding device, and depending on the detected position, the detected strength of the tap, the detected temporal
  • control unit can detect from the signals a spatial and / or temporal pattern of one or more tap events and, depending thereon, effect a change of the image generated on the screen and / or the control of the application.
  • the spatial and / or temporal pattern is thus implemented in a control command.
  • a selectable menu item can be displayed in the image, which can be selected by tapping the associated left or right side of the holding device. It is also possible for the display device to represent at least in one corner of the generated image a selectable menu item which can be selected by tapping the holding device in the region of this corner.
  • the display device according to the invention can be designed as an HMD device and / or as VR glasses. Furthermore, in the display device according to the invention, the image module
  • the holding device may have a front part, in which the image module and the first imaging optics are arranged, wherein in the mounted on the head state of the holding device, the front part is preferably positioned in front of the eyes of the user that the user only the virtual image and not the Environment can perceive.
  • the front part may be light-tight on the face in an area surrounding the eyes.
  • the screen of the image module can be essentially perpendicular to the straight-ahead direction in the state of the holding device mounted on the head.
  • the angle between the straight-ahead direction and the screen can have values of 80 ° to 100 ° or preferably with a maximum of 90 ° or nearly 90 ° (for example with a maximum deviation ⁇ 10 ° in both directions and thus the angle Deviation ⁇ 5 ° in both directions and thus the angle may have values of 85 ° to 95 °) is.
  • the first imaging optics may comprise at least one optical element.
  • the optical element may, for example, be a lens, a Fresnel lens, a lens array and / or a diffractive optical element (DOE).
  • DOE diffractive optical element
  • Imaging optics comprise a lens, wherein the lens has an optically effective surface. On the lens, a diffractive structure may be arranged.
  • the display device may have, in addition to the first imaging optics, a second imaging optics, which may be formed in the same way as the first
  • the second imaging optics is configured to provide a second image generated on the screen as a virtual image when the user carries the holding device upside down.
  • the first imaging optics can provide the virtual image for a first eye and the second imaging optics provide the virtual image for the second eye.
  • a binocular display device is provided.
  • the first and / or second imaging optics can be designed as magnifying glass optics.
  • the sensor unit may include an inertial sensor, such as an inertial sensor. a gyroscope, a tilt sensor, an acceleration sensor and / or another sensor.
  • the control unit can show at least two menu items and a cursor in the generated image when exceeding a predetermined limit value for changing the angular position (for example, the image module is controlled so that it also produces the displayed menu items and the cursor in the image generation) and deriving from further changes in the angular position of the movement of the cursor in the image and represent, with a menu item is considered selected when the cursor dwells on the menu item for a predetermined period of time.
  • a menu control or a menu selection purely on the detected movement of the head of the user take place.
  • an input interface for selecting menu items is realized, which is realized via the detection of the inclination of the user's head.
  • the method according to the invention can realize the method steps described in connection with the display device according to the invention.
  • a tapping of the holding device is detected by the image module and, depending on the detected tapping, a change of the image generated on the screen and / or the control of an application running on the image module that provides contents that are displayed on the screen generated image are caused.
  • the image module may have a control unit for controlling the screen and a sensor unit for detecting a movement of the image module, wherein the sensor unit supplies signals to the control unit, by means of which the performed tap can be recognized.
  • the application executed on the image module can control the screen in such a way that based on supplied image data of a first image, the first image is generated both in a first section of the screen and in a second section of the screen separate from the first section.
  • the application is carried out directly on the image module, the desired image formation can advantageously be carried out quickly. Furthermore, image data that is stored on or generated by the image module can be used for presentation.
  • the image module may be a portable device having a controller for executing program instructions and driving the display.
  • Such an image forming apparatus is e.g. B. a mobile phone such. B. a smartphone. According to the invention, therefore, the property of the portable image module,
  • Program instructions are used to execute the application on the image module with the appropriate instructions that performs the screen control and preferably the division of the screen into two sections with the representation of the same image in both sections.
  • the application can control the screen so that the two sections are spaced apart and the area between the two sections is darkened.
  • the application may generate the first image in the first and second sections so that there is no stereo effect when viewing the two images.
  • the images can also be generated so that a stereo effect is present.
  • the image data may be supplied in such a way that the application accesses image data stored in the image module (hereinafter also referred to as image generation device) and / or that the image data is streamed onto the image generation device and / or that the image data is generated on the image generation device.
  • the application may image data of other applications on the imaging device
  • the first image can be predistorted in at least one of the sections, thereby at least partially compensating an aberration of the imaging optics.
  • the application can also be referred to as an app.
  • the added image data may in particular be image data of a recording of the surroundings of a user carrying the display device on his head and / or other image data. It is thus possible, for example, to present the environment to the user as the first image.
  • the environment can be overlaid with other image information so that the user is shown more than the environment. These can be, for example, clues that are generated context-sensitively and displayed in the generated image.
  • the user can be displayed a live image of the environment.
  • a camera is provided which receives the environment.
  • the camera may be a separate camera, which is preferably attached to the display device (e.g., the fixture).
  • the display device e.g., the fixture
  • a camera is usually provided, which is provided on the back (the side facing away from the screen), so that this camera can be used for recording the environment.
  • the application can generate the first image in the first and second sections in such a way that an image content of the first image in the first and second sections is generated either at a first distance or at a different second distance. This makes it possible to differentiate the image production
  • the application may have an interface over which the distance can be entered, in which case the first image in the first and second sections is generated as a function of the entered distance so that the input distance is present on the screen between the image content of the image.
  • the interface can
  • the inventive input interface of the holding device be that can be operated by tapping, knocking or bumping.
  • a continuous change in distance by means of the application is possible.
  • the complete first picture in the two sections is shown, but only a trimmed first picture. Any areas of the screen not filled in by the first image may be displayed in black.
  • a camera may be provided which receives the environment and supplies as image data to the image forming device.
  • the camera can be part of the image module.
  • the application can generate the first image, which is an image of the surroundings, in superposition with at least one further image element on the two sections of the screen.
  • the at least one further picture element may be z.
  • Image data processing before being displayed This can be a brightness adjustment, a color adjustment, a false color representation, etc.
  • the described representation of the environment in superposition with a further image information is often referred to as augmented reality representation.
  • Fig. 1 is a schematic perspective view of an embodiment of
  • Fig. 2 is a schematic plan view of the embodiment of Fig. 1;
  • Fig. 3 is a schematic plan view arranged in the display device 1
  • Fig. 4 is a plan view of the image forming apparatus of FIG. 3 for explaining the
  • FIG. 5 is a sectional view through the first imaging optics 6 according to FIG. 2;
  • FIG. 7-9 representations of the image forming apparatus of FIG. 4 for explaining the
  • FIG. 10 is a plan view of the image forming apparatus according to another embodiment
  • Fig. 1 1 is a side view of the image forming apparatus of FIG. 10;
  • Fig. 12 is a plan view of the image forming apparatus
  • Fig. 13 is a side view of the image forming apparatus of FIG. 12, and
  • Figs. 14 and 15 are plan views of the image forming apparatus according to another
  • a first embodiment of the display device 1 is shown schematically in a perspective view.
  • the display device 1 comprises a substantially box-shaped front part 2 with an open side 3. All other sides of the front part are at least substantially closed.
  • the contour of the open side 3 is designed such that it can be applied to the head of a user so that the user can wear the display device 1 like a spectacle on his head.
  • the tether 5 may, for. B. may be formed as an elastic band and / or as a band with adjustable length.
  • the front part 2 forms together with the tether 5 a can be placed on the head of the user holding device.
  • the display device 1 according to the invention comprises a first imaging optics 6 for a left eye LA of the user and a second imaging optics 7 for a right eye RA of the user, each of which magnifies an image generated in an image plane E so that the user perceives it as a virtual image can.
  • Fig. 2 shows a schematic plan view of the display device 1 according to the invention, for better illustration in Fig. 2, the front part 2 is shown as open at the top, which is not actually the case.
  • the front part 2 is substantially closed except for the side 3.
  • these sides are completely closed, which causes foreclosure of light from the outside.
  • ventilation slots and / or ventilation holes are incorporated in these sides, which are particularly preferably designed such that the light passing through them from outside is minimized.
  • the front part 2 is formed substantially closed except for the side 3, the user, if he carries the display device 1 as intended on the head, perceive only the images generated in the image plane E and no longer the environment.
  • the display device according to the invention may comprise a portable device 8 with a screen 9, which is arranged in the display device 1 so that the screen 9 of the portable device 8 is located in the image plane E.
  • the screen 9 of the portable device 8 is located in the image plane E.
  • FIG. 2 only the screen 9 is shown schematically in order to simplify the illustration, and FIG. 1 shows only the image plane E and not the device 8 in order to simplify the illustration.
  • FIG. 3 shows by way of example such a portable device 8 which has a screen 9, a control unit 10 and a sensor unit 11 for detecting a movement of the device 8. Further necessary for the operation of the device 8 elements are not shown.
  • the control unit 10 and the sensor unit 1 1 are shown in dashed lines, since they are installed in the device 8 and are not normally visible from the outside.
  • the control unit 10 can execute program instructions and serves to control the screen 9.
  • the sensor unit 1 1 may comprise an inertial sensor, such as a 1-axis, 2-axis or 3-axis gyroscope, an inclination sensor, an acceleration sensor and / or another sensor with which a detection of a movement of the device 8 is possible.
  • the sensor unit 1 1 generates corresponding measurement signals, which are transmitted to the control unit 10 (preferably continuously), as shown schematically by the dashed connecting line 12 in FIG.
  • the portable device 8 may be, for example, a mobile telephone (eg a so-called smartphone) or another device with a corresponding screen (such as the so-called iPod touch from Apple Inc., California, USA) and is preferably interchangeable arranged in the front part 2.
  • a mobile telephone eg a so-called smartphone
  • another device with a corresponding screen such as the so-called iPod touch from Apple Inc., California, USA
  • each of the two imaging optics 6, 7 forms only a partial area of the screen 9.
  • this In order for a user wearing the display device 1 to be able to perceive an object to be displayed with both eyes, this must therefore be detected in the two subregions of the screen 9 which are represented by the two
  • Imaging optics 6 and 7 are imaged.
  • an application or a program is provided on the portable device 8, which is executed by the control unit 10 and controls the screen 9 so that based on supplied image data for the object to be displayed or for a first image to be displayed, the object or the first image 13 with schematically represented pixels 13I, 132 and 133 both on a first portion 14 of the screen 9 and on a second portion 15 of the screen separated from the first portion 14, as shown in FIG.
  • image data stored on the device 8 or image data supplied to the device 8 can advantageously be used to display the images in the two sections 14 and 15 to produce.
  • image data originating from other applications running on the device 8 can be processed by the application according to the invention such that the same image is always displayed in both sections 14 and 15.
  • the user carrying the display device 1 on the head can thus be presented with images and films in such a way that he can perceive them enlarged with both eyes as virtual images. The user can thus z.
  • videos from youtube or other video sharing platforms videos that are stored on the device, or perceive other videos or images enlarged in the desired manner.
  • the two sections 14 and 15 may be chosen so that they directly adjoin one another. Alternatively, it is possible that they are spaced from each other.
  • the distance range can in particular be displayed or activated as a dark switched range.
  • the application can display the images 13 in the two sections 14, 15 in such a way that the user does not have a stereo effect. However, it is also possible to create a stereo effect.
  • the screen 9 is preferably touch-sensitive and forms the primary input interface.
  • This primary input interface is at
  • Display device 1 is designed so that a tapping of the front part 2 by means of the sensor unit 1 1 is measured and evaluated by the control unit 10, which then the screen 9 can control so that the first image 11 is changed.
  • Tapping of the front part 2 can be detected well by means of the device 8, since the device 8 is mechanically connected to the front part 2 in the inserted state in the front part 2 (preferably free of play), so that it during the intended use of the
  • Display device 1 maintains the predetermined position relative to the imaging optics 6 and 7. Thus, a tap of the front part 2 transmits directly to the device 8, which can then be measured by means of the sensor unit 1 1. This leads to a change in the measurement signals generated by the sensor unit 11, which are transmitted to the control unit 10, so that the control unit 10 can detect a tapping performed in response to the change in the measurement signals.
  • the simplest input is thus a single tap, which, for example, corresponds to clicking a button with a mouse in a conventional computer.
  • the control unit 10 can thus be designed in particular so that it detects a tapping. Also, the number of multiple tap operations and / or their temporal
  • Input interface is evaluated.
  • the application currently executing on the device 8 and displaying its image 11 may offer individual menu items or functions for selection in the four corners of the image, as indicated by the quadrants M1, M2, M3 and M4 in FIG. 4 is indicated.
  • a tapping of the front part 2 in the left upper area 16 ( Figure 1) then leads to the selection of the menu item M1.
  • a tap in the upper right area 17 of the front part 2 (Fig. 1) then leads to the selection of the menu item M2.
  • a tap in the lower left area of the front part 2 leads to the selection of the menu item M3 and a tap in the lower right area of the front part 2 to select the menu item M4.
  • the tapping of the front part 2 from different directions in particular when using a "multi-axis" sensor characteristic in each axis signal, so that can be deduced by analyzing the signals in the individual axes on the location and / or direction of tapping an upright user with a raised head, the device, for example, causes a tapping on the left side, for example, a positive signal in
  • a tap of the lower right corner in the upper left direction causes then, for example, a negative signal in the horizontal sensor but an example positive signal in the vertical sensor. And so on. In this way, the direction of the tap can be determined. Since the shape of the front part 2 is known and a tapping is practically possible only from the outside, it is also (at least approximately) clear which part of the front part 2 was tapped.
  • Striking in a first direction R1 from top right to bottom left may be e.g. be designed and processed as a selection of the menu item M2.
  • the position of the tap remain unconsidered, so that even a tap in the same direction at a different location of the front part 2, as shown by the arrow R1 'in Fig. 1, would lead to the selection of the menu item M2.
  • the position of the tap can also be considered. Further, e.g. the direction of the tapping together with the strength of the tap and thus the Antippimpuls or by tapping or
  • Abutment generated pulse are taken into account.
  • tapping or bumping the front part 2 which can easily be done with one finger or several fingers, the display or the images 13 provided by the device 8 can thus be influenced.
  • the display device according to the invention thus provides an easy-to-use and well-functioning input interface with which the device 8 can be operated.
  • the two imaging optics 6, 7 may be the same or different. In the embodiment described here, they are identical, so that only the first imaging optics 6 will be described in detail below.
  • the first imaging optics 6 comprises a first lens 18 with negative refractive power and a second lens 19 with positive refractive power, wherein both lenses 18, 19 are spaced apart from each other (FIG. 5).
  • the first lens 18 is designed as a convex-concave lens and has a first and a second boundary surface 20, 21, the concave side 20 facing the screen 9 or the image plane E.
  • the second lens 19 is designed as a convex-convex lens and has a first and a second boundary surface 22, 23. All four interfaces 20 to 23 are formed as aspheric surfaces. In particular, they can be designed as rotationally symmetric aspheres, which are rotationally symmetrical with respect to the optical axis OA.
  • the optical axis OA is perpendicular to the image plane E.
  • the four boundary surfaces can be described by the following surface equation, where r is the radial height on the surface.
  • the distances along the optical axis OA are given in Table 3 below.
  • the first lens 18 is formed of polycarbonate having a refractive index n1 of 1.855 and an Abbe number vi of 30.0.
  • the second lens 19 is formed of PMMA having a second refractive index n2 of 1, 492 and a second Abbe number v2 of 57.2.
  • the refractive indices and Abbe numbers are given here for the wavelength of 589 nm.
  • Exit pupil 24 (or eyebox 24) of the first imaging optics 6 has a diameter of 8 mm.
  • the exit pupil 24 is spaced from the image plane E and thus from the screen 9 by a distance d of 60.52 mm.
  • the first and second sections 14, 15 each have an aspect ratio of 4: 3, the diagonal being 62.5 mm.
  • the two imaging optics 6 and 7 for the left and right eye LA, RA of the user are spaced apart by 61 mm. This corresponds approximately to the mean pupillary distance of the world population.
  • the two imaging optics 6, 7 each have a circular exit pupil 24 with a diameter of 8 mm, users with eye pupil distances in the range of 55 mm to 69 mm can perceive the virtual images of the images 13 on the screen 9 without cropping the image field.
  • the two images 13 are generated on the screen 9 so that the distance of the pixels 13i - 133 is adapted to the individual eye pupil distance of each user, in particular, the distance of the pixels 13i - 133 correspond to the individual eye pupil distance or almost correspond. This is especially true for users with an eye pupil distance which is smaller than the distance of the two imaging optics 6, 7, as they have to squint something outwards, which is ergonomically much less favorable and less tolerated, as a squint inward, which users with possibly make an eye pupil distance that is greater than the distance of the two imaging optics 6, 7th
  • the application can have a function with which the spacing of the images 13 and in particular of the image elements 13i-133 can be changed.
  • the portable device 8 is shown in the same manner as in Fig. 4, wherein the distance D of the picture elements 13i-133 is shown. It is assumed that the distance D is 61 mm or is adapted for this distance of the two imaging optics 6 and 7. A user with an eye pupil distance of 61 mm can thus with attached
  • the distance D is reduced.
  • the image 13 is somewhat trimmed, for example, from the left side, so that the image element 133 is no longer completely contained in the image, as shown in FIG. 8.
  • the distance D of the picture elements 13i-133 is smaller than in the state shown in FIG.
  • the Extension of the images 13 in the horizontal direction is less left and right two strip-shaped areas of the screen 9 unused. These are shown hatched in Fig. 8 and may be dark, for example (it is shown in black).
  • the images 13 can be displayed such that the spacing of the image elements 13-133 is greater than in the state of FIG. 7. This state for the greater distance of the eye pupil is shown in Fig. 9.
  • the two images 13 can be displayed at a distance from each other, so that in the central region of the screen 9 there is an unused strip-shaped region, which is shown hatched in FIG. 9 and which in turn can be switched to dark.
  • the described input interface with the tapping of the front part 2 can be used to pass inputs relating to the distance D of the picture elements 13i-133 of the application. Depending on this, the application then controls the image generation according to the states described in connection with FIGS. 7-9. It is also possible in the application to deposit a desired eye pupil distance, which is then used. This can be done via the described input interface with the tapping of the front part 2.
  • the sensor unit 11 of the portable device 8 is designed so that it can detect a rotation of the device 8 about one, two or all three spatial axes x, y, z.
  • the sensor unit 1 1 may have a single-axis, two-axis or three-axis gyroscope. From the signals of the sensor unit 11 supplied to the control unit 10, the control unit 10 can recognize whether e.g. a rotation about the y-axis takes place or which angle of rotation ⁇ (FIGS. 11 and 13) is present. This can e.g. be used to that shown in Figure 13 text 13i is shown differently depending on the determined angular position or the determined angle of rotation ⁇ . This can e.g. be achieved in that the entire image 13 is shown differently depending on the determined rotation angle ⁇ .
  • the sensor unit 11 of the portable device 8 is designed so that it can detect a rotation of the device 8 about one, two or all three spatial axes x, y, z.
  • the sensor unit 1 1 may have a single-
  • G1 may be in the range of 5 to 20 degrees, for example
  • the control unit 11 controls the application running on the apparatus 8 which has the in Fig. 10 drawn text 13i, so that the text 13i is shown enlarged. This is shown schematically in FIG. 12.
  • the measurement of the angle of rotation about the spatial axis y is preferably carried out continuously and
  • Control unit 10 may be configured such that the enlargement of the displayed text 13i shown in FIG. 12 is deactivated again and the original magnification according to FIG. 10 is used if the angle of rotation ⁇ is below a second limit value G2 (where G2 ⁇ G1 is preferred). falls. It can also be said that in the illustration according to FIG. 10 a magnification factor V1 and in the illustration according to FIG. 12 a magnification factor V2 is present, V2 being greater than V1.
  • the limit values G1 and G2 in the described manner can be selected such that the limit value G2 is smaller than the limit value G1.
  • the control unit 1 1 can also be designed such that the magnification factor for the display of the text 13 i also increases (for example, continuously, quasi continuously or stepwise) as the size of the angle ⁇ or the angle change ⁇ increases. Also in this case, the increase of the magnification can be made only from a predetermined limit value G1 for the rotation angle ⁇ .
  • Room axis z exceeds a predetermined threshold G3, the text 13i can be displayed enlarged.
  • the text shown 13i is not rotated for the user.
  • the illustration according to FIG. 15 is chosen only to make it clear that there is a rotation about the spatial axis z. Again, a hysteresis can be set in the same way.
  • the magnification is returned from the state of FIG. 15 to the state in FIG. 14 when the rotation angle ⁇ falls below a fourth limit value G4.
  • G4 is less than G3. It is too Again, possible to realize a continuous, quasi-continuous or a gradual increase or decrease of the magnification in dependence of the rotation angle ß.
  • Rotation angle can be set or changed. It is not meant a change in the content of the image itself, but, for example. a change of magnification (as already
  • control unit 11 may be designed accordingly.
  • the control unit 11 may be designed accordingly.
  • Representation of a text can e.g. the described enlargement of the text as a function of the angle of rotation can be activated by at least one spatial axis only if text in the displayed image 13 is also visible.
  • the corresponding image data can be continuously searched for text contents.
  • the image data is generated by capturing by a camera of the portable device 8
  • these images can be analyzed by (optical) letter recognition.
  • the described magnification function is preferably activated only when both the necessary minimum angle change has occurred and text has been recognized in the generated image.
  • the sensor unit 10 includes an acceleration sensor. This can be read to determine if the user is in hibernation or in motion state. In the state of motion (e.g., walking), it becomes more frequent
  • the active state of motion (walking, running) is characterized by the fact that there are frequently changes in acceleration and smaller changes in angle. Furthermore, one can determine the detected speed of the movement (eg, by integration of the acceleration sensor data or with a GPS sensor, if in the
  • Sensor unit 11 present can be taken into account to detect active movement (e.g., walking, walking) from a passive state of motion, such as walking, running, or walking. Train driving, driving, etc. to demarcate. If e.g. the speed exceeds a predetermined value, e.g. 20 km / h, it can be assumed that this is a passive state of motion in which the reading function can be desired.
  • active movement e.g., walking
  • a passive state of motion such as walking, running, or walking.
  • Train driving, driving, etc. to demarcate. If e.g. the speed exceeds a predetermined value, e.g. 20 km / h, it can be assumed that this is a passive state of motion in which the reading function can be desired.
  • control command may be e.g. to increase or decrease a value, to act as a menu guide, to select a menu item M1 -M4, etc. It is possible, a given
  • the display device may additionally or alternatively be designed such that menu items M1 -M4, as shown in FIGS. 10, 12, 14 and 15, are superimposed if the angle ⁇ exceeds the first limit value G1.
  • a cursor is superimposed, which can now be positioned by means of the head movement by the user on one of the menu items M1 -M4. If the cursor is on the selected menu item M1 -M4 for a predetermined period of time, this is evaluated as selection of the corresponding menu item M1 -M4. This can be visually displayed to the user, for example, by filling the area of the corresponding menu item M1 - M4 in color. As soon as the entire menu item M1 - M4 is filled in, it is considered selected.
  • menu items M1 - M4 need not be in the corners, as shown in Figures 10, 12, 14 and 15. Any other form of menu presentation can be selected.
  • a ribbon eg horizontally or vertically
  • a menu control can be realized purely with the head movement.
  • the evaluation of the head position can be carried out in particular with the sensor unit 11 of the portable device 8, which can detect a rotation of the device 8 by one, two or all three spatial axes x, y, z.
  • the described display device 1 it is possible to change, in particular in the case of a temporal image sequence, a property influencing its representation as a function of the angle of rotation or a change in the angle of rotation by at least one spatial axis.
  • the described control can also be done on the device 8 alone. This means that if you hold the device 8 in your hand and tends accordingly, you can control this.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Es wird eine Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung (2, 5), einem mechanisch mit der Haltevorrichtung (2, 5) verbundenen Bildmodul (8), das einen Bildschirm (9), auf dem ein Bild (13) erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung (2, 5) verbundenen ersten Abbildungsoptik (6, 7), die das auf dem Bildschirm (9) erzeugte Bild (13) als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) wahrnehmen kann, wobei das Bildmodul (8) ferner eine Steuereinheit (10) zur Ansteuerung des Bildschirms (9) und eine Sensoreinheit (11) zum Erfassen der Drehung eines Bildmoduls (8) um zumindest eine von drei Raumachsen aufweist, wobei die Sensoreinheit (11) der Steuereinheit (10) Signale zuführt, die aus den Signalen eine Änderung der Winkellage (a, β) um die zumindest eine Formachse erkennt und in Abhängigkeit der erkannten Änderung der Winkellage (a, β) bei der Erzeugung des Bildes (13) eine Änderung einer sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung einer auf dem Bildmodul (8) ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm (9) erzeugten Bild (13) enthalten sind, bewirkt.

Description

Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung
Die vorliegende Erfindung betrifft eine Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung, einem mechanisch mit der Haltevorrichtung verbundenen Bildmodul, das einen Bildschirm, auf dem ein Bild erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung verbundenen ersten Abbildungsoptik, die das auf dem Bildschirm erzeugte Bild als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung wahrnehmen kann. Ferner betrifft die vorliegende Erfindung ein Verfahren zum Steuern einer solchen Anzeigevorrichtung.
Solche Anzeigevorrichtungen können insbesondere so ausgebildet sein, dass der Benutzer nur noch die durch die Anzeigevorrichtung erzeugten Bilder und nicht mehr die Umgebung wahrnehmen kann. Solche Anzeigevorrichtungen werden auch als HMD-Vorrichtung (Head Mounted Display)-Vorrichtung oder auch als VR-Brille (Virtuelle-Realität-Brille) bezeichnet. Da der Benutzer nur noch die durch die Anzeigevorrichtung erzeugten Bilder und nicht mehr die Umgebung wahrnehmen kann, taucht er quasi in eine virtuelle Realität ein, was einen starken Eindruck hinterlässt. Bei solchen Anzeigevorrichtungen ist es möglich, eine tragbare Bilderzeugungsvorrichtung mit einem Bildschirm, wie z. B. einem Mobiltelefon, als Bildquelle einzusetzen, wobei eine Abbildungsoptik vorgesehen ist, die auf dem Bildschirm erzeugte Bilder so abbilden kann, dass sie der Benutzer im auf dem Kopf aufgesetzten Zustand der Anzeigevorrichtung als virtuelle Bilder wahrnehmen kann.
Wenn als Bildquelle ein Mobiltelefon mit einem berührungssensitiven Bildschirm als primäre Eingabeschnittstelle in der Anzeigevorrichtung verwendet wird, besteht die Schwierigkeit, dass diese primäre Eingabeschnittstelle im auf den Kopf aufgesetzten Zustand der Haltevorrichtung nicht mehr zugänglich ist.
Eine übliche Benutzerschnittstelle bei solchen Mobiltelefonen ist noch eine Audio-Schnittstelle, über die mittels Sprachsteuerung das Mobiltelefon gesteuert werden kann. Hierbei besteht jedoch der Nachteil, dass die Audio-Schnittstelle nicht leise und diskret bedient werden kann. Auch dürfen nicht zu viele andere Audio-Quellen vorhanden sein, um eine ausreichend fehlerfreie Benutzung über die Audio-Schnittstelle zu gewährleisten. Ausgehend hiervon ist es daher Aufgabe der Erfindung, eine Anzeigevorrichtung der eingangs genannten Art bereitzustellen, die sicher und diskret benutzt werden kann.
Erfindungsgemäß wird die Aufgabe bei einer Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung, einem mechanisch mit der Haltevorrichtung verbundenen Bildmodul, das einen Bildschirm, auf dem ein Bild erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung verbundenen ersten Abbildungsoptik, die das auf dem Bildschirm erzeugte Bild als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung wahrnehmen kann, dadurch gelöst, dass das Bildmodul ferner eine Steuereinheit zur Ansteuerung des Bildschirms und eine Sensoreinheit zum Erfassen der Drehung des Bildmoduls um zumindest eine von drei Raumachsen aufweist, wobei die Sensoreinheit der Steuereinheit Signale zuführt, die aus den Signalen eine Änderung der Winkellage um zumindest eine Raumachse erkennt und in Abhängigkeit der erkannten Änderung der Winkellage bei der Erzeugung des Bildes eine Änderung einer sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt.
Eine solche Änderung der Winkellage kann bei bestimmungsgemäßer Benutzung der erfindungsgemäßen Anzeigevorrichtung leicht durch eine Kopfbewegung auch in lauter
Umgebung durchgeführt werden, ohne dass dadurch die Eingabe verfälscht wird. Eine solche Kopfbewegung wirkt ferner natürlich, so dass eine diskrete und sichere Steuerung der Anzeigevorrichtung erfolgen kann. Erfindungsgemäß wird somit beispielsweise eine sich auf die Darstellung auswirkende
Eigenschaft des auf dem Bildschirm erzeugten Bildes geändert. Hierunter wird insbesondere verstanden, dass nicht eine inhaltliche Änderung des Bildes und somit ein anderes Bild erzeugt wird. Es wird lediglich eine Eigenschaft bei der Erzeugung dieses Bildes geändert, wie z.B. die Größe von einem im Bild dargestellten oder enthaltenen Text und/oder die Größe des dargestellten Bildes selbst. Bei dem Bild kann es sich insbesondere um ein zweidimensionales Bild und/oder um ein zweidimensionales Bild handeln, welches durch eine Kamera aufgenommen wurde. Insbesondere kann es sich bei dem Bild auch um Bilder bzw.
zweidimensionale Bilder handeln, welche kontinuierlich aufgenommen und in Echtzeit dargestellt werden. Unter einer Echtzeit-Darstellung wird insbesondere verstanden, dass sie unmittelbar nach der Aufnahme dargestellt werden und somit beispielsweise innerhalb von maximal 0,5 Sekunden nach der Aufnahme dargestellt werden. Unter der Änderung einer sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes wird hier insbesondere nicht verstanden, dass dem Benutzer der virtuelle Eindruck vermittelt wird, er würde sich z.B. durch eine Landschaft oder ein Gebäude bewegen, da die Änderung der Drehrichtung des Kopfes dazu ausgewertet wird, ihm andere Teile dieser virtuellen Gegend darzustellen. Unter einer sich auf die Darstellung auswirkenden Eigenschaft des Bildes wird hier neben der bereits erwähnten Vergrößerung der Darstellung eines Textes und/oder des Bildes und somit der Änderung der Vergrößerung des dargestellten Bildes, eine Änderung einer Verzerrung in der Darstellung, eine Änderung der Verdunklung, eine Änderung der Farbanpassung, eine Filterung, eine Kantenschärfung, etc. verstanden.
Bei der erfindungsgemäßen Anzeigevorrichtung kann die bewirkte Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der auf dem Bildmodul ausgeführten Anwendung erst dann bewirkt werden, wenn die Änderung der Winkellage einen ersten Grenzwert übersteigt. Damit kann sichergestellt werden, dass kleine Kopfbewegungen nicht als Steuerungssignale ausgewertet werden.
Ferner kann die bewirkte Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes erst dann rückgängig gemacht werden, wenn die Änderung der Winkellage einen zweiten Grenzwert unterschreitet. Der zweite Grenzwert ist insbesondere kleiner als der erste Grenzwert. Durch die derart vorgesehene Hysterese ist sichergestellt, dass kein unerwünschtes Hin- und Herschalten stattfindet, wenn die Änderung der Winkellage im Bereich des ersten Grenzwertes liegt.
Die sich auf die Darstellung auswirkende Eigenschaft des auf dem Bildschirm erzeugten Bildes kann insbesondere die Größe des Bildes selbst und/oder eines dargestellten Textes sein.
Bevorzugt kann die Änderung der Größe der Darstellung nur dann durchgeführt werden, wenn die Steuereinheit Text als Inhalt des erzeugten Bildes erkennt. Dies kann durch eine
Texterkennungsanalyse festgestellt werden. Insbesondere kann die Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes mit zunehmender Änderung der Winkellage selbst zunehmen. Dabei kann die Zunahme der Änderung kontinuierlich, quasi kontinuierlich oder schrittweise sein. Ferner kann die Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der auf dem Bildmodul ausgeführten Anwendung dann erfolgen, wenn eine weitere Randbedingung erfüllt ist, die sich aus der Analyse der Daten der Sensoreinheit ergibt. Als weitere Randbedingung kann beispielsweise detektiert werden, ob der Benutzer sich in einem Ruhezustand befindet (wenn er z.B. auf einem Stuhl sitzt) oder ob der Benutzer geht oder läuft. In diesem Fall kann z.B. die Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes nur im Ruhezustand durchgeführt werden.
Des Weiteren ist es möglich, einen passiven Bewegungszustand zu detektieren, bei dem sich der Benutzer beispielsweise in einem Zug oder einer Bahn befindet. Dies kann über die ermittelte Höhe der Geschwindigkeit der Bewegung festgestellt werden. Ferner kann die erfindungsgemäße Anzeigevorrichtung auch so ausgebildet sein, dass ein Muster von Änderungen der Winkellagen als Interaktionsgeste ausgewertet wird, die einem Steuerungsbefehl zugewiesen ist. Somit kann man z.B. mittels einer vorbestimmten Abfolge von Kopfneigungen (beispielsweise nach vorne neigen und danach nach rechts drehen) einen Steuerungsbefehl eingeben. Dabei kann es sich z.B. um die Erhöhung oder Verringerung eines Wertes, um eine Menüführung, um die Auswahl eines Menüpunktes, etc. handeln. Diesem Muster können auch noch weitere Daten zugeordnet sein, die eine bessere Erkennung des Musters ermöglichen. Z. B. können Beschleunigungssensordaten in das Muster einbezogen sein. Die beschriebene Steuerung der Anzeigevorrichtung kann auch für das Bildmodul an sich eingesetzt werden. Beispielsweise kann der Benutzer das Bildmodul in der Hand halten und kippen und durch diese Kippbewegung die beschriebene Steuerung durchführen. In diesem Fall ist keine Haltevorrichtung und keine Abbildungsoptik vorgesehen. Die erfindungsgemäße Anzeigevorrichtung kann so weitergebildet sein, dass die Sensoreinheit eine Bewegung des Bildmoduls erfassen kann und die Steuereinheit aus den von der
Sensoreinheit zugeführten Signalen ein durchgeführtes Antippen der Haltevorrichtung erkennt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt.
Insbesondere kann bei der erfindungsgemäßen Anzeigevorrichtung in Abhängigkeit der erkannten Änderung der Winkellage sowie in Abhängigkeit des erkannten Antippens bei der Erzeugung des Bildes die Änderung einer sich auf die Darstellung auswirkende Eigenschaft des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der auf dem Bildschirm ausgeführten Anwendung bewirkt werden. Ein solches Antippen oder Anstoßen der Haltevorrichtung kann diskret und auch in lauterer Umgebung durchgeführt werden, ohne dass dadurch die Eingabe verfälscht wird. Somit kann eine diskrete und sichere Steuerung der Anzeigevorrichtung erfolgen. Bei der erfindungsgemäßen Anzeigevorrichtung kann somit über ein Tippen, Stoßen oder
Klopfen gegen die Haltevorrichtung eine Eingabe durchgeführt werden. Erfindungsgemäß wird die Haltevorrichtung an sich als Eingabeschnittstelle genutzt, die auf eine Berührung der Haltevorrichtung (insbesondere ein Tippen, Stoßen oder Klopfen gegen die Haltevorrichtung) sensitiv ist, wobei dazu die Haltevorrichtung nicht speziell angepaßt werden muß. Die
Haltevorrichtung kann so wie sie ist als Eingabeschnittstelle genutzt werden, da die Messung der durchgeführten Interaktion (das Tippen, Stoßen, Klopfen, etc.) mit der Haltevorrichtung mittels der Sensoreinheit und die Auswertung der Meßsignale mittels der Steuereinheit erfolgt, die beide Teil des Bildmoduls sind. Bei der erfindungsgemäßen Anzeigevorrichtung kann die Steuereinheit aus den zugeführten Signalen die Position des durchgeführten Antippens an der Haltevorrichtung, die Stärke des durchgeführten Antippens der Haltevorrichtung, den zeitlichen Abstand von zumindest zwei aufeinanderfolgenden Antipp-Ereignissen erkennen und/oder die Richtung erkennen, in der beim Antippen gegen die Haltevorrichtung gestoßen oder geklopft wurde, und in Abhängigkeit der erkannten Position, der erkannten Stärke des Antippens, des erkannten zeitlichen
Abstandes und/oder der erkannten Richtung eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der Anwendung bewirken.
Man kann auch sagen, dass die Steuereinheit aus den Signalen ein räumliches und/oder zeitliches Muster von einem oder mehreren Antipp-Ereignissen erkennen und in Abhängigkeit davon eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung der Anwendung bewirken kann. Das räumliche und/oder zeitliche Muster wird somit in einem Steuerungsbefehl umgesetzt. Insbesondere kann bei der erfindungsgemäßen Anzeigevorrichtung auf der linken und auf der rechten Seite des Bildschirms ein auswählbarer Menüpunkt im Bild dargestellt werden, der durch Antippen der zugeordneten linken oder rechten Seite der Haltevorrichtung auswählbar ist. Es ist auch möglich, dass die Anzeigevorrichtung zumindest in einer Ecke des erzeugten Bildes einen auswählbaren Menüpunkt darstellt, der durch Antippen der Haltevorrichtung im Bereich dieser Ecke auswählbar ist.
Insbesondere kann die erfindungsgemäße Anzeigevorrichtung als HMD-Vorrichtung und/oder als VR-Brille ausgebildet sein. Des Weiteren kann bei der erfindungsgemäßen Anzeigevorrichtung das Bildmodul
auswechselbar mit der Haltevorrichtung verbunden sein. Insbesondere kann die Haltevorrichtung ein Vorderteil aufweisen, in dem das Bildmodul und die erste Abbildungsoptik angeordnet sind, wobei im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung das Vorderteil bevorzugt so vor den Augen des Benutzers positioniert ist, dass der Benutzer nur das virtuelle Bild und nicht die Umgebung wahrnehmen kann. Insbesondere kann das Vorderteil lichtdicht auf dem Gesicht in einem die Augen umgebenden Bereich anliegen.
Ferner kann bei der erfindungsgemäßen Anzeigevorrichtung der Bildschirm des Bildmoduls im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung im Wesentlichen senkrecht zur Geradeausblickrichtung sein. Hierunter wird insbesondere verstanden, dass der Winkel zwischen der Geradeausblickrichtung und dem Bildschirm 90° oder nahezu 90° (beispielsweise mit einer maximalen Abweichung <10° in beide Richtungen und somit der Winkel Werte von 80° bis 100° aufweisen kann oder bevorzugt mit einer maximalen Abweichung <5° in beide Richtungen und somit der Winkel Werte von 85° bis 95° aufweisen kann) beträgt. Die erste Abbildungsoptik kann zumindest ein optisches Element umfassen. Bei dem optischen Element kann es sich beispielsweise um eine Linse, eine Fresnellinse, ein ünsenarray und/oder ein diffraktives optisches Element (DOE) handeln. Beispielsweise kann die erste
Abbildungsoptik eine Linse umfassen, wobei die Linse eine optisch wirksame Fläche aufweist. Auf der Linse kann eine diffraktive Struktur angeordnet sein.
Die erfindungsgemäße Anzeigevorrichtung kann neben der ersten Abbildungsoptik eine zweite Abbildungsoptik aufweisen, die in gleicher Weise ausgebildet sein kann wie die erste
Abbildungsoptik. Die zweite Abbildungsoptik ist insbesondere dafür ausgebildet, ein auf dem Bildschirm erzeugtes zweites Bild als virtuelles Bild bereitzustellen, wenn der Benutzer die Haltevorrichtung auf dem Kopf trägt. Insbesondere kann die erste Abbildungsoptik das virtuelle Bild für ein erstes Auge und die zweite Abbildungsoptik das virtuelle Bild für das zweite Auge bereitstellen. In diesem Fall wird eine binokulare Anzeigevorrichtung bereitgestellt. Die erste und/oder zweite Abbildungsoptik kann als Lupenoptik ausgebildet sein. Die Sensoreinheit kann einen Trägheitssensor, wie z.B. ein Gyroskop, einen Neigungssensor, einen Beschleunigungssensor und/oder einen sonstigen Sensor aufweisen.
Die mechanische Verbindung des Bildmoduls mit der Haltevorrichtung ist bevorzugt spielfrei. Bei der erfindungsgemäßen Anzeigevorrichtung kann die Steuereinheit bei Überschreiten eines vorbestimmten Grenzwertes für die Änderung der Winkellage mindestens zwei Menüpunkte sowie einen Cursor im erzeugten Bild einblenden (beispielsweise wird das Bildmodul so angesteuert, dass es bei der Bilderzeugung auch die eingeblendeten Menüpunkte und den Cursor erzeugt) und aus weiteren Änderungen der Winkellage die Bewegung des Cursors im Bild ableiten und darstellen, wobei ein Menüpunkt als ausgewählt gilt, wenn der Cursor eine vorbestimmte Zeitdauer auf dem Menüpunkt verweilt. Somit kann eine Menüsteuerung bzw. eine Menüauswahl rein über die detektierte Bewegung des Kopfes des Benutzers erfolgen. Der Benutzer kann durch Drehen seines Kopfes einerseits das Erscheinen der Menüpunkte im erzeugten Bild sowie des Cursors erzeugen und andererseits die Bewegung des Cursors zur Auswahl eines der Menüpunktes bewirken. Damit ist eine Eingabeschnittstelle zur Auswahl von Menüpunkten realisiert, die über die Detektion der Neigung des Kopfes des Benutzers realisiert wird.
Es wird ferner ein Verfahren zum Steuern einer Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung, einem mechanisch mit der Haltevorrichtung verbundenen Bildmodul, das einen Bildschirm, auf dem ein Bild erzeugt wird, aufweist, und einer mechanisch mit der Haltevorrichtung verbundenen ersten Abbildungsoptik, die das auf dem Bildschirm erzeugte Bild als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung wahrnehmen kann, bereitgestellt, wobei mittels des Bildmoduls eine Änderung der Winkellage der Haltevorrichtung um zumindest eine Raumachse erkannt und in Abhängigkeit der erkannten Änderung der Winkellage bei der Erzeugung des Bildes eine Änderung einer sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt wird. Das erfindungsgemäße Verfahren kann die in Verbindung mit der erfindungsgemäßen Anzeigevorrichtung beschriebenen Verfahrensschritte verwirklichen.
Ferner kann bei dem erfindungsgemäßen Verfahren mittels des Bildmoduls ein durchgeführtes Antippen der Haltevorrichtung erkannt und in Abhängigkeit des erkannten Antippens eine Änderung des auf dem Bildschirm erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm erzeugten Bild enthalten sind, bewirkt werden. Bei dem Verfahren kann das Bildmodul eine Steuereinheit zur Ansteuerung des Bildschirms und eine Sensoreinheit zum Erfassen einer Bewegung des Bildmoduls aufweisen, wobei die Sensoreinheit der Steuereinheit Signale zuführt, anhand derer das durchgeführten Antippen erkannt werden kann.
Bei dem erfindungsgemäßen Verfahren kann die auf dem Bildmodul ausgeführte Anwendung den Bildschirm so ansteuern dass basierend auf zugeführten Bilddaten eines ersten Bildes das erste Bild sowohl in einem ersten Abschnitt des Bildschirms als auch in einem vom ersten Abschnitt getrennten zweiten Abschnitt des Bildschirms erzeugt wird.
Da erfindungsgemäß die Anwendung direkt auf dem Bildmodul ausgeführt wird, kann in vorteilhafter Weise schnell die gewünschte Bilderzeugung durchgeführt werden. Des Weiteren können Bilddaten, die auf dem Bildmodul gespeichert oder von diesem erzeugt werden sind, zur Darstellung genutzt werden.
Beim Bildmodul kann es sich um ein tragbares Gerät mit einer Steuereinheit zum Ausführen von Programmanweisungen und zum Ansteuern des Bildschirms handeln. Eine solche Bilderzeugungsvorrichtung ist z. B. ein Mobiltelefon, wie z. B. ein Smartphone. Erfindungsgemäß wird somit die Eigenschaft des tragbaren Bildmoduls,
Programmanweisungen ausführen zu können, genutzt, um die Anwendung auf dem Bildmodul mit den entsprechenden Anweisungen auszuführen, die die Bildschirmansteuerung und bevorzugt die Aufteilung des Bildschirms in zwei Abschnitte mit der Darstellung des gleichen Bildes in beiden Abschnitten durchführt.
Die Anwendung kann den Bildschirm so ansteuern, dass die beiden Abschnitte voneinander beabstandet sind und der Bereich zwischen den beiden Abschnitten dunkel geschaltet ist.
Ferner kann die Anwendung das erste Bild im ersten und zweiten Abschnitt so erzeugen, dass bei Betrachtung der beiden Bilder kein Stereoeffekt vorliegt. Natürlich können die Bilder auch so erzeugt werden, dass ein Stereoeffekt vorliegt.
Die Bilddaten können in der Weise zugeführt werden, dass die Anwendung auf im Bildmodul (nachfolgend auch Bilderzeugungsvorrichtung genannt) gespeicherte Bilddaten zugreift und/oder dass die Bilddaten auf die Bilderzeugungsvorrichtung gestreamt werden und/oder dass die Bilddaten auf der Bilderzeugungsvorrichtung erzeugt werden. Insbesondere kann die Anwendung Bilddaten anderer Anwendungen auf der Bilderzeugungsvorrichtung
erfindungsgemäß darstellen. Ferner ist es möglich, dass das erste Bild in zumindest in einem der Abschnitte vorverzerrt erzeugt und dadurch ein Abbildungsfehler der Abbildungsoptik zumindest teilweise kompensiert wird.
Wenn die tragbare Bilderzeugungsvorrichtung z. B. als Mobiltelefon ausgebildet ist, kann die Anwendung auch als App bezeichnet werden.
Bei den zugefügten Bilddaten kann es sich insbesondere um Bilddaten einer Aufnahme der Umgebung eines die Anzeigevorrichtung auf dem Kopf tragenden Benutzers und/oder um sonstige Bilddaten handeln. Es ist somit beispielsweise möglich, dem Benutzer die Umgebung als erstes Bild darzustellen. Zusätzlich kann die Umgebung mit weiteren Bildinformationen in Überlagerung gezeigt werden, so dass dem Benutzer mehr als die Umgebung angezeigt wird. Dabei kann es sich beispielsweise um Hinweise handeln, die kontextsensitiv erzeugt und im erzeugten Bild dargestellt werden.
Insbesondere kann dem Benutzer ein Livebild der Umgebung angezeigt werden. Dazu ist bevorzugt noch eine Kamera vorgesehen, die die Umgebung aufnimmt. Die Kamera kann eine separate Kamera sein, die bevorzugt an der Anzeigevorrichtung (z.B. an der Haltevorrichtung) befestigt ist. Insbesondere ist es möglich, eine an der Bilderzeugungsvorrichtung vorhandene Kamera zu nutzen. Bei Smartphones ist in der Regel eine Kamera vorgesehen, die auf der Rückseite (der dem Bildschirm abgewandten Seite) vorgesehen ist, so dass diese Kamera für die Aufnahme der Umgebung genutzt werden kann. Bei dem erfindungsgemäßen Verfahren kann die Anwendung das erste Bild im ersten und zweiten Abschnitt so erzeugen, dass ein Bildinhalt des ersten Bildes im ersten und zweiten Abschnitt entweder mit einem ersten Abstand oder mit einem davon verschiedenen zweiten Abstand erzeugt wird. Damit ist es möglich, die Bilderzeugung an unterschiedliche
Augenpupillenabstände von Benutzern anzupassen.
Insbesondere kann die Anwendung eine Schnittstelle aufweisen, über die der Abstand eingegeben werden kann, wobei dann das erste Bild im ersten und zweiten Abschnitt in Abhängigkeit des eingegebenen Abstandes so erzeugt wird, dass der eingegebene Abstand auf dem Bildschirm zwischen dem Bildinhalt des Bildes vorliegt. Die Schnittstelle kann
insbesondere die erfindungsgemäße Eingabeschnittstelle der Haltevorrichtung sein, die durch Antippen, Klopfen bzw. Stoßen bedient werden kann. Insbesondere ist eine kontinuierliche Abstandsänderung mittels der Anwendung möglich. Zur Einstellung des Abstandes kann es notwendig sein, das erste Bild zu beschneiden. Somit wird dann nicht das komplette erste Bild in den beiden Abschnitten dargestellt, sondern nur ein beschnittenes erstes Bild. Eventuell nicht durch das erste Bild ausgefüllte Bereiche des Bildschirms können schwarz dargestellt werden.
Bei der erfindungsgemäßen Anzeigevorrichtung kann eine Kamera vorgesehen sein, die die Umgebung aufnimmt und als Bilddaten der Bilderzeugungsvorrichtung zuführt. Insbesondere kann die Kamera Teil des Bildmoduls sein.
Somit ist es möglich, mit der erfindungsgemäßen Anzeigevorrichtung dem Benutzer die Umgebung darzustellen. Insbesondere kann dies als Livebild erfolgen. Ferner kann bei der erfindungsgemäßen Anzeigevorrichtung die Anwendung das erste Bild, das eine Aufnahme der Umgebung ist, in Überlagerung mit zumindest einem weiteren Bildelement auf den beiden Abschnitten des Bildschirms erzeugen. Bei dem zumindest einem weiteren Bildelement kann es sich z. B. um einen Hinweis oder auch eine sonstige kontextsensitive Information handeln.
Natürlich ist es auch möglich, dass die aufgenommene Umgebung noch einer
Bilddatenverarbeitung unterzogen wird, bevor sie dargestellt wird. Dabei kann es sich um eine Helligkeitsanpassung, eine Farbanpassung, eine Falschfarbendarstellung, etc. handeln. Die beschriebene Darstellung der Umgebung in Überlagerung mit einer weiteren Bildinformation wird häufig auch als Augmented Reality-Darstellung bezeichnet.
Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in den angegebenen Kombinationen, sondern auch in anderen
Kombinationen oder in Alleinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
Nachfolgend wird die Erfindung beispielsweise anhand der beigefügten Zeichnungen, die auch erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Es zeigen:
Fig. 1 eine schematische perspektivische Darstellung einer Ausführungsform der
erfindungsgemäßen Anzeigevorrichtung 1 ; Fig. 2 eine schematische Draufsicht der Ausführungsform von Fig. 1 ;
Fig. 3 eine schematische Draufsicht der in der Anzeigevorrichtung 1 angeordneten
Bilderzeugungsvorrichtung ;
Fig. 4 eine Draufsicht der Bilderzeugungsvorrichtung gemäß Fig. 3 zur Erläuterung der
Aufteilung des Bildschirms in zwei Abschnitte und der Darstellung der gleichen Bilder auf beiden Abschnitten;
Fig. 5 eine Schnittdarstellung durch die erste Abbildungsoptik 6 gemäß Fig. 2;
Fig. 6 eine Darstellung zur Erläuterung des bereitgestellten Sichtfeldes S;
Fig. 7-9 Darstellungen der Bilderzeugungsvorrichtung gemäß Fig. 4 zur Erläuterung der
Anpassung der Darstellung der Bilder in den beiden Abschnitten an den
Augenpupillenabstand des Benutzers;
Fig. 10 eine Draufsicht der Bilderzeugungsvorrichtung gemäß einer weiteren Ausführungsform;
Fig. 1 1 eine Seitenansicht der Bilderzeugungsvorrichtung gemäß Fig. 10;
Fig. 12 eine Draufsicht der Bilderzeugungsvorrichtung;
Fig. 13 eine Seitenansicht der Bilderzeugungsvorrichtung gemäß Fig. 12, und
Fig.14 und 15 Draufsichten der Bilderzeugungsvorrichtung gemäß einer weiteren
Ausführungsform.
In Fig. 1 ist eine erste Ausführungsform der erfindungsgemäßen Anzeigevorrichtung 1 schematisch in einer perspektivischen Darstellung gezeigt. Die Anzeigevorrichtung 1 umfasst ein im wesentlichen kastenförmig ausgebildetes Vorderteil 2 mit einer offenen Seite 3. Alle anderen Seiten des Vorderteils sind zumindest im Wesentlichen geschlossen. Die Kontur der offenen Seite 3 ist so ausgebildet, dass sie an den Kopf eines Benutzers so anlegbar ist, dass der Benutzer die Anzeigevorrichtung 1 brillenartig auf dem Kopf tragen kann. Dazu weist die Kontur einerseits eine Nasenauflage 4 auf und ist an den beiden seitlichen Enden des Vorderteils 2 ein Halteband 5 befestigt ist. Das Halteband 5 ist beim Tragen der
erfindungsgemäßen Anzeigevorrichtung 1 um den Kopf des Benutzers geführt, so dass der gewünschte Anpressdruck vorliegt, um die Anzeigevorrichtung 1 ergonomisch und bevorzugt lichtdicht auf dem Kopf tragen zu können. Das Halteband 5 kann z. B. als ein elastisches Band und/oder als Band mit einstellbarer Länge ausgebildet sein. Das Vorderteil 2 bildet zusammen mit dem Halteband 5 eine auf den Kopf des Benutzers aufsetzbare Haltevorrichtung. Die erfindungsgemäße Anzeigevorrichtung 1 umfasst eine erste Abbildungsoptik 6 für ein linkes Auge LA des Benutzers und eine zweite Abbildungsoptik 7 für ein rechtes Auge RA des Benutzers, die jeweils ein in einer Bildebene E erzeugtes Bild so vergrößert abbilden, dass es der Benutzer als virtuelles Bild wahrnehmen kann. Dies ist am besten in Fig. 2 ersichtlich, das eine schematische Draufsicht der erfindungsgemäßen Anzeigevorrichtung 1 zeigt, wobei zur besseren Darstellung in Fig. 2 das Vorderteil 2 als oben offen gezeigt ist, was jedoch nicht tatsächlich der Fall ist.
Das Vorderteil 2 ist bis auf die Seite 3 im Wesentlichen geschlossen ausgebildet. In einer bevorzugten Ausführungsform sind diese Seiten vollständig geschlossen, was eine Abschottung von Licht von außen bewirkt. In einer anderen bevorzugten Ausführungsform sind in diesen Seiten Lüftungsschlitze und/oder Lüftungslöcher eingebracht, welche besonders bevorzugt so gestaltet sind, dass das durch sie von außen hindurchtretende Licht minimiert ist.
Da das Vorderteil 2 bis auf die Seite 3 im Wesentlichen geschlossen ausgebildet ist, kann der Benutzer, wenn er die Anzeigevorrichtung 1 bestimmungsgemäß auf dem Kopf trägt, nur die in der Bildebene E erzeugten Bilder und nicht mehr die Umgebung wahrnehmen.
Zur Bilderzeugung kann die erfindungsgemäße Anzeigevorrichtung ein tragbares Gerät 8 mit einem Bildschirm 9 aufweisen, das in der Anzeigevorrichtung 1 so angeordnet ist, dass der Bildschirm 9 des tragbaren Gerätes 8 in der Bildebene E liegt. In Fig. 2 ist zur Vereinfachung der Darstellung lediglich der Bildschirm 9 schematisch eingezeichnet und in Fig. 1 ist zur Vereinfachung der Darstellung nur die Bildebene E und nicht das Gerät 8 dargestellt.
In Fig. 3 ist beispielhaft ein solches tragbares Gerät 8 dargestellt, das einen Bildschirm 9, eine Steuereinheit 10 sowie eine Sensoreinheit 11 zur Erfassung einer Bewegung des Gerätes 8 aufweist. Weitere zum Betrieb des Gerätes 8 notwendige Elemente sind nicht gezeigt. Die Steuereinheit 10 und die Sensoreinheit 1 1 sind gestrichelt dargestellt, da sie im Gerät 8 verbaut und von außen normalerweise nicht sichtbar sind.
Die Steuereinheit 10 kann Programmanweisungen ausführen und dient zur Ansteuerung des Bildschirms 9. Die Sensoreinheit 1 1 kann einen Trägheitssensor, wie z.B. ein 1 -achsiges, 2-achsiges oder 3- achsiges Gyroskop, einen Neigungssensor, einen Beschleunigungssensor und/oder einen sonstigen Sensor aufweisen, mit dem eine Detektion einer Bewegung des Gerätes 8 möglich ist. Die Sensoreinheit 1 1 erzeugt entsprechende Messsignale, die an die Steuereinheit 10 (bevorzugt laufend) übertragen werden, wie mit der gestrichelten Verbindungslinie 12 in Figur 3 schematisch dargestellt ist.
Das tragbare Gerät 8 kann beispielsweise ein Mobiltelefon (z. B. ein sogenanntes Smartphone) oder eine sonstige Vorrichtung mit einem entsprechenden Bildschirm (wie z. B. der sogenannte iPod touch der Firma Apple Inc., Kalifornien, USA) sein und ist bevorzugt auswechselbar im Vorderteil 2 angeordnet.
Wie aus der Darstellung in Fig. 2 ersichtlich ist, bildet jede der beiden Abbildungsoptiken 6, 7 nur einen Teilbereich des Bildschirms 9 ab. Damit ein die Anzeigevorrichtung 1 auf dem Kopf tragender Benutzer ein darzustellendes Objekt mit beiden Augen wahrnehmen kann, muss dieses somit in den beiden Teilbereichen des Bildschirms 9, die durch die beiden
Abbildungsoptiken 6 und 7 abgebildet werden, erzeugt werden.
Dazu ist eine Anwendung bzw. ein Programm auf dem tragbaren Gerät 8 vorgesehen, das durch die Steuereinheit 10 ausgeführt wird und den Bildschirm 9 so ansteuert, dass basierend auf zugeführten Bilddaten für das darzustellende Objekt bzw. für ein darzustellendes erstes Bild das Objekt bzw. das erste Bild 13 mit schematisch dargestellten Bildelementen 13I , 132 und 133 sowohl auf einem ersten Abschnitt 14 des Bildschirms 9 als auch auf einem vom ersten Abschnitt 14 getrennten zweiten Abschnitt 15 des Bildschirms erzeugt, wie in Fig. 4 gezeigt ist.
Da die Anwendung auf dem Gerät 8 selber ausgeführt wird, können in vorteilhafter Weise auf dem Gerät 8 gespeicherte Bilddaten oder dem Gerät 8 zugeführte Bilddaten (z. B. gestreamte Bilddaten, bevorzugt über eine geeignete drahtlose Verbindung) benutzt werden, um die Darstellung der Bilder in den beiden Abschnitten 14 und 15 zu erzeugen. Insbesondere können aus anderen auf dem Gerät 8 laufenden Anwendungen stammende Bilddaten durch die erfindungsgemäße Anwendung so aufbereitet werden, dass stets in beiden Abschnitten 14 und 15 das gleiche Bild dargestellt wird. Dem die Anzeigevorrichtung 1 auf dem Kopf tragenden Benutzer können somit Bilder und Filme so dargeboten werden, dass er sie mit beiden Augen vergrößert als virtuelle Bilder wahrnehmen kann. Der Benutzer kann somit z. B. Videos von youtube oder sonstigen Videoplattformen, Videos, die auf dem Gerät gespeichert sind, oder sonstige Videos oder Bilder in der gewünschten Art und Weise vergrößert wahrnehmen. Auch ist es möglich, Bilder von auf dem Gerät installierten Spielen oder sonstigen Anwendungen vergrößert darzustellen. Die beiden Abschnitte 14 und 15 können so gewählt sein, dass sie direkt aneinander grenzen. Alternativ ist es möglich, dass sie voneinander beabstandet sind. Der Abstandsbereich kann insbesondere als dunkel geschalteter Bereich dargestellt bzw. angesteuert werden.
Die Anwendung kann die Bilder 13 so in den beiden Abschnitten 14, 15 darstellen, dass für den Benutzer kein Stereoeffekt vorliegt. Es ist jedoch auch möglich, einen Stereoeffekt zu erzeugen.
Bei dem tragbaren Gerät 8 ist der Bildschirm 9 bevorzugt berührungssensitiv und bildet die primäre Eingabeschnittstelle. Diese primäre Eingabeschnittstelle ist beim
bestimmungsgemäßen Gebrauch der Anzeigevorrichtung 1 für den Benutzer nicht mehr zugänglich, da dann das Gerät in das Vorderteil 2 eingesetzt ist. Daher ist die
erfindungsgemäße Anzeigevorrichtung 1 so ausgebildet, dass ein Antippen des Vorderteils 2 mittels der Sensoreinheit 1 1 gemessen und mittels der Steuereinheit 10 ausgewertet wird, die daraufhin den Bildschirm 9 so ansteuern kann, dass das erste Bild 11 geändert wird. Ein
Antippen des Vorderteils 2 kann mittels des Gerätes 8 gut detektiert werden, da das Gerät 8 im in das Vorderteil 2 eingesetzten Zustand mechanisch mit dem Vorderteil 2 verbunden ist (bevorzugt spielfrei), damit es während der bestimmungsgemäßen Benutzung der
Anzeigevorrichtung 1 die vorgegebene Position relativ zu den Abbildungsoptiken 6 und 7 beibehält. Somit überträgt sich ein Antippen des Vorderteils 2 direkt auf das Gerät 8, was dann mittels der Sensoreinheit 1 1 gemessen werden kann. Dies führt zu einer Änderung der von der Sensoreinheit 11 erzeugten Messsignale, die zur Steuereinheit 10 übertragen werden, so dass die Steuereinheit 10 in Abhängigkeit der Änderung der Messsignale ein durchgeführtes Antippen erkennen kann.
Die einfachste Eingabe ist somit ein einzelnes Antippen, was beispielsweise dem Anklicken einer Schaltfläche mit einer Maus bei einem herkömmlichen Computer entspricht.
Die Steuereinheit 10 kann somit insbesondere so ausgebildet sein, dass sie ein Antippen erkennt. Auch kann die Anzahl von mehreren Antippvorgängen und/oder deren zeitlicher
Abstand als Eingabesignale ausgewertet werden. Des Weiteren ist es möglich, die Position, an der das Vorderteil 2 angetippt wird, als weitere Information für die so bereitgestellte
Eingabeschnittstelle ausgewertet wird. So kann beispielsweise die Anwendung, die gerade auf dem Gerät 8 ausgeführt wird und deren Bild 1 1 dargestellt wird, einzelne Menüpunkte oder Funktionen zur Auswahl in den vier Ecken des Bildes anbieten, wie durch die Viertelkreise M1 , M2, M3 und M4 in Fig. 4 angedeutet ist. Ein Antippen des Vorderteils 2 in dem linken oberen Bereich 16 (Fig. 1 ) führt dann zur Auswahl des Menüpunkts M1. Ein Antippen in dem rechten oberen Bereich 17 des Vorderteils 2 (Fig. 1 ) führt dann zur Auswahl des Menüpunkts M2. In gleicher Weise führt ein Antippen im linken unteren Bereich des Vorderteils 2 zur Auswahl des Menüpunkts M3 und ein Antippen im rechten unteren Bereich des Vorderteils 2 zur Auswahl des Menüpunkts M4. Das Antippen des Vorderteils 2 aus unterschiedlichen Richtungen bewirkt insbesondere bei Verwendung eines„mehrachsigen" Sensors ein in jeder Achse charakteristisches Signal, so dass durch Analyse der Signale in den einzelnen Achsen auf den Ort und/oder die Richtung des Antippens rückgeschlossen werden kann. Trägt beispielsweise ein aufrechtstehender Nutzer mit erhobenem Kopf das Gerät, so bewirkt beispielsweise ein Antippen der linken Seite ein beispielsweise positives Signal im
Horizontalsensor, während ein Antippen der rechten Seite ein dann beispielsweises negatives Signal im Horizontalsensor bewirkt. Dagegen zeigt der Vertikalsensor kein Signal. Ein Antippen der rechten oberen Ecke in Richtung links unten bewirkt beispielsweise ein negatives Signal im Horizontalsensor und ein beispielsweises negatives Signal im
Vertikalsensor. Ein Antippen der rechten unteren Ecke in Richtung links oben bewirkt dann ein beispielsweise negatives Signal im Horizontalsensor aber ein beispielsweise positives Signal im Vertikalsensor. Und so weiter. Auf diese Art und Weise lässt sich die Richtung des Antippens bestimmen. Da die Form des Vorderteils 2 bekannt ist und ein Antippen praktisch nur von außen möglich ist, ist damit auch (zumindest ungefähr) klar, welche Stelle des Vorderteils 2 angetippt wurde.
Auch ist es möglich, die bestimmte Richtung des Antippens, also die Richtung, in der beim Antippen gegen das Vorderteil 2 gestoßen wurde, als Eingabekriterium zu nutzen. Ein
Anstoßen in einer ersten Richtung R1 von rechts oben nach links unten (Fig. 1 ) kann z.B. als Auswahl des Menüpunktes M2 ausgelegt und verarbeitet werden. Dabei kann z.B. die Position des Antippens unberücksichtigt bleiben, so dass auch ein Antippen in der selben Richtung an einer anderen Stelle des Vorderteils 2, wie durch den Pfeil R1 ' in Fig. 1 gezeigt ist, zur Auswahl des Menüpunktes M2 führen wurde. Alternativ kann natürlich die Position des Antippens zusätzlich berücksichtigt werden. Ferner kann z.B. die Richtung des Antippens zusammen mit der Stärke des Antippens und somit der Antippimpuls bzw. der durch das Antippen bzw.
Anstoßen erzeugte Impuls berücksichtigt werden. Um eine klare Zuordnung von beispielsweise Menüpunkten oder anderen Funktionalitäten zu erreichen, ist es besonders vorteilhaft - anders als in üblichen Applikationen/Programmen - die Menüpunkte in die Ecken der Bildschirmanzeige zu verlegen, da hier eine klare Zuordnung der Signale zu den entsprechenden Richtungen bzw. angetippten Stellen besonders einfach ist. Durch das Antippen oder Anstoßen des Vorderteils 2, was leicht mit einem Finger oder mehreren Fingern erfolgen kann, kann somit die durch das Gerät 8 bereitgestellte Anzeige bzw. die bereitgestellten Bilder 13 beeinflusst werden.
Die erfindungsgemäße Anzeigevorrichtung stellt somit eine einfach zu bedienende und gut funktionierende Eingabeschnittstelle bereit, mit der das Gerät 8 bedient werden kann.
Die beiden Abbildungsoptiken 6, 7 können gleich oder unterschiedlich ausgebildet sein. Bei der hier beschriebenen Ausführungsform sind sie gleich ausgebildet, so dass nachfolgend lediglich die erste Abbildungsoptik 6 im Detail beschrieben wird.
Die erste Abbildungsoptik 6 umfasst eine erste Linse 18 mit negativer Brechkraft und eine zweite Linse 19 mit positiver Brechkraft, wobei beide Linsen 18, 19 voneinander beabstandet sind (Fig. 5).
Die erste Linse 18 ist als Konvex-Konkav-Linse ausgebildet und weist eine erste und eine zweite Grenzfläche 20, 21 auf, wobei die konkave Seite 20 dem Bildschirm 9 bzw. der Bildebene E zugewandt ist. Die zweite Linse 19 ist als Konvex-Konvex-Linse ausgebildet und weist eine erste und eine zweite Grenzfläche 22, 23 auf. Alle vier Grenzflächen 20 bis 23 sind als asphärische Flächen ausgebildet. Insbesondere können sie als rotationssymmetrische Asphären ausgebildet sein, die bezüglich der optischen Achse OA rotationssymmetrisch sind. Die optische Achse OA steht senkrecht auf der Bildebene E. Die vier Grenzflächen können durch die folgende Flächengleichung beschrieben werden, wobei r die radiale Höhe auf der Fläche ist.
+ Ar4 + Br6 + Cr8 + Dr10 + ErU + Fr .14
Figure imgf000018_0001
Die Asphärenkonstanten für die Flächen sind in nachfolgenden Tabellen 1 und 2 angegeben.
Tabelle 1
Fläche C k A B
23 0.03033007 -1 .60209948 -4.30003E-05 6.46580E-08
22 -0.12496804 -3.35679383 -8.06124E-05 2.67804E-07 21 0.04115641 -43.59420143 -8.60171 E-05 5.94804E-07
20 0.16131 129 -3.81629776 5.94271 E-06 1.79555E-07
Tabelle 2
Fläche C D E F
23 0 0 0 0
22 -6.80472E-10 8.06005E-13 0 0
21 -2.59066E-09 6.83841 E-12 -9.37934E-15 4.79164E-18
20 -1 .58643E-09 5.55020E-12 -9.00686E-15 5.57075E-18
Die Abstände entlang der optischen Achse OA sind in der nachfolgenden Tabelle 3 angegeben.
Tabelle 3
Figure imgf000019_0001
Die erste Linse 18 ist aus Polycarbonat mit einer Brechzahl n1 von 1 ,585 und einer Abbe-Zahl vi von 30,0 gebildet. Die zweite Linse 19 ist aus PMMA mit einer zweiten Brechzahl n2 von 1 ,492 und einer zweiten Abbe-Zahl v2 von 57,2 gebildet. Die Brechzahlen und Abbe-Zahlen sind hier für die Wellenlänge von 589 nm angegeben.
Da die beiden Linsen 18 und 19 voneinander beabstandet und nicht als Kittglied ausgebildet sind, können alle vier Grenzflächen 20 - 23 genutzt werden, um die gewünschte Abbildung zu erzielen. Damit ist es möglich, das Bild 13 als virtuelles Bild abzubilden, wobei die
Austrittspupille 24 (bzw. Eyebox 24) der ersten Abbildungsoptik 6 einen Durchmesser von 8 mm aufweist. Die Austrittspupille 24 ist von der Bildebene E und somit vom Bildschirm 9 um einen Abstand d von 60,52 mm beabstandet. Der erste und zweite Abschnitt 14, 15 weisen jeweils ein Seitenverhältnis von 4:3 auf, wobei die Diagonale 62,5 mm beträgt. Somit liegt ein äußerst kompakter Aufbau vor, der hervorragende optische Abbildungseigenschaften bereitstellt.
So wird das virtuelle Bild dem Benutzer mit einem Sichtfeld S mit a1 = 60° in y-Richtung und a2 = 45° in x-Richtung (Fig. 6) bereitgestellt, so dass das Sichtfeld S in der Diagonalen 75° beträgt. Da der Abstand zwischen der Austrittspupille 24 und der Fläche 23 18 mm beträgt, kann ein Brillenträger die erfindungsgemäße Anzeigevorrichtung 1 bestimmungsgemäß zusammen mit seiner Brille auf dem Kopf tragen.
Bei der erfindungsgemäßen Anzeigevorrichtung sind die beiden Abbildungsoptiken 6 und 7 für das linke und rechte Auge LA, RA des Benutzers um 61 mm voneinander beabstandet. Dies entspricht etwa dem mittleren Augenpupillenabstand der Weltbevölkerung. Nachdem die beiden Abbildungsoptiken 6, 7 jeweils eine runde Austrittspupille 24 mit einem Durchmesser von 8 mm aufweisen, können Benutzer mit Augenpupillenabständen im Bereich von 55 mm bis 69 mm die virtuellen Abbildungen der Bilder 13 auf dem Bildschirm 9 ohne Beschneidung des Bildfeldes wahrnehmen. Für ein ermüdungsfreies Betrachten der dargestellten Bilder ist es vorteilhaft, dass die beiden Bilder 13 so auf dem Bildschirm 9 so erzeugt werden, dass der Abstand der Bildelemente 13i - 133 an den individuellen Augenpupillenabstand des jeweiligen Benutzers angepasst ist, insbesondere kann der Abstand der Bildelemente 13i - 133 dem individuellen Augenpupillenabstand entsprechen oder diesem nahezu entsprechen. Dies gilt insbesondere für Benutzer mit einem Augenpupillenabstand der kleiner ist als der Abstand der beiden Abbildungsoptiken 6, 7, da diese sonst quasi etwas nach außen schielen müssen, was ergonomisch wesentlich ungünstiger ist und weniger toleriert wird, als ein Schielen nach innen, was Benutzer mit einem Augenpupillenabstand eventuell machen, der größer ist als der Abstand der beiden Abbildungsoptiken 6, 7.
Daher kann die Anwendung eine Funktion aufweisen, mit der der Abstand der Bilder 13 und insbesondere der Bildelemente 13i— 133 änderbar ist.
In Fig. 7 ist das tragbare Gerät 8 in gleicher Weise wie in Fig. 4 dargestellt, wobei der Abstand D der Bildelemente 13i— 133 dargestellt ist. Es wird angenommen, dass der Abstand D 61 mm beträgt bzw. für diesen Abstand der beiden Abbildungsoptiken 6 und 7 angepasst ist. Ein Benutzer mit einem Augenpupillenabstand von 61 mm kann somit bei aufgesetzter
Anzeigevorrichtung 1 ermüdungsfrei geradeaus blicken und dabei die Bilder 13 gut wahrnehmen.
Wenn nun ein Benutzer mit einem kleineren Augenpupillenabstand die erfindungsgemäße Anzeigevorrichtung 1 nutzen will, ist es möglich, den Abstand D zu verringern. Dies ist schematisch in Fig. 8 gezeigt. Dazu wird das Bild 13 z.B. von der linken Seite etwas beschnitten, so dass das Bildelement 133 nicht mehr komplett im Bild enthalten ist, wie in Fig. 8 dargestellt ist. Dies führt jedoch dazu, dass der Abstand D der Bildelemente 13i - 133 kleiner ist als bei dem in Fig. 7 gezeigten Zustand. Nachdem bei dem Zustand gemäß Fig. 8 die Ausdehnung der Bilder 13 in waagrechter Richtung geringer ist, bleiben links und rechts zwei streifenförmige Bereiche des Bildschirms 9 ungenutzt. Diese sind in Fig. 8 schraffiert dargestellt und können z.B. dunkel geschaltet sein (es wird schwarz dargestellt). Für den Fall, dass der Abstand der Augenpupillen des Benutzers größer ist als der Abstand der Abbildungsoptiken 6, 7 können die Bilder 13 so dargestellt werden, dass der Abstand der Bildelemente 13i— 133 größer ist als in dem Zustand von Fig. 7. Dieser Zustand für den größeren Abstand der Augenpupillen ist in Fig. 9 gezeigt. Die beiden Bilder 13 können mit einem Abstand voneinander dargestellt werden, so dass im mittleren Bereich des Bildschirms 9 ein nicht genutzter streifenförmiger Bereich vorliegt, der in Fig. 9 schraffiert dargestellt ist und der wiederum dunkel geschaltet sein kann.
Die beschriebene Eingabeschnittstelle mit dem Antippen des Vorderteils 2 kann dazu genutzt werden, Eingaben bezüglich des Abstandes D der Bildelemente 13i - 133 der Anwendung zu übergeben. In Abhängigkeit davon steuert die Anwendung dann die Bilderzeugung gemäß der in Verbindung mit Fig. 7 - 9 beschriebenen Zustände. Auch ist es möglich, in der Anwendung einen gewünschten Augenpupillenabstand zu hinterlegen, der dann verwendet wird. Dies kann über die beschriebene Eingabeschnittstelle mit dem Antippen des Vorderteils 2 durchgeführt werden.
Nachfolgend wird in Verbindung mit Fig. 10 bis 13 eine weitere Ausführungsform der erfindungsgemäßen Anzeigevorrichtung beschrieben. Bei dieser Ausführungsform ist die Sensoreinheit 11 des tragbaren Gerätes 8 so ausgebildet, dass sie eine Drehung des Gerätes 8 um eine, zwei oder alle drei Raumachsen x, y, z erfassen kann. So kann die Sensoreinheit 1 1 beispielsweise ein einachsiges, zweiachsiges oder dreiachsiges Gyroskop aufweisen. Aus den Signalen der Sensoreinheit 11 , die der Steuereinheit 10 zugeführt sind, kann die Steuereinheit 10 erkennen, ob z.B. ein Drehen um die y-Achse erfolgt oder welcher Drehwinkel α (Fig. 11 und 13) vorliegt. Dies kann z.B. dazu genutzt werden, dass ein im Bild 13 enthaltener Text 13i in Abhängigkeit der ermittelten Winkellage bzw. des ermittelten Drehwinkels α unterschiedlich groß dargestellt wird. Dies kann z.B. dadurch erreicht werden, dass das gesamte Bild 13 in Abhängigkeit des ermittelten Drehwinkels α unterschiedlich groß dargestellt wird. Die
Winkellage um die y-Achse gemäß Fig. 11 kann z.B. als Winkel α = 0° festgelegt werden. Dabei kann es sich z.B. um die Winkellage handeln, die vorliegt, wenn beim bestimmungsgemäßen Gebrauch der erfindungsgemäßen Anzeigevorrichtung 1 der Benutzer gerade nach vorne blickt. Wenn der Benutzer nun seinen Kopf nach unten neigt, führt dies dazu, dass das Gerät 8 um die Raumachse y gedreht wird, so dass der Winkel α einen Wert von größer als 0° aufweist. Wenn der Winkel α einen ersten Grenzwert G1 übersteigt (G1 kann beispielsweise im Bereich von 5 bis 20° liegen) steuert die Steuereinheit 11 die auf dem Gerät 8 laufende Anwendung, die den in Fig. 10 eingezeichneten Text 13i darstellt, so an, dass der Text 13i vergrößert dargestellt wird. Dies ist in Fig. 12 schematisch gezeigt.
Die Messung des Drehwinkels um die Raumachse y erfolgt bevorzugt laufend und die
Steuereinheit 10 kann so ausgebildet sein, dass die in Fig. 12 gezeigte Vergrößerung des dargestellten Textes 13i wieder deaktiviert wird und die ursprüngliche Vergrößerung gemäß Fig. 10 angewendet wird, wenn der Drehwinkel α unter einen zweiten Grenzwert G2 (wobei bevorzugt G2 < G1 ist) fällt. Man kann auch sagen, dass bei der Darstellung gemäß Fig. 10 ein Vergrößerungsfaktor V1 und bei der Darstellung gemäß Fig. 12 ein Vergrößerungsfaktor V2 vorliegt, wobei V2 größer als V1 ist.
Um eine gewisse Robustheit (Hysterese) bei dieser Darstellung der vergrößerten Darstellung des Textes 13i zu erlangen, können die Grenzwerte G1 und G2 in der beschriebenen Art so gewählt sein, dass der Grenzwert G2 kleiner ist als der Grenzwert G1.
In dieser Art und Weise wird z.B. die Funktion einer Gleitsichtbrille nachgebildet, da beim Lesen eines Textes 13i dieser mit einer stärkeren Vergrößerung dargestellt wird, als beispielsweise andere Informationen. Dabei wird angenommen, dass der Benutzer beim Lesen eines Textes etwas nach unten blickt, so dass der Winkel α den ersten Grenzwert G1 übersteigt.
Die Steuereinheit 1 1 kann auch so ausgebildet sein, dass der Vergrößerungsfaktor für die Darstellung des Textes 13i mit zunehmender Größe des Winkels α bzw. der Winkeländerung α ebenfalls (z.B. kontinuierlich, quasi kontinuierlich oder schrittweise) zunimmt. Auch in diesem Fall kann die Zunahme der Vergrößerung erst ab einem vorbestimmten Grenzwert G1 für den Drehwinkel α erfolgen.
Es ist ferner zusätzlich oder alternativ möglich, die Drehung des Gerätes 8 um die Raumachse z in ähnlicher Art und Weise auszuwerten, um dann z.B. den Text 13i vergrößert darzustellen. Dies ist schematisch in den Fig. 14 und 15 gezeigt. Sobald der Drehwinkel ß um die
Raumachse z einen vorbestimmten Grenzwert G3 übersteigt, kann der Text 13i vergrößert dargestellt werden. Nachdem die Drehung des Gerätes 8 durch ein entsprechendes Neigen des Kopfes beim Tragen der erfindungsgemäßen Anzeigevorrichtung erfolgt, ist für den Benutzer der dargestellte Text 13i nicht gedreht. Die Darstellung gemäß Fig. 15 ist nur gewählt, um zu verdeutlichen, dass eine Drehung um die Raumachse z vorliegt. Auch hier kann in gleicher Weise eine Hysterese eingestellt werden. Somit wird eine Zurückschaltung der Vergrößerung von dem Zustand gemäß Fig. 15 zu dem Zustand in Fig. 14 durchgeführt, wenn der Drehwinkel ß einen vierten Grenzwert G4 unterschreitet. Bevorzugt ist G4 kleiner als G3. Auch ist es wiederum möglich, eine kontinuierliche, quasi kontinuierliche oder eine schrittweise Zu- oder Abnahme der Vergrößerung in Abhängigkeit des Drehwinkels ß zu verwirklichen.
Neben der Vergrößerung des dargestellten Textes 13i oder der Vergrößerung des dargestellten Bildes, kann erfindungsgemäß auch jede andere Eigenschaft, die sich auf die Darstellung des erzeugten Bildes auf den Bildschirm 9 auswirkt, in Abhängigkeit des entsprechenden
Drehwinkels eingestellt oder geändert werden. Dabei ist nicht eine inhaltliche Änderung des Bildes an sich gemeint, sondern z.B. eine Änderung der Vergrößerung (wie bereits
beschrieben), eine Änderung einer Verzerrung in der Darstellung, eine Änderung der
Verdunklung, eine Änderung der Farbanpassung, eine Filterung, eine Kantenschärf ung, etc.
Um zu verhindern, dass eine unbeabsichtigte Kopfbewegung eine nicht gewünschte Interaktion (wie z.B. die beschriebene Vergrößerung) bewirkt, kann die Steuereinheit 11 entsprechend ausgebildet sein. So kann z.B. durch die Bereitstellung von Trainingsbeispielen die
Steuereinheit entsprechend angelernt werden, um die optimalen Grenzwerte G1 -G4 festzulegen.
Ferner können Kontextinformationen zu einem robusteren (also korrekt arbeitenden) und dadurch einfach bedienbaren System führen. Im Fall der beschriebenen vergrößerten
Darstellung eines Textes kann z.B. die beschriebene Vergrößerung des Textes in Abhängigkeit des Drehwinkels um zumindest eine Raumachse nur dann aktiviert werden, wenn auch Text im dargestellten Bild 13 sichtbar ist. Dazu können die entsprechenden Bilddaten kontinuierlich nach Textinhalten durchsucht werden. Wenn die Bilddaten durch Aufnahme mittels einer Kamera des tragbaren Geräts 8 erzeugt werden, können diese Aufnahmen mit einer (optischen) Buchstabenerkennung analysiert werden. Die beschriebene Vergrößerungsfunktion wird bevorzugt erst dann aktiviert, wenn sowohl die notwendige Mindestwinkeländerung eingetreten ist als auch Text im erzeugten Bild erkannt wurde.
Ferner ist es möglich, dass die Sensoreinheit 10 einen Beschleunigungssensor enthält. Dieser kann ausgelesen werden, um festzustellen, ob sich der Benutzer im Ruhezustand oder im Bewegungszustand befindet. Im Bewegungszustand (z.B. Gehen) wird es häufiger
Winkeländerungen der Kopfneigung (Wippen beim Gehen, Umblicken) geben, die nicht zu Vergrößerungsänderungen führen soll. Folglich erhält der Ruhezustand z.B. geringere
Grenzwerte G1 und G3. Der aktive Bewegungszustand (Gehen, Laufen) ist dadurch gekennzeichnet, dass es häufig Beschleunigungsänderungen und kleinere Winkeländerungen gibt. Ferner kann man die detektierte Geschwindigkeit der Bewegung (die z.B. mittels Integration der Beschleunigungssensordaten ermittelt oder die mit einem GPS-Sensor, sofern in der
Sensoreinheit 11 vorhanden, ermittelt werden kann) berücksichtigt werden, um eine aktive Bewegung (z.B. Gehen, Laufen) von einem passiven Bewegungszustand, wie z.B. Zugfahren, Autofahren, etc. abzugrenzen. Wenn z.B. die Geschwindigkeit einen vorbestimmten Wert übersteigt, wie z.B. 20 km/h, kann davon ausgegangen werden, dass es sich um einen passiven Bewegungszustand handelt, in dem die Lesefunktion erwünscht sein kann.
Ferner ist es möglich, durch Nutzen der Meßdaten der Winkelsensoren und gegebenenfalls des Beschleunigungssensors bzw. der Beschleunigungssensoren des Gerätes 8 Interaktionsgesten zu realisieren, die einem Steuerungsbefehl zugewiesen sind. Bei dem Steuerungsbefehl kann es sich z.B. um die Erhöhung oder Verringerung eines Wertes, um eine Menüführung, um die Auswahl eines Menüpunktes M1 -M4, etc. handeln. Es ist möglich, ein vorgegebenes
Änderungsmuster der Winkel und gegebenenfalls unter Berücksichtigung von Signalen eines Beschleunigungssensors einem Steuerungsbefehl zuzuweisen. Auch ist es möglich, selber Änderungsmuster festzulegen und selber dieses Änderungsmuster einem vorbestimmten Steuerungsbefehl zuzuordnen.
Die erfindungsgemäße Anzeigevorrichtung kann zusätzlich oder alternativ so ausgebildet sein, dass Menüpunkte M1 -M4, wie sie in Figuren 10, 12, 14 und 15 gezeigt sind, eingeblendet werden, wenn der Winkel α den ersten Grenzwert G1 übersteigt. Gleichzeitig wird ein Cursor eingeblendet, der nun mittels der Kopfbewegung von dem Benutzer auf einen der Menüpunkte M1 -M4 positioniert werden kann. Wenn sich der Cursor eine vorbestimmte Zeitdauer auf dem ausgewählten Menüpunkt M1 -M4 befindet, wird dies als Auswahl des entsprechenden Menüpunktes M1 -M4 ausgewertet. Dies kann dem Benutzer optisch beispielsweise dadurch angezeigt werden, dass die Fläche des entsprechenden Menüpunktes M1 -M4 farbig aufgefüllt wird. Sobald der gesamte Menüpunkt M1 -M4 ausgefüllt ist, gilt er als ausgewählt.
Natürlich müssen sich die Menüpunkte M1 -M4 nicht in den Ecken befinden, wie in den Figuren 10, 12, 14 und 15 gezeigt ist. Es kann jede andere Form der Menüdarstellung gewählt werden. Beispielsweise kann ein Menüband (z.B. waagrecht oder senkrecht) eingeblendet werden, das mehrere (zumindest zwei) Menüpunkte aufweist, die dann mit dem Cursor in der beschriebenen Art und Weise markiert und ausgewählt werden können. Somit kann rein mit der Kopfbewegung eine Menüsteuerung realisiert werden. Die Auswertung der Kopfstellung kann insbesondere mit der Sensoreinheit 11 des tragbaren Gerätes 8 durchgeführt werden, das eine Drehung des Gerätes 8 um eine, zwei oder alle drei Raumachsen x, y, z erfassen kann. Mit der beschriebenen Anzeigevorrichtung 1 kann somit insbesondere bei einer zeitlichen Bildsequenz eine ihre Darstellung beeinflussende Eigenschaft in Abhängigkeit des Drehwinkels bzw. einer Änderung des Drehwinkels um zumindest einer Raumachse gesteuert zu ändern.
Neben der beschriebenen Variante im Zusammenhang mit der erfindungsgemäßen
Anzeigevorrichtung, kann die beschriebene Steuerung auch an dem Gerät 8 alleine erfolgen. Das bedeutet, wenn man das Gerät 8 in der Hand hält und entsprechend neigt, kann man dadurch dieses steuern.
Ferner ist es möglich, die in Verbindung mit Fig. 10 bis 15 beschriebenen Ausführungsformen für sich alle oder zusammen mit den in Verbindung mit Fig. 1 bis 9 beschriebenen
Ausführungsformen zu realisieren. Man kann somit z.B. die Neigungs- bzw.
Drehwinkelsteuerung mit der beschriebenen Antipp-Eingabeschnittstelle des Vorderteils 2 kombinieren. Es ist jedoch auch möglich, nur die Neigungs- bzw. Drehwinkelsteuerung zu verwirklichen.

Claims

Patentansprüche
1 . Anzeigevorrichtung mit
einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung (2, 5),
einem mechanisch mit der Haltevorrichtung (2, 5) verbundenen Bildmodul (8), das einen Bildschirm (9), auf dem ein Bild (13) erzeugt wird, aufweist,
und einer mechanisch mit der Haltevorrichtung (2, 5) verbundenen ersten Abbildungsoptik (6, 7), die das auf dem Bildschirm (9) erzeugte Bild (13) als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) wahrnehmen kann, wobei das Bildmodul (8) ferner eine Steuereinheit (10) zur Ansteuerung des Bildschirms (9) und eine Sensoreinheit (1 1 ) zum Erfassen der Drehung des Bildmoduls (8) um zumindest eine von drei Raumachsen aufweist,
wobei die Sensoreinheit (1 1 ) der Steuereinheit (10) Signale zuführt, die aus den Signalen eine Änderung der Winkellage (a, ß) um die zumindest eine Raumachse erkennt und in Abhängigkeit der erkannten Änderung der Winkellage bei der Erzeugung des Bildes (13) eine Änderung einer sich auf die Darstellung aufwirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes und/oder die Steuerung einer auf dem Bildmodul (8) ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm (9) erzeugten Bild (13) enthalten sind, bewirkt.
2. Anzeigevorrichtung nach Anspruch 1 , bei der die bewirkte Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung der auf dem Bildmodul (8) ausgeführten Anwendung erst dann bewirkt wird, wenn die Änderung der Winkellage (a, ß) einen ersten Grenzwert (G1 , G3) übersteigt.
3. Anzeigevorrichtung nach Anspruch 2, bei der die bewirkte Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) rückgängig gemacht wird, wenn die Änderung der Winkellage (a, ß) einen zweiten Grenzwert (G2, G4) unterschreitet.
4. Anzeigevorrichtung nach Anspruch 3, bei der der zweite Grenzwert (G2, G4) kleiner ist als der erste Grenzwert (G1 , G3).
5. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die sich auf die
Darstellung auswirkende Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) die Größe des dargestellten Bildes (13) ist.
6. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die sich auf die
Darstellung auswirkende Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) die Größe eines dargestellten Textes (12) ist.
7. Anzeigevorrichtung nach Anspruch 6, bei der die Änderung der Größe der Darstellung nur durchgeführt wird, wenn die Steuereinheit (10) Text als Inhalt des erzeugten Bildes erkennt.
8. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) mit zunehmender Änderung der Winkellage (a, ß) erhöht wird.
9. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Änderung der sich auf die Darstellung auswirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (12) und/oder die Steuerung der auf dem Bildmodul (8) ausgeführten Anwendung nur dann erfolgt, wenn eine weitere Randbedingung erfüllt ist, die sich aus der Analyse der Daten der
Sensoreinheit (1 1 ) ergibt.
10. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Sensoreinheit eine Bewegung des Bildmoduls erfassen und entsprechende Bewegungssignale der Steuereinheit (10) zuführen kann und die Steuereinheit (10) aus den Bewegungssignalen ein Antippen der Haltevorrichtung (2, 5) erkennt und die Änderung der sich auf die Darstellung auswirkenden
Eigenschaften des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung der auf dem Bildmodul (8) ausgeführten Anwendung in Abhängigkeit der erkannten Änderungen der Winkellage und in Abhängigkeit des erkannten Antippens bewirkt.
1 1 . Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Steuereinheit (10), wenn sie ein vorbestimmtes Muster von Änderungen der Winkellage (a, ß) um die zumindest eine Raumachse erkennt, einen diesem Muster zugeordneten Steuerbefehl für die Anwendung ausführt.
12. Anzeigevorrichtung nach Anspruch 1 1 , bei der die Sensoreinheit einen
Beschleunigungssensor aufweist und die Steuereinheit (10), wenn sie ein vorbestimmtes Muster von Änderungen der Winkellage (a, ß) um die zumindest eine Raumachse und von einer Beschleunigung in zumindest einer vorbestimmten Richtung erkennt, einen diesem Muster zugeordneten Steuerbefehl für die Anwendung ausführt.
13. Anzeigevorrichtung nach einem der obigen Ansprüche, bei der die Steuereinheit (10) bei Überschreiten eines vorbestimmten Grenzwertes für die Änderung der Winkellage mindestens zwei Menüpunkte (M1 , M2, M3, M4) sowie einen Cursor im erzeugten Bild (13) einblendet und aus weiteren Änderungen der Winkellage die Bewegung des Cursors im Bild ableitet und darstellt, wobei ein Menüpunkt (M1 -M4) als ausgewählt gilt, wenn der Cursor eine vorbestimmte Zeitdauer auf dem Menüpunkt verweilt.
14. Verfahren zum Steuern einer Anzeigevorrichtung mit
einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung (2, 5),
einem mechanisch mit der Haltevorrichtung (2, 5) verbundenen Bildmodul (8), das einen
Bildschirm (9), auf dem ein Bild (13) erzeugt wird, aufweist,
und einer mechanisch mit der Haltevorrichtung (2, 5) verbundenen ersten Abbildungsoptik (6, 7), die das auf dem Bildschirm (9) erzeugte Bild (13) als virtuelles Bild so abbildet, dass es der Benutzer im auf dem Kopf aufgesetzten Zustand der Haltevorrichtung (2, 5) wahrnehmen kann, bei dem mittels des Bildmoduls (8) eine Änderung der Winkellage (a, ß) der Haltevorrichtung (2, 5) um zumindest eine Raumachse erkannt und in Abhängigkeit der erkannten Änderungen der Winkellage (a, ß) bei der Erzeugung des Bildes (13) eine Änderung einer sich auf die
Darstellung auswirkenden Eigenschaft des auf dem Bildschirm (9) erzeugten Bildes (13) und/oder die Steuerung einer auf dem Bildmodul ausgeführten Anwendung, die Inhalte bereitstellt, die im auf dem Bildschirm (9) erzeugten Bild (13) enthalten sind, bewirkt wird.
PCT/EP2015/071588 2014-09-22 2015-09-21 Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung WO2016046124A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014113686.1 2014-09-22
DE102014113686.1A DE102014113686A1 (de) 2014-09-22 2014-09-22 Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung

Publications (1)

Publication Number Publication Date
WO2016046124A1 true WO2016046124A1 (de) 2016-03-31

Family

ID=54151273

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/071588 WO2016046124A1 (de) 2014-09-22 2015-09-21 Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung

Country Status (2)

Country Link
DE (1) DE102014113686A1 (de)
WO (1) WO2016046124A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114815239A (zh) * 2021-01-29 2022-07-29 华为技术有限公司 头戴式显示设备及其画面显示方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015116405A1 (de) 2015-09-28 2017-03-30 Carl Zeiss Ag Anzeigevorrichtung mit Vorverzeichnung
FR3054070A1 (fr) * 2016-07-13 2018-01-19 Parrot Drones Procede d'affichage de vignettes sur un ecran d'affichage, programme d'ordinateur, appareil electronique et systeme electronique de visualisation associes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5905525A (en) * 1995-07-13 1999-05-18 Minolta Co., Ltd. Image display apparatus having a display controlled by user's head movement
US20070057911A1 (en) * 2005-09-12 2007-03-15 Sina Fateh System and method for wireless network content conversion for intuitively controlled portable displays
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
US20130135353A1 (en) * 2011-11-28 2013-05-30 Google Inc. Head-Angle-Trigger-Based Action

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5335201B2 (ja) * 2007-05-08 2013-11-06 キヤノン株式会社 画像診断装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5905525A (en) * 1995-07-13 1999-05-18 Minolta Co., Ltd. Image display apparatus having a display controlled by user's head movement
US20070057911A1 (en) * 2005-09-12 2007-03-15 Sina Fateh System and method for wireless network content conversion for intuitively controlled portable displays
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
US20130135353A1 (en) * 2011-11-28 2013-05-30 Google Inc. Head-Angle-Trigger-Based Action

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "How to add LG-inspired 'knock' gestures to Activator", 17 May 2014 (2014-05-17), XP055236895, Retrieved from the Internet <URL:http://www.idownloadblog.com/2014/05/17/knock/> [retrieved on 20151216] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114815239A (zh) * 2021-01-29 2022-07-29 华为技术有限公司 头戴式显示设备及其画面显示方法
CN114815239B (zh) * 2021-01-29 2023-11-10 华为技术有限公司 头戴式显示设备及其画面显示方法

Also Published As

Publication number Publication date
DE102014113686A1 (de) 2016-03-24

Similar Documents

Publication Publication Date Title
DE102016105879B4 (de) Anzeigesteuerungsvorrichtung und Steuerungsverfahren für diese
EP1228414B1 (de) Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens
DE60030019T2 (de) Vorrichtung zur Messung von Augenpunkten eines Subjektes im Bezug auf ein Brillengestell
EP3143478A2 (de) Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit
WO2017133992A1 (de) Projektionsvorrichtung für eine datenbrille, verfahren zum darstellen von bildinformationen mittels einer projektionsvorrichtung und steuergerät
DE102005000820A1 (de) Verfahren zum Verbessern der Sehfähigkeit einer sehbehinderten Person und Sehhilfe
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE102014019637A1 (de) Anzeigeschaltverfahren, Datenverarbeitungsverfahren und elektronische Vorrichtung
WO2016083095A1 (de) Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist
EP3293558A1 (de) Vorrichtung zum erfassen eines stereobilds
EP3767366A1 (de) Fernoptisches gerät mit bilderfassungskanal
EP2924540B1 (de) Verfahren und System zum Betreiben einer Anzeigevorrichtung
WO2016046124A1 (de) Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung
DE102016226266A1 (de) Transparentes Linsenelement in konvertierbarer Basis für Kameradurchgang
DE102015219859B4 (de) Vorrichtung und Verfahren für die AR-Darstellung
DE112016007311T5 (de) Fahrberechtigungsübertragungs-Bestimmungsvorrichtung und Fahrberechtigungsübertragungs-Bestimmungsverfahren
DE112016007015T5 (de) Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren
WO2016046123A1 (de) Anzeigevorrichtung, die auf den kopf eines benutzers aufsetzbar ist, und verfahren zum steuern einer solchen anzeigevorrichtung
DE102014213285A1 (de) Kopfrichtungsabhängige Anzeige von Inhalten auf einer Datenbrille
EP3730036A1 (de) Bestimmung eines refraktionsfehlers eines auges
DE102015103276A1 (de) Elektronische Vorrichtung, Anzeigevorrichtung und Anzeigesteuerverfahren
DE102017114502B3 (de) Spiegelvorrichtung
DE102004027289B4 (de) Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument
DE102010041348B4 (de) Anzeigevorrichtung
DE102018211908A1 (de) Verfahren für das Erfassen eines digitalen Bildes einer Umgebung eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer Bilderfassungseinrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15767138

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15767138

Country of ref document: EP

Kind code of ref document: A1