EP3458935A1 - Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung - Google Patents

Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung

Info

Publication number
EP3458935A1
EP3458935A1 EP17722406.0A EP17722406A EP3458935A1 EP 3458935 A1 EP3458935 A1 EP 3458935A1 EP 17722406 A EP17722406 A EP 17722406A EP 3458935 A1 EP3458935 A1 EP 3458935A1
Authority
EP
European Patent Office
Prior art keywords
representation
virtual environment
user
orientation
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP17722406.0A
Other languages
English (en)
French (fr)
Inventor
Christopher Mutschler
Tobias FEIGL
Christian DAXER
Stephan Otto
Bercea COSMIN-IONUT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP3458935A1 publication Critical patent/EP3458935A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • Embodiments deal with the representation of a virtual environment.
  • embodiments are concerned with a method for adjusting a line of sight in a representation of a virtual environment. background
  • Virtual reality refers to the representation and simultaneous perception of a computer-generated, interactive virtual environment and its physical properties.
  • a representation of the virtual environment to a user e.g. via a display device attached to the user's head.
  • Such devices are known as head-mounted display (HMD), head-mounted display unit or head-mounted unit (HMU).
  • the display device represents the virtual environment e.g. on a near-eye screen or projecting directly onto the user's retina.
  • the orientation i.
  • the viewing direction, in the representation of the virtual environment is thereby by rotating about a transverse axis (pitch axis) representing the virtual environment, rotating about a longitudinal axis (roll axis) of the representation of the virtual environment and / or rotation about a yaw axis (Vertical axis, vertical axis, yaw axis) of the representation of the virtual environment set.
  • the transverse axis, the longitudinal axis and the yaw axis are perpendicular to each other.
  • the position of the head of the user can be detected. For example, a position and an orientation of the user's head in the real environment, ie in the real world, can be determined in order to adapt the representation of the virtual environment. Accordingly, the perception of the own person in the real environment can be reduced and the identification with the virtual environment can be increased.
  • the propagation times of a radio signal of a single transmitter at the user's head to multiple remote receivers.
  • a time-difference-of-arrival (TDoA) method from the different difference times between the transmission of the radio signal by the transmitter and receiving the radio signal by the respective receiver a position of the head of the user with an accuracy in the single-digit centimeter range be determined.
  • the transmitter can be integrated, for example, in a display device fastened to the head of the user or attached to the head of the user independently of the display device fastened to the head of the user.
  • a user can thus change the displayed position in the virtual environment, for example, by moving freely in the real environment.
  • the position of the user's head can be detected via a camera-based method, a Time-of-Flight (ToF) method, a Round Trip Time (RTT) method or an inertial measurement unit (Inertial Measurement Unit, IMU).
  • ToF Time-of-Flight
  • RTT Round Trip Time
  • IMU inertial measurement unit
  • the orientation of the user's head can be determined, for example, by means of corresponding sensors (eg gyroscope, magnetometer, accelerometer) of the display device fastened to the head of the user.
  • sensors eg gyroscope, magnetometer, accelerometer
  • sensors already provided in the mobile communication device can be used to determine the orientation of the user's head.
  • a user can change the viewing direction in the virtual environment by turning or tilting the head in the real environment.
  • the viewing direction in the virtual environment is changed by rotating around the yaw axis of the representation of the virtual environment.
  • the magnetometer can be used to determine the orientation in the real environment sufficiently stable.
  • a magnetic field map can be created so that the orientation of the user's head in the real environment can be determined with a suitably calibrated magnetometer.
  • the determination of the orientation of the head of the user by means of the above-mentioned sensors can lead to orientation errors.
  • magnetometers sometimes provide incorrect readings so that the measured orientation of the head does not match the true orientation of the head in the real world.
  • an approximate orientation determination of the head by coupling the measured values of a gyroscope and a Accelerometers can lead to a discrepancy between the measured or specific orientation of the head and the true orientation of the head in the real environment due to measurement errors of the individual sensor elements.
  • the combination and integration of erroneous measured values over a longer period of time can lead to deviations between the specific orientation of the head and the true orientation of the head in the real environment.
  • frequent and intense changes in the rate of rotation of the sensor eg change between slow and fast rotation of the head
  • the error with the extent of Rate of rotation change increases. Accordingly, the orientation of the representation of the virtual environment, which is based on the measured values, is falsified.
  • a rotation offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment up to about ⁇ 15 ° is usually not perceived by a user. If a user is running e.g. Going straight in the real environment, he sometimes fails to realize when the viewing direction in the virtual environment representation deviates up to about ⁇ 15 ° therefrom (i.e., the viewing direction is rotated up to about 15 ° to the left or right about the yaw axis). In other words, the user does not realize to some degree that, in contrast to the real environment in the virtual environment, he does not move straight ahead, but obliquely. Larger deviations, however, are perceived by the user and diminish the feeling of immersion.
  • the method comprises recording a known object in a real environment with a recording device (eg an image, a video or a sound recording). Furthermore, the method comprises determining a rotational offset of the viewing direction in the representation of the virtual environment about a yaw axis representing the virtual environment based on the image of the object, a known position of the recording device in the real environment and a current viewing direction in the representation of FIG virtual environment. The method further comprises rotating the viewing direction in the representation of the virtual environment around the rotational offset.
  • a recording device eg an image, a video or a sound recording.
  • the recording device can be arranged spatially in the immediate vicinity of the user.
  • the receiving device on the body of the user (about the head) are attached.
  • the orientation of the recording device in the real environment can be determined, which can therefore be assumed approximately as the orientation of the user's head in the real environment.
  • the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment can be determined and the representation of the virtual environment can be corrected accordingly.
  • the representation of the virtual environment can thus be adapted to the actual position and orientation of the user's head in the real environment.
  • embodiments of the proposed method thus allow a calibration of the viewing direction in the representation of the virtual environment.
  • an improved sense of immersion can be created for a user.
  • FIG. 1 For exemplary embodiments, relate to a second method for setting a viewing direction in a representation of a virtual environment.
  • the method comprises recording a known object in a real environment with a recording device (eg an image, a video or a sound recording). Furthermore, the method comprises determining a rotational offset of the viewing direction in the representation of the virtual environment about a yaw axis representing the virtual environment based on the image of the object and a current viewing direction in the representation of the virtual Surroundings. In addition, the method comprises rotating the viewing direction in the representation of the virtual environment around the rotational offset.
  • a recording device eg an image, a video or a sound recording
  • the method comprises determining a rotational offset of the viewing direction in the representation of the virtual environment about a yaw axis representing the virtual environment based on the image of the object and a current viewing direction in the representation of the virtual Surroundings.
  • the method comprises rotating the viewing direction in the representation of the virtual environment around the rotational offset
  • the orientation of the recording device in the real environment can be determined.
  • the orientation of the cradle in the real environment may be approximated as orienting the user's head in the real environment.
  • the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment can be determined and the representation of the virtual environment can be corrected accordingly.
  • the representation of the virtual environment can thus be adapted to the actual position and orientation of the user's head in the real environment.
  • embodiments of the proposed method thus allow a calibration of the viewing direction in the representation of the virtual environment.
  • an improved sense of immersion can be created for a user.
  • FIG. 1 For example an image, a video or a sound recording.
  • the method comprises determining a rotational offset of the viewing direction in the representation of the virtual environment about a yaw axis representing the virtual environment based on the images of the object at the first time and at the second time and measured values of at least one further at the head of the user attached sensor.
  • the method further comprises rotating the line of sight in the representation of the virtual environment around the rotation offset.
  • an effective rotation of the recording device about the yaw axis of the head can be determined. fes of the user between the first time and the second time.
  • the difference between the two particular values for the rotation of the pickup about the yaw axis of the user's head can be approximately taken as the rotational offset of the line of sight in the representation of the virtual environment around the yaw axis representing the virtual environment.
  • the representation of the virtual environment can thus be corrected accordingly.
  • the representation of the virtual environment can thus be adapted to the actual position and orientation of the user's head in the real environment.
  • Embodiments in another aspect include a program having program code for performing one of the proposed methods when the program code is executed on a computer, a processor, or a programmable hardware component.
  • FIG. 1 shows an example of a method for setting a viewing direction in a representation of a virtual environment
  • FIG. 2 shows an example of a relationship between an object in the real environment and a photograph of the object
  • 3a shows a first example of an object
  • 3b shows a second example of an object
  • Fig. 3c shows a third example of an object
  • Fig. 3d shows a fourth example of an object
  • 4 shows exemplary features in an object
  • 5 shows an example of an assignment of the positions of features of an object in the real environment to the position of the respective feature in a photograph of the object
  • FIG. 8 shows an example of a further method for setting a viewing direction in a representation of a virtual environment
  • Fig. 9a is a photograph of a fifth example of an object
  • FIG. 9b shows a corresponding binary recording to the recording shown in FIG. 9a
  • FIG. Fig. 9c is a photograph of a sixth example of an object
  • Fig. 9d shows a corresponding binary recording to the recording shown in Fig. 9b;
  • FIG. 10 shows an example of another method for setting a viewing direction in a representation of a virtual environment
  • 1 a shows an example of a relationship between a motion vector of a user, an actual viewing direction of the user and a viewing direction determined from measured values of at least one further sensor arranged on the user's head in the representation of the virtual environment at a first time;
  • 1 lb shows an example of a relationship between a motion vector of a user, an actual viewing direction of the user and one of measured values, at least another arranged at the head of the sensor sensor certain line of sight in the representation of the virtual environment at a second time.
  • the virtual environment is a computer-generated, interactive world with predetermined physical properties that can be output to a user, for example.
  • the viewing direction in the representation of the virtual environment corresponds to the orientation of the virtual environment shown in the representation of the virtual environment in the virtual environment.
  • the representation of the virtual environment may render the virtual environment from an ego perspective or first-person perspective, ie the virtual environment is rendered as a user would see if it were actually moving in the virtual environment.
  • the line of sight would correspond in the presentation of virtual environment of the user's line of sight, if he were actually moving in the virtual environment.
  • the viewing direction in the representation of the virtual environment is thereby set by rotating about the transverse axis of the representation of the virtual environment, rotating about the longitudinal axis of the representation of the virtual environment and / or rotating about the yaw axis of the representation of the virtual environment.
  • the method 100 comprises recording 102 a known object in a real environment (i.e., the real world) with a capture device.
  • the known object may be both an object placed specifically for the proposed method in the real environment and an object already present in the real environment.
  • the object may be located in an area in the real environment in which the user is moving, or may be an already existing element of this area.
  • the object may be both a substantially two-dimensional (planar) object, i. an object that extends substantially in only two spatial directions, as well as a three-dimensional object, i. an object that extends in similar magnitudes in all three spatial directions act. If the user is moving in the real environment e.g. within a room or hall, the known object may e.g.
  • the object may be e.g. a poster, a projection, a sound source or other element placed in the room or hall specifically for the proposed method.
  • the recording can be, for example, a still image (ie a single shot), a video (ie a sequence of images) or a sound recording, ie a recording of sound (eg sounds, sounds, music or speech).
  • the recording device may comprise a still camera, a video camera, a (stereo) sound recording device or a combination thereof.
  • the method 100 comprises determining 104 a rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis representing the virtual environment based on the image of the object, a known position of the recording device in the real environment and a current viewing direction in the representation of FIG virtual environment.
  • the recording device can be spatially in the immediate Be arranged close to the user.
  • the transmitter can be arranged, for example, at the head of the user and the recording device spatially close to it, in order to know the position of the recording device in the real environment as precisely as possible.
  • the instantaneous viewing direction in the representation of the virtual environment may be, for example, from a display device (eg HMD, HMU), which outputs (and optionally also calculates) the representation of the virtual environment to the user, or a computer which calculates the virtual environment (eg back-end of a VR system).
  • the orientation of the recording device in the real environment can be determined, which can be approximated as the orientation of the user or his head in the real world. From this, by using the information about the instantaneous viewing direction in the representation of the virtual environment, the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment can be determined.
  • the method 100 further comprises rotating 106 the viewing direction in the representation of the virtual environment around the rotational offset.
  • the viewing direction in the representation of the virtual environment is corrected by a rotation about the yaw axis of the representation of the virtual environment, the direction and the magnitude of the rotation being determined by the rotational offset.
  • the representation of the virtual environment is thus corrected by the rotational offset.
  • the representation of the virtual environment can thus be adapted to the actual position and orientation of the user's head in the real environment.
  • the method 100 thus allows a calibration of the viewing direction in the representation of the virtual environment.
  • an incorrectly determined orientation in the real environment or a drifting of the viewing direction in the representation of the virtual environment caused by measurement errors the sensor commonly used to determine the position and orientation (of the head) of a user is due to be corrected.
  • the method 100 may further include outputting the representation of the virtual environment to a user.
  • Outputting the representation of the virtual environment to the user may be e.g. via a display device attached to the head of the user, which further comprises the receiving device.
  • the orientation of the recording device in the real environment may be approximated as orienting the user's head in the real environment.
  • the display device attached to the user's head includes a mobile communication device (eg, a smartphone).
  • a mobile communication device eg, a smartphone
  • sensors eg gyroscope, magnetometer, accelerometer
  • the camera of the mobile communication device as a recording device
  • a rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment due to measurement errors of the sensor of the mobile communication device can be corrected.
  • For the calibration of the representation of the virtual environment can thus be made use of resources already provided by the mobile communication device.
  • the method 100 may be executed immediately (ie online) on the mobile communication device.
  • the method 100 can thus enable a calibration of the representation of the virtual environment without additional hardware components.
  • a portion of the method 100 may be performed by the mobile communication device and another portion of the method 100, such as determining the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment, by an already existing back-end of the VR system that the user uses (ie offline).
  • the determined rotational offset can then be sent, for example, from the back-end to the mobile communication device so that it can rotate the viewing direction in the current representation of the virtual environment by the rotational offset.
  • the above-described functionality can eg by an update for one or more existing software components of the VR systems (eg software for the mobile communication device or software for the back-end) are implemented.
  • determining the rotational offset of the viewing direction in the representation of the virtual environment about the yaw axis of the representation of the virtual environment may include determining an orientation of the recording device in the real environment based on the image of the object and the known position of the recording device the real environment (example methods are explained below). Furthermore, the determining 104 of the rotational offset may include determining a desired viewing direction in the representation of the virtual environment based on the orientation of the recording device in the real environment. For example, the specific orientation of the recording device in the real environment can be provided to an algorithm for calculating the representation of the virtual environment, which calculates a representation of the virtual environment based thereon.
  • the desired viewing direction in the virtual environment can be that viewing direction in the virtual environment that corresponds to the actual position and orientation of the user's head in the real environment.
  • the recording device can be aligned straight ahead of the user in the real environment or vertically to the viewing direction.
  • the viewing direction in the calculated representation of the virtual environment can consequently be regarded as a desired viewing direction.
  • the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment is now determined according to exemplary embodiments. This can be done, for example, by comparing the desired viewing direction and the current viewing direction in the representation of the virtual environment. In other words, it is determined how much the instantaneous viewing direction in the representation of the virtual environment relative to the desired viewing direction in the representation of the virtual environment is rotated about the yaw axis of the representation of the virtual environment.
  • the representation of the virtual environment can be rendered, for example, by the display device attached to the head of the user (eg comprising a mobile communication device).
  • the determination of the desired viewing direction for a time to can be carried out, for example, by a back-end of the VR system and then sent to the mobile communication device attached to the head of the user. From the desired viewing direction in the representation of the virtual environment for the time to and the current viewing direction in the representation of the virtual environment at the time to, the mobile communication device can then determine the rotational offset of the viewing direction about the yaw axis of the representation of the virtual environment at the time to.
  • the mobile communication device can eg the viewing direction in the representation of the virtual environment for the time ti by the rotational offset of the viewing direction at the time to turn, ie correct. Accordingly, the representation of the virtual environment can be output to the user with a correct viewing direction.
  • the method described above may be repeatedly executed during use of the VR system.
  • a further drift of the viewing direction in the representation of the virtual environment between the time to and the later time ti can be corrected.
  • the method can be at least partially executed again in order to verify the previous correction.
  • FIG. 2 shows by way of example how the orientation of a recording device in the real environment can be determined based on a picture 210 of a known object 220 and a known position C of the recording device in the real environment.
  • the object 220 can be thought of as a set of world points M.
  • the receptacle 210 can be understood as a set of pixels m.
  • the orientation of the recording device and thus the viewing angle in the receptacle 210 can generally be determined from a transformation, which converts the world points M of the object 220 into corresponding pixels m of the receptacle 210.
  • the transformation can be represented as follows:
  • R represents a general rotation matrix.
  • R can be represented as a product of three rotational matrices R x , R y and R z about mutually orthogonal unit directions X, Y and Z. For example, from a defined point of origin in the real world, X may point to the right, Y to point upward (ie, skyward), and Z to point deep (ie, forward).
  • the unit direction Y thus corresponds to the yaw axis (vertical axis), ie a rotation about this axis shifts a recording horizontally.
  • the axes of the virtual environment coordinate system may be selected differently from the mutually orthogonal unit directions X, Y and Z.
  • a position in the real environment can then be translated via a coordinate transformation into a position in the virtual environment. Accordingly, equation (1) can be reshaped as follows:
  • the three rotary matrices R x , R y and R z can thereby in dependence on an angle a, which indicates the sought horizontal orientation of the recording device in the real environment.
  • angle a defines an orientation (orientation) of the pick-up device in the plane spanned by X and Z.
  • the rotary matrices R x , R y and R z are defined as usual:
  • R y (a) can be determined from a corresponding M ⁇ -> m pair.
  • R x (a) and R z (a) can be determined, for example, by means of the sensors already present in the mobile communication device (eg via the gravitation vector).
  • the coefficients from equation (3) can be summarized as follows:
  • equation (3) can be represented as follows:
  • equation (10) can be reworded as follows:
  • FIGS. 3a to 3d some examples of possible objects are shown below.
  • 3a shows an amorphous pattern 310 with different gray levels
  • FIG. 3b a pattern 320 with circles of different sizes and gray levels
  • FIG. 3c a picture 330 of trees
  • FIG. 3d a collage 340 of character strings (eg words or numbers).
  • the object can be varied.
  • the patterns shown in FIGS. 3 a to 3 d may, for example, be mounted on a vertical plane in the real environment (eg by means of a poster or by means of projection).
  • the patterns shown in Figures 3a to 3d may be displayed in the form of a poster or as a projection on a side wall of a room or hall.
  • determining the orientation of the capture device in the real environment includes determining a transformation that matches at least a portion of the image of the known object with at least a portion of a comparison capture.
  • the comparison photograph can provide information about the position of the known object in the real environment.
  • a database can be maintained with comparison recordings that show different objects or an object from different perspectives.
  • information about the position of the object shown on it in the real world is stored for each comparison photograph. This information, which corresponds to the world points M in the example of FIG.
  • FIG. 4 shows a pattern with circles of different sizes and gray levels in the form of a poster 400 attached to a wall of the real environment as an example of an object.
  • the pattern includes a plurality of features 410-1, 410-2, ..., 410-n.
  • the features 410-1, 410-2, ..., 410-n may be determined via feature extraction methods.
  • feature extraction methods include the Scale-Invariant Feature Transform (SIFT) algorithm, the Speeded Up Robust Features (SURF) algorithm or the Binary Robust Independent Elementary Features (BRIEF) algorithm.
  • SIFT Scale-Invariant Feature Transform
  • SURF Speeded Up Robust Features
  • BRIEF Binary Robust Independent Elementary Features
  • the recording device is part of a display device attached to the head of the user for outputting the representation of the virtual environment, so that by measuring the position of the head of the user in the operation of the VR system, the position of the receiving device is approximately (substantially) known.
  • At least one feature of the object is detected.
  • a feature extraction method is applied to the image (for example, one of the above-mentioned algorithms).
  • a position of the feature is still determined.
  • the coordinates of the feature in the coordinate system of the recording are determined.
  • a comparison feature of the plurality of comparison features of the database is identified, which corresponds to the feature of the object in the recording.
  • the plurality of comparison features is in each case assigned a position in the real environment.
  • identification e.g. known image registration methods are used.
  • a Nearest Neighbor e.g. a Nearest Neighbor
  • the known position of the recording device in the real environment From the known position of the recording device in the real environment, the position of the feature in the recording and the position in the real environment, which is associated with the identified comparison feature, the orientation of the recording device in the real environment according to those shown in FIG Principles.
  • the known position from which the poster 400 is taken corresponds to the known position C of the susceptor in the real environment.
  • the position of the feature in the image, a pixel m and the position in the real environment, which is associated with the identified comparison feature a world point M.
  • a transformation can be determined, the position of the feature in the recording with the position in the real environment, which is associated with the identified comparison feature, brings.
  • the orientation of the Aufhahmevoroplasty can be determined in the real environment.
  • a plurality of features can be detected in a receptacle of an object.
  • multiple features of the object can be detected.
  • a plurality of comparison features can be identified from the database for the plurality of recognized features of the object.
  • an orientation of the recording device in the real environment can be determined for the several recognized features of the object.
  • FIG. 5 An exemplary assignment 500 of features of the object in the acquisition to comparison features is shown in FIG.
  • FIG. 5 shows in each case the position of a feature of the object (pixel) detected in the image of the object and the position in the real environment (world point) associated with the respective identified comparison feature.
  • the positions are given in arbitrary units.
  • Corresponding pixels and world points are connected in FIG. 5 with a straight line.
  • the pitch of the respective straight line-with the exception of straight lines 501 to 507- is approximately similar.
  • the pixel to the world points e.g. Brute-force or Fast Library for Approximate Nearest Neighbor (FLANN) based algorithms.
  • FLANN Fast Library for Approximate Nearest Neighbor
  • the frequencies of the orientations of the recording device determined for the several recognized features of the object are plotted in the real environment.
  • the orientation is plotted in the form of the angle a, which indicates the rotation about the vertical axis of the picture.
  • the angle ⁇ thus corresponds to an orientation of the receiving device in the plane spanned by X and Z, i. a rotation around Y.
  • the frequency is plotted logarithmically.
  • the angle a for some recognized features of the object is about -65 °, for some recognized features of the object about 60 °, for some recognized features of the object about 64 °, for a lot more recognized features of the object was determined to be about 90 ° and for even more recognized features of the object to about 91 °.
  • the orientation of the recording device in the real environment determined for the several identified features of the object is determined as the orientation of the recording device in the real environment, which fulfills a quality criterion. Referring to the example of Fig. 6, for example, one degree wide interval (bin) of the histogram having the largest number of entries may be selected.
  • the quality criterion can therefore be, for example, that the orientation of the recording device in the real environment is the most frequently determined orientation.
  • other quality criteria can be used. For example, it may be required that the selected interval must have a minimum number of entries, or that the selected bin must represent at least a predetermined proportion of the plurality of detected features of the object (ie, the bin must have at least the predetermined proportion of the plurality of detected features of the object represent each particular orientation).
  • the frequencies for 90 ° and 91 ° are dominant and absolutely in a similar range, so that both orientations can fulfill a selected quality criterion. Accordingly, at adjacent or similar orientations (i.e., at adjacent bins or bins that are separated by only a small number of intervening bins), the average of the two orientations may also be determined as the orientation of the cradle in the real environment. Optionally, a weighting of the adjacent or similar orientations may also be made (e.g., according to their frequency).
  • determining the orientation of the cradle in the real environment includes determining a comparison snapshot from a plurality of snapshots of a database.
  • the determination of the comparison image from the plurality of comparison images of the database is based on the known position of the recording device in the real environment. In other words, there will be a selected from the database, for which due to the position of the recording device has a high probability that it shows the object at all or shows the object from a similar or same perspective.
  • An orientation of at least the selected comparison recording in the real environment is known.
  • the orientation in the real environment can also be stored in the database for each of the plurality of comparison images.
  • determining the orientation of the recording device in the real environment comprises determining a rotation of the recording of the object relative to the comparison recording. That is, image registration of the image of the object against the comparative image is performed.
  • image registration methods such as the Enhanced Correlation Coefficient (ECC) algorithm can be used.
  • ECC Enhanced Correlation Coefficient
  • the image of the object can be e.g. are gradually rotated relative to the comparison recording, as indicated by the sequence of recordings 701 to 710 in Fig. 7.
  • a skylight is depicted as an example of an object in the real environment in which the user is moving.
  • the recordings are rotated from left to right in each case 1 ° counterclockwise to each other.
  • the ECC algorithm determines a correlation with the comparison image for each rotation. Subsequently, the best correlation is chosen and a corresponding transformation matrix is determined. Again from the transformation matrix the orientation, i. the rotation, the recording of the object relative to the comparison recording are determined.
  • the orientation of the recording device in the real environment is determined in the following (by combining the two information).
  • the second approach may be used, for example, for objects extending vertically only over the user.
  • the capture device may be oriented vertically to a user's straight-ahead viewing direction in the real world.
  • the recording device can in the real environment to heaven or in the direction of the ceiling of a room or hall in which the User moves, be aligned.
  • the object may be, for example, a lighting device, a (roof) window, a carrier, a beam on the ceiling of the room or the hall.
  • the plurality of comparison recordings in the database may include, for example, various recordings of the ceiling of the room or the hall.
  • the cradle may also be oriented toward the floor of a room or hall in which the user is moving.
  • the object may then be, for example, an in-ground light source (laser, LED) or a marker (eg an emergency marker), such as an arrow (eg, a glowing arrow).
  • an object according to the present disclosure may also be a specially designated object, such as a chroma keying object.
  • the display device may further comprise the recording device.
  • the display device may in turn comprise a mobile communication device together with a fixing device for attaching the mobile communication device to the user's head.
  • a camera of the mobile communication device can be used as a recording device.
  • a calibration of the representation of the virtual environment can be made possible.
  • a periscope-type device is used, one opening of which is oriented toward the ceiling or the floor and the other opening is oriented towards the lens of the camera of the mobile communication device.
  • the incident light beams can be deflected from the original direction of incidence (perpendicular to the first opening) to the desired outflow direction (perpendicular to the second opening).
  • the plurality of comparison images can be binary recordings. Accordingly, determining the rotation of the image of the object relative to the comparison image comprises converting the image of the object into a binary image of the object and determining the rotation of the binary image of the object relative to the comparative image. For determining the rotation of the binary recording of the object relative to In turn, the comparison recording can be carried out using the image registration methods described above.
  • the resolution of the plurality of comparison exposures may be limited (e.g., 320x240 pixels) to save computational power.
  • the method may include scaling the image of the object, i. the original resolution is scaled to a target resolution (for example, from 1920x1080 pixels to 320x240 pixels). As indicated, the target resolution may be lower than the original resolution. Due to the reduced number of pixels in the image of the object, computing time can be saved.
  • the orientation of the object in the image can also be determined and compared with a reference direction (eg, according to the methods described in connection with FIGS. 9a to 9d) to the orientation of the image device in the real environment to determine.
  • a reference direction eg, according to the methods described in connection with FIGS. 9a to 9d
  • FIG. 8 a method 800 for adjusting a viewing direction in a representation of a virtual environment according to a second aspect of the present disclosure is shown in FIG. 8.
  • the method 800 comprises recording 802 of a known object in a real environment with a recording device-as described above. That is, during recording, it may be e.g. to take a still picture, a video or a sound recording. Accordingly, the recording device may comprise a still camera, a video camera, a sound recording device or a combination thereof.
  • the method 800 comprises determining 804 a rotational offset of the viewing direction in the representation of the virtual environment about the yaw axis of the representation of the virtual environment based on the image of the object and a current viewing direction in the representation of the virtual environment.
  • the current viewing direction in the representation of the virtual environment can be, for example, from a display device (eg HMD, HMU), which outputs the representation of the virtual environment to the user (and optionally also calculated), or a computer that calculates the virtual environment (eg -End of a VR system).
  • the recording device can - as described above - be arranged spatially in the immediate vicinity of the user (eg on the head of the user).
  • the orientation of the recording device in the real environment can be determined, which can be approximated as the orientation of the user's head in the real environment. From this, by using the information about the instantaneous viewing direction in the representation of the virtual environment, the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment can be determined.
  • the method 800 further includes rotating 806 the viewing direction in the representation of the virtual environment about the rotational offset.
  • the viewing direction in the representation of the virtual environment is corrected by a rotation about the yaw axis of the representation of the virtual environment, the direction and the magnitude of the rotation being determined by the rotational offset.
  • the representation of the virtual environment is thus corrected by the rotational offset.
  • the representation of the virtual environment can thus be adapted to the actual position and orientation of the user's head in the real environment. Consequently, the method 800 thus also permits a calibration of the viewing direction in the representation of the virtual environment.
  • the method 800 can also be used to correct an incorrectly determined orientation in the real environment or a drifting of the viewing direction in the representation of the virtual environment resulting from measurement errors of the commonly used sensors for determining the position and orientation (of the head) of a user become.
  • the method 800 may further include outputting the representation of the virtual environment to a user.
  • the outputting of the representation of the virtual environment to the user can take place, for example, via a display device attached to the head of the user, which further comprises the receiving device.
  • the orientation of the recording device in the real environment may be approximately assumed to be the orientation of the user's head in the real environment.
  • the display device attached to the user's head includes a mobile communication device (eg, a smartphone).
  • sensors eg gyroscope, magnetometer, accelerometer
  • sensors already present in the mobile communication device can be used to determine the orientation of the user's head in the real environment.
  • the camera of the mobile communication device as a recording device, a rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment due to measurement errors of the sensor of the mobile communication device can be corrected.
  • the method 800 may be performed immediately (ie, online) on the mobile communication device. The method 800 can thus also enable a calibration of the representation of the virtual environment without additional hardware components.
  • a portion of the method 800 may be performed by the mobile communication device and another portion of the method 800, such as determining 804 the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment, by an already existing back-end of the VR system that the user uses (ie offline).
  • the particular rotation offset can then be sent, for example, from the back-end to the mobile communication device, so that it can rotate the viewing direction in the current representation of the virtual environment by the rotational offset.
  • the above-described functionality can be implemented, for example, by updating one or more existing software components of the VR system (eg software for the mobile communication device or software for the back-end).
  • determining the viewing direction rotation offset 804 in the virtual environment representation about the yaw axis of the virtual environment representation may include determining an orientation of the imaging device in the actual environment based on the object's capture and a reference direction (example methods this will be explained below).
  • the reference direction is a direction in the real environment whose orientation relative to that of the object is known. In other words, one uses knowledge about the orientation of the object relative to the reference direction for determining the orientation of the recording device in the real environment.
  • the determining 804 of the rotational offset may include determining a desired viewing direction in the representation of the virtual environment based on the orientation of the recording device in the real environment.
  • the specific orientation of the recording device in the real environment can be provided to an algorithm for calculating the representation of the virtual environment, which calculates a representation of the virtual environment based thereon.
  • the target viewing direction in the virtual environment may be that viewing direction in the virtual environment which corresponds to the actual position and orientation of the user's head in the real environment.
  • the recording device can be aligned vertically to the viewing direction of the user in the real environment.
  • the viewing direction in the calculated representation of the virtual environment can consequently be regarded as a desired viewing direction.
  • the rotational offset of the viewing direction in the depiction of the virtual environment around the yaw axis of the representation of the virtual environment is now determined according to exemplary embodiments. This can be done, for example, by comparing the desired viewing direction and the current viewing direction in the representation of the virtual environment. In other words, it is determined how much the instantaneous viewing direction in the representation of the virtual environment relative to the desired viewing direction in the representation of the virtual environment is rotated about the yaw axis of the representation of the virtual environment.
  • FIGS. 9a to 9d two different approaches for determining the orientation of the recording device in the real environment on the basis of an orientation of the object in the recording and a reference direction are explained by way of example.
  • a receptacle 900 of the roof of a hall in which the user moves in the real environment is shown in FIG. 9a.
  • the receptacle 900 shows a part of an elongated illumination device 910, which represents an exemplary object.
  • the object is not limited to elongated lighting devices.
  • the object can also be a window, a carrier or a pattern on the ceiling the hall or generally a room in the real environment in which the user moves, be.
  • the object can generally be an object that extends vertically only over the user.
  • the recording device can be aligned vertically to a line of sight straight ahead of the user in the real environment, ie the recording device can be oriented towards the sky or to the ceiling.
  • the cradle may also be oriented toward the floor of a room or hall in which the user is moving.
  • the object may then be, for example, an in-ground light source (laser, LED) or a marker (eg an emergency marker), such as an arrow (eg, a glowing arrow).
  • a camera of the mobile communication device can be used as a recording device .
  • a periscope-like device can be used, whose one opening is oriented towards the ceiling or the floor and whose other opening to the lens of the camera the mobile communication device is aligned.
  • Determining the orientation of the recording device in the real environment comprises, according to the first approach, converting the recording of the object into a binary recording of the object.
  • the binary recording 900 'corresponding to the recording 900 is shown in FIG. 9b.
  • an environment-dependent threshold value for the separation between the two possible states in the binary recording can be optionally determined or defined, for example.
  • the method comprises recognizing candidates for the object in the binary recording of the object. In the binary recording 900 ', this is the area 910' that corresponds to the oblong lighting device 910. Although only one candidate 910 'for the object is shown in the binary recording 900' shown in FIG.
  • the method further comprises determining a respective (linear) eccentricity e of the candidates for the object. That is, an eccentricity is determined for each of the recognized candidates.
  • the particular linear eccentricity allows one to estimate whether the candidate candidate is a more circular (e «0) or more elongated (e« 1) object.
  • the eccentricity of area 910' which is the only candidate in the image, is determined. Since the region 910 'is elongated, a value of the eccentricity of approximately one is determined for it.
  • the method comprises determining an orientation of a main axis of the candidate as orientation of the object in the recording whose eccentricity is above a threshold value and whose main axis is longer than the main axes of the other candidates for the object with an eccentricity above the threshold value.
  • their particular eccentricity is thus compared to a threshold to determine those candidates that represent an elongated object.
  • the threshold value can therefore be 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85 or 0.9.
  • the one with the longest major axis is selected.
  • the orientation of this candidate in the shot is determined as the orientation of the object in the shot.
  • the orientation of the candidate in the shot may be determined, for example, based on a helper vector 920, where helper vector 920 indicates the user's line of sight straight ahead. Defining the auxiliary vector 920 in the straight-line direction of the user may make it possible to view the orientation of the recording device as substantially identical to the orientation of the user in the real environment. Correspondingly, from the particular orientation of the recording device, that viewing direction in the virtual environment can be determined as the desired viewing direction in the representation of the virtual environment which corresponds to the actual position and orientation of the user's head in the real environment. For the region 910 ', it can therefore be determined that the orientation 930 of its main axis subtends an angle of 89 ° with respect to the auxiliary vector 920.
  • the orientation 930 of the major axis of the region 910 ' is determined to be the orientation of the object in the image.
  • the orientation of the receiving device can be determined from the orientation of the object in the recording.
  • the reference direction is a direction in the real environment whose orientation relative to that of the object is known. In other words, the orientation (orientation) of the object relative to the reference direction is known.
  • the reference direction can be determined for example for a known environment or determined from reference images.
  • a corner of the base area can be defined as the origin.
  • three orthogonal spatial axes X, Y and Z can be defined (analogous to the example of FIG. 2).
  • X may point to the right of the defined origin point in the corner of the footprint (ie, extend substantially along a first boundary of the footprint), Y face upward (ie, sky) (ie, stand substantially perpendicular to the footprint), and Z in show the depth (ie, forward) (ie, extend substantially along a second boundary of the base that is orthogonal to the first boundary of the base).
  • the unit direction Y thus corresponds to the yaw axis, ie a rotation about this axis shifts a recording horizontally.
  • the spatial axis Z which runs essentially along the second boundary of the base area, can then be selected as the reference direction.
  • the orientation of the object - in the example of FIG. 9a, thus of the elongate illumination device 910 - relative to the reference direction is known.
  • the elongate illumination device 910 can extend orthogonal to the reference direction Z, ie, in the opposite direction, parallel to the spatial direction X.
  • the orientation of the recording device can now be determined.
  • the orientation of the auxiliary vector 920 in the real environment is thus determined.
  • an orientation of the recording device can be determined in the plane defined by the spatial directions X and Z plane.
  • the resolution of the recording to be evaluated may be limited (eg to 320x240 pixels).
  • the method may include scaling the image of the object, ie, the original resolution is scaled to a target resolution (eg from 1920x1080 pixels to 320x240 pixels). As indicated, the target resolution may be lower than the original resolution. Due to the reduced number of pixels in the image of the object, computing time can be saved.
  • FIGS. 9c and 9d the second approach for determining the orientation of the recording device in the real environment on the basis of an orientation of the object in the recording and a reference direction is explained below.
  • FIG. 9c a receptacle 940 of the roof of a hall in which the user moves in the real environment is shown in FIG. 9c.
  • the receptacle 900 shows a (linear) arrangement of circular illumination devices 951, 952, 953, which represents an exemplary object.
  • the object is not limited to an arrangement of circular lighting devices.
  • the object may generally be any arrangement of circular objects on the ceiling of the hall or, more generally, a room in the real environment in which the user is moving.
  • the object can generally be an object that extends vertically only over the user.
  • the cradle may also be oriented toward the floor of a room or hall in which the user is moving.
  • the object may then be, for example, an in-ground light source (laser, LED) or a marker, such as an arrow.
  • the receiving device can be aligned vertically to a straight line of sight of the user in the real environment, ie the recording device can be directed to the sky (ie to the ceiling) or gene ground.
  • a display device attached to the head of the user which in turn includes a mobile communication device together with fixing device for attaching the Mobilkommunktions- tion device on the user's head
  • a camera of Mobilkommunikationsge- device can be used as a recording device ,
  • a calibration of the representation of the virtual environment can be made possible.
  • a periscope-like device can be used, whose one opening is oriented towards the ceiling or the floor and whose other opening to the lens of the camera the mobile communication device is aligned.
  • the determination of the orientation of the recording device in the real environment again involves converting the recording of the object into a binary recording of the object.
  • the binary recording 940 'corresponding to the recording 940 is shown in FIG. 9d.
  • an environment-dependent threshold value for the separation between the two possible states in the binary recording can be optionally determined or defined, for example.
  • the method comprises recognizing circular objects in the binary recording of the object. Respective radii of the circular objects are covered by a predetermined value range. In other words, only circular objects are detected whose value for the radius is greater than a first threshold value and less than a second threshold value.
  • the thresholds may be selected based on information about the real environment in which the user is moving (e.g., height of the roof or spacing of the lighting devices from the ground, dimensions of the lighting devices).
  • a Circular Hough Transfrom (CHT) based algorithm For recognizing circular objects in the binary recording, e.g. a Circular Hough Transfrom (CHT) based algorithm.
  • CHT Circular Hough Transfrom
  • the circular objects 95 ⁇ , 952 ', and 953' corresponding to the arrangement of circular illumination devices 951, 952, 953 in the receptacle 940 are recognized.
  • the bright regions 952 "and 953" in the binary recording 940 ' which are adjacent to the 952' and 953 ', do not become circular objects since they do not fulfill the radius criterion.
  • optical interference effects are excluded from the further process for determining the orientation of the recording device.
  • the method comprises determining distances of the circular objects from each other. For example, the center points of the circular objects 95 ⁇ , 952 'and 953' can be determined and the distances of the center points from each other can be determined. In the distance determination and the radii of the respective circular objects can be included.
  • determining the orientation of the recording device in the real environment according to the second approach comprises determining the orientation of the object in the recording based on the distances of the circular objects from each other. From the distances of the circular objects, a relation between the individual circular objects can be determined. In turn, for example, information about the real environment in which the user is moving can be used.
  • the distances between the individual illumination devices may be the linear arrangement of circular illumination devices 951, 952, 953 in the real environment, and the distance of the linear array of circular illumination devices 951, 952, 953 may be another linear array circular illumination devices (not shown in Fig. 9c) are used.
  • information about the geometry and nature of the area detectable by the cradle in the real environment eg a ceiling of a room or hall
  • the distances of the circular objects 95 ⁇ , 952 'and 953' to each other are determined to correspond to the distances of a linear array of lighting devices in the real environment, and the circular objects 95 ⁇ , 952 'and 953' thus become one represent a known object in the real environment. Accordingly, from the respective positions of the circular objects 951 ', 952' and 953 'in the binary recording, a direction vector 970 of the object represented by the circular objects 95 ⁇ , 952' and 953 'in the photograph is determined. For this, e.g. a line to the center of the circular objects 95 ⁇ , 952 'and 953' adapted (fitted).
  • the orientation of the directional vector 970 (ie, the object) in the shot can again be determined, for example, on the basis of an auxiliary vector 960 which, for example, indicates the line of sight of the user.
  • the orientation of the object spans an angle of 35 ° with respect to the auxiliary vector 960. That is, the linear array of circular illumination devices 951, 952, 953 represented by the directional vector 970 is rotated 35 ° counter to the auxiliary vector 960.
  • the orientation of the direction vector 970 is determined to be the orientation of the object in the shot.
  • the orientation of the receiving device can be determined from the orientation of the object in the recording.
  • the reference direction is a direction in the real environment whose orientation relative to that of the object is known.
  • the spatial axis Z for example, which in turn extends along the second boundary of the base area, can again be selected as the reference direction.
  • the orientation of the object - in the example of Fig. 9c thus the linear arrangement of circular lighting devices 951, 952, 953 - relative to the reference direction is known.
  • the linear arrangement of circular illumination devices 951, 952, 953 may be orthogonal to the reference direction Z, ie, in reverse parallel to the spatial direction X.
  • the orientation of the recording device can now be determined.
  • the orientation of the auxiliary vector 960 in the real environment is thus determined.
  • an orientation of the recording device can be determined in the plane defined by the spatial directions X and Z plane.
  • the resolution of the recording to be evaluated may be limited (for example to 320x240 pixels). Accordingly, the method may include scaling the image of the object, i. the original resolution is scaled to a target resolution (for example, from 1920x1080 pixels to 320x240 pixels). As indicated, the target resolution may be lower than the original resolution. Due to the reduced number of pixels in the image of the object, computing time can be saved.
  • the recording device makes recordings in a plane which is substantially orthogonal to a plane in which the user moves. For example, that the visitor moves in a hall and the recording device at a angle of substantially 90 ° to the ceiling of the hall takes pictures of this.
  • the cradle may also be inclined relative to the ceiling (eg, when the cradle is attached to the user's head and it is pitching or tilting with the head).
  • instantaneous measurements of a gyroscope and / or accelerometer of a mobile communication device used as a virtual environment display device as well as a recording device may be used quite generally (ie, in all embodiments of the present disclosure) to determine if there is an appropriate moment to take a picture. For example, it can be determined that the recording device only takes pictures in a certain value range of the measured values. This can be used to prevent images being evaluated that have blurring or other image distortions in the real environment due to the orientation of the recording device. Thus, it can be avoided that an erroneous orientation of the recording device in the real environment determined and thus the viewing direction in the virtual environment is rotated by a faulty rotational offset.
  • a receptacle is made of a light source attached to the body of the user (eg, abdomen, waistband).
  • a laser may be placed on the user's torso that emits a laser beam in the direction of straight-line movement of the user (ie, substantially straight ahead of the user).
  • the light source or the laser beam is the known object, which is received by the recording device. From the current position of the recording device and the known position of the recording device at least one previous time, an orientation of the body in the real environment is determined (ie, the motion vector at the time of recording is assumed to be the orientation of the body).
  • the orientation of the body in the real environment serves as a reference direction. From the orientation of the laser beam in the recording, the orientation of the recording device is now determined relative to the laser beam.
  • the orientation of the laser beam in the recording can be determined, for example, according to the method described in connection FIGS. 9a and 9b. Because the direction of the laser beam corresponds to the reference direction, the absolute orientation of the recording device in the real environment can be determined from the recording of the laser beam.
  • a desired viewing direction in the representation of the virtual environment can be determined, so that by comparison with the current viewing direction in the representation of the virtual environment again the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment can be determined.
  • the viewing direction in the representation of the virtual environment can then be rotated by the rotational offset, ie corrected.
  • FIG. 10 shows another method 1000 for setting a viewing direction in a representation of a virtual environment.
  • the method 1000 comprises recording 1002 of an object arranged in a real environment on the user's body with a recording device arranged on the user's head at a first time to and at a later second time ti.
  • the object may be e.g. is a light source attached to the user's body (e.g., abdomen or waistband).
  • a laser may be placed on the user's torso that emits a laser beam in the direction of straight-line motion of the user (i.e., substantially straight ahead of the user).
  • a user may move his head by rotating about a transverse axis of the head, rotating about a longitudinal axis of the head, and / or rotating about a yaw axis of the head.
  • the transverse axis, the longitudinal axis and the yaw axis of the head are perpendicular to each other. Since the receiving device is arranged on the head of the user, this is also about the transverse axis, the longitudinal axis and the yaw axis of the head movable.
  • the representation of the virtual environment may be output to the user via a display device attached to the user's head.
  • the display device HMD
  • existing sensors eg gyroscope, magnetometer, accelerometer
  • a rotational position of the head to be determined about its yaw axis.
  • the determination of the orientation of the head with the existing sensors - as shown above - is faulty.
  • the display device may further comprise the receiving device.
  • the method 1000 further includes determining 1004 a rotational offset of the viewing direction in the representation of the virtual environment about a yaw axis of the representation of the virtual environment based on the images of the object at the first time to and at the second time ti and measured values of at least one further Head of the user attached sensor.
  • the rotational offset of the viewing direction in the representation of the virtual environment about a yaw axis of the representation of the virtual environment corresponds to a rotational offset of the receiving device about the yaw axis of the head of the user. This is determined by a comparison of the rotation of the recording device determined from the recordings of the object at times to and ti about the yaw axis of the user's head and that of the measured values between times to and ti of the at least one further sensor attached to the user's head Rotation of the recording device determined by the yaw axis of the user's head.
  • the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment can be determined without having to determine the absolute orientation of the recording device or the user's head in the real environment. Rather, it is sufficient to determine the relative rotational offset of the receiving device or of the HMD about the yaw axis of the head.
  • the method 1000 therefore also includes rotating 1006 the viewing direction in the representation of the virtual environment around the rotational offset.
  • the viewing direction in the representation of the virtual environment is corrected by a rotation about the yaw axis of the representation of the virtual environment, the direction and the magnitude of the rotation being determined by the rotational offset.
  • the representation of the virtual environment is thus corrected by the rotational offset.
  • the representation of the virtual environment can thus be adapted to the actual position and orientation of the user's head in the real environment. Consequently, the method 1000 thus also permits a calibration of the viewing direction in the representation of the virtual environment. In particular, even with the method 1000, an erroneously determined orientation in the real environment or a drift of the viewing direction in the representation of the virtual environment, which results from measurement errors of commonly used sensors for determining the position and orientation (of the head) of a user corrected.
  • determining 1004 the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the virtual environment representation comprises determining a first rotation of the capture device about the yaw axis of the user's head between the first time to and the second time ti on the photographs of the object at the first time to and at the second time ti.
  • determining 1004 the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the virtual environment representation comprises determining a first rotation of the capture device about the yaw axis of the user's head between the first time to and the second time ti on the photographs of the object at the first time to and at the second time ti.
  • for the first time to the orientation of the recording device is determined relative to the laser beam from the recording of the laser beam at the first time to.
  • the laser beam may be directed in the direction of straight-ahead movement of the user and the user is looking straight ahead, so that rotation of the pick-up about the yaw axis of the head of 0 ° relative to the laser beam is determined as a first orientation.
  • the orientation of the recording device relative to the laser beam is determined from the recording of the laser beam at the second time ti. If, for example, the user has turned the head sideways at the time t.sub.i, a second orientation of the laser beam in the receptacle different from the first orientation is determined, ie a rotation of the recording device about the yaw axis of the head relative to the laser beam that differs from 0 °.
  • the orientation of the laser beam in the recording can be determined, for example, according to the method described in connection FIGS. 9a and 9b.
  • the relative angle of rotation about the yaw axis of the head between the orientation of the head at the first time to and the orientation of the head at the second time ti is determined from the two recordings.
  • determining 1004 the rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment comprises determining a second rotation of the recording device about the yaw axis of the user's head between the first time to and the second time ti based on the measured values of the at least one further sensor attached to the head of the user.
  • the effective (ie, total) rotation about the yaw axis of the head is in turn determined from the measured values of the at least one further sensor attached to the head of the user between the times to and ti.
  • the relative angle of rotation about the yaw axis of the head between the orientation of the head at the first time to and the orientation of the head at the second time ti determined from the measured values.
  • the rotation about the yaw axis of the head determined from the measurement values may be erroneous. Since this is used in the VR system for determining the viewing direction in the representation of the virtual environment, the viewing direction in the representation of the virtual environment can also be erroneous, ie rotated about the yaw axis of the representation of the virtual environment.
  • determining the gaze direction rotation offset 1004 in the representation of the virtual environment around the yaw axis of the virtual environment representation in these embodiments further comprises determining the rotational offset about the yaw axis of the head between the first rotation and the second rotation as the rotational offset of the gaze direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment.
  • the rotational offset about the yaw axis 15 of the head between the first rotation and the second rotation represents the difference (ie the difference) between the first rotation determined from the images of the object and the second rotation derived from the Measured values of the at least one further sensor is determined.
  • the resulting rotational offset about the yaw axis of the user's head due to the measurement errors of the sensing device (i.e., HMD) 20 is thus determined by the accurate determination of the rotation of the display relative to the object on the user's body (e.g., the laser beam).
  • the relative rotational offset of the receiving device or of the HMD about the yaw axis of the head can therefore be assumed as a rotational offset of the viewing direction in the representation of the virtual environment around the yaw axis of the representation of the virtual environment, so that these 25 corresponding to the rotational offset of the receiving device or the HMD around the yaw axis of the head can be corrected.
  • FIGS. 11a and 11b relationships between a motion vector of a user 1000 in the real environment, an actual viewing direction v rea i of the user 1100 in the real environment and one of the measured values of the at least one further at the head 1102 of FIG User 1100 arranged sensor certain view v vr shown in the representation of the virtual environment.
  • the user 1100 moves between the first time to and later second time ti along the motion vector p, which can be determined, for example, by position measurements m (to) and m (ti) at the two times to and ti.
  • Fig. IIa shows the situation at the first time to.
  • the user 1100 is looking straight ahead, i. in the direction of its motion vector p.
  • the actual orientation of the user's head is determined for the first time to by means of a pick-up device comprised by an HMD 1104 located at the head 1102 of the user 1100.
  • a pick-up device comprised by an HMD 1104 located at the head 1102 of the user 1100.
  • a first image of an object e.g., light source, laser light source, emitting laser beam
  • a relative orientation of the head to the object is determined for the first time to.
  • the orientation of the object relative to the body 1106 (e.g., trunk) of the user 1100 is known.
  • a laser beam may be directed in the direction of a straight-ahead movement of the user 1100, so that a rotation of the pick-up about the yaw axis of the head of 0 ° relative to the laser beam is determined as the first orientation. Since the laser beam is directed in the direction of the straight-ahead movement of the user 1100, the direction of the laser beam essentially corresponds to the motion vector p of the user 1100, so that the rotation ⁇ of the recording device about the yaw axis of the head relative to the motion vector p of the user 1100 is also known , here is a rotation of 0 °. Since the motion vector is known, the absolute orientation of the recording device and therefore also of the head 1102 of the user 1100 in the real environment is thus known.
  • the orientation of the head 1102 of the user 1100 in the real environment is also determined by means of at least one further sensor (eg, gyroscope, magnetometer, accelerometer) from the HMD 1104, and the viewing direction v vr in the illustration in FIG the virtual environment.
  • at least one further sensor eg, gyroscope, magnetometer, accelerometer
  • the viewing direction of the user 1100 in the real environment determined from the measured values of the at least one further sensor arranged at the head 1102 of the user 1100 is identical to the actual viewing direction v rea i of the user 1100 determined from the recording in the real environment.
  • the viewing direction Vvr in the representation of the virtual environment would also essentially correspond to the motion vector p of the user 1100, such that a rotation occurs between the actual viewing direction v rea i of the user 1100 in the real environment and the viewing direction v vr in the representation of the virtual environment ⁇ can be assumed to be substantially 0 °.
  • the rotation offset about the yaw axis of the representation of the virtual environment is substantially 0 °.
  • Fig. IIb now the situation at the second time ti is shown.
  • the user 1100 is looking straight ahead, ie essentially in the direction of his motion vector p.
  • a rotation of the recording device around the yaw axis of the head of 0 ° relative to eg the laser beam is again determined as the second orientation, ie the rotation ⁇ the pickup device about the yaw axis of the head relative to the motion vector p of the user 1100 is again 0 °.
  • the viewing direction of the user 1100 in the real environment is not identical to the actual viewing direction v rea i of the user determined from the second image User 1100 in the real environment. Therefore, the viewing direction v vr in the representation of the virtual environment also does not correspond substantially to the motion vector p of the user 1100, so that between the actual viewing direction v rea i of the user 1100 in the real environment and the viewing direction v vr in the representation of the virtual Environment is a rotation other than 0 ° ⁇ .
  • the rotational offset about the yaw axis of the representation of the virtual environment is different from 0 °.
  • the consequence of the rotation offset about 0 ° about the yaw axis of the representation of the virtual environment is that the user does not move in the virtual environment substantially along the motion vector p, but obliquely to it. If, for example, the user walks straight ahead in the real environment, he would move forward in the real environment.
  • the relative rotational offset about the yaw axis of the head 1102 of the user 1100 between the rotation determined from the two shots and that from the measured values the rotation of the at least one further sensor can be used.
  • the absolute orientation of the pickup device (and thus the head 1102) in the real environment which is determinable based on the knowledge of the relative orientation of the pickup device to the known motion vector, can be used to provide a desired line of sight in the illustration of FIGS to determine the virtual environment and to correct the viewing direction in the representation of the virtual environment by the rotational offset between the target viewing direction and the current viewing direction in the representation of the virtual environment (ie to rotate the yaw axis representing the virtual environment).
  • a calibration of the viewing direction in the representation of the virtual environment can be made possible.
  • aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device. Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-Ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals, which can cooperate with a programmable hardware component or cooperate such that the respective method is performed.
  • a digital storage medium such as a floppy disk, a DVD, a Blu-Ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals, which can cooperate with a programmable hardware component or cooperate such that the respective method is performed.
  • the digital storage medium may therefore be machine or computer readable.
  • some embodiments include a data carrier having electronically readable control signals capable of interacting with a programmable computer system or programmable hardware component such that one of the methods described herein is performed.
  • One embodiment is thus a data carrier (or a digital storage medium or a computer readable medium) on which the program is recorded for performing any of the methods described herein.
  • embodiments of the present invention may be implemented as a program, firmware, computer program, or computer program product having program code or data, the program code or data operative to perform one of the methods when the program resides on a processor or a computer programmable hardware component expires.
  • the program code or the data can also be stored, for example, on a machine-readable carrier or data carrier.
  • the program code or the data may be available, inter alia, as source code, machine code or byte code as well as other intermediate code.
  • Another embodiment is further a data stream, a signal sequence, or a sequence of signals that represents the program for performing any of the methods described herein.
  • the data stream, the signal sequence or the sequence of signals can be configured, for example, to be transferred via a data communication connection, for example via the Internet or another network.
  • Embodiments are also data representing signal sequences that are suitable for transmission over a network or a data communication connection, the data representing the program.
  • a program may implement one of the methods during its execution, for example, by reading out of these memory locations or writing into them one or more data, as a result of which, if necessary, switching operations or other processes in transistor structures, in amplifier structures or in other electrical, optical, magnetic or operating according to another functional principle components are caused. Accordingly, by reading a memory location, data, values, sensor values or other information can be detected, determined or measured by a program. A program can therefore acquire, determine or measure quantities, values, measured variables and other information by reading from one or more storage locations, as well as effect, initiate or execute an action by writing to one or more storage locations and control other devices, machines and components ,

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

Vorgeschlagen wird ein Verfahren zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung. Das Verfahren beinhaltet ein Aufnehmen eines bekannten Objektes in einer realen Umgebung mit einer Aufnahmevorrichtung. Weiterhin beinhaltet das Verfahren ein Bestimmen eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts, einer bekannten Position der Aufnahmevorrichtung in der realen Umgebung und einer momentanen Blickrichtung in der Darstellung der virtuellen Umgebung. Das Verfahren beinhaltet ferner ein Drehen der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.

Description

VERFAHREN ZUM EINSTELLEN EINER BLICKRICHTUNG IN EINER DARSTELLUNG EINER VIRTUELLEN UMGEBUNG
Technisches Gebiet
Ausführungsbeispiele befassen sich mit der Darstellung einer virtuellen Umgebung. Insbesondere befassen sich Ausführungsbeispiele mit einem Verfahren zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung. Hintergrund
Als virtuelle Realität (Virtual Reality, VR) wird die Darstellung und gleichzeitige Wahrnehmung einer computergenerierten, interaktiven virtuellen Umgebung und ihrer physikalischen Eigenschaften bezeichnet. Um ein Gefühl der Immersion zu erzeugen, kann eine Darstellung der virtuellen Umgebung an einen Benutzer z.B. über eine am Kopf des Benutzers befestigte Anzeigevorrichtung erfolgen. Solche Vorrichtungen sind als Head-Mounted Display (HMD), Head-Mounted Display Unit oder Head-Mounted Unit (HMU) bekannt. Die Anzeigevorrichtung stellt die virtuelle Umgebung z.B. auf einem augennahen Bildschirm dar oder projiziert sie direkt auf die Netzhaut des Benutzers. Die Orientierung, d.h. die Blickrichtung, in der Darstellung der virtuellen Umgebung wird dabei durch Drehen um eine Querachse (Nickachse, pitch axis) der Darstellung der virtuellen Umgebung, Drehen um eine Längsachse (Rollachse, roll axis) der Darstellung der virtuellen Umgebung und / oder Drehen um eine Gierachse (Vertikalachse, Hochachse, yaw axis) der Darstellung der virtuellen Umgebung eingestellt. Die Querachse, die Längsachse und die Gierachse stehen dabei senkrecht aufeinander.
Um die Darstellung der virtuellen Umgebung an Bewegungen des Benutzers anzupassen, d.h. um gemäß den Bewegungen des Benutzers durch die virtuelle Umgebung zu navigieren, kann die Position des Kopfes des Benutzers erfasst werden. Beispielsweise können eine Position sowie eine Orientierung des Kopfes des Benutzers in der realen Umgebung, d.h. in der realen Welt, bestimmt werden, um die Darstellung der virtuellen Umgebung anzupassen. Entsprechend kann die Wahrnehmung der eigenen Person in der realen Umgebung vermindert und die Identifikation mit der virtuellen Umgebung vergrößert werden. Um die Position des Kopfes des Benutzers zu erfassen, können z.B. die Ausbreitungszeiten eines Radiosignals von einem einzelnen Sender am Kopf des Benutzers zu mehreren entfernten Empfängern genutzt werden. So kann z.B. über ein Time-Difference-of-Arrival (TDoA) -Verfahren aus den unterschiedlichen Differenzzeiten zwischen dem Aussenden des Radiosignals durch den Sender und dem Empfangen des Radiosignals durch den jeweiligen Empfänger eine Position des Kopfes des Benutzers mit einer Genauigkeit im einstelligen Zentimeterbereich bestimmt werden. Der Sender kann dabei z.B. in einer am Kopf des Benutzers befestigten Anzeigevorrichtung integriert sein oder unabhängig von der am Kopf des Benutzers befestigten Anzeigevorrichtung am Kopf des Benutzers angebracht sein. Ein Benutzer kann somit z.B. durch freies Bewegen in der echten Umgebung die dargestellte Position in der virtuellen Umgebung än- dem. Alternativ kann z.B. über ein kamerabasiertes Verfahren, ein Time-of-Flight (ToF) - Verfahren, ein Round Trip Time (RTT) -Verfahren bzw. eine inertiale Messeinheit (Inertial Measurement Unit, IMU) die Position des Kopfes des Benutzers erfasst werden.
Die Orientierung des Kopfes des Benutzers kann beispielsweise über entsprechende Sensorik (z.B. Gyroskop, Magnetometer, Akzelerometer) der am Kopf des Benutzers befestigten Anzeigevorrichtung bestimmt werden. Wenn die am Kopf des Benutzers befestigte Anzeigevorrichtung beispielsweise ein Mobilkommunikationsgerät, wie etwa ein Smartphone, sowie eine Fixiervorrichtung zum Befestigen des Mobilkommunikationsgeräts am Kopf des Benutzers aufweist, kann bereits im Mobilkommunikationsgerät vorhandene Sensorik zur Bestimmung der Orientierung des Kopfes des Benutzers genutzt werden. Ein Benutzer kann somit z.B. durch Drehen oder Neigen des Kopfes in der echten Umgebung die die Blickrichtung in der virtuellen Umgebung ändern. Bei einem Drehen des Kopfes in der echten Umgebung wird z.B. die Blickrichtung in der virtuellen Umgebung durch ein Drehen um die Gierachse der Darstellung der virtuellen Umgebung geändert. Beispielsweise kann das Magnetometer verwendet werden, um die Orientierung in der realen Umgebung hinreichend stabil zu bestimmen. Für ein abgeschlossenes Gebiet in der realen Umgebung kann z.B. eine Magnetfeldkarte erstellt werden, so dass mit einem entsprechend kalibriertem Magnetometer die Orientierung des Kopfes des Benutzers in der realen Umgebung bestimmt werden kann. Die Bestimmung der Orientierung des Kopfes des Benutzers mittels der oben genannten Sensorik kann jedoch zu Orientierungsfehlern führen. So liefern Magnetometer mitunter falsche Messwerte, so dass die gemessene Orientierung des Kopfes nicht mit der wahren Orientierung des Kopfes in der realen Umgebung übereinstimmt. Auch eine näherungsweise Orientierungsbestimmung des Kopfes mittels Koppelung der Messwerte eines Gyroskops und eines Akzelerometers kann aufgrund von Messfehlern der einzelnen Sensorelemente zu einer Diskrepanz zwischen der gemessenen bzw. bestimmten Orientierung des Kopfes und der wahren Orientierung des Kopfes in der realen Umgebung führen. So kann beispielsweise die Kombination und Integration fehlerhafter Messwerte über einen längeren Zeitraum zu Abweichun- gen zwischen der bestimmten Orientierung des Kopfes und der wahren Orientierung des Kopfes in der realen Umgebung führen. Auch häufige und intensive Änderungen der Drehrate der Sensorik (z.B. Wechsel zwischen langsamen und schnellen Drehbewegungen des Kopfes) können zu mitunter erheblichen Abweichungen zwischen der bestimmten Orientierung des Kopfes und der wahren Orientierung des Kopfes in der realen Umgebung führen, wobei der Fehler mit dem Ausmaß der Drehratenänderung ansteigt. Entsprechend ist auch die Orientierung der Darstellung der virtuellen Umgebung, die auf den Messwerten beruht, verfälscht.
Ein Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bis zu etwa ±15° wird dabei von einem Benutzer für gewöhnlich nicht wahrgenommen. Läuft ein Benutzer z.B. in der realen Umgebung geradeaus, so realisiert er mitunter nicht, wenn die Blickrichtung in der Darstellung der virtuellen Umgebung bis zu etwa ±15° davon abweicht (d.h. die Blickrichtung bis zu etwa 15° nach links bzw. rechts um die Gierachse rotiert ist). Mit anderen Worten: Der Benutzer nimmt bis zu einem gewissen Grad nicht wahr, dass er sich im Gegensatz zur realen Umge- bung in der virtuellen Umgebung nicht geradeaus, sondern schräg bewegt. Größere Abweichungen werden jedoch von dem Benutzer wahrgenommen und mindern das Gefühl der Immersion. Aufgrund der Messfehler der Sensorik kann es mitunter zu einem solch unerwünscht großen Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung kommen. Insbesondere bei einer Nutzung der Darstellung der virtuellen Umgebung durch den Benutzer über einen längeren Zeitraum kann es aufgrund der Integration der fehlerhaften Messwerte zu einem merklichen Versatz der Blickrichtung in der Darstellung der virtuellen Umgebung kommen. Mitunter kann die wahrnehmbare Abweichung der Blickrichtung in der Darstellung der virtuellen Umgebung auch zu einem Unwohlsein bei dem Benutzer führen. Es besteht somit ein Bedürfnis, eine Möglichkeit zur Korrektur der Blickrichtung in der Darstellung der virtuellen Umgebung bereitzustellen.
Zusammenfassung Ausführungsbeispiele eines Verfahrens zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung ermöglichen dies. Dabei umfasst das Verfahren ein Aufnehmen eines bekannten Objektes in einer realen Umgebung mit einer Aufnahmevorrichtung (z.B. ein Bild, ein Video oder eine Tonaufnahme). Ferner umfasst das Verfahren ein Bestim- men eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts, einer bekannten Position der Aufnahmevorrichtung in der realen Umgebung und einer momentanen Blickrichtung in der Darstellung der virtuellen Umgebung. Das Verfahren umfasst weiterhin ein Drehen der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.
Die Aufnahmevorrichtung kann räumlich in unmittelbarer Nähe zum Benutzer angeordnet sein. Beispielsweise kann die Aufnahmevorrichtung am Körper des Benutzers (etwa am Kopf) befestigt werden. Aus der Aufnahme des Objekts und der bekannten Position der Aufnahmevorrichtung in der realen Umgebung kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt werden, die daher näherungsweise als Orientierung des Kopfes des Benutzers in der realen Umgebung angenommen werden kann. Daraus kann unter Heranziehung der Informationen über die momentane Blickrichtung in der Darstellung der virtuellen Umgebung der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt und die Darstellung der virtuellen Umgebung entsprechend korrigiert werden. Die Darstellung der virtuellen Umgebung kann somit an die tatsächliche Position und Orientierung des Kopfes des Benutzers in der realen Umgebung angepasst werden. Mithin erlauben Ausführungsbeispiele des vorgeschlagenen Verfahrens somit eine Kalibration der Blickrichtung in der Darstellung der virtuellen Umgebung. Bei einem Benutzer kann somit ein verbessertes Gefühl der Immersion erzeugt werden.
Weitere Ausführungsbeispiele betreffen ein zweites Verfahren zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung. Das Verfahren umfasst dabei ein Aufnehmen eines bekannten Objektes in einer realen Umgebung mit einer Aufnahmevorrichtung (z.B. ein Bild, ein Video oder eine Tonaufnahme). Weiterhin umfasst das Verfahren ein Bestimmen eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts und einer momentanen Blickrichtung in der Darstellung der virtuellen Umgebung. Zudem umfasst das Verfahren ein Drehen der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.
Aus der Aufnahme des Objekts kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt werden. Ist die Aufnahmevorrichtung räumlich in unmittelbarer Nähe zum Benutzer angeordnet (z.B. am Kopf des Benutzers), kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung näherungsweise als Orientierung des Kopfes des Benutzers in der realen Umgebung angenommen werden. Daraus kann zusammen mit den Informationen über die momentane Blickrichtung in der Darstellung der virtuellen Umgebung der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt und die Darstellung der virtuellen Umgebung entsprechend korrigiert werden. Die Darstellung der virtuellen Umgebung kann somit an die tatsächliche Position und Orientierung des Kopfes des Benutzers in der realen Umgebung angepasst werden. Mithin erlauben Ausführungsbeispiele des vorgeschla- genen Verfahrens somit eine Kalibration der Blickrichtung in der Darstellung der virtuellen Umgebung. Bei einem Benutzer kann somit ein verbessertes Gefühl der Immersion erzeugt werden.
Weitere Ausführungsbeispiele betreffen ein drittes Verfahren zum Einstellen einer Blickrich- tung in einer Darstellung einer virtuellen Umgebung. Das Verfahren umfasst dabei ein Aufnehmen eines in einer realen Umgebung am Körper eines Benutzers angeordneten Objektes mit einer am Kopf des Benutzers angeordneten Aufnahmevorrichtung zu einem ersten Zeitpunkt und zu einem späteren zweiten Zeitpunkt (z.B. ein Bild, ein Video oder eine Tonaufnahme). Weiterhin umfasst das Verfahren ein Bestimmen eines Rotationsversatzes der Blick- richtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf den Aufnahmen des Objektes zu dem ersten Zeitpunkt und zu dem zweiten Zeitpunkt sowie Messwerten zumindest eines weiteren am Kopf des Benutzers befestigten Sensors. Das Verfahren umfasst ferner ein Drehen der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.
Aus den Aufnahmen des Objektes zu dem ersten Zeitpunkt und zu dem zweiten Zeitpunkt sowie den Messwerten des zumindest einen weiteren am Kopf des Benutzers befestigten Sensors kann jeweils ein effektive Rotation der Aufnahmevorrichtung um die Gierachse des Kop- fes des Benutzers zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt bestimmt werden. Die Differenz zwischen den beiden bestimmten Werten für die Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes des Benutzers kann näherungsweise als Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung angenommen werden. Die Darstellung der virtuellen Umgebung kann damit entsprechend korrigiert werden. Die Darstellung der virtuellen Umgebung kann somit an die tatsächliche Position und Orientierung des Kopfes des Benutzers in der realen Umgebung angepasst werden. Mithin erlauben Ausführungsbeispiele des vorgeschlagenen Verfahrens somit eine Kalibration der Blickrichtung in der Darstellung der virtu- eilen Umgebung. Bei einem Benutzer kann somit ein verbessertes Gefühl der Immersion erzeugt werden.
Ausführungsbeispiele umfassen in einem weiteren Aspekt ein Programm mit einem Programmcode zum Durchführen eines der vorgeschlagenen Verfahren, wenn der Programm- code auf einem Computer, einem Prozessor oder einer programmierbaren Hardwarekomponente ausgeführt wird.
Figurenkurzbeschreibung Ausführungsbeispiele werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:
Fig. 1 ein Beispiel eines Verfahrens zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung;
Fig. 2 ein Beispiel eines Zusammenhangs zwischen einem Objekt in der realen Umgebung und einer Aufnahme des Objekts;
Fig. 3a ein erstes Beispiel für ein Objekt; Fig. 3b ein zweites Beispiel für ein Objekt;
Fig. 3c ein drittes Beispiel für ein Objekt; Fig. 3d ein viertes Beispiel für ein Objekt;
Fig. 4 beispielhafte Merkmale in einem Objekt; Fig. 5 ein Beispiel einer Zuordnung der Positionen von Merkmalen eines Objekts in der realen Umgebung zur Position der jeweiligen Merkmals in einer Aufnahme des Objekts;
Fig. 6 ein Beispiel eines Histogramms bestimmter Orientierungen der Aufnahmevorrichtung in der realen Umgebung;
Fig. 7 eine Abfolge zueinander rotierter Aufnahme eines selben Objekts;
Fig. 8 ein Beispiel eines weiteren Verfahrens zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung;
Fig. 9a eine Aufnahme eines fünften Beispiels für ein Objekt;
Fig. 9b eine korrespondierende Binäraufnahme zu der in Fig. 9a gezeigten Aufnahme; Fig. 9c eine Aufnahme eines sechsten Beispiels für ein Objekt;
Fig. 9d eine korrespondierende Binäraufnahme zu der in Fig. 9b gezeigten Aufnahme;
Fig. 10 ein Beispiel eines weiteren Verfahrens zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung;
Fig. I Ia ein Beispiel eines Zusammenhangs zwischen einem Bewegungsvektor eines Benutzers, einer tatsächlichen Blickrichtung des Benutzers und einer aus Messwerten zumindest eines weiteren am Kopf des Benutzers angeordneten Sensors bestimmten Blickrichtung in der Darstellung der virtuellen Umgebung zu einem ersten Zeitpunkt; und
Fig. 1 lb ein Beispiel eines Zusammenhangs zwischen einem Bewegungsvektor eines Benutzers, einer tatsächlichen Blickrichtung des Benutzers und einer aus Messwerten zumindest eines weiteren am Kopf des Benutzers angeordneten Sensors bestimmten Blickrichtung in der Darstellung der virtuellen Umgebung zu einem zweiten Zeitpunkt.
Beschreibung
Verschiedene Ausführungsbeispiele werden nun ausführlicher unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Dickenabmessungen von Linien, Schichten und/oder Regionen um der Deutlichkeit Willen übertrieben dargestellt sein.
Bei der nachfolgenden Beschreibung der beigefügten Figuren, die lediglich einige exemplarische Ausführungsbeispiele zeigen, können gleiche Bezugszeichen gleiche oder vergleichbare Komponenten bezeichnen. Ferner können zusammenfassende Bezugszeichen für Komponenten und Objekte verwendet werden, die mehrfach in einem Ausführungsbeispiel oder in einer Zeichnung auftreten, jedoch hinsichtlich eines oder mehrerer Merkmale gemeinsam beschrieben werden. Komponenten oder Objekte, die mit gleichen oder zusammenfassenden Bezugszeichen beschrieben werden, können hinsichtlich einzelner, mehrerer oder aller Merkmale, beispielsweise ihrer Dimensionierungen, gleich, jedoch gegebenenfalls auch unterschiedlich ausgeführt sein, sofern sich aus der Beschreibung nicht etwas anderes explizit oder implizit ergibt.
Obwohl Ausführungsbeispiele auf verschiedene Weise modifiziert und abgeändert werden können, sind Ausführungsbeispiele in den Figuren als Beispiele dargestellt und werden hierin ausführlich beschrieben. Es sei jedoch klargestellt, dass nicht beabsichtigt ist, Ausführungs- beispiele auf die jeweils offenbarten Formen zu beschränken, sondern dass Ausführungsbeispiele vielmehr sämtliche funktionale und/oder strukturelle Modifikationen, Äquivalente und Alternativen, die im Bereich der Erfindung liegen, abdecken sollen. Gleiche Bezugszeichen bezeichnen in der gesamten Figurenbeschreibung gleiche oder ähnliche Elemente. Man beachte, dass ein Element, das als mit einem anderen Element„verbunden" oder„verkoppelt" bezeichnet wird, mit dem anderen Element direkt verbunden oder verkoppelt sein kann oder dass dazwischenliegende Elemente vorhanden sein können. Wenn ein Element dagegen als„direkt verbunden" oder„direkt verkoppelt" mit einem anderen Element bezeichnet wird, sind keine dazwischenliegenden Elemente vorhanden. Andere Begriffe, die verwendet werden, um die Beziehung zwischen Elementen zu beschreiben, sollten auf ähnliche Weise interpretiert werden (z.B.,„zwischen" gegenüber„direkt dazwischen",„angrenzend" gegenüber„direkt angrenzend" usw.).
Die Terminologie, die hierin verwendet wird, dient nur der Beschreibung bestimmter Ausführungsbeispiele und soll die Ausführungsbeispiele nicht beschränken. Wie hierin verwendet, sollen die Singularformen„ einer",„ eine",„eines" und„der, die, das" auch die Pluralformen beinhalten, solange der Kontext nicht eindeutig etwas anderes angibt. Ferner sei klargestellt, dass die Ausdrücke wie z.B.„beinhaltet",„beinhaltend", aufweist" und/oder„aufweisend", wie hierin verwendet, das Vorhandensein von genannten Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen und/oder Komponenten angeben, aber das Vorhandensein oder die Hinzufügung von einem bzw. einer oder mehreren Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
Solange nichts anderes definiert ist, haben sämtliche hierin verwendeten Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen) die gleiche Bedeutung, die ihnen ein Durchschnittsfachmann auf dem Gebiet, zu dem die Ausführungsbeispiele gehören, beimisst. Ferner sei klargestellt, dass Ausdrücke, z.B. diejenigen, die in allgemein verwendeten Wörterbüchern definiert sind, so zu interpretieren sind, als hätten sie die Bedeutung, die mit ihrer Bedeutung im Kontext der einschlägigen Technik konsistent ist, solange dies hierin nicht ausdrücklich anders definiert ist.
Fig. 1 zeigt ein Verfahren 100 zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung. Bei der virtuellen Umgebung handelt es sich um eine computergenerierte, interaktive Welt mit vorgegebenen physikalischen Eigenschaften, die z.B. an einen Benutzer ausgegeben werden kann. Die Blickrichtung in der Darstellung der virtuellen Umgebung entspricht dabei der Orientierung (Ausrichtung) des in der Darstellung der virtuellen Umgebung gezeigten Ausschnitts der virtuellen Umgebung in der virtuellen Umgebung. Die Darstellung der virtuellen Umgebung kann beispielsweise die virtuelle Umgebung aus einer Egoperspektive oder Ich-Perspektive wiedergeben, d.h. die virtuellen Umgebung wird so wiedergegeben, wie ein Benutzer sie sehen würde, wenn er sich tatsächlich in der virtuellen Umgebung bewegen würde. Entsprechend entspräche die Blickrichtung in der Darstellung der virtuellen Umgebung der Blickrichtung des Benutzers, wenn er sich tatsächlich in der virtuellen Umgebung bewegen würde. Die Blickrichtung in der Darstellung der virtuellen Umgebung wird dabei durch Drehen um die Querachse der Darstellung der virtuellen Umgebung, Drehen um die Längsachse der Darstellung der virtuellen Umgebung und / oder Drehen um die Gierachse der Darstellung der virtuellen Umgebung eingestellt.
Das Verfahren 100 umfasst dabei ein Aufnehmen 102 eines bekannten Objektes in einer realen Umgebung (d.h. der realen, echten Welt) mit einer Aufnahmevorrichtung. Bei dem bekannten Objekt kann es sich sowohl um ein speziell für das vorgeschlagene Verfahren platziertes Objekt in der realen Umgebung handeln, als auch um ein bereits in der realen Umgebung vorhandenes Objekt. Beispielsweise kann das Objekt in einem Bereich in der realen Umgebung, in dem sich der Benutzer bewegt, platziert sein oder ein bereits vorhandenes Element dieses Bereichs sein. Bei dem Objekt kann es sich sowohl um ein im Wesentlichen zweidimensionales (flächiges) Objekt, d.h. ein Objekt dass sich im Wesentlichen in lediglich zwei Raumrichtungen erstreckt, als auch um ein dreidimensionales Objekt, d.h. ein Objekt das sich in ähnlichen Größenordnungen in alle drei Raumrichtungen erstreckt, handeln. Bewegt sich der Benutzer in der realen Umgebung z.B. innerhalb eines Raumes oder einer Halle, kann das bekannte Objekt z.B. ein Objekt des Raumes bzw. der Halle sein, wie etwa ein Fenster, eine Beleuchtungsvorrichtung, eine Tür, ein Pfosten, ein Träger, Einrichtungsgegenstand oder ein sonstiges Element des Raumes bzw. der Halle. Alternativ kann das Objekt z.B. ein Poster, eine Projektion, eine Schallquelle oder ein sonstiges Element sein, das in dem Raum bzw. der Halle speziell für das vorgeschlagene Verfahren platziert wurde.
Bei der Aufnahme kann es sich z.B. um ein Stehbild (d.h. eine Einzelaufnahme), ein Video (d.h. eine Abfolge von Bildern) oder eine Tonaufnahme, d.h. ein Aufzeichnung von Schall, (z.B. Geräusche, Töne, Musik oder Sprache) handeln. Entsprechend kann die Aufnahmevorrichtung eine Stehbildkamera, eine Videokamera, ein (Stereo-) Tonaufnahmegerät oder eine Kombination davon umfassen. Ferner umfasst das Verfahren 100 ein Bestimmen 104 eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts, einer bekannten Position der Aufnahmevorrichtung in der realen Umgebung und einer momentanen Blickrichtung in der Darstellung der virtuellen Umgebung. Die Aufnahmevorrichtung kann räumlich in unmittelbarer Nähe zum Benutzer angeordnet sein. Als Position der Aufnahmevorrichtung kann dann z.B. eine im regulären Betrieb eines VR-Systems gemessene Position des Benutzers in der realen Umgebung verwendet werden. Wird die Position des Benutzers wie oben beschrieben z.B. über eine Flugzeitmessung bestimmt, kann der Sender z.B. am Kopf des Benutzers und die Aufnahmevorrichtung räumlich nahe zu diesem angeordnet werden, um die Position der Aufnahmevorrichtung in der realen Umgebung möglichst genau zu kennen. Die momentane Blickrichtung in der Darstellung der virtuellen Umgebung kann beispielsweise von einer Anzeigevorrichtung (z.B. HMD, HMU), die die Darstellung der virtuellen Umgebung an den Benutzer ausgibt (und optional auch berechnet), oder einem Rechner, der die virtuellen Um- gebung berechnet (z.B. Back-End eines VR-Systems), empfangen werden.
Aus der Aufnahme des Objekts und der bekannten Position der Aufnahmevorrichtung in der realen Umgebung kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt werden, die näherungsweise als Orientierung des Benutzers bzw. dessen Kopfes in der realen Umgebung angenommen werden kann. Daraus kann unter Heranziehung der Informationen über die momentane Blickrichtung in der Darstellung der virtuellen Umgebung der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt werden. Einige Beispiele für die Bestimmung der Orientierung der Aufnahmevorrichtung in der realen Umgebung als auch der Bestimmung des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung werden in der nachfolgenden Beschreibung näher erläutert.
Das Verfahren 100 umfasst weiterhin ein Drehen 106 der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz. Mit anderen Worten: Die Blickrichtung in der Darstellung der virtuellen Umgebung wird durch eine Drehung um die Gierachse der Darstellung der virtuellen Umgebung korrigiert, wobei die Richtung und die Magnitude der Drehung durch den Rotationsversatz bestimmt sind. Die Darstellung der virtuellen Umgebung wird somit um den Rotationsversatz korrigiert. Die Darstellung der virtuellen Umgebung kann somit an die tatsächliche Position und Orientierung des Kopfes des Benutzers in der realen Umgebung angepasst werden. Mithin erlaubt das Verfahren 100 somit eine Kalibration der Blickrichtung in der Darstellung der virtuellen Umgebung. Insbesondere kann mit dem Verfahren 100 eine fehlerhaft bestimmte Orientierung in der realen Umgebung bzw. ein Abdriften der Blickrichtung in der Darstellung der virtuellen Umgebung, das von Messfehlern der gewöhnlich verwendeten Sensorik zur Bestimmung der Position und Ausrichtung (des Kopfes) eines Benutzers herrührt, korrigiert werden.
Wie bereits oben angedeutet, kann das Verfahren 100 in einigen Ausführungsbeispielen fer- ner ein Ausgeben der Darstellung der virtuellen Umgebung an einen Benutzer umfassen. Das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer kann dabei z.B. über eine am Kopf des Benutzers befestigte Anzeigevorrichtung erfolgen, die ferner die Aufnahmevorrichtung umfasst. Bei einer derartigen Anordnung kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung näherungsweise als Orientierung des Kopfes des Be- nutzers in der realen Umgebung angenommen werden.
In einigen Ausführungsbeispielen umfasst die am Kopf des Benutzers befestigte Anzeigevorrichtung ein Mobilkommunikationsgerät (z.B. ein Smartphone). Wie oben angedeutet, kann im gewöhnlichen Betrieb des VR-Systems bereits im Mobilkommunikationsgerät vorhandene Sensorik (z.B. Gyroskop, Magnetometer, Akzelerometer) zur Bestimmung der Orientierung des Kopfes des Benutzers in der realen Umgebung verwendet werden. Durch Verwenden der Kamera des Mobilkommunikationsgeräts als Aufnahmevorrichtung kann ein Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung aufgrund von Messfehlern der Sensorik des Mobilkommu- nikationsgeräts korrigiert werden. Für die Kalibration der Darstellung der virtuellen Umgebung kann somit auf bereits durch das Mobilkommunikationsgerät bereitgestellte Ressourcen zurückgegriffen werden. Mit anderen Worten: Das Verfahren 100 kann unmittelbar (d.h. online) auf dem Mobilkommunikationsgerät ausgeführt werden. Das Verfahren 100 kann somit ohne zusätzliche Hardwarekomponenten eine Kalibration der Darstellung der virtuellen Um- gebung ermöglichen. Alternativ kann z.B. ein Teil des Verfahrens 100 durch das Mobilkommunikationsgerät und ein anderer Teil des Verfahrens 100, wie etwa das Bestimmen 104 des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung, durch ein bereits vorhandenes Back-End des VR-Systems, das der Benutzer verwendet, ausgeführt werden (d.h. offline). Der be- stimmte Rotationsversatz kann dann z.B. vom Back-End an das Mobilkommunikationsgerät gesendet werden, so dass dieses die Blickrichtung in der aktuellen Darstellung der virtuellen Umgebung um den Rotationsversatzdrehen kann. Die vorbeschriebene Funktionalität kann z.B. durch ein Update für eine oder mehrere bereits existierende Softwarekomponenten des VR-Systems (z.B. Software für das Mobilkommunikationsgerät oder Software für das Back- End) implementiert werden.
In einigen Ausführungsbeispielen kann das Bestimmen 104 des Rotationsversatzes der Blick- richtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung ein Bestimmen einer Orientierung der Aufnahmevorrichtung in der realen Umgebung basierend auf der Aufnahme des Objekts und der bekannten Position der Aufnahmevorrichtung in der realen Umgebung umfassen (beispielhafte Verfahren hierzu werden nachfolgend erläutert). Ferner kann das Bestimmen 104 des Rotationsversatzes ein Bestimmen einer Soll-Blickrichtung in der Darstellung der virtuellen Umgebung basierend auf der Orientierung der Aufnahmevorrichtung in der realen Umgebung umfassen. Beispielsweise kann die bestimmte Orientierung der Aufnahmevorrichtung in der realen Umgebung einem Algorithmus für die Berechnung der Darstellung der virtuellen Umgebung bereitgestellt werden, der darauf basierend eine Darstellung der virtuellen Umgebung berechnet. Ins- besondere wenn die Aufnahmevorrichtung am Kopf des Benutzers angeordnet ist, kann die Soll-Blickrichtung in der virtuellen Umgebung diejenige Blickrichtung in der virtuellen Umgebung sein, die der tatsächlichen Position und Orientierung des Kopfes des Benutzers in der realen Umgebung entspricht. Beispielsweise kann die Aufnahmevorrichtung in Blickrichtung geradeaus des Benutzers in der realen Umgebung oder vertikal zu dieser ausgerichtet sein. Die Blickrichtung in der berechneten Darstellung der virtuellen Umgebung kann folglich als Soll-Blickrichtung angesehen werden.
Aus der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung wird gemäß Ausführungsbeispie- len nunmehr der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt. Dies kann beispielsweise durch einen Vergleich der Soll-Blickrichtung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung geschehen. Mit anderen Worten: Es wird bestimmt, wie stark die momentane Blickrichtung in der Darstellung der virtuellen Umgebung relativ zu der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung rotiert ist.
Die Darstellung der virtuellen Umgebung kann z.B. durch die am Kopf des Benutzers befestigte Anzeigevorrichtung (z.B. umfassend ein Mobilkommunikationsgerät) gerendert werden. Die Bestimmung der Soll-Blickrichtung für einen Zeitpunkt to kann z.B. durch ein Back-End des VR-Systems ausgeführt werden und anschließend an das am Kopf des Benutzers befestigte Mobilkommunikationsgerät gesendet werden. Aus der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung für den Zeitpunkt to und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung zum Zeitpunkt to kann das Mobilkommunikationsgerät dann den Rotationsversatz der Blickrichtung um die Gierachse der Darstellung der virtuellen Umgebung zum Zeitpunkt to bestimmen. Unter der Annahme, dass ein weiterer Drift der Blickrichtung in der Darstellung der virtuellen Umgebung zwischen dem Zeitpunkt to und einem späteren Zeitpunkt ti zu vernachlässigen ist, kann das Mobilkommunikationsgerät z.B. die Blickrichtung in der Darstellung der virtuellen Umgebung für den Zeitpunkt ti um den Rotationsversatz der Blickrichtung zum Zeitpunkt to drehen, d.h. korrigieren. Entsprechend kann die Darstellung der virtuellen Umgebung mit einer korrekten Blickrichtung an den Benutzer ausgegeben werden. Das oben beschriebene Verfahren kann während der Nutzung des VR-Systems wiederholt ausgeführt werden. So kann z.B. ein weiterer Drift der Blickrichtung in der Darstellung der virtuellen Umgebung zwischen dem Zeitpunkt to und dem späteren Zeitpunkt ti korrigiert werden. Auch kann das Verfahren nach einer erfolgten Korrektur zumindest teilweise erneut ausgeführt werden, um die vorangegangene Korrektur zu verifizieren.
In Fig. 2 ist beispielhaft gezeigt, wie die Orientierung einer Aufnahmevorrichtung in der realen Umgebung basierend auf einer Aufnahme 210 eines bekannten Objekts 220 und einer bekannten Position C der Aufnahmevorrichtung in der realen Umgebung bestimmt werden kann. Das Objekt 220 kann als eine Menge an Weltpunkten M aufgefasst werden. Die Auf- nähme 210 kann als eine Menge an Bildpunkten m aufgefasst werden.
Die Orientierung der Aufnahmevorrichtung und somit der Blickwinkel in der Aufnahme 210 kann allgemein aus einer Transformation bestimmt werden, welche die Weltpunkte M des Objekts 220 in entsprechende Bildpunkte m der Aufnahme 210 überführt. Allgemein kann die Transformation wie folgt dargestellt werden:
wobei / die Einheitsmatrix sowie K und R die Zerlegung der Kameramatrix der Aufhahme- vorrichtung darstellen, wobei K die intrinsische Matrix, welche die Fokallänge, den Hauptpunkt der Kamera und die Abweichungen der Achsen des Bildkoordinatensystems von der angenommenen Orthogonalität (axis skew) beschreibt, und R eine allgemeine Drehmatrix darstellt. R kann dabei als ein Produkt dreier Drehmatrizen Rx, Ry und Rz um zueinander orthogonale Einheitsrichtungen X, Y und Z dargestellt werden. Von einem definierten Ursprungspunkt in der realen Umgebung kann z.B. X nach rechts zeigen, Y nach oben (d.h. gen Himmel) zeigen und Z in die Tiefe (d.h. nach vorne) zeigen. Die Einheitsrichtung Y entspricht somit der Gierachse (Vertikalachse), d.h. eine Drehung um diese Achse verschiebt eine Aufnahme horizontal. Die Achsen des Koordinatensystems der virtuellen Umgebung können verschieden zu den zueinander orthogonalen Einheitsrichtungen X, Y und Z gewählt sein. Eine Position in der realen Umgebung kann dann über eine Koordinatentransformation in eine Position in der virtuellen Umgebung übersetzt werden. Entsprechend kann Gleichung (1) wie folgt umgeformt werden:
Die drei Drehmatrizen Rx, Ry und Rz können dabei in Abhängigkeit von einem Winkel a, der die gesuchte horizontale Ausrichtung der Aufnahmevorrichtung in der realen Umgebung angibt. Mit anderen Worten: Winkel a definiert eine Orientierung (Ausrichtung) der Aufnahmevorrichtung in der von X und Z aufgespannten Ebene. Die Drehmatrizen Rx, Ry und Rz sind wie üblich definiert:
Unter der Annahme, dass Rx (a), Rz (a), K und C bekannt sind, kann Ry (a) aus einem korrespondieren M <-> m Paar bestimmt werden. Rx (a) und Rz (a) können z.B. mittels der bereits im Mobilkommunikationsgerät vorhandenen Sensorik bestimmt werden (z.B. über den Gra- vitationsvektor). Dabei können die Koeffizienten aus Gleichung (3) wie folgt zusammenge- fasst werden:
Entsprechend kann Gleichung (3) wie folgt dargestellt werden:
bzw.
Entsprechend kann Gleichung (10) wie folgt umformuliert werden:
Ausmultiplizieren von Gleichung (1 1) ergibt folgendes Gleichungssystem:
Dieses Gleichungssystem kann wie folgt nach dem Winkel a aufgelöst werden:
Aus Gleichung (21) folgt: u' und u können für jedes korrespondiere M <-> m Paar bestimmt werden, sodass der Winkel a für jedes Paar bestimmt werden kann.
In Figuren 3a bis 3d sind nachfolgend einige Beispiele für mögliche Objekte gezeigt. Dabei zeigt Fig. 3a ein amorphes Muster 310 mit verschiedenen Graustufen, Fig. 3b ein Muster 320 mit Kreisen verschiedener Größen und Graustufen, Fig. 3c eine Abbildung 330 von Bäumen und Fig. 3d eine Kollage 340 von Zeichenfolgen (z.B. Wörter oder Zahlen). Wie aus den Figuren 3a bis 3 d deutlich wird, kann das Objekt vielfältig sein. Die in den Figuren 3a bis 3 d gezeigten Muster können z.B. auf einer vertikalen Ebene in der realen Umgebung angebracht sein (z.B. mittels eines Posters oder mittels Projektion). Beispielsweise können die in den Figuren 3a bis 3d gezeigten Muster in Form eines Posters oder als Projektion an einer Seitenwand eines Raumes oder einer Halle dargestellt werden. Das Objekt ist jedoch nicht auf die Bespiele der Figuren 3 a bis 3 d beschränkt. In der folgenden Beschreibung werden noch weitere Beispiele für mögliche Objekte gezeigt. Gemäß Ausführungsbeispielen umfasst das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung ein Bestimmen einer Transformation, die zumindest einen Teil der Aufnahme des bekannten Objekts mit zumindest einem Teil einer Vergleichsaufnahme in Übereinstimmung bringt. Die Vergleichsaufnahme kann Informationen über die Position des bekannten Objekts in der realen Umgebung bereitstellen. Beispielsweise kann eine Datenbank mit Vergleichsaufnahmen vorgehalten werden, die verschiedenen Objekte bzw. ein Objekt aus verschiedenen Perspektiven zeigen. Dabei sind für jede Vergleichsaufnahme zusätzlich Informationen über die Position des darauf gezeigten Objekts in der realen Welt gespeichert (vorgehalten). Diese Informationen, die den Weltpunkten M in dem Beispiel der Fig. 2 entsprechen, können verwendet werden, um gemäß den im Beispiel der Fig. 2 gezeigten Grundsätzen, die Orientierung der Aufnahmevorrichtung in der realen Umgebung zu bestimmen. In den nachfolgenden Figuren 4 bis 7 werden beispielhaft zwei verschiedene Ansätze zur Bestimmung der Orientierung der Aufnahmevorrichtung in der realen Umgebung auf Ba- sis des Bestimmens einer Transformation, die zumindest einen Teil der Aufnahme des bekannten Objekts mit zumindest einem Teil einer Vergleichsaufnahme in Übereinstimmung bringt, erläutert. Zur Erläuterung des ersten Ansatzes ist in Fig. 4 ein Muster mit Kreisen verschiedener Größen und Graustufen in Form eines an einer Wand der realen Umgebung angebrachten Posters 400 als Beispiel für ein Objekt gezeigt. Das Muster umfasst eine Mehrzahl an Merkmalen 410-1, 410-2, ... , 410-n. Die Merkmale 410- 1 , 410-2, ... , 410-n können über Merkmalsextraktionsverfahren bestimmt werden. Beispiele für Merkmalsextraktionsverfahren sind z.B. der Scale- Invariant Feature Transform (SIFT) Algorithmus, der Speeded Up Robust Features (SURF) Algorithmus oder der Binary Robust Independent Elementary Features (BRIEF) Algorithmus. Diese Merkmale können als Vergleichsmerkmale in einer Datenbank gespeichert werden, d.h. die Mehrzahl an Vergleichsmerkmalen der Datenbank kann verschiedene Merkmale des Objekts umfassen. Ebenso können die Vergleichsmerkmale in der Datenbank aus ver- schiedenen Aufnahmen desselben Objekts stammen, da die Merkmale je nach Blickrichtung in der Vergleichsaufnahme unterschiedlich sein können. Mitunter werden Merkmale nur bei einem bestimmten Blickwinkel der Aufnahme durch das Merkmalsextraktionsverfahren erkannt. Sind nun bei dem beispielhaften Poster 400, welches das Muster trägt, die Positionen der vier Ecken 401 , 402, 403, 404 des Posters 400 in der realen Umgebung bekannt, so kann auch den einzelnen Vergleichsmerkmalen der Datenbank jeweils eine Position in der realen Umgebung zugeordnet werden. In Fig. 4 ist jeder der Ecken 401, 402, 403, 404 des Posters 400 jeweils eine beispielhafte dreidimensionale Koordinate bezogen auf die reale Umgebung zugeordnet (z.B. X=16.58, Y=3.19, Z=30.35 für die Ecke 401), so dass auch für jedes Merkmal 410-1, 410-2, ..., 410-n jeweils eine Position in der realen Umgebung bestimmt werden kann. Entsprechend kann jedes der Vergleichsmerkmale mit seiner zugeordneten Position in der Datenbank gespeichert werden.
Diese Vergleichsmerkmale können nun genutzt werden, um die Orientierung der Aufnahmevorrichtung in der realen Umgebung basierend auf der Aufnahme eines Objekts und der be- kannten Position der Aufnahmevorrichtung in der realen Umgebung zu bestimmen. Mit der Aufnahmevorrichtung wird nun zunächst von einer bekannten Position aus eine Aufnahme des Objekts gemacht - im Beispiel der Fig. 4 also eine Aufnahme des Posters 400 mit dem Muster. Beispielsweise ist die Aufnahmevorrichtung Bestandteil einer am Kopf des Benutzers befestigte Anzeigevorrichtung zur Ausgabe der Darstellung der virtuellen Umgebung, so dass durch die Messung der Position des Kopfes des Benutzers im Betrieb des VR-Systems auch die Position der Aufnahmevorrichtung näherungsweise (im Wesentlichen) bekannt ist.
In der Aufnahme wird zumindest ein Merkmal des Objekts erkannt. Dafür wird ein Merkmal- sextraktionsverfahren auf die Aufnahme angewandt (z.B. einer der oben genannten Algorithmen). In der Aufnahme des Objekts selbst wird weiterhin eine Position des Merkmals bestimmt. Es werden also die Koordinaten des Merkmals im Koordinatensystem der Aufnahme bestimmt. Weiterhin wird ein Vergleichsmerkmal aus der Mehrzahl an Vergleichsmerkmalen der Datenbank identifiziert, das dem Merkmal des Objekts in der Aufnahme entspricht. Wie oben beschrieben, ist der Mehrzahl an Vergleichsmerkmalen dabei jeweils eine Position in der realen Umgebung zugeordnet ist. Zur Identifizierung können z.B. bekannte Bildregistrierungsverfahren verwendet werden. Um möglichst schnell und effizient das Vergleichsmerkmal aus der Mehrzahl an Vergleichsmerkmalen der Datenbank zu identifizieren kann z.B. ein Nächste Nachbarn (Nearest Neighbour) -Verfahren verwendet werden, das die Position des Merkmals in der Aufnahme des Objekts, die Positionen in der realen Umgebung der Mehrzahl an Vergleichsmerkmalen und die bekannte Position der Aufnahmevorrichtung in der realen Umgebung als Eingangsgrößen erhält.
Aus der bekannten Position der Aufnahmevorrichtung in der realen Umgebung, der Position des Merkmals in der Aufnahme und der Position in der realen Umgebung, die dem identifizierten Vergleichsmerkmal zugeordnet ist, kann nun die Orientierung der Aufnahmevorrichtung in der realen Umgebung gemäß den in Fig. 2 gezeigten Grundsätzen bestimmt werden. Bezogen auf das in Fig. 2 gezeigte Verfahren zur Bestimmung der Orientierung der Aufhah- mevorrichtung in der realen Umgebung entspricht die bekannte Position, von welcher das Poster 400 aufgenommen wird, der bekannten Position C der Aufnahmevorrichtung in der realen Umgebung. Die Position des Merkmals in der Aufnahme einem Bildpunkt m und die Position in der realen Umgebung, die dem identifizierten Vergleichsmerkmal zugeordnet ist, einem Weltpunkt M. Somit kann gemäß den in Fig. 2 gezeigten Grundsätzen eine Transformation bestimmt werden, die die Position des Merkmals in der Aufnahme mit der Position in der realen Umgebung, die dem identifizierten Vergleichsmerkmal zugeordnet ist, in Übereinstimmung bringt. Entsprechend kann die Orientierung der Aufhahmevorrichtung in der realen Umgebung bestimmt werden. Wie bereits aus Fig. 4 ersichtlich ist, können in einer Aufnahme eines Objekts mehrere Merkmale erkannt werden. Mit anderen Worten: Bei dem Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung können mehrere Merkmale des Objekts erkannt werden. Entsprechend kann für die Mehrzahl an erkannten Merkmalen des Objekts eine Mehrzahl an Vergleichsmerkmalen aus der Datenbank identifiziert werden. Für die mehreren erkannten Merkmale des Objekts kann jeweils eine Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt werden.
Eine beispielhafte Zuordnung 500 von Merkmalen des Objekts in der Aufnahme zu Ver- gleichsmerkmalen ist in Fig. 5 gezeigt. In der Fig. 5 ist jeweils die Position eines in der Aufnahme des Objekts erkannten Merkmals des Objekts (Bildpunkt) und die Position in der realen Umgebung (Weltpunkt), die dem jeweiligen identifizierten Vergleichsmerkmal zugeordnet ist, gezeigt. Die Positionen sind dabei jeweils in gewillkürten Einheiten (arbitrary units) angegeben. Korrespondierende Bildpunkte und Weltpunkte sind in Fig. 5 mit einer Geraden verbunden. Wie aus der Fig. 5 ersichtlich ist, ist die Steigung der jeweiligen Gerade - mit Ausnahme der Geraden 501 bis 507 - in etwa ähnlich. Für die Zuordnung der Bildpunkt zu den Weltpunkten können z.B. Brute-Force oder Fast Library for Approximate Nearest Neigh- bors (FLANN) basierte Algorithmen verwendet werden. Wie bereits aus den im Wesentlichen parallelen Geraden der Fig. 5 ersichtlich ist, wurden somit im Wesentlichen gleiche bzw. ähn- liehe Orientierungen der Aufnahmevorrichtung in der realen Umgebung für die mehreren erkannten Merkmale des Objekts bestimmt.
Dies wird deutlicher aus dem in Fig. 6 gezeigten Histogramm 600, in dem die Häufigkeiten der für die mehreren erkannten Merkmale des Objekts bestimmten Orientierungen der Auf- nahmevorrichtung in der realen Umgebung eingezeichnet sind. Die Orientierung ist in Form des Winkels a aufgetragen, der die Rotation um die Hochachse der Aufnahme anzeigt. Bezogen auf das oben ausgeführte Beispiel mit den Raumrichtungen X, Y, Z entspricht der Winkel a somit einer Orientierung (Ausrichtung) der Aufnahmevorrichtung in der von X und Z aufgespannten Ebene, d.h. einer Rotation um Y. Die Häufigkeit ist logarithmisch aufgetragen.
Aus Fig. 6 ist ersichtlich, dass der Winkels a für einige erkannte Merkmale des Objekts zu ca. -65°, für einige erkannte Merkmale des Objekts zu ca. 60°, für einige erkannte Merkmale des Objekts zu ca. 64°, für weitaus mehr erkannte Merkmale des Objekts zu ca. 90° und für noch mehr erkannte Merkmale des Objekts zu ca. 91° bestimmt wurde. Gemäß Ausführungsbeispielen wird nun diejenige der für die mehreren erkannten Merkmale des Objekts bestimmten Orientierungen der Aufnahmevorrichtung in der realen Umgebung als Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt wird, die ein Qualitätskriterium erfüllt. Bezogen auf das Beispiel der Fig. 6, kann z.B. dasjenige ein Grad breite Intervall (Bin) des Histogramms mit der größten Anzahl an Einträgen gewählt werden. Das Qualitätskriterium kann daher z.B. sein, dass die Orientierung der Aufnahmevorrichtung in der realen Umgebung die am häufigsten bestimmte Orientierung ist. Daneben können noch weitere Qualitätskriterien herangezogen werden. Beispielsweise kann gefordert werden, dass das gewählte Intervall eine Mindestzahl an Einträgen aufweisen muss, oder dass das gewählte Bin mindestens einen vorbestimmten Anteil der mehreren erkannten Merkmale des Objekts repräsentieren muss (d.h. das Bin muss mindestens für den vorbestimmten Anteil der mehreren erkannten Merkmale des Objekts die jeweils dafür bestimmte Orientierung repräsentieren).
Im Beispiel der Fig. 6 sind die Häufigkeit für 90° und 91° dominant und absolut in einem ähnlichen Bereich, sodass beide Orientierungen ein gewähltes Qualitätskriterium erfüllen können. Entsprechend kann bei benachbarten bzw. ähnlichen Orientierungen (d.h. bei benachbarten Bins oder Bins, die nur von einer geringen Anzahl dazwischenliegender Bins getrennt sind) auch der Mittelwert der beiden Orientierungen als Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt werden. Optional kann auch eine Wichtung der benachbarten bzw. ähnlichen Orientierungen erfolgen (z.B. gemäß ihrer Häufigkeit).
Im Rahmen der Beschreibung von Fig. 7 wird im Folgenden der zweite Ansatz zur Bestim- mung der Orientierung der Aufnahmevorrichtung in der realen Umgebung auf Basis des Bestimmens einer Transformation, die zumindest einen Teil der Aufnahme des bekannten Objekts mit zumindest einem Teil einer Vergleichsaufnahme in Übereinstimmung bringt, erläutert.
Bei dem zweiten Ansatz umfasst das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung ein Bestimmen einer Vergleichsaufnahme aus einer Mehrzahl an Vergleichsaufnahmen einer Datenbank. Das Bestimmen der Vergleichsaufnahme aus der Mehrzahl an Vergleichsaufnahmen der Datenbank basiert dabei auf der bekannten Position der Aufnahmevorrichtung in der realen Umgebung. Mit anderen Worten: Es wird eine Ver- gleichsaufnahme aus der Datenbank gewählt, für die aufgrund der Position der Aufnahmevorrichtung eine hohe Wahrscheinlichkeit besteht, dass sie das Objekt überhaupt zeigt bzw. das Objekt aus einer ähnlichen oder gleichen Perspektive zeigt. Eine Orientierung zumindest der gewählten Vergleichsaufnahme in der realen Umgebung ist dabei bekannt. In der Daten- bank kann selbstverständlich auch für jede der Mehrzahl an Vergleichsaufnahmen jeweils die Orientierung in der realen Umgebung hinterlegt sein.
Weiterhin umfasst das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung ein Bestimmen einer Rotation der Aufnahme des Objekts relativ zu der Vergleichsaufnahme. Das heißt, es wird eine Bildregistrierung der Aufnahme des Objekts gegen die Vergleichsaufnahme durchgeführt. Dafür können bekannte Bildregistrierungsverfahren, wie etwa der Enhanced Correlation Coefficient (ECC) Algorithmus, verwendet werden. Dazu kann die Aufnahme des Objekts z.B. schrittweise gegenüber der Vergleichsaufnahme rotiert werden, wie dies durch die Abfolge der Aufnahmen 701 bis 710 in Fig. 7 angedeutet ist. In den Aufnahmen 701 bis 710 ist jeweils ein Dachfenster als Beispiel für ein Objekt in der realen Umgebung, in welcher sich der Benutzer bewegt, abgebildet. Die Aufnahmen sind dabei von links nach rechts jeweils 1° entgegen dem Uhrzeigersinn zueinander rotiert. Der ECC Algorithmus bestimmt für jede Rotation eine Korrelation mit dem Vergleichsbild. Anschließend wird die beste Korrelation gewählt und eine entsprechende Transformationsmatrix bestimmt. Aus der Transformationsmatrix kann wiederum die Orientierung, d.h. die Rotation, der Aufnahme des Objekts relativ zu der Vergleichsaufnahme bestimmt werden.
Aus der Orientierung der Vergleichsaufnahme in der realen Umgebung und der Rotation der Aufnahme des Objekts relativ zu der Vergleichsaufnahme wird im Weiteren die Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt (durch Kombination der beiden Informationen).
Wie in Fig. 7 angedeutet, kann der zweite Ansatz z.B. für sich vertikal ausschließlich über dem Benutzer erstreckende Objekte verwendet werden. Beispielsweise kann, während die Darstellung der virtuellen Umgebung an den Benutzer ausgegeben wird, die Aufnahmevorrichtung vertikal zu einer Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet sein. Mit anderen Worten: Die Aufnahmevorrichtung kann in der realen Umgebung gen Himmel bzw. in Richtung der Decke eines Raumes oder einer Halle, in der sich der Benutzer bewegt, ausgerichtet sein. Das Objekt kann entsprechend z.B. eine Beleuchtungsvorrichtung, ein (Dach-) Fenster, ein Träger, ein Balken an der Decke des Raumes bzw. der Halle sein. Entsprechend kann die Mehrzahl an Vergleichsaufnahmen in der Datenbank z.B. verschiedene Aufnahmen der Decke des Raumes bzw. der Halle umfassen. Alternativ kann die Aufnahmevorrichtung in der realen Umgebung auch in Richtung des Bodens eines Raumes oder einer Halle, in der sich der Benutzer bewegt, ausgerichtet sein. Das Objekt kann dann z.B. eine im Boden eingelassene Lichtquelle (Laser, LED) oder eine Markierung (z.B. einer Notfallkennzeichnung), wie etwa ein Pfeil (z.B. leuchtender Pfeil), sein. Generell kann ein Objekt gemäß der vorliegenden Offenbarung auch ein speziell gekennzeichnetes Objekt, wie etwa ein speziell eingefärbtes Objekt (chroma keying), sein.
Erfolgt das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer wiederum über eine am Kopf des Benutzers befestigte Anzeigevorrichtung, kann die Anzeigevorrichtung ferner die Aufnahmevorrichtung umfassen. Die Anzeigevorrichtung kann dabei wiederum ein Mobilkommunikationsgerät nebst Fixiervorrichtung zur Befestigung des Mobilkommunikationsgeräts am Kopf des Benutzers umfassen. Dadurch kann eine Kamera des Mobilkommunikationsgeräts als Aufnahmevorrichtung verwendet werden. Somit kann ohne zusätzliche Hardwarekomponenten eine Kalibration der Darstellung der virtuellen Umgebung ermöglicht werden. Um mit der Kamera des Mobilkommunikationsgeräts Aufnahmen von der Decke oder dem Boden des Raumes bzw. der Halle machen zu können, kann z.B. ein periskopartige Vorrichtung verwendet werden, deren eine Öffnung zur Decke oder dem Boden hin ausgerichtet ist und deren andere Öffnung zur Linse der Kamera des Mobilkommunikationsgeräts hin ausgerichtet ist. Über Spiegel bzw. Prismen im Inneren der periskopartigen Vorrichtung können die einfallenden Lichtstrahlen von der ursprünglichen Einfallsrichtung (senkrecht zur ersten Öffnung) hin zu der gewünschten Ausfallsrichtung (senkrecht zur zweiten Öffnung) abgelenkt werden.
Um die Bildregistrierung zu vereinfachen und somit die notwendige Rechenleistung zu reduzieren, können die Mehrzahl an Vergleichsaufnahmen Binäraufnahmen sein. Entsprechend umfasst das Bestimmen der Rotation der Aufnahme des Objekts relativ zu der Vergleichsaufnahme ein Konvertieren der Aufnahme des Objekts in eine Binäraufnahme des Objekts sowie ein Bestimmen der Rotation der Binäraufnahme des Objekts relativ zu der Vergleichsaufnahme umfassen. Für das Bestimmen der Rotation der Binäraufnahme des Objekts relativ zu der Vergleichsaufnahme können wiederum die oben beschriebenen Bildregistrierungsverfahren verwendet werden.
Weiterhin kann die Auflösung der Mehrzahl an Vergleichsaufnahmen beschränkt sein (z.B. auf 320x240 Pixel), um Rechenleistung zu sparen. Entsprechend kann das Verfahren ein Skalieren der Aufnahme des Objekts umfassen, d.h. die ursprüngliche Auflösung wird auf eine Zielauflösung skaliert (z.B. von 1920x1080 Pixel auf 320x240 Pixel). Wie angedeutet kann die Zielauflösung niedriger sein als die ursprüngliche Auflösung. Durch die reduzierte Anzahl an Pixeln in der Aufnahme des Objekts kann Rechenzeit eingespart werden.
Anstatt die gesamte Aufnahme mit einer Referenzaufnahme zu vergleichen, kann auch die Orientierung des Objekts in der Aufnahme bestimmt und mit einer Referenzrichtung verglichen werden (z.B. gemäß den in Zusammenhang mit Figuren 9a bis 9d beschriebenen Verfahren), um die Orientierung der Aufnahmevorrichtung in der realen Umgebung zu bestim- men.
Nachfolgend ist in Fig. 8 ein Verfahren 800 zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung gemäß einem zweiten Aspekt der vorliegenden Offenbarung gezeigt.
Das Verfahren 800 umfasst dabei ein Aufnehmen 802 eines bekannten Objektes in einer realen Umgebung mit einer Aufnahmevorrichtung - wie oben beschrieben. Das heißt, bei der Aufnahme kann es sich z.B. um ein Stehbild, ein Video oder eine Tonaufnahme handeln. Entsprechend kann die Aufnahmevorrichtung eine Stehbildkamera, eine Videokamera, ein Tonaufnahmegerät oder eine Kombination davon umfassen.
Ferner umfasst das Verfahren 800 ein Bestimmen 804 eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts und einer momentanen Blickrich- tung in der Darstellung der virtuellen Umgebung. Die momentane Blickrichtung in der Darstellung der virtuellen Umgebung kann beispielsweise von einer Anzeigevorrichtung (z.B. HMD, HMU), die die Darstellung der virtuellen Umgebung an den Benutzer ausgibt (und optional auch berechnet), oder einem Rechner, der die virtuellen Umgebung berechnet (z.B. Back-End eines VR-Systems), empfangen werden. Die Aufnahmevorrichtung kann dabei - wie oben beschrieben - räumlich in unmittelbarer Nähe zum Benutzer angeordnet sein (z.B. am Kopf des Benutzers). Aus der Aufnahme des Objekts kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt werden, die näherungsweise als Orientierung des Kopfes des Benutzers in der realen Umgebung angenommen werden kann. Daraus kann unter Heranziehung der Informationen über die momentane Blickrichtung in der Darstellung der virtuellen Umgebung der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt werden. Einige Beispiele für die Bestimmung der Orientierung der Aufnahmevorrichtung in der realen Umgebung als auch der Bestimmung des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung werden in der nachfolgenden Beschreibung näher erläutert.
Das Verfahren 800 umfasst weiterhin ein Drehen 806 der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz. Mit anderen Worten: Die Blickrichtung in der Darstellung der virtuellen Umgebung wird durch eine Drehung um die Gierachse der Darstellung der virtuellen Umgebung korrigiert, wobei die Richtung und die Magnitude der Drehung durch den Rotationsversatz bestimmt sind. Die Darstellung der virtuellen Umgebung wird somit um den Rotationsversatz korrigiert. Die Darstellung der virtuellen Umgebung kann somit an die tatsächliche Position und Orientierung des Kopfes des Benutzers in der realen Umgebung angepasst werden. Mithin erlaubt somit auch das Verfahren 800 eine Kalibration der Blickrichtung in der Darstellung der virtuellen Umgebung. Insbesondere kann auch mit dem Verfahren 800 eine fehlerhaft bestimmte Orientierung in der realen Umgebung bzw. ein Abdriften der Blickrichtung in der Darstellung der virtuellen Umgebung, das von Messfehlern der gewöhnlich verwendeten Sensorik zur Bestimmung der Position und Ausrichtung (des Kopfes) eines Benutzers herrührt, korrigiert werden.
Wie auch das Verfahren 100 kann das Verfahren 800 in einigen Ausführungsbeispielen ferner ein Ausgeben der Darstellung der virtuellen Umgebung an einen Benutzer umfassen. Das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer kann dabei z.B. über eine am Kopf des Benutzers befestigte Anzeigevorrichtung erfolgen, die ferner die Aufnahmevorrichtung umfasst. Bei einer derartigen Anordnung kann die Orientierung der Aufnahmevorrichtung in der realen Umgebung näherungsweise als Orientierung des Kopfes des Benutzers in der realen Umgebung angenommen werden. In einigen Ausführungsbeispielen umfasst die am Kopf des Benutzers befestigte Anzeigevorrichtung ein Mobilkommunikationsgerät (z.B. ein Smartphone). Wie oben angedeutet, kann im gewöhnlichen Betrieb des VR-Systems bereits im Mobilkommunikationsgerät vorhandene Sensorik (z.B. Gyroskop, Magnetometer, Akzelerometer) zur Bestimmung der Orientierung des Kopfes des Benutzers in der realen Umgebung verwendet werden. Durch Verwenden der Kamera des Mobilkommunikationsgeräts als Aufnahmevorrichtung kann ein Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung aufgrund von Messfehlern der Sensorik des Mobilkommu- nikationsgeräts korrigiert werden. Für die Kalibration der Darstellung der virtuellen Umgebung kann somit auf bereits durch das Mobilkommunikationsgerät bereitgestellte Ressourcen zurückgegriffen werden. Mit anderen Worten: Das Verfahren 800 kann unmittelbar (d.h. online) auf dem Mobilkommunikationsgerät ausgeführt werden. Auch das Verfahren 800 kann somit ohne zusätzliche Hardwarekomponenten eine Kalibration der Darstellung der virtuellen Umgebung ermöglichen. Alternativ kann z.B. ein Teil des Verfahrens 800 durch das Mobilkommunikationsgerät und ein anderer Teil des Verfahrens 800, wie etwa das Bestimmen 804 des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung, durch ein bereits vorhandenes Back-End des VR-Systems, das der Benutzer verwendet, ausgeführt werden(d.h. offline). Der bestimmte Rotationsversatz kann dann z.B. vom Back-End an das Mobilkommunikationsgerät gesendet werden, so dass dieses die Blickrichtung in der aktuellen Darstellung der virtuellen Umgebung um den Rotationsversatz drehen kann. Die vorbeschriebene Funktionalität kann z.B. durch ein Update für eine oder mehrere bereits existierende Softwarekomponenten des VR- Systems (z.B. Software für das Mobilkommunikationsgerät oder Software für das Back-End) implementiert werden.
In einigen Ausführungsbeispielen kann das Bestimmen 804 des Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung ein Bestimmen einer Orientierung der Aufnahmevorrichtung in der re- alen Umgebung basierend auf der Aufnahme des Objekts und einer Referenzrichtung umfassen (beispielhafte Verfahren hierzu werden nachfolgend erläutert). Bei der Referenzrichtung handelt es sich um eine Richtung in der realen Umgebung, deren Orientierung relativ zu der des Objekts bekannt ist. Mit anderen Worten: Man nutzt Kenntnisse über die Orientierung des Objekts relativ zu der Referenzrichtung für die Bestimmung der Orientierung der Aufnahmevorrichtung in der realen Umgebung. Ferner kann das Bestimmen 804 des Rotationsversatzes ein Bestimmen einer Soll-Blickrichtung in der Darstellung der virtuellen Umgebung basierend auf der Orientierung der Aufnahmevorrichtung in der realen Umgebung umfassen. Beispielsweise kann die bestimmte Orientierung der Aufnahmevorrichtung in der realen Umgebung einem Algorithmus für die Berechnung der Darstellung der virtuellen Umgebung bereitgestellt werden, der darauf basierend eine Darstellung der virtuellen Umgebung berechnet. Insbesondere wenn die Aufnahmevorrichtung am Kopf des Benutzers angeordnet ist, kann die Soll-Blickrichtung in der virtuellen Umgebung diejenige Blickrichtung in der virtuellen Umgebung sein, die der tatsächlichen Position und Orientierung des Kopfes des Benutzers in der realen Umgebung entspricht. Beispielsweise kann die Aufnahmevorrichtung vertikal zur Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet sein. Die Blickrichtung in der berechneten Darstellung der virtuellen Umgebung kann folglich als Soll- Blickrichtung angesehen werden.
Aus der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung wird gemäß Ausführungsbeispielen nunmehr der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt. Dies kann bei- spielsweise durch einen Vergleich der Soll-Blickrichtung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung geschehen. Mit anderen Worten: Es wird bestimmt, wie stark die momentane Blickrichtung in der Darstellung der virtuellen Umgebung relativ zu der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung rotiert ist.
In den nachfolgenden Figuren 9a bis 9d werden beispielhaft zwei verschiedene Ansätze zur Bestimmung der Orientierung der Aufnahmevorrichtung in der realen Umgebung auf Basis einer Orientierung des Objekts in der Aufnahme und einer Referenzrichtung erläutert. Zur Erläuterung des ersten Ansatzes ist in Fig. 9a eine Aufnahme 900 des Daches einer Halle, in welcher sich der Benutzer in der realen Umgebung bewegt, gezeigt. Die Aufnahme 900 zeigt dabei einen Teil einer länglichen Beleuchtungsvorrichtung 910, welche ein beispielhaftes Objekt darstellt. Das Objekt ist dabei aber nicht auf längliche Beleuchtungsvorrichtungen beschränkt. Das Objekt kann z.B. auch ein Fenster, ein Träger oder ein Muster an der Decke der Halle bzw. allgemein eines Raumes in der realen Umgebung, in welchem sich der Benutzer bewegt, sein. Bei dem Objekt kann es sich allgemein um ein Objekt handeln, das sich vertikal ausschließlich über dem Benutzer erstreckt. Entsprechend kann die Aufnahmevorrichtung vertikal zu einer Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet sein, d.h. die Aufnahmevorrichtung kann gen Himmel bzw. zur Decke ausgerichtet sein. Alternativ kann die Aufnahmevorrichtung in der realen Umgebung auch in Richtung des Bodens eines Raumes oder einer Halle, in der sich der Benutzer bewegt, ausgerichtet sein. Das Objekt kann dann z.B. eine im Boden eingelassene Lichtquelle (Laser, LED) oder eine Markierung (z.B. einer Notfallkennzeichnung), wie etwa ein Pfeil (z.B. leuchtender Pfeil), sein. Erfolgt das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer über eine am Kopf des Benutzers befestigte Anzeigevorrichtung, die dabei wiederum ein Mo- bilkommunikationsgerät nebst Fixiervorrichtung zur Befestigung des Mobilkommunikations- geräts am Kopf des Benutzers umfasst, kann eine Kamera des Mobilkommunikationsgeräts als Aufnahmevorrichtung verwendet werden. Somit kann ohne zusätzliche Hardwarekompo- nenten eine Kalibration der Darstellung der virtuellen Umgebung ermöglicht werden. Um mit der Kamera des Mobilkommunikationsgeräts Aufnahmen von der Decke oder dem Boden des Raumes bzw. der Halle machen zu können, kann z.B. ein periskopartige Vorrichtung verwendet werden, deren eine Öffnung zur Decke oder dem Boden hin ausgerichtet ist und deren andere Öffnung zur Linse der Kamera des Mobilkommunikationsgeräts hin ausgerichtet ist.
Das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung umfasst gemäß dem ersten Ansatz ein Konvertieren der Aufnahme des Objekts in eine Binäraufnahme des Objekts. Die zur Aufnahme 900 korrespondierende Binäraufnahme 900' ist in Fig. 9b gezeigt. Um die Binäraufnahme zu erzeugen, kann optional z.B. ein umgebungsabhängiger Schwellwert für die Separation zwischen den beiden möglichen Zuständen in der Binäraufnahme ermittelt bzw. definiert werden. Weiterhin umfasst das Verfahren ein Erkennen von Kandidaten für das Objekt in der Binäraufnahme des Objekts. In der Binäraufnahme 900' ist dies der Bereich 910', der zu der länglichen Beleuchtungsvorrichtung 910 korrespondiert. Zwar ist in der in Fig. 9b gezeigten Binäraufnahme 900' nur ein Kandidat 910' für das Objekt gezeigt, jedoch können abhängig von der gemachten Aufnahme auch zwei, drei, vier oder mehr Kandidaten für das Objekt in der Aufnahme bzw. der korrespondierenden Binäraufnahme erkannt werden. Dazu können optional zunächst die jeweilige große bzw. kleine Hauptachse als auch der Schwerpunkt eines Kandidaten bestimmt werden. Das Verfahren umfasst ferner ein Bestimmen einer jeweiligen (linearen) Exzentrizität e der Kandidaten für das Objekt. Das heißt, für jeden der erkannten Kandidaten wird eine Exzentrizität bestimmt. Die bestimmte lineare Exzentrizität erlaubt es, abzuschätzen, ob der mögliche Kandidat ein eher kreisförmiges (e « 0) oder ein eher längliches (e « 1) Objekt ist. Für die Binäraufnahme 900' wird daher die Exzentrizität des Bereichs 910', der der einzige Kandidat in dem Bild ist, bestimmt. Da der Bereich 910' länglich ist, wird für diesen ein Wert der Exzentrizität von ungefähr eins bestimmt.
Weiterhin umfasst das Verfahren ein Bestimmen einer Orientierung einer Hauptachse desje- nigen Kandidaten als Orientierung des Objekts in der Aufnahme, dessen Exzentrizität über einem Schwellwert liegt und dessen Hauptachse länger als Hauptachsen der sonstigen Kandidaten für das Objekt mit einer Exzentrizität über dem Schwellwert ist. Für alle Kandidaten wird somit ihre bestimmte Exzentrizität mit einem Schwellwert verglichen, um diejenigen Kandidaten zu bestimmen, die ein längliches Objekt repräsentieren. Beispielsweise kann der Schwellwert daher 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85 oder 0.9 betragen. Von den verbliebenen Kandidaten für das Objekt wird derjenige mit der längsten Hauptachse ausgewählt. Die Orientierung dieses Kandidaten in der Aufnahme wird als Orientierung des Objekts in der Aufnahme bestimmt. Die Orientierung des Kandidaten in der Aufnahme kann z.B. auf Basis eines Hilfsvektors 920 bestimmt werden, wobei der Hilfsvektor 920 die Blickrichtung geradeaus des Benutzers anzeigt. Den Hilfsvektor 920 in Blickrichtung geradeaus des Benutzers zu definieren kann es ermöglichen, die Orientierung der Aufnahmevorrichtung als im Wesentlichen identisch zur Orientierung des Benutzers in der realen Umgebung anzusehen. Entsprechend kann aus der bestimmten Orientierung der Aufnahmevorrichtung diejenige Blickrichtung in der virtuellen Umgebung als Soll-Blickrichtung in der Darstellung der virtuellen Umgebung bestimmt werden, die der tatsächlichen Position und Orientierung des Kopfes des Benutzers in der realen Umgebung entspricht. Für den Bereich 910' kann daher bestimmt werden, dass die Orientierung 930 seiner Hauptachse einen Winkel von 89° gegenüber dem Hilfsvektor 920 aufspannt. Das heißt, die Hauptachse des Bereichs 910' ist 89° gegen den Hilfsvektor 920 rotiert. Somit wird die Orientierung 930 der Hauptachse des Bereichs 910' als Orientierung des Objekts in der Aufnahme bestimmt. Gemeinsam mit der Information über die Referenzrichtung kann aus der Orientierung des Objekts in der Aufnahme die Orientierung der Aufnahmevorrichtung bestimmt werden. Wie oben angedeutet handelt es sich bei der Referenzrichtung um eine Richtung in der realen Umgebung, deren Orientierung relativ zu der des Objekts bekannt ist. Mit anderen Worten: Die Orientierung (Ausrichtung) des Objekts relativ zu der Referenzrichtung ist bekannt. Die Referenzrichtung kann z.B. für eine bekannte Umgebung festgelegt oder aus Referenzaufnahmen bestimmt werden. Bewegt sich der Benutzer in der realen Umgebung z.B. innerhalb einer Halle mit im Wesentlichen rechteckiger Grundfläche kann eine Ecke der Grundfläche als Ursprung definiert werden. Ausgehend vom Ursprung können (analog zu dem Beispiel der Fig. 2) drei orthogonale Raumachsen X, Y und Z definiert werden. Von dem definierten Ursprungspunkt in der Ecke der Grundfläche kann z.B. X nach rechts zeigen (d.h. im Wesentlichen entlang einer ersten Begrenzung der Grundfläche verlaufen), Y nach oben (d.h. gen Himmel) zeigen (d.h. im Wesentlichen senkrecht auf der Grundfläche stehen) und Z in die Tiefe (d.h. nach vorne) zeigen (d.h. im Wesentlichen entlang einer zweiten Begrenzung der Grundfläche verlaufen, die orthogonal zur ersten Begrenzung der Grundfläche ist). Die Einheitsrichtung Y entspricht somit der Gierachse, d.h. eine Drehung um diese Achse verschiebt eine Aufnahme horizontal. Als Referenzrichtung kann dann z.B. die Raumachse Z gewählt werden, die im Wesentlichen entlang der zweiten Begrenzung der Grundfläche verläuft. Die Orientierung des Objekts - im Beispiel der Fig. 9a somit der länglichen Beleuchtungsvorrich- tung 910 - relativ zu der Referenzrichtung ist bekannt. Beispielsweise kann die längliche Beleuchtungsvorrichtung 910 orthogonal zur Referenzrichtung Z verlaufen, d.h. im Umkehr- schluss parallel zur Raumrichtung X.
Aus der bestimmten Orientierung des Objekts in der Aufnahme und der bekannten Orientie- rung des Objekts relativ zu der Referenzrichtung kann nun die Orientierung der Aufnahmevorrichtung bestimmt werden. In dem obigen Bespiel wird somit die Orientierung des Hilfsvektors 920 in der realen Umgebung bestimmt. Somit kann eine Orientierung der Aufnahmevorrichtung in der von den Raumrichtungen X und Z aufgespannten Ebene bestimmt werden. Um Rechenleistung zu sparen, kann die Auflösung der auszuwertenden Aufnahme beschränkt sein (z.B. auf 320x240 Pixel). Entsprechend kann das Verfahren ein Skalieren der Aufnahme des Objekts umfassen, d.h. die ursprüngliche Auflösung wird auf eine Zielauflösung skaliert (z.B. von 1920x1080 Pixel auf 320x240 Pixel). Wie angedeutet kann die Zielauflösung niedriger sein als die ursprüngliche Auflösung. Durch die reduzierte Anzahl an Pixeln in der Aufnahme des Objekts kann Rechenzeit eingespart werden. Im Rahmen der Beschreibung von Figuren 9c und 9d wird im Folgenden der zweite Ansatz zur Bestimmung der Orientierung der Aufnahmevorrichtung in der realen Umgebung auf Basis einer Orientierung des Objekts in der Aufnahme und einer Referenzrichtung erläutert.
Zur Erläuterung des zweiten Ansatzes ist in Fig. 9c eine Aufnahme 940 des Daches einer Halle, in welcher sich der Benutzer in der realen Umgebung bewegt, gezeigt. Die Aufnahme 900 zeigt dabei eine (lineare) Anordnung kreisförmiger Beleuchtungsvorrichtungen 951, 952, 953, welche ein beispielhaftes Objekt darstellt. Das Objekt ist dabei aber nicht auf eine Anordnung kreisförmiger Beleuchtungsvorrichtungen beschränkt. Das Objekt kann allgemein jede Anordnung kreisförmiger Objekte an der Decke der Halle bzw. allgemein eines Raumes in der realen Umgebung, in welchem sich der Benutzer bewegt, sein. Bei dem Objekt kann es sich allgemein um ein Objekt handeln, das sich vertikal ausschließlich über dem Benutzer erstreckt. Alternativ kann die Aufnahmevorrichtung in der realen Umgebung auch in Richtung des Bodens eines Raumes oder einer Halle, in der sich der Benutzer bewegt, ausgerichtet sein. Das Objekt kann dann z.B. eine im Boden eingelassene Lichtquelle (Laser, LED) oder eine Markierung, wie etwa ein Pfeil, sein. Entsprechend kann die Aufnahmevorrichtung vertikal zu einer Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet sein, d.h. die Aufnahmevorrichtung kann gen Himmel (d.h. zur Decke) oder gen Boden ausgerichtet sein. Erfolgt das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer über eine am Kopf des Benutzers befestigte Anzeigevorrichtung, die dabei wiederum ein Mobilkommunikationsgerät nebst Fixiervorrichtung zur Befestigung des Mobilkommunika- tionsgeräts am Kopf des Benutzers umfasst, kann eine Kamera des Mobilkommunikationsge- räts als Aufnahmevorrichtung verwendet werden. Somit kann ohne zusätzliche Hardwarekomponenten eine Kalibration der Darstellung der virtuellen Umgebung ermöglicht werden. Um mit der Kamera des Mobilkommunikationsgeräts Aufnahmen von der Decke oder dem Boden des Raumes bzw. der Halle machen zu können, kann z.B. ein periskopartige Vorrichtung verwendet werden, deren eine Öffnung zur Decke oder dem Boden hin ausgerichtet ist und deren andere Öffnung zur Linse der Kamera des Mobilkommunikationsgeräts hin ausgerichtet ist. Das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung umfasst gemäß dem zweiten Ansatz wiederum ein Konvertieren der Aufnahme des Objekts in eine Binäraufnahme des Objekts. Die zur Aufnahme 940 korrespondierende Binäraufnahme 940' ist in Fig. 9d gezeigt. Um die Binäraufnahme zu erzeugen, kann optional z.B. ein umgebungs- abhängiger Schwellwert für die Separation zwischen den beiden möglichen Zuständen in der Binäraufnahme ermittelt bzw. definiert werden.
Weiterhin umfasst das Verfahren ein Erkennen von kreisförmigen Objekten in der Binäraufnahme des Objekts. Jeweilige Radien der kreisförmigen Objekte sind dabei von einem vor- bestimmten Wertebereich umfasst. Mit anderen Worten: Es werden nur kreisförmige Objekte erkannt, deren Wert für den Radius größer als ein erster Schwellwert und kleiner als ein zweiter Schwellwert ist. Die Schwellwerte können dabei auf Basis von Informationen über die reale Umgebung, in der sich der Benutzer bewegt, gewählt werden (z.B. Höhe des Daches bzw. Abstand der Beleuchtungs Vorrichtungen vom Boden, Abmessungen der Beleuchtungs- Vorrichtungen). Für das Erkennen von kreisförmigen Objekten in der Binäraufnahme kann z.B. ein Circular Hough Transfrom (CHT) basierter Algorithmus verwendet werden. Entsprechend werden in der Binäraufnahme die kreisförmigen Objekte 95 Γ, 952' und 953' erkannt, welche der Anordnung kreisförmiger Beleuchtungs Vorrichtungen 951, 952, 953 in der Aufnahme 940 entsprechen. Nicht als kreisförmige Objekt werden hingegen die den 952' und 953' benachbarten hellen Bereiche 952" und 953" in der Binäraufnahme 940', da diese das Radiuskriterium nicht erfüllen. Die den 952' und 953' benachbarten hellen Bereiche 952" und 953" in der Binäraufnahme 940' entsprechen den optischen Effekten 954, 955 in der Aufnahme 940 und stellen somit keine Objekte in der realen Umgebung dar. Es können daher mit Hilfe des Radiuskriteriums effektiv optische Störeffekte vom weiteren Verfahren zur Be- Stimmung der Orientierung der Aufnahmevorrichtung ausgeschlossen werden.
Weiterhin umfasst das Verfahren ein Bestimmen von Abständen der kreisförmigen Objekte zueinander. Dafür können z.B. die Mittelpunkte der kreisförmigen Objekte 95 Γ, 952' und 953' bestimmt werden und die Abstände der Mittelpunkte zueinander bestimmt werden. In die Abstandsbestimmung können auch die Radien der jeweiligen kreisförmigen Objekte miteinbezogen werden. Zudem umfasst das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung gemäß dem zweiten Ansatz ein Bestimmen der Orientierung des Objekts in der Aufnahme auf Basis der Abstände der kreisförmigen Objekte zueinander. Aus den Abständen der kreisförmigen Objekte kann eine Relation zwischen den einzelnen kreisförmigen Objekten zueinander bestimmt werden. Dabei können z.B. wiederum Informationen über die reale Umgebung, in der sich der Benutzer bewegt, verwendet werden. In dem in den Figuren 9c und 9d gezeigten Beispiel können z.B. die Abstände zwischen den einzelnen Beleuchtungsvorrichtungen der linearen Anordnung kreisförmiger Beleuchtungsvorrichtungen 951, 952, 953 in der realen Umgebung sowie der Abstand der linearen Anordnung kreisförmiger Beleuchtungsvorrichtungen 951, 952, 953 zu einer weiteren linearen Anordnung kreisförmiger Beleuchtungsvorrichtungen (nicht in Fig. 9c gezeigt verwendet werden) herangezogen werden. Allgemein können Informationen über die Geometrie und die Beschaffenheit des von der Aufnahmevorrichtung erfassbaren Bereichs in der realen Umgebung (z.B. eine Decke eines Raums oder einer Halle) in die Bestimmung der Relation der einzelnen Objekte zueinander miteinbezogen werden.
In Fig. 9d wird für die Abständen der kreisförmigen Objekte 95 Γ, 952' und 953' zueinander bestimmt, dass diese den Abständen einer linearen Anordnungen von Beleuchtungsvorrichtungen in der realen Umgebung entsprechen und die kreisförmigen Objekte 95 Γ, 952' und 953' somit ein bekanntes Objekt in der realen Umgebung repräsentieren. Entsprechend wird aus den jeweiligen Positionen der kreisförmigen Objekte 951 ', 952' und 953' in der Binäraufnahme ein Richtungsvektor 970 des von den kreisförmigen Objekten 95 Γ, 952' und 953' repräsentierten Objekts in der Aufnahme bestimmt. Dazu kann z.B. eine Gerade an die Mittelpunkt der kreisförmigen Objekten 95 Γ, 952' und 953' angepasst (gefittet) werden.
Die Orientierung des Richtungsvektors 970 (d.h. des Objekts) in der Aufnahme kann z.B. wiederum auf Basis eines Hilfsvektors 960 bestimmt werden, der z.B. die Blickrichtung geradeaus des Benutzers anzeigt. Für den Richtungsvektor 970 kann daher bestimmt werden, dass die Orientierung des Objekts einen Winkel von 35° gegenüber dem Hilfsvektor 960 aufspannt. Das heißt, die von dem Richtungsvektor 970 repräsentierte linearen Anordnung kreisförmiger Beleuchtungsvorrichtungen 951, 952, 953 ist 35° gegen den Hilfsvektor 960 rotiert. Somit ist die Orientierung des Richtungsvektors 970 als Orientierung des Objekts in der Aufnahme bestimmt. Gemeinsam mit der Information über die Referenzrichtung kann aus der Orientierung des Objekts in der Aufnahme die Orientierung der Aufnahmevorrichtung bestimmt werden. Wie oben angedeutet handelt es sich bei der Referenzrichtung um eine Richtung in der realen Umgebung, deren Orientierung relativ zu der des Objekts bekannt ist. Bezugnehmend auf das in der Beschreibung von Fig. 9b beispielhaft eingeführte Koordinatensystem XYZ, kann als Referenzrichtung z.B. wiederum die Raumachse Z gewählt werden, die im Wesentlichen entlang der zweiten Begrenzung der Grundfläche verläuft. Die Orientierung des Objekts - im Beispiel der Fig. 9c somit der linearen Anordnung kreisförmiger Beleuchtungsvorrichtungen 951, 952, 953 - relativ zu der Referenzrichtung ist bekannt. Beispielsweise kann die lineare Anordnung kreisförmiger Beleuchtungsvorrichtungen 951, 952, 953 orthogonal zur Referenzrichtung Z verlaufen, d.h. im Umkehrschluss parallel zur Raumrichtung X.
Aus der bestimmten Orientierung des Objekts in der Aufnahme und der bekannten Orientierung des Objekts relativ zu der Referenzrichtung kann nun die Orientierung der Aufnahme- Vorrichtung bestimmt werden. In dem obigen Bespiel wird somit die Orientierung des Hilfsvektors 960 in der realen Umgebung bestimmt. Somit kann eine Orientierung der Aufnahmevorrichtung in der von den Raumrichtungen X und Z aufgespannten Ebene bestimmt werden.
Um Rechenleistung zu sparen, kann die Auflösung der auszuwertenden Aufnahme beschränkt sein (z.B. auf 320x240 Pixel). Entsprechend kann das Verfahren ein Skalieren der Aufnahme des Objekts umfassen, d.h. die ursprüngliche Auflösung wird auf eine Zielauflösung skaliert (z.B. von 1920x1080 Pixel auf 320x240 Pixel). Wie angedeutet kann die Zielauflösung niedriger sein als die ursprüngliche Auflösung. Durch die reduzierte Anzahl an Pixeln in der Aufnahme des Objekts kann Rechenzeit eingespart werden.
Bei dem in Zusammenhang mit den Figuren 9c und 9d beschriebenen Ansatz wurde davon ausgegangen, dass die Aufnahmevorrichtung Aufnahmen in einer Ebene, die im Wesentlichen orthogonal zu einer Ebene, in der sich der Benutzer bewegt, macht. Beispielsweise, dass der Besucher sich in einer Halle bewegt und die Aufnahmevorrichtung unter einem Winkel von im Wesentlichen 90° zur Decke der Halle Aufnahmen von dieser macht. Jedoch kann die Aufnahmevorrichtung auch relativ zur Decke geneigt sein (z.B. wenn die Aufnahmevorrichtung am Kopf des Benutzers befestigt ist und dieser eine Nick- oder Neigebewegung mit dem Kopf ausführt). Um auch in solchen Situation die Abstände der kreisförmigen Objekte in der Binäraufnahme korrekt bestimmen zu können, können zusätzlich neben einer bekannten Position der Aufnahmevorrichtung in realen Umgebung (z.B. durch VR-System bestimmte Position des Benutzers in der realen Umgebung) auch momentane Messwerte z.B. eines Gyroskop und/oder eines Akzelerometers eines Mobilkommunikat ionsgeräts, das als Anzeigevor- richtung für die virtuelle Umgebung sowie als Aufnahmevorrichtung genutzt wird, verwendet werden.
Auch können momentane Messwerte eines Gyroskop und/oder eines Akzelerometers eines Mobilkommunikationsgeräts, das als Anzeigevorrichtung für die virtuelle Umgebung sowie als Aufnahmevorrichtung genutzt wird, ganz allgemein (d.h. in allen Ausführungsbeispielen der vorliegenden Offenbarung) genutzt werden, um zu bestimmen, ob ein geeigneter Moment vorliegt, eine Aufnahme zu machen. Beispielsweise kann bestimmt werden, dass die Aufnahmevorrichtung nur in einem bestimmten Wertebereich der Messwerte Aufnahmen macht. Damit kann verhindert werden, dass Aufnahmen ausgewertet werden, die aufgrund der Orien- tierung der Aufnahmevorrichtung in der realen Umgebung Unschärfen oder sonstigen Bildverzerrungen aufweisen. Somit kann vermieden werden, dass eine fehlerhafte Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt und somit die Blickrichtung in der virtuellen Umgebung um einen fehlerhaften Rotationsversatz gedreht wird. In einigen Ausführungsbeispielen wird über die am Kopf des Benutzers befestigte Anzeigevorrichtung, welche die Aufnahmevorrichtung umfasst, eine Aufnahme einer am Körper des Benutzers (z.B. Bauch, Hosenbund) befestigten Lichtquelle gemacht. Beispielsweise kann am Rumpf des Benutzers ein Laser angeordnet werden, der in Richtung einer Geradeausbewegung des Benutzers (d.h. im Wesentlich entlang einer Blickrichtung geradeaus des Benutzers) einen Laserstrahl emittiert. Somit ist die Lichtquelle bzw. der Laserstrahl das bekannte Objekt, welches von der Aufnahmevorrichtung aufgenommen wird. Aus der momentanen Position der Aufnahmevorrichtung und der bekannten Position der Aufnahmevorrichtung zu zumindest einem vorangehenden Zeitpunkt wird eine Orientierung des Körpers in der realen Umgebung bestimmt (d.h. der Bewegungsvektor zum Zeitpunkt der Aufnahme wird als Ori- entierung des Körpers angenommen). Mit anderen Worten: Die Orientierung des Körpers in der realen Umgebung dient als Referenzrichtung. Aus der Orientierung des Laserstrahls in der Aufnahme wird nun die Orientierung der Aufnahmevorrichtung relativ zum Laserstrahl bestimmt. Die Orientierung des Laserstrahls in der Aufnahme kann z.B. gemäß dem in Zusammenhang Figuren 9a und 9b beschriebenen Verfahren bestimmt werden. Da die Richtung des Laserstrahls der Referenzrichtung entspricht, kann die absolute Orientierung der Aufnahmevorrichtung in der realen Umgebung aus der Aufnahme des Laserstrahls bestimmt werden. Entsprechend kann aus der absoluten Orientierung in der realen Umgebung eine Soll-Blickrichtung in der Darstellung der virtuellen Umgebung bestimmt werden, so dass durch Ver- gleich mit der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung wiederum der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt werden kann. Die Blickrichtung in der Darstellung der virtuellen Umgebung kann dann um den Rotationsversatz gedreht, d.h. korrigiert, werden.
In Fig. 10 ist ein weiteres Verfahren 1000 zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung gezeigt.
Das Verfahren 1000 umfasst dabei ein Aufnehmen 1002 eines in einer realen Umgebung am Körper des Benutzers angeordneten Objektes mit einer am Kopf des Benutzers angeordneten Aufnahmevorrichtung zu einem ersten Zeitpunkt to und zu einem späteren zweiten Zeitpunkt ti. Bei dem Objekt kann es sich z.B. um eine am Körper des Benutzers (z.B. Bauch oder Hosenbund) befestigte Lichtquelle handeln. Beispielsweise kann am Rumpf des Benutzers ein Laser angeordnet werden, der in Richtung einer Geradeausbewegung des Benutzers (d.h. im Wesentlich entlang einer Blickrichtung geradeaus des Benutzers) einen Laserstrahl emittiert.
Ein Benutzer kann seinen Kopf durch Drehen um eine Querachse des Kopfes, Drehen um eine Längsachse des Kopfes und / oder Drehen um eine Gierachse des Kopfes bewegen. Die Querachse, die Längsachse und die Gierachse des Kopfes stehen dabei senkrecht aufeinander. Da die Aufnahmevorrichtung am Kopf des Benutzers angeordnet ist, ist auch diese um die Querachse, die Längsachse und die Gierachse des Kopfes bewegbar.
Wie oben beschrieben, kann die Darstellung der virtuellen Umgebung an den Benutzer über eine am Kopf des Benutzers befestigte Anzeigevorrichtung ausgegeben werden. Im gewöhnlichen Betrieb des VR-Systems kann dann z.B. in der Anzeigevorrichtung (HMD) vorhandene Sensorik (z.B. Gyroskop, Magnetometer, Akzelerometer) zur Bestimmung der Orientierung des Kopfes des Benutzers in der realen Umgebung verwendet werden. Insbesondere kann somit eine Drehstellung des Kopfes um seine Gierachse bestimmt werden. Jedoch ist die Bestimmung der Orientierung des Kopfes mit der vorhandene Sensorik - wie oben dargestellt - fehlerbehaftet. Neben der obigen Sensorik, d.h. zumindest einem weiteren Sensor, kann die Anzeigevorrichtung ferner die Aufnahmevorrichtung umfassen. Daher umfasst das Verfahren 1000 weiterhin ein Bestimmen 1004 eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf den Aufnahmen des Objektes zu dem ersten Zeitpunkt to und zu dem zweiten Zeitpunkt ti sowie Messwerten zumindest eines weiteren am Kopf des Benutzers befestigten Sensors.
Der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung entspricht dabei einem Rotationsversatz der Aufnahmevorrichtung um die Gierachse des Kopfes des Benutzers. Dieser wird durch einen Vergleich der aus den Aufnahmen des Objektes zu den Zeitpunkten to und ti bestimmten Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes des Benutzers und der aus den Messwerten zwischen den Zeitpunkten to und ti des zumindest einen weiteren am Kopf des Benutzers befestigten Sensors bestimmten Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes des Benutzers bestimmt. Somit kann der Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung bestimmt werden, ohne die absolute Orientierung der Aufnahmevorrichtung bzw. des Kopfes des Benutzers in der realen Umgebung bestimmen zu müssen. Vielmehr ist es ausreichend, den relativen Rotationsversatz der Aufnahmevorrichtung bzw. des HMD um die Gierachse des Kopfes zu bestimmen. Das Verfahren 1000 umfasst daher zudem ein Drehen 1006 der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz. Mit anderen Worten: Die Blickrichtung in der Darstellung der virtuellen Umgebung wird durch eine Drehung um die Gierachse der Darstellung der virtuellen Umgebung korrigiert, wobei die Richtung und die Magnitude der Drehung durch den Rotationsversatz bestimmt sind. Die Darstellung der virtuellen Um- gebung wird somit um den Rotationsversatz korrigiert. Die Darstellung der virtuellen Umgebung kann somit an die tatsächliche Position und Orientierung des Kopfes des Benutzers in der realen Umgebung angepasst werden. Mithin erlaubt somit auch das Verfahren 1000 eine Kalibration der Blickrichtung in der Darstellung der virtuellen Umgebung. Insbesondere kann auch mit dem Verfahren 1000 eine fehlerhaft bestimmte Orientierung in der realen Umgebung bzw. ein Abdriften der Blickrichtung in der Darstellung der virtuellen Umgebung, das von Messfehlern der gewöhnlich verwendeten Sensorik zur Bestimmung der Position und Ausrichtung (des Kopfes) eines Benutzers herrührt, korrigiert werden. Gemäß einigen Ausführungsbeispielen umfasst das Bestimmen 1004 des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung ein Bestimmen einer ersten Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes des Benutzers zwischen dem ersten Zeitpunkt to und dem zweiten Zeitpunkt ti basierend auf den Aufnahmen des Objektes zu dem ersten Zeitpunkt to und zu dem zweiten Zeitpunkt ti . Dabei wird für den ersten Zeitpunkt to die Orientierung der Aufnahmevorrichtung relativ zum Laserstrahl aus der Aufnahme des Laserstrahls zu dem ersten Zeitpunkt to bestimmt. Beispielsweise kann der Laserstrahl in Richtung einer Geradeausbewegung des Benutzers gerichtet sein und der Benutzer blickt geradeaus, so dass eine Drehung der Aufnahmevorrichtung um die Gierachse des Kopfes von 0° relativ zu dem Laserstrahl als erste Orientierung bestimmt wird. Für den zweiten Zeitpunkt ti wird die Orientierung der Aufnahmevorrichtung relativ zum Laserstrahl aus der Aufnahme des Laserstrahls zu dem zweiten Zeitpunkt ti bestimmt. Hat der Benutzer den Kopf zum Zeitpunkt ti z.B. zur Seite gedreht, wird eine von der ersten Orientierung verschiedene zweite Orientierung des Laserstrahls in der Aufnahme bestimmt, d.h. eine von 0° verschiedene Drehung der Aufnahmevor- richtung um die Gierachse des Kopfes relativ zu dem Laserstrahl. Die Orientierung des Laserstrahls in der Aufnahme kann z.B. gemäß dem in Zusammenhang Figuren 9a und 9b beschriebenen Verfahren bestimmt werden. Es wird also der relative Drehwinkel um die Gierachse des Kopfes zwischen der Orientierung des Kopfes zum ersten Zeitpunkt to und der Orientierung des Kopfes zum zweiten Zeitpunkt ti aus den beiden Aufnahmen bestimmt.
Ferner umfasst das Bestimmen 1004 des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung in diesen Ausführungsbeispielen ein Bestimmen einer zweiten Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes des Benutzers zwischen dem ersten Zeitpunkt to und dem zweiten Zeitpunkt ti basierend auf den Messwerten des zumindest einen weiteren am Kopf des Benutzers befestigten Sensors. Mit anderen Worten: Als Vergleichswert wird aus den Messwerten des zumindest einen weiteren am Kopf des Benutzers befestigten Sensors zwischen den Zeitpunkten to und ti wiederum die effektive (d.h. totale) Rotation um die Gierachse des Kopfes bestimmt. Es wird also der relative Drehwinkel um die Gierachse des Kopfes zwischen der Orientierung des Kopfes zum ersten Zeitpunkt to und der Orientierung des Kopfes zum zweiten Zeitpunkt ti aus den Messwerten bestimmt. Aufgrund von Messfehlern der Sensorik der Anzeigevorrichtung kann die aus den Messewerten bestimmte Rotation um die Gierachse des Kopfes jedoch fehlerhaft sein. Da diese im VR-System für die Bestimmung der 5 Blickrichtung in der Darstellung der virtuellen Umgebung verwendet wird, kann auch Blickrichtung in der Darstellung der virtuellen Umgebung fehlerhaft sein, d.h. um die Gierachse der Darstellung der virtuellen Umgebung verdreht sein.
Daher umfasst das Bestimmen 1004 des Rotationsversatzes der Blickrichtung in der Darstellt) lung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung in diesen Ausführungsbeispielen weiterhin ein Bestimmen des Rotationsversatzes um die Gierachse des Kopfes zwischen der ersten Rotation und der zweiten Rotation als Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung. Mit anderen Worten: Der Rotationsversatz um die Gierachse 15 des Kopfes zwischen der ersten Rotation und der zweiten Rotation repräsentiert die Differenz (d.h. den Unterschied) zwischen der ersten Rotation, die aus den Aufnahmen des Objekts bestimmt wird, und der zweiten Rotation, die aus den Messwerten des zumindest einen weiteren Sensors bestimmt wird. Der resultierende Rotationsversatz um die Gierachse des Kopfes des Benutzers aufgrund der Messfehler der Sensorik der Anzeigevorrichtung (d.h. des HMD) 20 wird somit also mittels der exakten Bestimmung der Drehung der Anzeigevorrichtung relativ zu dem Objekt am Körper des Benutzers bestimmt (z.B. dem Laserstrahl). Der relative Rotationsversatz der Aufnahmevorrichtung bzw. des HMD um die Gierachse des Kopfes kann daher als Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung angenommen werden, so dass diese 25 entsprechend um den Rotationsversatz der Aufnahmevorrichtung bzw. des HMD um die Gierachse des Kopfes korrigiert werden kann.
In den nachfolgenden Figuren I Ia und I Ib sind beispielhaft Zusammenhänge zwischen einem Bewegungsvektor eines Benutzers 1000 in der realen Umgebung, einer tatsächlichen 30 Blickrichtung vreai des Benutzers 1100 in der realen Umgebung und einer aus den Messwerten des zumindest einen weiteren am Kopf 1102 des Benutzers 1100 angeordneten Sensors bestimmten Blickrichtung vvr in der Darstellung der virtuellen Umgebung gezeigt. In den Figuren I Ia und 1 lb bewegt sich der Benutzer 1100 zwischen dem ersten Zeitpunkt to und dem späteren zweiten Zeitpunkt ti entlang des Bewegungsvektors p, welcher z.B. durch Positionsmessungen m(to) und m(ti) zu den beiden Zeitpunkten to und ti bestimmbar ist.
Fig. IIa zeigt dabei die Situation zum ersten Zeitpunkt to. Zu diesem Zeitpunkt blickt der Benutzer 1100 geradeaus, d.h. in Richtung seines Bewegungsvektors p. Die tatsächliche Orientierung des Kopfes des Benutzers wird für den ersten Zeitpunkt to mittels einer Aufnahmevorrichtung, welche von einem am Kopf 1102 des Benutzers 1100 angeordneten HMD 1104 umfasst ist, bestimmt. Wie oben ausgeführt, wird mit der Aufnahmevorrichtung eine erste Aufnahme eines am Körper 1106 des Benutzers 1100 angeordneten Objekts (z.B. Lichtquelle; Laserlichtquelle, die Laserstrahl emittiert) gemacht und daraus ein relative Orientierung des Kopfes zu dem Objekt für den ersten Zeitpunkt to bestimmt. Die Ausrichtung des Objekts relativ zum Körper 1106 (z.B. Rumpf) des Benutzers 1100 ist dabei bekannt. Beispielsweise kann ein Laserstrahl in Richtung einer Geradeausbewegung des Benutzers 1100 gerichtet sein, so dass eine Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes von 0° relativ zu dem Laserstrahl als erste Orientierung bestimmt wird. Da der Laserstrahl in Richtung der Geradeausbewegung des Benutzers 1100 gerichtet ist, entspricht die Richtung des Laserstrahls im Wesentlichen dem Bewegungsvektor p des Benutzers 1100, so dass auch die Rotation Θ der Aufnahmevorrichtung um die Gierachse des Kopfes relativ zu dem Bewegungsvektor p des Benutzers 1100 bekannt ist, hier also eine Rotation von 0°. Da der Bewegungsvektor bekannt ist, ist somit die absolute Orientierung der Aufnahmevorrichtung und damit auch des Kopfes 1102 des Benutzers 1100 in der realen Umgebung bekannt.
Im gewöhnlichen Betrieb des VR-Systems wird mittels zumindest eines weiteren von dem HMD 1104 umfassten Sensors (z.B. Gyroskop, Magnetometer, Akzelerometer) ebenfalls die Orientierung des Kopfes 1102 des Benutzers 1100 in der realen Umgebung bestimmt und daraus die Blickrichtung vvr in der Darstellung in der virtuellen Umgebung bestimmt. Für den ersten Zeitpunkt to sei nun die aus den Messwerten des zumindest einen weiteren am Kopf 1102 des Benutzers 1100 angeordneten Sensors bestimmte Blickrichtung des Benutzers 1100 in der realen Umgebung identisch zu der aus der Aufnahme bestimmten tatsächlichen Blick- richtung vreai des Benutzers 1 100 in der realen Umgebung. Somit entspräche auch die Blickrichtung Vvr in der Darstellung der virtuellen Umgebung im Wesentlich dem Bewegungsvektor p des Benutzers 1100, so dass zwischen der tatsächlichen Blickrichtung vreai des Benutzers 1100 in der realen Umgebung und der Blickrichtung vvr in der Darstellung der virtuellen Umgebung eine Rotation θ von im Wesentlichen 0° angenommen werden kann. Mit anderen Worten: Der Rotationsversatz um die Gierachse der Darstellung der virtuellen Umgebung beträgt im Wesentlichen 0°.
In Fig. IIb ist nun die Situation zum zweiten Zeitpunkt ti gezeigt. Auch zum zweiten Zeit- punkt ti blickt der Benutzer 1100 geradeaus, d.h. im Wesentlichen in Richtung seines Bewegungsvektors p. Aus der zweiten Aufnahme des am Körper 1106 des Benutzers angeordneten Objekts (z.B. Laser) zum zweiten Zeitpunkt ti wird daher wiederum eine Rotation der Aufnahmevorrichtung um die Gierachse des Kopfes von 0° relativ zu z.B. dem Laserstrahl als zweite Orientierung bestimmt wird, d.h. die Rotation Θ der Aufnahmevorrichtung um die Gierachse des Kopfes relativ zu dem Bewegungsvektor p des Benutzers 1100 ist wiederum 0°. Für den zweiten Zeitpunkt ti ist nun die aus den Messwerten des zumindest einen weiteren am Kopf 1102 des Benutzers 1100 angeordneten Sensors bestimmte Blickrichtung des Benutzers 1100 in der realen Umgebung aufgrund von Messfehlern nicht identisch zu der aus der zweiten Aufnahme bestimmten tatsächlichen Blickrichtung vreai des Benutzers 1100 in der realen Umgebung. Daher entspricht auch die Blickrichtung vvr in der Darstellung der virtuellen Umgebung fälschlicherweise nicht im Wesentlichen dem Bewegungsvektor p des Benutzers 1100, so dass zwischen der tatsächlichen Blickrichtung vreai des Benutzers 1100 in der realen Umgebung und der Blickrichtung vvr in der Darstellung der virtuellen Umgebung ein von 0° verschiedene Rotation θ besteht. Mit anderen Worten: Der Rotationsversatz um die Gierachse der Darstellung der virtuellen Umgebung ist verschieden von 0°. Die Konsequenz des von 0° verschiedenen Rotationsversatzes um die Gierachse der Darstellung der virtuellen Umgebung ist, dass der Benutzer sich in der virtuellen Umgebung nicht im Wesentlichen entlang des Bewegungsvektors p bewegt, sondern schräg zu diesem. Liefe der Benutzer z.B. in der realen Umgebung geradeaus nach vorne, würde er sich in der realen Umgebung schräg nach vorne bewegen.
Um nun die Blickrichtung in der Darstellung der virtuellen Umgebung zu korrigieren, kann wie oben dargestellt (siehe Beschreibung der Fig. 11) der relative Rotationsversatz um die Gierachse des Kopfes 1102 des Benutzers 1100 zwischen der aus den beiden Aufnahmen bestimmten Rotation und der aus den Messwerten des zumindest einen weiteren Sensors bestimmten Rotation verwendet werden. Alternativ kann die absolute Orientierung der Aufnahmevorrichtung (und somit des Kopfes 1102) in der realen Umgebung, welche aufgrund der Kenntnis der relativen Ausrichtung der Aufnahmevorrichtung zu dem bekannten Bewegungsvektor bestimmbar ist, verwendet werden, um eine Soll-Blickrichtung in der Darstellung der virtuellen Umgebung zu bestimmen und die Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz zwischen der Soll-Blickrichtung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung zu korrigieren (d.h. um die Gierachse der Darstellung der virtuellen Umgebung zu drehen). Somit kann eine Kalibration der Blickrichtung in der Darstellung der virtuellen Umgebung ermöglicht werden.
Die in der vorstehenden Beschreibung, den nachfolgenden Ansprüchen und den beigefügten Figuren offenbarten Merkmale können sowohl einzeln wie auch in beliebiger Kombination für die Verwirklichung eines Ausführungsbeispiels in ihren verschiedenen Ausgestaltungen von Bedeutung sein und implementiert werden.
Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-Ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einer programmierbaren Hardwarekomponente derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird.
Eine programmierbare Hardwarekomponente kann durch einen Prozessor, einen Computer- prozessor (CPU = Central Processing Unit), einen Grafikprozessor (GPU = Graphics Processing Unit), einen Computer, ein Computersystem, einen anwendungsspezifischen integrierten Schaltkreis (ASIC = Application-Specific Integrated Circuit), einen integrierten Schaltkreis (IC = Integrated Circuit), ein Ein-Chip-System (SOC = System on Chip), ein programmierbares Logikelement oder ein feldprogrammierbares Gatterarray mit einem Mikroprozessor (FPGA = Field Programmable Gate Array) gebildet sein. Das digitale Speichermedium kann daher maschinen- oder computerlesbar sein. Manche Ausführungsbeispiele umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem oder einer programmierbare Hardwarekomponente derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird. Ein Ausführungsbeispiel ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Programm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Programm, Firmware, Computerprogramm oder Computerprogrammprodukt mit einem Programmcode oder als Daten implementiert sein, wobei der Programmcode oder die Daten dahin gehend wirksam ist bzw. sind, eines der Verfahren durchzuführen, wenn das Programm auf einem Prozessor oder einer programmierbaren Hardwarekomponente abläuft. Der Programmcode oder die Daten kann bzw. können beispielsweise auch auf einem maschinenlesbaren Träger oder Datenträger gespeichert sein. Der Programmcode oder die Daten können unter anderem als Quell- code, Maschinencode oder Bytecode sowie als anderer Zwischencode vorliegen.
Ein weiteres Ausführungsbeispiel ist ferner ein Datenstrom, eine Signalfolge oder eine Sequenz von Signalen, der bzw. die das Programm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom, die Signalfolge oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, um über eine Datenkommunikationsverbindung, beispielsweise über das Internet oder ein anderes Netzwerk, transferiert zu werden. Ausführungsbeispiele sind so auch Daten repräsentierende Signalfolgen, die für eine Übersendung über ein Netzwerk oder eine Datenkommunikationsverbindung geeignet sind, wobei die Daten das Programm darstellen.
Ein Programm gemäß einem Ausführungsbeispiel kann eines der Verfahren während seiner Durchführung beispielsweise dadurch umsetzen, dass dieses Speicherstellen ausliest oder in diese ein Datum oder mehrere Daten hinein schreibt, wodurch gegebenenfalls Schaltvorgänge oder andere Vorgänge in Transistorstrukturen, in Verstärkerstrukturen oder in anderen elektrischen, optischen, magnetischen oder nach einem anderen Funktionsprinzip arbeitenden Bauteile hervorgerufen werden. Entsprechend können durch ein Auslesen einer Speicherstelle Daten, Werte, Sensorwerte oder andere Informationen von einem Programm erfasst, bestimmt oder gemessen werden. Ein Programm kann daher durch ein Auslesen von einer oder mehreren Speicherstellen Größen, Werte, Messgrößen und andere Informationen erfassen, bestimmen oder messen, sowie durch ein Schreiben in eine oder mehrere Speicherstellen eine Aktion bewirken, veranlassen oder durchführen sowie andere Geräte, Maschinen und Komponenten ansteuern.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims

Patentansprüche
1. Verfahren (100) zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung, umfassend:
Aufnehmen (102) eines bekannten Objektes in einer realen Umgebung mit einer Aufnahmevorrichtung;
Bestimmen (104) eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts, einer bekannten Position der Aufnahmevorrichtung in der realen Umgebung und einer momentanen Blickrichtung in der Darstellung der virtuellen Umgebung; und
Drehen (106) der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.
2. Verfahren nach Anspruch 1, wobei das Bestimmen (104) des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung Folgendes umfasst:
Bestimmen einer Orientierung der Aufnahmevorrichtung in der realen Umgebung basierend auf der Aufnahme des Objekts und der bekannten Position der Aufnahmevorrichtung in der realen Umgebung;
Bestimmen einer Soll-Blickrichtung in der Darstellung der virtuellen Umgebung basierend auf der Orientierung der Aufnahmevorrichtung in der realen Umgebung; und
Bestimmen des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung aus der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung.
3. Verfahren nach Anspruch 2, wobei das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung ein Bestimmen einer Transformation, die zumindest einen Teil der Aufnahme des Objekts mit zumindest einem Teil einer Vergleichsaufnahme in Übereinstimmung bringt, umfasst.
4. Verfahren nach Anspruch 2, wobei das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung Folgendes umfasst:
Erkennen eines Merkmals des Objekts in der Aufnahme;
Bestimmen einer Position des Merkmals in der Aufnahme; Identifizieren eines Vergleichsmerkmals aus einer Mehrzahl an Vergleichsmerkmalen einer Datenbank, das dem Merkmal des Objekts in der Aufnahme entspricht, wobei der Mehrzahl an Vergleichsmerkmalen jeweils eine Position in der realen Umgebung zugeordnet ist; und
Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung basierend auf der bekannten Position der Aufnahmevorrichtung in der realen Umgebung, der Position des Merkmals in der Aufnahme und der Position in der realen Umgebung, die dem identifizierten Vergleichsmerkmal zugeordnet ist.
5. Verfahren nach Anspruch 4, wobei bei dem Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung mehrere Merkmale des Objekts erkannt werden, wobei für die mehreren erkannten Merkmale des Objekts jeweils eine Orientierung der Aufnah- mevorrichtung in der realen Umgebung bestimmt wird, und wobei diejenige der für die mehreren erkannten Merkmale des Objekts bestimmten Orientierungen der Aufnahmevorrichtung in der realen Umgebung als Orientierung der Aufnahmevorrichtung in der realen Umgebung bestimmt wird, die ein Qualitätskriterium erfüllt.
6. Verfahren nach Anspruch 4 oder Anspruch 5, wobei die Mehrzahl an Vergleichsmerk- malen verschiedene Merkmale des Objekts umfasst.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Objekt ein auf einer vertikalen Ebene angebrachtes Muster ist.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren ferner ein Ausgeben der Darstellung der virtuellen Umgebung an einen Benutzer umfasst, und wobei die Aufnahmevorrichtung in Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet ist.
9. Verfahren nach Anspruch 2, wobei das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung Folgendes umfasst: Bestimmen, basierend auf der bekannten Position der Aufnahmevorrichtung in der realen Umgebung, einer Vergleichsaufnahme aus einer Mehrzahl an Vergleichsaufnahmen einer Datenbank, wobei eine Orientierung der Vergleichsaufnahme in der realen Umgebung bekannt ist; Bestimmen einer Rotation der Aufnahme des Objekts relativ zu der Vergleichsaufnahme;
Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung basierend auf der Orientierung der Vergleichsaufnahme in der realen Umgebung und der Rotation der Aufnahme des Objekts relativ zu der Vergleichsaufnahme.
10. Verfahren nach Anspruch 9, wobei die Mehrzahl an Vergleichsaufnahmen Binärauf- nahmen sind, und wobei das Bestimmen der Rotation der Aufnahme des Objekts relativ zu der Vergleichsaufnahme Folgendes umfasst:
Konvertieren der Aufnahme des Objekts in eine Binäraufnahme des Objekts; und Bestimmen der Rotation der Binäraufnahme des Objekts relativ zu der Vergleichsaufnahme.
11. Verfahren nach Anspruch 9 oder Anspruch 10, wobei das Verfahren ferner ein Aus- geben der Darstellung der virtuellen Umgebung an einen Benutzer umfasst, und wobei die
Aufnahmevorrichtung vertikal zu einer Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet ist.
12. Verfahren nach Anspruch 11 , wobei sich das Objekt vertikal ausschließlich über oder ausschließlich unter dem Benutzer erstreckt.
13. Verfahren nach Anspruch 8, Anspruch 11 oder Anspruch 12, wobei das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer über eine am Kopf des Benutzers befestigte Anzeigevorrichtung erfolgt, und wobei die Anzeigevorrichtung ferner die Aufnahmevorrichtung umfasst.
14. Verfahren nach Anspruch 13, wobei die Anzeigevorrichtung ein Mobilkommunikati- onsgerät umfasst, und wobei die Aufnahmevorrichtung eine Kamera des Mobilkommunika- tionsgeräts ist.
15. Verfahren (800) zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung, umfassend: Aufnehmen (802) eines bekannten Objektes in einer realen Umgebung mit einer Aufnahmevorrichtung;
Bestimmen (804) eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf der Aufnahme des Objekts und einer momentanen Blickrichtung in der Darstellung der virtuellen Umgebung; und
Drehen (806) der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.
16. Verfahren nach Anspruch 15, wobei das Bestimmen (804) des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung Folgendes umfasst:
Bestimmen einer Orientierung der Aufnahmevorrichtung in der realen Umgebung basierend auf einer Orientierung des Objekts in der Aufnahme und einer Referenzrichtung;
Bestimmen einer Soll-Blickrichtung in der Darstellung der virtuellen Umgebung basierend auf der Orientierung der Aufnahmevorrichtung in der realen Umgebung; und
Bestimmen des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung aus der Soll-Blickrichtung in der Darstellung der virtuellen Umgebung und der momentanen Blickrichtung in der Darstellung der virtuellen Umgebung.
17. Verfahren nach Anspruch 16, wobei das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung Folgendes umfasst:
Konvertieren der Aufnahme des Objekts in eine Binäraufnahme (900') des Objekts;
Erkennen von Kandidaten (910') für das Objekt in der Binäraufnahme (900') des Objekts;
Bestimmen einer jeweiligen Exzentrizität der Kandidaten (910') für das Objekt; und
Bestimmen einer Orientierung einer Hauptachse desjenigen Kandidaten (910') als Orientierung des Objekts in der Aufnahme, dessen Exzentrizität über einem Schwellwert liegt und dessen Hauptachse länger als Hauptachsen der sonstigen Kandidaten für das Objekt mit einer Exzentrizität über dem Schwellwert ist.
18. Verfahren nach Anspruch 16, wobei das Bestimmen der Orientierung der Aufnahmevorrichtung in der realen Umgebung Folgendes umfasst:
Konvertieren der Aufnahme des Objekts in eine Binäraufnahme (940') des Objekts;
Erkennen von kreisförmigen Objekten (95 Γ, 952', 953') in der Binäraufnahme (900') des Objekts, wobei jeweilige Radien der kreisförmigen Objekte von einem vorbestimmten Wertebereich umfasst sind;
Bestimmen von Abständen der kreisförmigen Objekte (95 Γ, 952', 953') zueinander;
Bestimmen der Orientierung des Objekts in der Aufnahme auf Basis der Abstände der kreisförmigen Objekte (95 Γ, 952', 953') zueinander.
19. Verfahren nach einem der Ansprüche 15 bis 18, wobei das Verfahren ferner ein Ausgeben der Darstellung der virtuellen Umgebung an einen Benutzer umfasst, und wobei die Aufnahmevorrichtung vertikal zu einer Blickrichtung geradeaus des Benutzers in der realen Umgebung ausgerichtet ist.
20. Verfahren nach Anspruch 19, wobei sich das Objekt vertikal ausschließlich über oder ausschließlich unter dem Benutzer erstreckt.
21. Verfahren nach Anspruch 19 oder Anspruch 20, wobei das Ausgeben der Darstellung der virtuellen Umgebung an den Benutzer über eine am Kopf des Benutzers befestigte Anzeigevorrichtung erfolgt, und wobei die Anzeigevorrichtung ferner die Aufnahmevorrichtung umfasst.
22. Verfahren nach Anspruch 21, wobei die Anzeigevorrichtung ein Mobilkommunikati- onsgerät umfasst, und wobei die Aufnahmevorrichtung eine Kamera des Mobilkommunika- tionsgeräts ist.
23. Verfahren (1000) zum Einstellen einer Blickrichtung in einer Darstellung einer virtuellen Umgebung, umfassend: Aufnehmen (1002) eines in einer realen Umgebung am Körper eines Benutzers angeordneten Objektes mit einer am Kopf des Benutzers angeordneten Aufnahmevorrichtung zu einem ersten Zeitpunkt und zu einem späteren zweiten Zeitpunkt; Bestimmen (1004) eines Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um eine Gierachse der Darstellung der virtuellen Umgebung basierend auf den Aufnahmen des Objektes zu dem ersten Zeitpunkt und zu dem zweiten Zeitpunkt sowie Messwerten zumindest eines weiteren am Kopf des Benutzers befestigten Sensors; und Drehen (1006) der Blickrichtung in der Darstellung der virtuellen Umgebung um den Rotationsversatz.
24. Verfahren nach Anspruch 23, wobei das Bestimmen (1004) des Rotationsversatzes der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung Folgendes umfasst: Bestimmen einer ersten Rotation der Aufnahmevorrichtung um eine Gierachse des Kopfes des Benutzers zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt basierend auf den Aufnahmen des Objektes zu dem ersten Zeitpunkt und zu dem zweiten Zeitpunkt;
Bestimmen einer zweiten Rotation der Aufhahmevorrichtung um die Gierachse des Kopfes des Benutzers zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt basierend auf den Messwerten des zumindest einen weiteren am Kopf des Benutzers befestigten Sensors; und
Bestimmen des Rotationsversatzes zwischen der ersten Rotation und der zweiten Rotation als Rotationsversatz der Blickrichtung in der Darstellung der virtuellen Umgebung um die Gierachse der Darstellung der virtuellen Umgebung.
25. Verfahren nach Anspruch 23 oder Anspruch 24, wobei das Verfahren ferner ein Aus- geben der Darstellung der virtuellen Umgebung an den Benutzer über eine am Kopf des Benutzers befestigte Anzeigevorrichtung umfasst, und wobei die Anzeigevorrichtung ferner die Aufnahmevorrichtung als auch den zumindest einen weiteren Sensor umfasst.
EP17722406.0A 2016-05-18 2017-04-27 Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung Withdrawn EP3458935A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016109153.7A DE102016109153A1 (de) 2016-05-18 2016-05-18 Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung
PCT/EP2017/060088 WO2017198441A1 (de) 2016-05-18 2017-04-27 Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung

Publications (1)

Publication Number Publication Date
EP3458935A1 true EP3458935A1 (de) 2019-03-27

Family

ID=58692475

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17722406.0A Withdrawn EP3458935A1 (de) 2016-05-18 2017-04-27 Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung

Country Status (8)

Country Link
US (1) US10885663B2 (de)
EP (1) EP3458935A1 (de)
JP (1) JP6676785B2 (de)
KR (1) KR102184619B1 (de)
CN (1) CN109313488A (de)
CA (1) CA3022914A1 (de)
DE (1) DE102016109153A1 (de)
WO (1) WO2017198441A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6944863B2 (ja) * 2017-12-12 2021-10-06 株式会社ソニー・インタラクティブエンタテインメント 画像補正装置、画像補正方法およびプログラム
US11054638B2 (en) * 2018-06-13 2021-07-06 Reavire, Inc. Tracking pointing direction of device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4743818B2 (ja) * 2003-04-04 2011-08-10 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP2005050189A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像処理装置およびその方法並びにプログラムコード、記憶媒体
CN100410622C (zh) * 2004-05-14 2008-08-13 佳能株式会社 用于获得目标物体的位置和方位的信息处理方法和设备
JP2008033837A (ja) * 2006-07-31 2008-02-14 Sanyo Electric Co Ltd 点検システム及び誤差補正プログラム
FR2915568B1 (fr) * 2007-04-25 2009-07-31 Commissariat Energie Atomique Procede et dispositif de detection d'un axe de rotation sensiblement invariant
US9013617B2 (en) * 2012-10-12 2015-04-21 Qualcomm Incorporated Gyroscope conditioning and gyro-camera alignment
US9677840B2 (en) * 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
CN105023294B (zh) * 2015-07-13 2018-01-19 中国传媒大学 结合传感器与Unity3D的定点移动增强现实方法
CN105044915A (zh) * 2015-09-02 2015-11-11 大连麒美数字科技有限公司 一种利用头戴显示器实现影片互动的控制方法
US10723022B2 (en) * 2016-09-16 2020-07-28 Carbon Robotics, Inc. System and calibration, registration, and training methods

Also Published As

Publication number Publication date
US10885663B2 (en) 2021-01-05
WO2017198441A1 (de) 2017-11-23
KR20190005222A (ko) 2019-01-15
JP6676785B2 (ja) 2020-04-08
CN109313488A (zh) 2019-02-05
CA3022914A1 (en) 2017-11-23
JP2019519842A (ja) 2019-07-11
KR102184619B1 (ko) 2020-11-30
DE102016109153A1 (de) 2017-11-23
US20190180471A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
DE69831181T2 (de) Positionsbestimmung
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
DE102008024462B4 (de) Interaktives Bildsystem, interaktive Vorrichtung und Betriebsverfahren derselben
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
DE112016005865T5 (de) Automatische Bereichssteuerung für Tiefenkamera mit aktiver Beleuchtung
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102016224095A1 (de) Verfahren zum Kalibrieren einer Kamera und Kalibriersystem
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
WO2018087084A1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit virtuellen bild- und audiodaten und ein mobiles gerät
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE102018108027A1 (de) Objekterfassungsvorrichtung
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
WO2015110207A1 (de) Verfahren und steuergerät zum erkennen einer veränderung eines relativen gierwinkels innerhalb eines stereo-video-systems für ein fahrzeug
US20110187827A1 (en) Method and apparatus for creating a stereoscopic image
DE102008011596B4 (de) Kombiniertes Baken- und Szenen-Navigationssystem
EP2423640A1 (de) Neigungssensor für ein Gerät und Verfahren zur Bestimmung der Neigung eines Gerätes
DE102014019671A1 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
EP3104330A1 (de) Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
EP3347878A2 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit einem virtuellen bild und mobiles gerät
US11061471B2 (en) Screen estimation
WO2017198441A1 (de) Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung
DE112014006493T5 (de) Bestimmen eines Massstabs dreidimensonaler Informationen
EP3539085B1 (de) 3d-referenzierung
DE112020004829T5 (de) Verfahren, system und vorrichtung zur mobilen vermessung

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20181218

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20200803

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20211103