WO2018210466A1 - Verfahren zur orientierungsschätzung eines tragbaren gerätes - Google Patents

Verfahren zur orientierungsschätzung eines tragbaren gerätes Download PDF

Info

Publication number
WO2018210466A1
WO2018210466A1 PCT/EP2018/056499 EP2018056499W WO2018210466A1 WO 2018210466 A1 WO2018210466 A1 WO 2018210466A1 EP 2018056499 W EP2018056499 W EP 2018056499W WO 2018210466 A1 WO2018210466 A1 WO 2018210466A1
Authority
WO
WIPO (PCT)
Prior art keywords
orientation
sensor
phase
portable device
movement
Prior art date
Application number
PCT/EP2018/056499
Other languages
English (en)
French (fr)
Inventor
Juergen GUT
Markus DIHLMANN
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to JP2019563604A priority Critical patent/JP6968906B2/ja
Priority to CN201880032728.9A priority patent/CN110637276B/zh
Priority to US16/604,745 priority patent/US10955939B2/en
Priority to KR1020197036912A priority patent/KR102393016B1/ko
Publication of WO2018210466A1 publication Critical patent/WO2018210466A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the invention relates to a method for displaying visual information in
  • Portable devices for displaying visual information particularly when displaying a virtual reality or augmented reality, display images of a virtual image to the user via a head-mounted imaging device
  • Head movement of the user the image is moved according to the head movement in the portable device.
  • the orientation of the head must be determined at any time. This usually happens over one
  • Rotation rate sensor and a 3-axis acceleration sensor are usually faulty, so that the actual and the calculated orientation may differ.
  • the data of the acceleration sensor are consulted.
  • the acceleration sensor can not distinguish between the acceleration due to gravity and an acceleration which arises during a movement of the portable device.
  • each sensor is subject to a permanent background noise, which additionally falsifies the measured values.
  • To correct this sensor measurement data requires a complex filtering of the data and other complex calculations and Feedbacks of the corrected sensor measurement data on the display. Frequent corrections of the representation can result in a high energy consumption. Continuous corrections can be annoying to the user, especially if he remains in a fixed position.
  • the object underlying the invention can be seen to provide a method and a portable device, which allow the estimation of the orientation of a device in the room using sensors to correct efficiently and energy and data saving.
  • a method of displaying visual information in response to a spatial orientation of a portable device is provided with at least a first sensor for acquiring orientation information and a
  • the spatial orientation of the portable device is based on the detected
  • the detected sensor measurement data is used to determine whether the portable device is in a rest phase or in a movement phase and determines an error for the orientation estimation on the basis of the orientation estimation determined in a rest phase and the measurement data of the acceleration sensor acquired in this rest phase.
  • the presentation of visual information becomes the current one
  • Orientation estimation in the following movement phase considered as well as successively corrected and in movement phases of the representation of the visual information is based on a current corrected orientation estimate.
  • the user's head In the resting phase, the user's head, and thus the portable device placed on the user's head, remain in a stable position. During the resting phase, the user's head, and thus the portable device placed on the user's head, remain in a stable position. During the resting phase, the user's head, and thus the portable device placed on the user's head, remain in a stable position. During the resting phase, the user's head, and thus the portable device placed on the user's head, remain in a stable position.
  • Acceleration sensor of gravity acceleration can then be determined an error of orientation estimation.
  • the calculation of the error takes place on the basis of a deviation of the measured vector of the gravitational acceleration from the vector resulting from the orientation estimation
  • the user moves his head and thus also the portable device.
  • the portable device may be turned up or down or to one side. Overlay from the
  • the acceleration sensor can be deactivated or the measurements of the acceleration sensor can be clocked slower.
  • the orientation estimate and a representation of visual information, such as images, based thereon can be corrected for the determined and stored correction value.
  • the correction of the orientation estimate can be done as slowly as possible. Slowly, it should be understood that the adaptation of the orientation estimation based visual information is performed in small increments without an abrupt change in presentation, so that the user can not perceive the correction in the movement.
  • the process exploits the advantages of each phase. In the resting phase, the gravitational acceleration without disturbances by linear
  • Acceleration of the portable device triggered by the head movement of the user, can be measured accurately, so that the accuracy of the measurement of the
  • the image must also not move, since the human eye in a quiet position of the head can already register an easy turning away or shaking the image.
  • the user may perceive adjustments or moving the presentation harder. Nevertheless
  • the adjustment of the orientation can be done so quickly that longer
  • the sensor measurement data of the acceleration sensor need not be determined continuously, but only measured and evaluated in the quiescent phase.
  • Rest phase and a movement phase can be a portable device through the
  • a camera, a rotation rate sensor, a microphone and / or a magnetic sensor are used to acquire orientation information. This allows
  • Orientation information can be determined by a variety of possible sensors.
  • optical sensors such as cameras, can also acquire sensor measurement data and, for example, by analyzing a plurality of images, provide information about movements of the portable device and about an orientation of the portable device in a room.
  • the determination of resting phases and movement phases is performed on the basis of the sensor measurement data of the at least one first sensor for detecting
  • Orientation information and / or the at least one Acceleration sensor For example, a normalized signal of a yaw-rate sensor can be used to switch between
  • signals of the acceleration sensor can be used for detection.
  • signals of the acceleration sensor can be used for detection.
  • the portable device is in motion, otherwise a standby phase of the portable device can be assumed. It is also possible to use a combination of the two conditions and sensors mentioned above. Alternatively or additionally, however, the orientation can also be determined with a camera system.
  • Movement phase determined.
  • the correction of the orientation estimate in the form of a correction value can be carried out successively.
  • the correction value can influence the orientation estimate in each time step.
  • the correction value may be defined in the form of angles of rotation by which the estimated orientation must be rotated for correction. The goal in choosing the correction value is to smoothly correct the existing one
  • the correction value can
  • the correction of the orientation estimate and thus of the representation can be carried out over several time steps or update steps of the representation with the aid of the correction value until the actual estimation error has been completely corrected. If the estimation error has been completely corrected during a movement phase, the correction value can be set equal to zero so that no further corrections are made until a next resting phase.
  • the current correction value is respectively adapted to a movement of the portable device. So that the user does not notice the correction of the orientation estimation as far as possible, the correction can take place via a correction value depending on the movement.
  • the required correction or the correction value can be superposed with the movement of the portable device or the head of the user. For this purpose, the error correction is not carried out completely directly as soon as the portable device is in motion, but selected in dependence on the strength of the movement of the device and carried out in several steps.
  • the correction value can be defined proportionally to sensor measurement data of the acceleration sensor minus the gravitational acceleration.
  • Adjusting the correction value takes into account a rotational speed of the portable device.
  • the correction value may depend linearly or quadratically proportionally on the sensor measurement data of the yaw rate sensor and be based on a rotational movement of the user's head based on a successively corrected orientation estimation of the representation of the visual information.
  • Accelerometer in motion phases operated at a lower sampling rate than in rest periods can in this case be switched on in the motion phases in the alternative.
  • an energy consumption of the portable device can be reduced because the acceleration sensor does not consistently determine sensor measurement data and thus does not need to be continuously supplied with electrical energy.
  • Acceleration sensor deactivated in motion phases The readout of the sensor measurement data of the acceleration sensor and the calculation of the error of the estimated orientation need only occur when the portable device is in a rest phase. Therefore, with this method, an energy-efficient correction of the orientation estimation be performed.
  • the acceleration sensor can preferably be completely switched off in the movement phases. As a result, the acceleration sensor only has high data during the idle phase
  • Acceleration sensor can be significantly reduced in the movement phase.
  • the portable device includes at least a first sensor for acquiring orientation information and a first sensor for acquiring orientation information and a second sensor for acquiring orientation information and a first sensor for acquiring orientation information and a second sensor for acquiring orientation information and a first sensor for acquiring orientation information and a second sensor for acquiring orientation information.
  • the portable device may preferably be arranged or mounted on or on a user's head. Depending on movements of the head, a resting phase or a movement phase of the portable device can be determined. If, for example, the user's head moves little or does not move, a resting phase can be determined based on the sensor measurement data of the at least one sensor and / or the acceleration sensor.
  • Acceleration sensor determines an error of the acceleration sensor by comparison with the actual acceleration due to gravity. This error can be stored in a memory during the idle phase. For example, if a movement phase of the portable device is detected, then based on the stored error, a corrected orientation estimate can be calculated, which can be used as a basis for a corrected representation of visual information. For example, the acceleration sensor may be deactivated during the motion phase or may detect less sensor measurement data. As a result, the portable device can be made energy-saving. Furthermore, less sensor measurement data is required, which must be evaluated, whereby a computing power of the portable device can be reduced. The following are based on highly simplified schematic
  • Fig. 1 is a schematic representation of a method according to a first
  • Fig. 2 is a schematic flow diagram of the method according to a
  • Fig. 3 is a schematic representation of a portable device for
  • FIG. 1 shows a schematic representation or a block diagram of a method 1 according to a first embodiment.
  • an orientation estimation 2 is carried out for adapting images to a head movement of a user.
  • the head movement of the user is calculated using different motion sensor data.
  • a 3-axis rotation rate sensor 6 is used to generate sensor measurement data 8 for the orientation estimation 2.
  • Rotation rate sensor 6 serves as the main information source for the
  • the orientation 2 of the portable Calculate device G is done in small time intervals in order to keep latency of the estimated orientation 2 as small as possible.
  • the sensor measurement data 10 of the rotation rate sensor 6 are faulty by an offset or offset, so that upon prolonged use of the portable device G, the actual and the calculated orientation 2 of the portable device G may differ. This offset may be a cause of an error value 12.
  • sensor measurement data 14 of the 3-axis acceleration sensor 4 are used to calculate the error value 12.
  • the error value 12 thus results from a deviation of the measured gravitational acceleration 16 and the estimated vector of the gravitational acceleration g extracted from the calculated orientation 2.
  • the sensor measurement data 14 of the acceleration sensor 4 however, by Linear accelerations of the head movements of the user falsified. Furthermore, corrections in the image representation of the portable device G in a resting phase 20 are registered by the user and may, among other things
  • Motion detection 18 performed.
  • the motion detection 18 can also be carried out alternatively or in the alternative by the yaw rate sensor 6 or another sensor.
  • the motion detection 18 can be between a
  • Rest phase 20 and a movement phase 22 of the head movement of the user differ. Based on measurement data 10 of the rotation rate sensor 6 and of
  • Measurement data 14 of the acceleration sensor 4 determines the
  • Motion detection 18 whether the portable device G is in a rest phase 20 or a movement phase 22. If a rest phase 20 is detected by the motion detection 18, a
  • Orientation estimation 2 of the portable device G applied so that a corrected orientation estimate 32 calculated and thus an adaptation 34 of images or the representation of visual information 33 to the
  • Head movement of the user in the form of a corrected alignment of the images can be made after the correction 30 is in the
  • Error memory 26 stored correction value 24 reduced by the correction factor 28 applied to the correction 30.
  • Correction factor 28 can be repeated until the correction value 24 in Error memory 26 is equal to zero. Due to the slow correction 30 of the
  • a soft correction can be realized, which is not registered by the user during the movement phase 22.
  • Magnetic sensor 36 detects the magnetic north pole N of the earth shown in FIG. 3 and can determine a rotation deviation 38 or an error 38 of device G by "heading" H. With this particular error 38, a correction factor 40 for the "Heading" H can be calculated. The correction factor 40 can now additionally be used for the correction 30 of the orientation estimation 2. The subdivision into the
  • Fault memory 26 is in the use of the magnetic sensor 36 for the movements of the portable device G orthogonal to the direction of
  • FIG. 2 illustrates the method 1 according to a second
  • the method 1 can be carried out iteratively.
  • a first step it is determined on the basis of the sensor measurement data 8, 10, 14 whether the portable device G can be assigned to a rest phase 20 or a movement phase 22. If a resting phase 20 can be determined on the basis of sensor measurement data 8, 10, 14, an error 12 is calculated for the .sup.2 based on the orientation estimate 2 and the sensor measurement data 8, 10, 14 acquired in this rest phase 20
  • Orientation estimate 2 determined.
  • the error value 12 is then stored in the error memory 26 for use in the next movement phase 22.
  • a rest phase 20 can be a movement phase 22 consequences.
  • the orientation estimate 2 is not changed or corrected. Rather, based on the unchanged orientation estimate 2, a representation of visual information 33 is output. If, on the other hand, a movement phase 22 is detected, then a correction 30 of the orientation estimate 2 takes place on the basis of FIG.
  • Error memory 26 stored correction value 24 in accordance with the already carried out correction 30 of the orientation estimate 2 adapted 27.
  • Error memory 26 stored correction value 24 can be reduced, for example by a factor or a value. Based on the performed correction 30 of the orientation estimate 2 is a corrected
  • Orientation estimate 32 determined. During the motion phase 22, the corrected orientation estimate 32 becomes the representation of visual information
  • the corrected orientation estimate may alternatively or additionally be used in a further time step as the basis for determining the orientation estimation 2 with the first sensor 6 or, according to the exemplary embodiment, FIG
  • Yaw rate sensor 6 can be used.
  • the corrected orientation estimate 32 may be used, for example, as an output value for time integration with the rotational speed of the yaw rate sensor 6.
  • FIG 3 is a schematic representation of the portable device G for
  • the portable device G has according to the embodiment, a fastened to the head of the user bracket 42.
  • the bracket 42 may be adapted and secured to the user's head via an elastic band 44.
  • the holder 42 has an imaging device 48.
  • Bracket 42 has an optics, not shown, and is equipped with electronics and sensors.
  • the holder 42 has the acceleration sensor 4, the rotary axis sensor 6 and the magnetic sensor 36. Movements of the head of the user orthogonal to a direction of gravitational acceleration g, or about the axis of rotation R of the portable device G is the "heading" H.
  • the Magnetic sensor 36 can detect magnetic north pole N and detect rotational deviations of portable device G from north magnetic pole N.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Offenbart ist ein Verfahren zur Darstellung von visuellen Informationen in Abhängigkeit von einer räumlichen Orientierung eines tragbaren Gerätes, wobei das Gerät zumindest mit einem ersten Sensor zum Erfassen von Orientierungsinformationen und mit einem Beschleunigungssensor ausgestattet ist, bei dem die räumliche Orientierung des tragbaren Gerätes auf Basis der erfassten Orientierungsinformationen geschätzt wird und bei dem diese Orientierungsschätzung mit Hilfe der vom Beschleunigungssensor erfassten Sensormessdaten korrigiert wird, wobei anhand der erfassten Sensormessdaten ermittelt wird, ob sich das Gerät in einer Ruhephase oder in einer Bewegungsphase befindet, wobei auf der Basis der in der Ruhephase ermittelten Orientierungsschätzung und der in dieser Ruhephase erfassten Sensormessdaten des Beschleunigungssensors ein Fehler für die Orientierungsschätzung ermittelt wird, wobei in Ruhephasen der Darstellung der visuellen Informationen eine jeweils aktuelle Orientierungsschätzung unverändert zugrunde gelegt wird, wobei der in einer Ruhephase ermittelte Fehler bei der Orientierungsschätzung in der darauffolgenden Bewegungsphase berücksichtigt und sukzessive korrigiert wird und wobei in Bewegungsphasen der Darstellung der visuellen Informationen eine jeweils aktuelle korrigierte Orientierungsschätzung zugrunde gelegt wird.

Description

Beschreibung
Titel
Verfahren zur Orientierungsschätzung eines tragbaren Gerätes Die Erfindung betrifft ein Verfahren zur Darstellung von visuellen Informationen in
Abhängigkeit von einer räumlichen Orientierung eines tragbaren Gerätes, wobei das Gerät zumindest mit einem ersten Sensor zum Erfassen von
Orientierungsinformationen und mit einem Beschleunigungssensor ausgestattet ist sowie ein tragbares Gerät zum Durchführen eines derartigen Verfahrens.
Stand der Technik
Tragbare Geräte zum Darstellen visueller Informationen, insbesondere bei der Darstellung einer Virtual Reality oder Augmented Reality, zeigen dem Benutzer über ein am Kopf befestigtes bildgebendes Gerät Bilder einer virtuellen
Darstellung oder ergänzen eine reale Bildaufnahme mit zusätzlichen
Informationen beispielsweise zu einem betrachteten Objekt. Bei einer
Kopfbewegung des Benutzers wird das Bild entsprechend der Kopfbewegung im tragbaren Gerät verschoben. Für eine korrekte Anpassung muss die Orientierung des Kopfes jederzeit bestimmt werden. Dies geschieht üblicherweise über einen
Drehratensensor und einen 3-Achsen-Beschleunigungssensor. Die Messungen des Drehratensensors sind jedoch meist fehlerbehaftet, sodass die tatsächliche und die berechnete Orientierung abweichen können. Um einen Korrekturwert berechnen zu können, werden die Daten des Beschleunigungssensors hinzugezogen. Üblicherweise kann der Beschleunigungssensor jedoch nicht zwischen der Erdbeschleunigung und einer Beschleunigung, welche bei einer Bewegung des tragbaren Gerätes entsteht, unterscheiden. Zudem unterliegt jeder Sensor einem permanenten Grundrauschen, welches die Messwerte zusätzlich verfälscht. Um diese Sensormessdaten zu korrigieren bedarf es einer aufwendigen Filterung der Daten sowie weiterer komplexer Berechnungen und Rückkopplungen der korrigierten Sensormessdaten auf die Darstellung. Häufige Korrekturen der Darstellung können dabei in einem hohen Energieverbrauch resultieren. Kontinuierliche Korrekturen können vom Benutzer als störend empfunden werden, insbesondere, wenn dieser in einer festen Position verharrt.
Offenbarung der Erfindung
Die der Erfindung zugrundeliegende Aufgabe kann darin gesehen werden, ein Verfahren sowie ein tragbares Gerät vorzuschlagen, welche es ermöglichen die Schätzung der Orientierung eines Gerätes im Raum mithilfe von Sensoren effizient und energie- sowie datensparend zu korrigieren.
Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
Nach einem Aspekt der Erfindung wird ein Verfahren zur Darstellung von visuellen Informationen in Abhängigkeit von einer räumlichen Orientierung eines tragbaren Gerätes bereitgestellt. Das tragbare Gerät ist mit zumindest einem ersten Sensor zum Erfassen von Orientierungsinformationen und einem
Beschleunigungssensor ausgestattet. Bei dem tragbaren Gerät wird die räumliche Orientierung des tragbaren Gerätes auf Basis der erfassten
Orientierungsinformationen geschätzt und diese Orientierungsschätzung mit Hilfe der vom Beschleunigungssensor erfassten Sensormessdaten korrigiert.
Erfindungsgemäß wird anhand der erfassten Sensormessdaten ermittelt, ob sich das tragbare Gerät in einer Ruhephase oder in einer Bewegungsphase befindet und auf der Basis der in einer Ruhephase ermittelten Orientierungsschätzung und der in dieser Ruhephase erfassten Messdaten des Beschleunigungssensors ein Fehler für die Orientierungsschätzung ermittelt. Es wird in Ruhephasen der Darstellung der visuellen Informationen die jeweils aktuelle
Orientierungsschätzung unverändert zugrunde gelegt. Bei dem Verfahren wird erfindungsgemäß der in einer Ruhephase ermittelte Fehler bei der
Orientierungsschätzung in der darauffolgenden Bewegungsphase berücksichtigt sowie sukzessive korrigiert und in Bewegungsphasen der Darstellung der visuellen Informationen eine jeweils aktuelle korrigierte Orientierungsschätzung zugrunde gelegt.
In der Ruhephase verharrt der Kopf des Benutzers und damit das an dem Kopf des Benutzers angeordnete tragbare Gerät ruhig in einer Position. Während der
Ruhephase werden keine Korrekturen der Orientierungsschätzung und damit der Darstellung von visuellen Informationen durchgeführt. Insbesondere bei einem Verharren des Kopfes in einer Position oder langsamen Bewegungen können Korrekturen der Orientierungsschätzung und der darauf basierenden
Darstellungen von visuellen Informationen von dem Benutzer deutlicher wahrgenommen werden als bei schnell ausgeführten Bewegungen. Während der Ruhephase werden Sensormessdaten des Beschleunigungssensors gemessen und ein gemessener Vektor der Erdbeschleunigung ermittelt. Mit dem
gemessenen Vektor bzw. den gemessenen Sensormessdaten des
Beschleunigungssensors der Erdbeschleunigung kann anschließend ein Fehler der Orientierungsschätzung ermittelt werden. Die Berechnung des Fehlers erfolgt anhand einer Abweichung des gemessenen Vektors der Erdbeschleunigung von dem aus der Orientierungsschätzung resultierenden Vektor der
Erdbeschleunigung.
In der Bewegungsphase hingegen bewegt der Benutzer seinen Kopf und damit auch das tragbare Gerät. Beispielweise kann das tragbare Gerät nach oben oder unten oder zu einer Seite hin gedreht werden. Dabei überlagern aus der
Bewegung resultierende Beschleunigungen die Messung der
Erdbeschleunigung. In der Bewegungsphase kann der Beschleunigungssensor deaktiviert oder die Messungen des Beschleunigungssensors langsamer getaktet werden. Stattdessen kann in der Bewegungsphase die Orientierungsschätzung und eine darauf basierende Darstellung von visuellen Informationen, wie beispielsweise Bildern, um den ermittelten und gespeicherten Korrekturwert korrigiert werden. Die Korrektur der Orientierungsschätzung kann hierbei möglichst langsam erfolgen. Langsam ist dahingehend zu verstehen, dass die Anpassung der auf die Orientierungsschätzung basierenden Darstellung visueller Informationen in kleinen Schritten ohne sprunghafte Veränderung der Darstellung durchgeführt wird, sodass der Benutzer die Korrektur in der Bewegung nicht wahrnehmen kann. Durch das Verfahren werden die Vorteile der jeweiligen Phase ausgenutzt. In der Ruhephase kann die Erdbeschleunigung ohne Störungen durch lineare
Beschleunigung des tragbaren Gerätes, ausgelöst durch die Kopfbewegung des Benutzers, exakt gemessen werden, so dass die Genauigkeit der Messung des
Vektors der Erdbeschleunigung erhöht werden kann. Hierdurch kann auch die Genauigkeit des Korrekturwertes erhöht werden. Verweilt der Kopf des
Benutzers in einer Position darf das Bild sich ebenfalls nicht bewegen, da das menschliche Auge in einer ruhigen Position des Kopfes bereits ein leichtes Wegdrehen oder Zittern des Bildes registrieren kann.
Während der Bewegungsphase kann der Benutzer Anpassungen bzw. ein Verschieben der Darstellung schwerer wahrnehmen. Trotzdem
kann die Anpassung der Orientierung derart zügig erfolgen, dass längere
Verzögerungen der Darstellung bzw. ein„Nachziehen" des Bildes verhindert werden. Verzögerungen der Darstellung können bei dem Benutzer
Schwindelgefühle auslösen. Im Gegensatz zu bekannten Verfahren müssen die Sensormessdaten des Beschleunigungssensors nicht kontinuierlich ermittelt werden, sondern lediglich in der Ruhephase gemessen und ausgewertet werden. Durch die Einteilung der Korrektur der Orientierungsschätzung in eine
Ruhephase und eine Bewegungsphase kann ein tragbares Gerät durch das
Verfahren besonders recheneffizient und energiesparend arbeiten.
Gemäß einem Ausführungsbeispiel des Verfahrens werden eine Kamera, ein Drehratensensor, ein Mikrofon und/oder ein Magnetsensor zum Erfassen von Orientierungsinformationen verwendet. Hierdurch können
Orientierungsinformationen durch eine Vielzahl an möglichen Sensoren ermittelt werden. Insbesondere können auch optische Sensoren, wie beispielsweise Kameras Sensormessdaten erfassen und beispielsweise durch Analyse mehrerer Bilder Informationen über Bewegungen des tragbaren Gerätes und über eine Ausrichtung des tragbaren Gerätes in einem Raum liefern.
Nach einem weiteren Ausführungsbeispiel des Verfahrens erfolgt das Bestimmen von Ruhephasen und Bewegungsphasen auf der Basis der Sensormessdaten des mindestens einen ersten Sensors zum Erfassen von
Orientierungsinformationen und/oder des mindestens einen Beschleunigungssensors. Es kann beispielsweise ein normiertes Signals eines Drehratensensors verwendet werden, um ein Umschalten zwischen der
Ruhephase und der Bewegungsphase zu bewirken. Ist beispielsweise ein Sensormesswert höher als ein bestimmter Schwellwert, kann angenommen werden, dass das tragbare Gerät in Bewegung ist, ansonsten kann von einer
Ruhephase ausgegangen werden. Alternativ oder zusätzlich können Signale des Beschleunigungssensors zur Erkennung verwendet werden. Ist zum Beispiel eine Differenz eines aktuellen Beschleunigungswertes und eines
durchschnittlichen Beschleunigungswertes der beispielsweise letzten 100 Millisekunden größer als ein definierter Schwellwert, kann angenommen werden, dass sich das tragbare Gerät in Bewegung befindet, ansonsten kann von einer Ruhephase des tragbaren Gerätes ausgegangen werden. Es kann auch eine Kombination der beiden oben genannten Bedingungen und Sensoren verwendet werden. Alternativ oder zusätzlich kann die Orientierung aber auch mit einem Kamerasystem bestimmt werden.
Nach einem weiteren Ausführungsbeispiel des Verfahrens wird auf der Basis des in einer Ruhephase ermittelten Fehlers mindestens ein Korrekturwert zur sukzessiven Kompensation dieses Fehlers in der darauffolgenden
Bewegungsphase bestimmt. Während einer Bewegungsphase bzw. einer Bewegung des Kopfes kann die Korrektur der Orientierungsschätzung in Form eines Korrekturwertes sukzessive vorgenommen werden. Der Korrekturwert kann in jedem Zeitschritt die Orientierungsschätzung beeinflussen. Beispielsweise kann der Korrekturwert in Form von Drehwinkeln definiert werden, um welche die geschätzte Orientierung zur Korrektur gedreht werden muss. Das Ziel bei der Wahl des Korrekturwertes ist es, eine weiche Korrektur des vorhandenen
Schätzfehlers der Orientierungsschätzung vorzunehmen, um zu vermeiden, dass ein Nutzer die Korrektur wahrnehmen kann. Der Korrekturwert kann
beispielsweise ein Bruchteil oder ein Faktor eines tatsächlichen Schätzfehlers sein. Die Korrektur der Orientierungsschätzung und damit der Darstellung kann über mehrere Zeitschritte bzw. Aktualisierungsschritte der Darstellung mit Hilfe des Korrekturwertes vorgenommen werden, bis der tatsächliche Schätzfehler vollständig korrigiert wurde. Sofern der Schätzfehler vollständig während einer Bewegungsphase korrigiert wurde, kann der Korrekturwert gleich null gesetzt werden, sodass keine weiteren Korrekturen bis zu einer nächsten Ruhephase vorgenommen werden. Gemäß einem weiteren Ausführungsbeispiel des Verfahrens wird der aktuelle Korrekturwert jeweils an eine Bewegung des tragbaren Geräts angepasst. Damit der Benutzer die Korrektur der Orientierungsschätzung möglichst nicht bemerkt, kann die Korrektur über einen Korrekturwert bewegungsabhängig erfolgen. Die erforderliche Korrektur bzw. der Korrekturwert kann mit der Bewegung des tragbaren Geräts bzw. des Kopfes des Benutzers überlagert werden. Dafür wird die Fehlerkorrektur nicht direkt vollständig durchgeführt sobald sich das tragbare Gerät in Bewegung befindet, sondern in Abhängigkeit von der Stärke der Bewegung des Geräts ausgewählt und in mehreren Schritten durchgeführt.
Beispielsweise kann der Korrekturwert proportional zu Sensormessdaten des Beschleunigungssensors abzüglich der Erdbeschleunigung definiert werden.
Nach einem weiteren Ausführungsbeispiel des Verfahrens wird bei der
Anpassung des Korrekturwerts eine Drehgeschwindigkeit des tragbaren Geräts berücksichtigt. Hierdurch kann der Korrekturwert linear oder quadratisch proportional von den Sensormessdaten des Drehratensensors abhängen und basierend auf einer Drehbewegung des Kopfes des Benutzers eine sukzessive korrigierte Orientierungsschätzung der Darstellung der visuellen Informationen zugrunde gelegt werden.
Gemäß eines weiteren Ausführungsbeispiels des Verfahrens wird der
Beschleunigungssensor in Bewegungsphasen mit einer niedrigeren Abtastrate betrieben als in Ruhephasen. Der Beschleunigungssensor kann hierbei in den Bewegungsphasen hilfsweise zugeschaltet werden. Insbesondere kann durch diese Maßnahme ein Energieverbrauch des tragbaren Gerätes gesenkt werden, da der Beschleunigungssensor nicht durchgehend Sensormessdaten ermitteln und somit nicht durchgehend mit elektrischer Energie versorgt werden muss. Gemäß eines weiteren Ausführungsbeispiels des Verfahrens wird der
Beschleunigungssensor in Bewegungsphasen deaktiviert. Das Auslesen der Sensormessdaten des Beschleunigungssensors und die Berechnung des Fehlers der geschätzten Orientierung müssen nur dann erfolgen, wenn das tragbare Gerät sich in einer Ruhephase befindet. Deshalb kann mit diesem Verfahren eine energieeffiziente Korrektur der Orientierungsschätzung durchgeführt werden. Der Beschleunigungssensor kann vorzugsweise in den Bewegungsphasen ganz ausgeschaltet werden. Dies führt dazu, dass der Beschleunigungssensor nur in der Ruhephase Daten mit einer hohen
Genauigkeit ermitteln kann. Diese gesammelten Daten der Ruhephase werden somit nicht durch mögliche in der Bewegungsphase gesammelte Daten, welche durch die Linearbeschleunigung verfälscht werden können, beeinflusst. Des Weiteren kann die Datenmenge durch das Abschalten des
Beschleunigungssensors in der Bewegungsphase deutlich reduziert werden.
Nach einem weiteren Aspekt der Erfindung wird ein tragbares Gerät zur
Darstellung visueller Informationen in Abhängigkeit von seiner räumlichen Orientierung gemäß dem Verfahren nach dem vorhergehenden Aspekt der Erfindung bereitgestellt. Das tragbare Gerät umfasst mindestens einen ersten Sensor zum Erfassen von Orientierungsinformationen und einen
Beschleunigungssensor.
Das tragbare Gerät kann vorzugsweise auf oder an einem Kopf eines Benutzers angeordnet oder befestigt werden. Abhängig von Bewegungen des Kopfes kann eine Ruhephase oder eine Bewegungsphase des tragbaren Gerätes ermittelt werden. Wrd beispielsweise der Kopf des Benutzers wenig bewegt oder nicht bewegt, so kann anhand der Sensormessdaten des mindestens einen Sensors und/oder des Beschleunigungssensors eine Ruhephase ermittelt werden.
Während der Ruhephase wird anhand der Sensormessdaten des
Beschleunigungssensors ein Fehler des Beschleunigungssensors durch Abgleich mit der tatsächlichen Erdbeschleunigung bestimmt. Dieser Fehler kann während der Ruhephase in einem Speicher abgelegt werden. Wrd beispielsweise eine Bewegungsphase des tragbaren Gerätes erkannt, so kann basierend auf dem gespeicherten Fehler eine korrigierte Orientierungsschätzung berechnet werden, die einer korrigierten Darstellung von visuellen Informationen zugrunde gelegt werden kann. Der Beschleunigungssensor kann beispielsweise während der Bewegungsphase deaktiviert werden oder weniger Sensormessdaten ermitteln. Hierdurch kann das tragbare Gerät energiesparender ausgeführt werden. Des Weiteren entstehen weniger Sensormessdaten, die ausgewertet werden müssen, wodurch eine Rechenleistung des tragbaren Gerätes reduziert werden kann. Im Folgenden werden anhand von stark vereinfachten schematischen
Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
Fig. 1 eine schematische Darstellung eines Verfahrens gemäß einem ersten
Ausführungsbeispiel,
Fig. 2 ein schematisches Ablaufdiagramm des Verfahrens gemäß einem
zweiten Ausführungsbeispiel und
Fig. 3 eine schematische Darstellung eines tragbaren Gerätes zum
Durchführen des Verfahrens gemäß dem ersten Ausführungsbeispiel.
Die Figur 1 zeigt eine schematische Darstellung bzw. ein Blockdiagramm eines Verfahrens 1 gemäß einem ersten Ausführungsbeispiel. Hierbei erfolgt eine Orientierungsschätzung 2 zur Anpassung von Bildern an eine Kopfbewegung eines Benutzers. Die Kopfbewegung des Benutzers wird mit Hilfe von unterschiedlichen Bewegungssensordaten berechnet. Gemäß dem
Ausführungsbeispiel wird ein 3-Achsen-Drehratensensor 6 zur Generierung von Sensormessdaten 8 für die Orientierungsschätzung 2 genutzt. Der
Drehratensensor 6 dient als Hauptinformationsquelle für die
Orientierungsschätzung 2 eines in Figur 3 gezeigten tragbaren Gerätes G zum Durchführen des Verfahrens 1. Wenn eine initiale Lage des tragbaren Gerätes G bekannt ist, lässt sich durch numerisches integrieren der gemessenen Drehraten 10, die ein Bestandteil der Sensormessdaten 8 sind, die Orientierung 2 des tragbaren Gerätes G berechnen. Dies geschieht in kleinen Zeitintervallen, um eine Latenz der geschätzten Orientierung 2 möglichst klein zu halten. Die Sensormessdaten 10 des Drehratensensors 6 sind durch einen Versatz bzw. Offset fehlerbehaftet, so dass bei längerer Benutzung des tragbaren Gerätes G die tatsächliche und die berechnete Orientierung 2 des tragbaren Gerätes G abweichen können. Dieser Versatz bzw. Offset kann ein Grund für einen Fehlerwert 12 sein. Um den Fehlerwert 12 berechnen zu können, werden Sensormessdaten 14 des 3-Achsen-Beschleunigungssensors 4 zur Berechnung des Fehlerwertes 12 verwendet. Der Fehlerwert 12 ergibt sich somit aus einer Abweichung der gemessen Erdbeschleunigung 16 und des aus der berechneten Orientierung 2 extrahierten geschätzten Vektors der Erdbeschleunigung g. Die Sensormessdaten 14 des Beschleunigungssensors 4 werden jedoch durch Linearbeschleunigungen der Kopfbewegungen des Benutzers verfälscht. Des Weiteren werden Korrekturen in der Bilddarstellung des tragbaren Gerätes G in einer Ruhephase 20 vom Benutzer registriert und können unteranderem
Schwindelgefühle bei dem Benutzer auslösen. Daher wird vor einer Messung 16 der Erdbeschleunigung durch den Beschleunigungssensor 4 zuerst eine
Bewegungserkennung 18 durchgeführt. Die Bewegungserkennung 18 kann auch durch den Drehratensensor 6 oder einen anderen Sensor alternativ oder hilfsweise erfolgen. Die Bewegungserkennung 18 kann zwischen einer
Ruhephase 20 und einer Bewegungsphase 22 der Kopfbewegung des Benutzers unterscheiden. Anhand von Messdaten 10 des Drehratensensors 6 und von
Messdaten 14 des Beschleunigungssensors 4 ermittelt die
Bewegungserkennung 18, ob sich das tragbare Gerät G in einer Ruhephase 20 oder einer Bewegungsphase 22 befindet. Wird durch die Bewegungserkennung 18 eine Ruhephase 20 erkannt, wird eine
Messung der Erdbeschleunigung 16 durch den Beschleunigungssensor 4 eingeleitet und der Fehlerwert 12 zur geschätzten Erdbeschleunigung g ermittelt. Aus dem Fehlerwert 12 wird anschließend ein Korrekturwert 24 für eine
Anpassung eines mit dem tragbaren Gerät G übermittelten Bildes im
Fehlerspeicher 26 hinterlegt.
Wrd durch die Bewegungserkennung 18 eine Bewegungsphase 22 erkannt, so wird ein Korrekturfaktor 28 anhand des Korrekturwertes 24 aus dem
Fehlerspeicher 26 ermittelt. Gemäß dem Ausführungsbeispiel wird der
Korrekturfaktor 28 abhängig von einer Stärke der Bewegung des tragbaren
Gerätes G festgelegt. Der Korrekturfaktor 28 wird anschließend mit dem
Korrekturwert 24 multipliziert und das Ergebnis 30 auf die
Orientierungsschätzung 2 des tragbaren Gerätes G angewandt, sodass eine korrigierte Orientierungsschätzung 32 berechnet und damit eine Anpassung 34 von Bildern bzw. der Darstellung visueller Informationen 33 an die
Kopfbewegung des Benutzers in Form einer korrigierten Ausrichtung der Bilder vorgenommen werden kann Nach erfolgter Korrektur 30 wird der im
Fehlerspeicher 26 hinterlegte Korrekturwert 24 um den zur Korrektur 30 angewendeten Korrekturfaktor 28 reduziert. Die Korrektur 30 um den
Korrekturfaktor 28 kann solange wiederholt werden, bis der Korrekturwert 24 im Fehlerspeicher 26 gleich Null ist. Durch die langsame Korrektur 30 der
Orientierungsschätzung 2 und die sukzessive Anpassung 34 der Bilder des tragbaren Gerätes G kann eine weiche Korrektur realisiert werden, die von dem Benutzer während der Bewegungsphase 22 nicht registriert wird.
Fehler bzw. Abweichungen der Orientierungsschätzung von Bewegungen des Kopfes des Benutzers orthogonal zu einer Richtung der Erdbeschleunigung g, dem sogenannten„Heading" H, können durch den Beschleunigungssensor 4 nicht korrigiert werden. Hierzu nutzt das Verfahren 1 einen 3-Achsen
Magnetsensor 36. Der Magnetsensor 36 erfasst den in Figur 3 dargestellten magnetischen Nordpol N der Erde und kann eine Rotationsabweichung 38 bzw. einen Fehler 38 des Gerätes G um das„Heading" H bestimmen. Mit diesem bestimmten Fehler 38 kann wiederum ein Korrekturfaktor 40 für das„Heading" H berechnet werden. Der Korrekturfaktor 40 kann nun zusätzlich für die Korrektur 30 der Orientierungsschätzung 2 verwendet werden. Die Unterteilung in die
Ruhephase 20 und die Bewegungsphase 22 sowie die Verwendung des
Fehlerspeichers 26 ist bei der Verwendung des Magnetsensors 36 für die Bewegungen des tragbaren Gerätes G orthogonal zur Richtung der
Erdbeschleunigung g optional, da die Messungen des Magnetsensors 36 durch die Bewegungen und Beschleunigungen des tragbaren Gerätes G nur geringfügig beeinflusst werden. Um jedoch eine Wahrnehmung der Korrekturen durch den Benutzer zu verhindern, sollte die Korrektur nur in der
Bewegungsphase durchgeführt werden. Die Figur 2 veranschaulicht das Verfahren 1 gemäß eines zweiten
Ausführungsbeispiels mit Hilfe eines schematischen Ablaufdiagramms. Das Verfahren 1 kann iterativ durchgeführt werden. In einem ersten Schritt wird anhand der Sensormessdaten 8, 10, 14 ermittelt, ob das tragbare Gerät G in eine Ruhephase 20 oder eine Bewegungsphase 22 zugeordnet werden kann. Kann anhand von Sensormessdaten 8, 10, 14 eine Ruhephase 20 ermittelt werden, so wird basierend auf der Orientierungsschätzung 2 und der in dieser Ruhephase 20 erfassten Sensormessdaten 8, 10, 14 ein Fehler 12 für die
Orientierungsschätzung 2 ermittelt. Der Fehlerwert 12 wird anschließend zur Verwendung in der nächsten Bewegungsphase 22 im Fehlerspeicher 26 abgelegt. Grundsätzlich kann auf eine Ruhephase 20 eine Bewegungsphase 22 folgen. Während der Ruhephase 20 wird die Orientierungsschätzung 2 nicht verändert oder korrigiert. Vielmehr wird basierend auf der unveränderten Orientierungsschätzung 2 eine Darstellung von visuellen Informationen 33 ausgegeben. Wird hingegen eine Bewegungsphase 22 festgestellt, so erfolgt eine Korrektur 30 der Orientierungsschätzung 2 anhand des während der
Ruhephase 20 ermittelten Fehlerwertes 12. Die Korrektur 30 erfolgt hierbei sukzessive, sodass die Orientierungsschätzung 2 vom Benutzer möglichst unbemerkt durchgeführt werden kann. Dementsprechend wird der im
Fehlerspeicher 26 hinterlegte Korrekturwert 24 entsprechend der bereits durchgeführten Korrektur 30 der Orientierungsschätzung 2 angepasst 27. Der im
Fehlerspeicher 26 gespeicherte Korrekturwert 24 kann beispielsweise um einen Faktor oder einen Wert reduziert werden. Basierend auf der durchgeführten Korrektur 30 der Orientierungsschätzung 2 wird eine korrigierte
Orientierungsschätzung 32 ermittelt. Während der Bewegungsphase 22 wird die korrigierter Orientierungsschätzung 32 für die Darstellung visueller Informationen
33 zugrunde gelegt.
Die korrigierte Orientierungsschätzung kann in einem weiteren Zeitschritt alternativ oder zusätzlich als Basis für die Ermittlung der Orientierungsschätzung 2 mit dem ersten Sensor 6 bzw., gemäß dem Ausführungsbeispiel, dem
Drehratensensor 6 verwendet werden. Die korrigierte Orientierungsschätzung 32 kann beispielsweise als ein Ausgangswert für eine Zeitintegration mit der Drehgeschwindigkeit des Drehratensensors 6 verwendet werden. In der Figur 3 ist eine schematische Darstellung des tragbaren Gerätes G zum
Durchführen des Verfahrens 1 gemäß dem ersten Ausführungsbeispiel dargestellt. Das tragbare Gerät G weist gemäß dem Ausführungsbeispiel eine am Kopf des Benutzers befestigbare Halterung 42 auf. Die Halterung 42 kann über ein elastisches Band 44 an dem Kopf des Benutzers angepasst und befestigt werden. Die Halterung 42 weist ein bildgebendes Gerät 48 auf. Die
Halterung 42 weist eine nicht dargestellte Optik auf und ist mit Elektronik und Sensoren ausgestattet. Die Halterung 42 weist den Beschleunigungssensor 4, den Drehachsensensor 6 und den Magnetsensor 36 auf. Bewegungen des Kopfes des Benutzers orthogonal zu einer Richtung der Erdbeschleunigung g, bzw. um die Drehachse R des tragbaren Gerätes G ist das„Heading" H. Der Magnetsensor 36 kann den magnetischen Nordpol N registrieren und Rotationsabweichungen des tragbaren Gerätes G von dem magnetischen Nordpol N erkennen.

Claims

5 Ansprüche
1. Verfahren (1) zur Darstellung von visuellen Informationen (33) in
Abhängigkeit von einer räumlichen Orientierung eines tragbaren Gerätes (G), wobei das tragbare Gerät (G) zumindest mit einem ersten Sensor (6) zum0 Erfassen von Orientierungsinformationen und mit einem
Beschleunigungssensor (4) ausgestattet ist,
bei dem die räumliche Orientierung des tragbaren Gerätes (G) auf Basis der erfassten Orientierungsinformationen geschätzt (2) wird und bei dem diese Orientierungsschätzung (2) mit Hilfe der vom
5 Beschleunigungssensor (4) erfassten Sensormessdaten (8) korrigiert wird,
dadurch gekennzeichnet,
dass anhand der erfassten Sensormessdaten (8) ermittelt wird, ob sich das tragbare Gerät (G) in einer Ruhephase (20) oder in einer
0 Bewegungsphase (22) befindet,
dass auf der Basis der in einer Ruhephase (20) ermittelten
Orientierungsschätzung und der in dieser Ruhephase (20) erfassten Sensormessdaten (8, 14, 16) des Beschleunigungssensors (4) ein Fehler (12) für die Orientierungsschätzung ermittelt wird,
5 - dass in Ruhephasen (20) der Darstellung der visuellen Informationen (33) eine jeweils aktuelle Orientierungsschätzung unverändert zugrunde gelegt wird,
dass der in einer Ruhephase (20) ermittelte Fehler (12) bei der
Orientierungsschätzung in der darauffolgenden Bewegungsphase (22) o berücksichtigt und sukzessive korrigiert wird und
dass in Bewegungsphasen (22) der Darstellung der visuellen
Informationen (33) eine jeweils aktuelle korrigierte
Orientierungsschätzung zugrunde gelegt wird. Verfahren nach Anspruch 1 , bei dem eine Kamera, ein Drehratensensor (6), ein Mikrofon und/oder ein Magnetsensor zum Erfassen von
Orientierungsinformationen verwendet werden.
Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Bestimmung von Ruhephasen (20) und Bewegungsphasen (22) auf der Basis der Sensormessdaten (8, 10) des mindestens einen ersten Sensors (6) zum Erfassen von Orientierungsinformationen und/oder des mindestens einen Beschleunigungssensors (4) erfolgt.
Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass auf der Basis des in einer Ruhephase (20) ermittelten Fehlers (12) mindestens ein Korrekturwert (24) zur sukzessiven Kompensation dieses Fehlers (12) in der darauffolgenden Bewegungsphase (22) bestimmt wird.
Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der aktuelle Korrekturwert (24) jeweils an die Bewegung des Geräts (G) angepasst wird.
Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass bei der
Anpassung des Korrekturwerts (24) eine Drehgeschwindigkeit des tragbaren Geräts (G) berücksichtigt wird.
Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der Beschleunigungssensor (4) in Bewegungsphasen (22) mit einer niedrigeren Abtastrate betrieben wird als in Ruhephasen (20).
Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der Beschleunigungssensor (4) in Bewegungsphasen (22) deaktiviert wird.
Tragbares Gerät (G) zur Darstellung visueller Informationen in Abhängigkeit von seiner räumlichen Orientierung (2) gemäß einem Verfahren (1) nach einem der vorherigen Ansprüche, mindestens umfassend
- einen ersten Sensor (6) zum Erfassen von Orientierungsinformationen und
- einen Beschleunigungssensor (4).
PCT/EP2018/056499 2017-05-18 2018-03-15 Verfahren zur orientierungsschätzung eines tragbaren gerätes WO2018210466A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019563604A JP6968906B2 (ja) 2017-05-18 2018-03-15 装着機器の方位推定方法
CN201880032728.9A CN110637276B (zh) 2017-05-18 2018-03-15 用于便携式设备的定向估计的方法
US16/604,745 US10955939B2 (en) 2017-05-18 2018-03-15 Method for estimating the orientation of a portable device
KR1020197036912A KR102393016B1 (ko) 2017-05-18 2018-03-15 휴대용 장치의 방위를 추정하기 위한 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017208365.4A DE102017208365A1 (de) 2017-05-18 2017-05-18 Verfahren zur Orientierungsschätzung eines tragbaren Gerätes
DE102017208365.4 2017-05-18

Publications (1)

Publication Number Publication Date
WO2018210466A1 true WO2018210466A1 (de) 2018-11-22

Family

ID=61691487

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/056499 WO2018210466A1 (de) 2017-05-18 2018-03-15 Verfahren zur orientierungsschätzung eines tragbaren gerätes

Country Status (7)

Country Link
US (1) US10955939B2 (de)
JP (1) JP6968906B2 (de)
KR (1) KR102393016B1 (de)
CN (1) CN110637276B (de)
DE (1) DE102017208365A1 (de)
TW (1) TWI766020B (de)
WO (1) WO2018210466A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2845958B2 (ja) * 1989-07-18 1999-01-13 日本放送協会 画像表示装置
JP3314324B2 (ja) * 1995-04-18 2002-08-12 ミノルタ株式会社 映像表示装置
JP2000029617A (ja) * 1998-07-08 2000-01-28 Olympus Optical Co Ltd 映像表示装置
JP2000065576A (ja) * 1998-08-21 2000-03-03 Olympus Optical Co Ltd 映像表示装置
CN1145014C (zh) * 1998-12-17 2004-04-07 Nec东金株式会社 朝向角检测器
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
DE102004057959B4 (de) * 2004-12-01 2010-03-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Vermittlung von Informationen an einen Benutzer
KR101566356B1 (ko) * 2008-05-15 2015-11-05 엘지전자 주식회사 3d 가속도 센서를 구비한 3d 포인팅 디바이스 및 이를이용한 포인터 제어 정보의 생성 방법과, 전자 기기 및전자 기기의 포인터 제어 방법과 전자 기기의 기능 실행방법
JP2010117260A (ja) * 2008-11-13 2010-05-27 Epson Toyocom Corp 姿勢検出装置の補正パラメーター作成方法、姿勢検出装置の補正パラメーター作成用装置及び姿勢検出装置
US8718963B2 (en) * 2010-04-27 2014-05-06 Memsic, Inc. System and method for calibrating a three-axis accelerometer
JP2012141930A (ja) * 2011-01-06 2012-07-26 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
TWM465187U (zh) * 2013-07-08 2013-11-11 Univ Southern Taiwan Sci & Tec 具地理資訊實境模擬功能之頭戴式電子裝置
KR101558388B1 (ko) * 2014-04-14 2015-10-07 현대자동차 주식회사 G센서를 이용한 도로 구배 연산 장치 및 방법
KR20160147735A (ko) * 2014-04-22 2016-12-23 소니 주식회사 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
WO2016033717A1 (zh) * 2014-09-01 2016-03-10 北京诺亦腾科技有限公司 一种组合式运动捕捉系统
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
CN104897158B (zh) * 2015-06-26 2017-07-14 中国科学院上海高等研究院 一种步行者室内双层定位方法及系统
KR101754488B1 (ko) * 2015-10-28 2017-07-06 고려대학교 산학협력단 가속도정보와 회전정보를 이용한 구조물 변위이력 측정방법
JP6514089B2 (ja) * 2015-11-02 2019-05-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
JP6913326B2 (ja) * 2016-05-02 2021-08-04 ウェイヴス オーディオ リミテッド 適応基準を用いた頭部追跡
DE102017100622A1 (de) * 2017-01-13 2018-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zum Korrigieren von Ausrichtungsinformationen von einem oder mehreren Trägheitssensoren

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHANGYU HE ET AL: "A novel drift compensating method for orientation measurement system in VR applications", 2013 IEEE INTERNATIONAL INSTRUMENTATION AND MEASUREMENT TECHNOLOGY CONFERENCE (I2MTC), IEEE, 13 May 2012 (2012-05-13), pages 2482 - 2487, XP032451624, ISSN: 1091-5281, ISBN: 978-1-4673-4621-4, DOI: 10.1109/I2MTC.2012.6229539 *

Also Published As

Publication number Publication date
US20200103985A1 (en) 2020-04-02
JP2020521228A (ja) 2020-07-16
TW201901367A (zh) 2019-01-01
JP6968906B2 (ja) 2021-11-17
DE102017208365A1 (de) 2018-11-22
US10955939B2 (en) 2021-03-23
KR102393016B1 (ko) 2022-05-02
TWI766020B (zh) 2022-06-01
CN110637276B (zh) 2024-04-30
KR20200009040A (ko) 2020-01-29
CN110637276A (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
EP2710794B1 (de) Verfahren zur erzeugung und auswertung eines bilds
EP1817547A1 (de) Verfahren und eine vorrichtung zum navigieren und positionieren eines gegenstands relativ zu einem patienten
WO2015058883A1 (de) Verfahren und vorrichtung zum bestimmen eines drehwinkels eines objekts um eine drehachse
DE102014106904B4 (de) Bilderfassungsvorrichtung sowie Fokussierungsverfahren hierfür
EP3788802B1 (de) Verfahren zum betrieb eines hörgeräts und hörgerät
WO2018162152A2 (de) Bestimmung einer räumlichen ausrichtung
DE102014106837B4 (de) Driftkompensation / Parallelminimierung
WO2019081132A1 (de) System zum nachverfolgen einer position eines zielobjekts
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102019103197B4 (de) Insassenüberwachungsvorrichtung
DE102004018498A1 (de) Betriebsverfahren für eine Röntgenanlage, rechnergestütztes Ermittlungsverfahren für mindestens eine 3D-Rekonstruktion eines Objekts und hiermit korrespondierende Einrichtungen
DE102012216194B4 (de) Verfahren und System zum Bestimmen einer Mess-Zielgrösse
DE102013227099A1 (de) Vorrichtung und Verfahren zum Detektieren eines Hindernisses
DE102014106839A1 (de) Driftkompensation / Einschränkung des Lösungsraums
DE102019116089A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102013004988B4 (de) Elektronische Vorrichtungen mit Bewegungsreaktion und zugehörige Verfahren
WO2018210466A1 (de) Verfahren zur orientierungsschätzung eines tragbaren gerätes
DE102015208771B3 (de) Vorrichtung und Verfahren zur Diebstahlerkennung
DE102006004060A1 (de) Verfahren und Vorrichtung zum Messen der Höhe und/oder des Höhenverlaufs eines Objekts
EP3753242A1 (de) Verfahren zum verfolgen eines objekts in einem optischen suchfenster einer kamera für ein fahrzeug
EP3922526A1 (de) Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels
DE102008058866B4 (de) Vorrichtung und Verfahren zur Lagebestimmung eines Objekts
WO2018130439A1 (de) Augmentiertes darstellen eines objekts durch ein mobiles endgerät in einem fahrzeug
DE102019131640A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102015203968A1 (de) Vorrichtung zum Abgleich und Selbsttest von Inertialsensoren und Verfahren

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18711904

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019563604

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20197036912

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18711904

Country of ref document: EP

Kind code of ref document: A1