WO2007048674A1 - Sytem and method for camera-based tracking - Google Patents

Sytem and method for camera-based tracking Download PDF

Info

Publication number
WO2007048674A1
WO2007048674A1 PCT/EP2006/066754 EP2006066754W WO2007048674A1 WO 2007048674 A1 WO2007048674 A1 WO 2007048674A1 EP 2006066754 W EP2006066754 W EP 2006066754W WO 2007048674 A1 WO2007048674 A1 WO 2007048674A1
Authority
WO
WIPO (PCT)
Prior art keywords
during
phase
real environment
information
image
Prior art date
Application number
PCT/EP2006/066754
Other languages
German (de)
French (fr)
Inventor
Reinhard Koch
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2007048674A1 publication Critical patent/WO2007048674A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • the invention relates to a method and a system for the continuous determination of pose information, which describe a position and an orientation of an image acquisition unit with respect to a real environment, as well as an augmented reality system comprising such a system for the determination of pose information.
  • Augmented reality is a form of human-technology interaction that can be used by humans.
  • B. via a data glasses information fades into his field of view and thus the reality perceived by him erwei ⁇ tert.
  • AR devices can be used in the application domain producing industry, medicine or in the consumer sector.
  • tracking methods are used. These can consist of both hardware and software.
  • the tracking methods serve to determine the position and the angle of view of the user.
  • a positionally accurate extension of the field of view of An ⁇ wenders is possible.
  • optical, inertial, akusti ⁇ specific, magnetic, or other methods are used.
  • the calculations required for the positionally accurate virtual extension of the field of view are performed on a stationary remote server.
  • a position detection system can be embodied, in particular, as an optical tracking system which, by means of computer-aided image processing, determines the position of objects located in the measurement space and / or the position of the camera via the recognition of the objects.
  • the invention is based on the object of specifying an efficient optical tracking method.
  • This object is achieved by a method for the continuous determination of poses information describing a position and an orientation of an image sensing unit with respect to a real environment, - wherein jacketnom- during an initialization phase the Poseninfor ⁇ mation by comparing at least one during the initialization phase of the image capture unit mens image of an object of the real environment with egg ⁇ nem three-dimensional model of the object ⁇ who determined, during a subsequent to the initialization tracking phase tracking the pose information is obtained by evaluating motion information, the movement information changes position of elements of the real environment within during Trackingpha ⁇ se with the image capture unit captured images of the real environment feature and where in the case that the pose information during the tracking phase can not be determined, a Reinitiali- is s mecanicsphase started while the mation the Poseninfor ⁇ by searching known characteristics of the Real environment can be determined in at least one recorded during the reinitialization phase image of the real environment.
  • the object is achieved by a system for the continuous Chen determining poses information train a position and an orientation of an image sensing unit in Be ⁇ describe a real environment
  • the system comprising: the imaging unit, - a memory for a three-dimensional model of a Ob ⁇ jektes the real environment, first means for determining the Posenarea during an initialization phase by comparing at least egg ⁇ nes during the initialization phase with the Jardinfas- sung unit recorded image of the object with the three-dimensional model, second means for determining the Posen43 by evaluating motion information during a tracking phase subsequent to the initialization phase, wherein the movement information changes position of elements of the real environment within during the tracing ckingphase with the image capture unit from received ⁇ images of the real environment feature, and third means for determining the pose information during a reset phase for the case that the pose information during the Tracking Phase is not ermit ⁇ can be telt, wherein the third means such ges ⁇ are taltet, that the information poses during the
  • the invention is based on the finding that an effi cient ⁇ tracking is ensured when applied in various phases of different methodologies for determining the position and orientation of the image capturing unit with respect to the real environment.
  • the SEN ⁇ initialization is first performed by ⁇ .
  • the pose is first determined that the Bil ⁇ der conductedsaku defines the position and orientation in relation to the real environment.
  • a three dimensional model of an object is attracted ⁇ forth, with the associated real object in Erfas ⁇ is sungs Kunststoff the image capture unit.
  • the image of the object taken with the image acquisition unit is compared with the three-dimensional model of the object. Based on this comparison, an initial pose for the image acquisition unit can be determined. For example, in the comparison, the outlines of the 3D model are compared with outlines of the object detected within the image. If these can be brought into coincidence, the pose of the image acquisition unit can also be determined.
  • the method used to determine poses in the initialization phase is relatively computationally intensive.
  • the image capture unit is continuously moved with respect to the elements of the real environment, so the pose changes accordingly. Therefore, it is desirable to reduce the amount of computation required during the initialization phase.
  • the motion information only describe ons skilled urge positive, which are traversed by the elements of the real environment within the during the tracking phase with the image capture unit ⁇ captured images. For this purpose, for example, striking points of the real environment in ⁇ within the images are tracked. The positional change that experi these elements within two successive recordings in particular by movement of the imaging unit ren ⁇ be determined.
  • a change in the pose with respect to all six degrees of freedom can be determined. If, for example, at least five elements or five points of the real environment are observed in this way, the two-dimensional change of these points between two images taken by the image acquisition unit can be used to infer the change of the pose in three-dimensional space, which was ⁇ through images during recording of these two Ab.
  • This determination of the pose based on the movement information carried out during the tracking phase is far less computationally intensive than the previously described pose determination based on a comparison of an image with a three-dimensional image. len object model. Therefore, a higher dynamic is achieved during the tracking phase.
  • the movement information for determining the pose can no longer be used. This is the case, for example, when the image acquisition unit undergoes a very large change in position or orientation within a very short time interval.
  • the tracking phase can not be continued without further ado.
  • a reinitialization phase is initiated in which a new starting pose is determined.
  • An embodiment of the invention is particularly advantageous in which the features of the real environment sought during the reinitialization phase are determined during the initialization phase and / or tracking phase. In this way, the features are automatically generated by the system, and do not have to be previously provided by other means. With the aid of the image acquisition unit, the system can thus “learn” during the initialization and tracking phase which features of the real environment correlate with which poses.
  • an edge detection algorithm is used to determine the Posenin ⁇ formations during the initialization phase. This attempts edges of the three-dimensional po- dells approximately phase with edges within the captured by the image capture unit image of the object during the initialization ⁇ to bring in cover, to thereby return ⁇ connections to draw on the pose of the image capture unit.
  • a SIFT algorithm is used to determine the Poseninformatio ⁇ NEN during Reinitialmaschinesphase.
  • Such a SIFT algorithm makes the determination of the pose information by searching the known features of the real environment in the image of the real environment taken during the reinitialization phase.
  • the advantage of using such an algorithm in the reinitialization phase is that the image acquisition unit does not necessarily have to be moved to a suitable initial position in order to be able to determine the position or orientation of the image acquisition unit.
  • the SIFT algorithm is similar to the edge tracking relatively computationally intensive, but has the distinct advantage that this information is not certain pose of Bilderkennungsein ⁇ ness is required when recording the image. For example, if the image capturing unit moved by a user for a short time from the modeled area and subsequently pivoted back into the field, the pose, the image acquisition unit are determined from the erkann ⁇ th features directly. When such a method is used, for example, for augmented reality applications, a user of the system will hardly notice the intermittent tracking loss which occurs when he moves his head and thus the head-mounted image capture unit out of the modeled environment.
  • augmented reality information is displayed with exact position in a field of view of the user on the basis of the pose information.
  • a user wears a pair of data glasses and a camera attached to the user's head, which serves as an image capture unit.
  • the position and orien- tation of the camera relative to the real environment ermit ⁇ is telt, can access the viewing angle of the user adorge ⁇ closed are and thus the position-accurate integration of augmented reality take place information in the field of view to ⁇ wenders.
  • An embodiment of the invention is therefore particularly advantageous in which an augmented reality system has a system with means for carrying out method steps according to one of the abovementioned embodiments of the invention.
  • FIG. 1 shows a schematic representation of a method for the continuous determination of pose information
  • FIG. 1 shows a schematic representation of a method for the continuous determination of pose information, which describe a position and an orientation of an image acquisition unit with respect to a real environment.
  • a method for the continuous determination of pose information which describe a position and an orientation of an image acquisition unit with respect to a real environment.
  • Such a method is used in applications, for example, Augmented Reality An ⁇ to the position and the angle of egg nes user with respect to a consideration of his real environment to determine.
  • Augmented Reality An ⁇ to the position and the angle of egg nes user with respect to a consideration of his real environment to determine.
  • Such a Posenbe ⁇ mood is required for the positionally accurate insertion of additional information in the field of view of the user, which is performed in augmented reality applications, eg for user guidance purposes.
  • an initialization phase 1 the position and orientation of the imaging unit are initially with ⁇ stuffs the image recognition determined. An attempt is made to match outlines of the real environment with outlines or edges of a model of the object. Are edges within an image from ⁇ again recognized the real environment in three-dimensional model of the object, the image capture unit can thus be concluded that the pose.
  • a tracking phase 2 is started, in which only movements of individual elements within images taken during the tracking phase are used to determine poses.
  • constricting image can be determined to what extent the elements of the real environment have moved within the consecutive images during the tracking phase in a nachfol ⁇ .
  • Corresponding motion information is generated for the observed elements, which can be used to determine a change in pose made between the two images of the real environment.
  • This type of determination poses is much less computationally intensive than the previously described s istsphase poses determination during Initiali ⁇ . Because of this, a frame rate in the range of twenty frames per second can be achieved.
  • movements of individual image elements within successive images of the real environment are used in order to determine from these the change in the pose of the image acquisition unit which is usually the cause of this.
  • elements for example, certain pixels of the image acquisition unit are selected with certain properties whose movements within the images are tracked from image to image.
  • the procedural described continues reindeer. If, however, for example by rapid head ⁇ the user turn the imaging unit completely out of the modeled environment field moves and then into moving back into the surrounding area, then a Posen determining how it is performed in the tracking phase, not be continued without difficulty. It is a re- initialization phase 3 is necessary as soon as the image capture unit ⁇ back to the modeled environment area overall is pivoted. During the reset phase 3 is true ei ⁇ ne new Trustpose as the basis for tracking phase 2 be ⁇ .
  • the image capture ⁇ is in the detection range unit in accordance with known characteristics sought.
  • FIG. 2 shows a determination poses during the initialization phase ⁇ approximately.
  • a drive controller 4 by the three-dimensional model described in a memory of a system for continu- ous provision of poses information train a position and an orientation of an image sensing unit in Be ⁇ a real environment, is present. From the three-dimensional model of the drive control characteristic outlines 5 are extracted. Furthermore, one or more images of the drive control 4 are taken with a camera embodied as CCD image sensing unit of the system up ⁇ . In order to determine the pose, an attempt is made to recognize the contours 5 in an image of the real environment or of the real drive control 4.
  • FIG. 3 shows a determination of poses during the reinitialization phase.
  • Such re-initialization is example ⁇ as necessary if the pose of the image capture unit has greatly changed during the tracking phase between two consecutive images of the real environment.
  • a pose determination based on the motion information u. U. no longer possible and it must be determined a new starting position for the tracking phase.
  • a reinitialization phase is generally necessary even if the detection area of the image acquisition unit is completely moved out of the area of the real environment, which is present as a model in a memory of a corresponding system for determining the pose.
  • Image acquisition unit which is executed in this example as a CMOS camera, features of an object of the real environment, which is here to act in the well-known from FIG 2 Antriebssteue ⁇ tion 4 sought. These features are determined using a well-known from the prior art SIFT algorithm in the images of the drive control 4. From the recognized features finally the pose is determined.
  • the characteristic features that are used to determine poses are stored in a grid 6 of the three-dimensional object model. This can be closed when finding these features on their position within the object model and finally the pose can be determined.
  • the characteristics can be stored for the continuous determination of poses information in a memory of a geeig ⁇ Neten system in advance.
  • the features can also be "collected” during operation of the system, ie during the initialization and tracking phase.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a system and method for continuous determination of pose information which describes a position and orientation of an image recording unit with respect to a real environment. In order to allow efficient optical tracking, it is proposed that, during an initialization phase, the pose information be determined by comparison of the at least one image, recorded during the initialization phase using the image recording unit of an object in the real environment with a three-dimensional model of the object, with the pose information being obtained by evaluation of movement information during a tracking phase which follows the initialization phase, with the movement information characterizing position changes of elements of the real environment within images of the real environment recorded using the image recording unit during the tracking phase, and that, in the situation in which the pose information cannot be determined during the tracking phase, a reinitialization phase is started, during which the pose information is determined by searching for known features in the real environment in at least one image, recorded during the reinitializaiton phase, of the real environment.

Description

Beschreibungdescription
System und Verfahren für ein kamerabasiertes TrackingSystem and method for camera-based tracking
Die Erfindung betrifft ein Verfahren und ein System zur kontinuierlichen Bestimmung von Poseninformationen, die eine Position und eine Orientierung einer Bilderfassungseinheit in Bezug auf eine reale Umgebung beschreiben, sowie ein Augmen- ted Reality System aufweisend ein derartiges System zur Be- Stimmung von Poseninformationen.The invention relates to a method and a system for the continuous determination of pose information, which describe a position and an orientation of an image acquisition unit with respect to a real environment, as well as an augmented reality system comprising such a system for the determination of pose information.
Eine derartiges System bzw. ein derartiges Verfahren kommen beispielsweise bei Augmented Reality (AR) Anwendungen zum Einsatz. Augmented Reality, erweiterte Realität, ist eine Form der Mensch-Technik-Interaktion, die dem Menschen z. B. über eine Datenbrille Informationen in sein Sichtfeld einblendet und damit die von ihm wahrgenommene Realität erwei¬ tert. Dieses geschieht kontextabhängig, d. h. passend zum und abgeleitet vom betrachteten Objekt, z. B. einem Bauteil, ei- nem Werkzeug, einer Maschine oder zu seinem Standort. Bei¬ spiel hierfür kann ein Sicherheitshinweis während eines Mon- tage-/Demontageprozesses sein.Such a system or such a method are used, for example, in augmented reality (AR) applications. Augmented reality, augmented reality, is a form of human-technology interaction that can be used by humans. B. via a data glasses information fades into his field of view and thus the reality perceived by him erwei ¬ tert. This happens context-dependent, ie matching to and derived from the object under consideration, eg. As a component, a tool, a machine or to its location. In ¬ game this can be a safety notice during a assembly / disassembly process.
AR-Geräte können in den Anwendungsdomänen produzierende In- dustrie, Medizin oder im Konsumerbereich eingesetzt werden.AR devices can be used in the application domain producing industry, medicine or in the consumer sector.
In der produzierenden Industrie können Anwendungen von einfachen Bedien- und Beobachtungsprozessen bis hin zu komplexen Servicetätigkeiten unterstützt werden. Bei Operationen, Untersuchungen und Behandlungen im medizinischen Umfeld dienen solche Verfahren und Geräte einem Anwender zur Verbesserung der Arbeitsqualität. Im Konsumerbereich können Anwendungen wie z.B. Navigation von Personen, Informationsbreitstellung etc. realisiert werden.In the manufacturing industry, applications ranging from simple operator control and observation processes to complex service activities can be supported. In operations, examinations and treatments in the medical environment, such methods and devices serve a user to improve the quality of work. In the consumer sector, applications such as Navigation of persons, Informationsbreitstellung etc. be realized.
Für die Informationsbereitstellung werden in der Regel am Körper getragene Geräte benötigt. Über eine Empfangs- und Sendeeinrichtung wird die Kopplung zu Unternehmensdaten- quellen realisiert. Für die Visualisierung der Informationen wird häufig ein am Kopf getragenes halbdurchlässiges Display verwendet, wodurch dem Anwender eine gleichzeitige Betrach¬ tung der Informationen und seiner realen Umgebung ermöglicht wird.For the provision of information usually worn on the body devices are needed. Via a receiving and transmitting device, the coupling to company data realized. A head-worn semi-transparent display is frequently used for visualization of the information, which the user simultaneous Betrach ¬ of the information and its real environment processing is made possible.
Um diese virtuelle Erweiterung des Blickfeldes des Anwenders positionsgenau zu erreichen, werden Trackingverfahren eingesetzt. Diese können sowohl aus Hard- als auch Software beste- hen. Die Trackingverfahren dienen der Bestimmung der Position und des Blickwinkels des Anwenders. Mit diesen Informationen ist eine positionsgenaue Erweiterung des Sichtfeldes des An¬ wenders möglich. Dabei kommen optische, inertiale, akusti¬ sche, magnetische oder weitere Verfahren zum Einsatz. Häufig werden die für die positionsgenaue virtuelle Erweiterung des Blickfeldes erforderlichen Berechnungen auf einem stationären Remote-Server durchgeführt.In order to achieve this virtual extension of the field of view of the user with exact position, tracking methods are used. These can consist of both hardware and software. The tracking methods serve to determine the position and the angle of view of the user. With this information, a positionally accurate extension of the field of view of An ¬ wenders is possible. In this case, optical, inertial, akusti ¬ specific, magnetic, or other methods are used. Frequently, the calculations required for the positionally accurate virtual extension of the field of view are performed on a stationary remote server.
Beispielsweise aus DE 10 2004 061 841 Al sind optische Posi- tionserfassungssysteme bekannt, die die Position und/oder O- rientierung von Objekten in einem Vermessungsraum bestimmen. Ein Positionserfassungssystem kann insbesondere als optisches Trackingsystem ausgeführt sein, welches durch Verfahren der computergestützten Bildverarbeitung die Position von im Ver- messungsraum befindlichen Objekten und/oder die Position der Kamera über die Erkennung der Objekte bestimmen.For example, DE 10 2004 061 841 A1 discloses optical position detection systems which determine the position and / or orientation of objects in a measurement space. A position detection system can be embodied, in particular, as an optical tracking system which, by means of computer-aided image processing, determines the position of objects located in the measurement space and / or the position of the camera via the recognition of the objects.
Der Erfindung liegt die Aufgabe zu Grunde, ein effizientes optisches Trackingverfahren anzugeben.The invention is based on the object of specifying an efficient optical tracking method.
Diese Aufgabe wird durch ein Verfahren zur kontinuierlichen Bestimmung von Poseninformationen gelöst, die eine Position und eine Orientierung einer Bilderfassungseinheit in Bezug auf eine reale Umgebung beschreiben, - wobei während einer Initialisierungsphase die Poseninfor¬ mationen durch Vergleich zumindest eines während der Initialisierungsphase mit der Bilderfassungseinheit aufgenom- menen Abbildes eines Objektes der realen Umgebung mit ei¬ nem dreidimensionalen Modell des Objektes ermittelt wer¬ den, wobei während einer an die Initialisierungsphase anschlie- ßenden Trackingphase die Poseninformationen durch Auswerten von Bewegungsinformationen gewonnen werden, wobei die Bewegungsinformationen Positionsänderungen von Elementen der realen Umgebung innerhalb von während der Trackingpha¬ se mit der Bilderfassungseinheit aufgenommenen Abbildern der realen Umgebung kennzeichnen und wobei für den Fall, dass die Poseninformationen während der Trackingphase nicht ermittelt werden können, eine Reinitiali- sierungsphase gestartet wird, während der die Poseninfor¬ mationen durch Suchen von bekannten Merkmalen der realen Umgebung in zumindest einem während der Reinitialisie- rungsphase aufgenommenen Abbild der realen Umgebung ermittelt werden.This object is achieved by a method for the continuous determination of poses information describing a position and an orientation of an image sensing unit with respect to a real environment, - wherein aufgenom- during an initialization phase the Poseninfor ¬ mation by comparing at least one during the initialization phase of the image capture unit mens image of an object of the real environment with egg ¬ nem three-dimensional model of the object ¬ who determined, during a subsequent to the initialization tracking phase tracking the pose information is obtained by evaluating motion information, the movement information changes position of elements of the real environment within during Trackingpha ¬ se with the image capture unit captured images of the real environment feature and where in the case that the pose information during the tracking phase can not be determined, a Reinitiali- is sierungsphase started while the mation the Poseninfor ¬ by searching known characteristics of the Real environment can be determined in at least one recorded during the reinitialization phase image of the real environment.
Weiterhin wird die Aufgabe durch ein System zur kontinuierli- chen Bestimmung von Poseninformationen gelöst, die eine Position und eine Orientierung einer Bilderfassungseinheit in Be¬ zug auf eine reale Umgebung beschreiben, wobei das System aufweist : die Bilderfassungseinheit, - einen Speicher für ein dreidimensionales Modell eines Ob¬ jektes der realen Umgebung, erste Mittel zur Ermittlung der Poseninformationen während einer Initialisierungsphase durch Vergleich zumindest ei¬ nes während der Initialisierungsphase mit der Bilderfas- sungseinheit aufgenommenen Abbildes des Objektes mit dem dreidimensionalen Modell, zweite Mittel zur Ermittlung der Poseninformationen durch Auswerten von Bewegungsinformationen während einer an die Initialisierungsphase anschließenden Trackingphase, wobei die Bewegungsinformationen Positionsänderungen von Elementen der realen Umgebung innerhalb von während der Tra- ckingphase mit der Bilderfassungseinheit aufgenommenen Ab¬ bildern der realen Umgebung kennzeichnen, und dritte Mittel zur Ermittlung der Poseninformationen während einer Reinitialisierungsphase für den Fall, dass die Poseninformationen während der Trackingphase nicht ermit¬ telt werden können, wobei die dritten Mittel derart ges¬ taltet sind, dass die Poseninformationen während der Re¬ initialisierungsphase durch Suchen von bekannten Merkmalen der realen Umgebung in zumindest einem während der Reini- tialisierungsphase aufgenommenen Abbild der realen Umge¬ bung ermittelt werden.Furthermore, the object is achieved by a system for the continuous Chen determining poses information train a position and an orientation of an image sensing unit in Be ¬ describe a real environment, the system comprising: the imaging unit, - a memory for a three-dimensional model of a Ob ¬ jektes the real environment, first means for determining the Poseninformationen during an initialization phase by comparing at least egg ¬ nes during the initialization phase with the Bildfas- sung unit recorded image of the object with the three-dimensional model, second means for determining the Poseninformationen by evaluating motion information during a tracking phase subsequent to the initialization phase, wherein the movement information changes position of elements of the real environment within during the tracing ckingphase with the image capture unit from received ¬ images of the real environment feature, and third means for determining the pose information during a reset phase for the case that the pose information during the Tracking Phase is not ermit ¬ can be telt, wherein the third means such ges ¬ are taltet, that the information poses during the re initialization ¬ at least one tialisierungsphase during cleaning the captured image of the real environment Conversely ¬ be determined by searching for known characteristics of the real environment in.
Der Erfindung liegt die Erkenntnis zugrunde, dass ein effi¬ zientes Tracking gewährleistet wird, wenn in verschiedenen Phasen verschiedene Methodiken zur Bestimmung der Position und der Orientierung der Bilderfassungseinheit in Bezug auf die reale Umgebung angewendet werden. Bei dem erfindungsgemä¬ ßen Verfahren wird zunächst die Initialisierungsphase durch¬ geführt. Während der Initialisierungsphase wird erstmals die Pose bestimmt, die die Position und die Orientierung der Bil¬ derfassungseinheit in Bezug auf die reale Umgebung definiert. Hierzu wird ein dreidimensionales Modell eines Objektes her¬ angezogen, wobei sich das zugehörige reale Objekt im Erfas¬ sungsbereich der Bilderfassungseinheit befindet. Das mit der Bilderfassungseinheit aufgenommene Abbild des Objektes wird mit dem dreidimensionalen Modell des Objektes verglichen. Anhand dieses Vergleiches kann eine Anfangspose für die Bilder¬ fassungseinheit ermittelt werden. Bei dem Vergleich werden beispielsweise die Umrisse des 3D-Modells mit innerhalb des Abbildes erkannten Umrissen des Objektes verglichen. Können diese in Deckung miteinander gebracht werden, kann auch die Pose der Bilderfassungseinheit bestimmt werden.The invention is based on the finding that an effi cient ¬ tracking is ensured when applied in various phases of different methodologies for determining the position and orientation of the image capturing unit with respect to the real environment. In the inventive method, the SEN ¬ initialization is first performed by ¬. During the initialization phase the pose is first determined that the Bil ¬ derfassungseinheit defines the position and orientation in relation to the real environment. For this purpose, a three dimensional model of an object is attracted ¬ forth, with the associated real object in Erfas ¬ is sungsbereich the image capture unit. The image of the object taken with the image acquisition unit is compared with the three-dimensional model of the object. Based on this comparison, an initial pose for the image acquisition unit can be determined. For example, in the comparison, the outlines of the 3D model are compared with outlines of the object detected within the image. If these can be brought into coincidence, the pose of the image acquisition unit can also be determined.
Die oben genannte Posenbestimmung durch Vergleich mindestens eines Abbildes des Objektes mit einem dreidimensionalen Mo¬ dell des Objektes ist sehr robust. Auch bei einer teilweisen Verdeckung des realen Objektes funktioniert das Verfahren im Allgemeinen noch sehr zuverlässig.The poses determination above by comparing at least a very robust image of the object with a three dimensional Mo ¬ dell of the object. Even with a partial Covering the real object, the process generally works very reliable.
Jedoch ist das in der Initialisierungsphase angewandte Ver- fahren zur Posenbestimmung relativ rechenintensiv. In vielen Anwendungen wie beispielsweise Augmented Reality wird die Bilderfassungseinheit in Bezug auf die Elemente der realen Umgebung kontinuierlich bewegt, so dass sich die Pose entsprechend kontinuierlich ändert. Daher ist es wünschenswert, den hohen während der Initialisierungsphase erforderlichen Rechenaufwand zu reduzieren. Dies geschieht erfindungsgemäß während der Trackingphase dadurch, dass die Poseninformatio¬ nen durch Auswerten der Bewegungsinformationen ermittelt werden. Die Bewegungsinformationen beschreiben lediglich Positi- onsänderungen, die von den Elementen der realen Umgebung innerhalb der während der Trackingphase mit der Bilderfassungs¬ einheit aufgenommenen Abbilder durchlaufen werden. Hierzu werden beispielsweise markante Punkte der realen Umgebung in¬ nerhalb der Abbilder getrackt. Die Positionsänderungen, die diese Elemente innerhalb zwei aufeinander folgender Aufnahmen insbesondere durch Bewegung der Bilderfassungseinheit erfah¬ ren, werden bestimmt. Aus diesen naturgemäß 2-dimensionalen Positionsänderungen kann schließlich eine Veränderung der Pose bezüglich aller sechs Freiheitsgrade bestimmt werden. Wer- den z.B. mindestens fünf Elemente bzw. fünf Punkte der realen Umgebung auf diese Art und Weise beobachtet, so kann die zweidimensionale Änderung dieser Punkte zwischen zwei von der Bilderfassungseinheit aufgenommenen Abbildern herangezogen werden, um auf die Veränderung der Pose im dreidimensionalen Raum zu schließen, die während der Aufnahme dieser zwei Ab¬ bilder durchlaufen wurde.However, the method used to determine poses in the initialization phase is relatively computationally intensive. In many applications, such as augmented reality, the image capture unit is continuously moved with respect to the elements of the real environment, so the pose changes accordingly. Therefore, it is desirable to reduce the amount of computation required during the initialization phase. This happens according to the invention during the tracking phase in that the Poseninformatio ¬ NEN are determined by evaluating the movement information. The motion information only describe onsänderungen positive, which are traversed by the elements of the real environment within the during the tracking phase with the image capture unit ¬ captured images. For this purpose, for example, striking points of the real environment in ¬ within the images are tracked. The positional change that experi these elements within two successive recordings in particular by movement of the imaging unit ren ¬ be determined. From these naturally 2-dimensional position changes, finally, a change in the pose with respect to all six degrees of freedom can be determined. If, for example, at least five elements or five points of the real environment are observed in this way, the two-dimensional change of these points between two images taken by the image acquisition unit can be used to infer the change of the pose in three-dimensional space, which was ¬ through images during recording of these two Ab.
Diese während der Trackingphase durchgeführte Posenbestimmung anhand der Bewegungsinformationen ist weit weniger rechenin- tensiv als die zuvor beschriebene Posenbestimmung basierend auf einem Vergleich eines Abbildes mit einem dreidimensiona- len Objektmodell. Daher wird während der Trackingphase eine höhere Dynamik erreicht.This determination of the pose based on the movement information carried out during the tracking phase is far less computationally intensive than the previously described pose determination based on a comparison of an image with a three-dimensional image. len object model. Therefore, a higher dynamic is achieved during the tracking phase.
Während der sehr schnell durchführbaren Posenbestimmung in- nerhalb der Trackingphase kann jedoch der Fall eintreten, dass die Bewegungsinformationen zur Bestimmung der Pose nicht mehr herangezogen werden können. Dies ist beispielsweise dann der Fall, wenn die Bilderfassungseinheit innerhalb eines sehr kurzen Zeitintervalls eine sehr große Positions- bzw. Orien- tierungsänderung erfährt. Insbesondere dann, wenn die Bilderfassungseinheit zwischenzeitlich komplett aus dem modellierten Bereich der realen Umgebung herausbewegt wird, kann die Trackingphase nicht ohne weiteres fortgesetzt werden. In sol¬ chen Fällen wird eine Reinitialisierungsphase eingeläutet, in der eine neue Ausgangspose bestimmt wird. Bei dieser Reiniti¬ alisierungsphase werden bekannte Merkmale der realen Umgebung innerhalb des Erfassungsbereichs der Kamera gesucht, um mit deren Mitteln Rückschlüsse auf die Position und die Orientie¬ rung der Bilderfassungseinheit in Bezug auf die reale Umge- bung ziehen zu können und somit die benötigten Poseninforma¬ tionen zu ermitteln. Sobald diese Merkmale gefunden wurden und die entsprechenden Poseninformationen generiert wurden, kann wieder auf die sehr schnelle Trackingphase umgeschaltet werden .However, during the very rapid determination of poses within the tracking phase, it may happen that the movement information for determining the pose can no longer be used. This is the case, for example, when the image acquisition unit undergoes a very large change in position or orientation within a very short time interval. In particular, when the image capture unit is moved completely out of the modeled area of the real environment in the meantime, the tracking phase can not be continued without further ado. In such cases, a reinitialization phase is initiated in which a new starting pose is determined. In this Reiniti ¬ alisierungsphase known features of the real environment are sought within the detection range of the camera to be able with the means to draw conclusions about the position and Orientie ¬ tion of the imaging unit with respect to the real environment draw and thus the required poses Informa ¬ to determine the Once these features are found and the corresponding pose information has been generated, you can switch back to the very fast tracking phase.
Besonders vorteilhaft ist eine Ausführungsform der Erfindung, bei der die während der Reinitialisierungsphase gesuchten Merkmale der realen Umgebung während der Initialisierungspha¬ se und/oder Trackingphase bestimmt werden. Auf diese Art und Weise werden die Merkmale automatisch von dem System generiert, und müssen nicht auf anderem Wege zuvor zur Verfügung gestellt werden. Mit Hilfe der Bilderfassungseinheit kann das System also während der Initialisierungs- und Trackingphase „lernen", welche Merkmale der realen Umgebung mit welchen Po- sen korrelieren. In weiterer vorteilhafter Ausgestaltung der Erfindung wird ein Kantenerkennungsalgorithmus zur Ermittlung der Posenin¬ formationen während der Initialisierungsphase verwendet. Hierbei wird versucht, Kanten des dreidimensionalen Objektmo- dells mit Kanten innerhalb des von der Bilderfassungseinheit aufgenommenen Abbildes des Objektes während der Initialisie¬ rungsphase in Deckung zu bringen, um auf diese Weise Rück¬ schlüsse auf die Pose der Bilderfassungseinheit ziehen zu können. Voraussetzung hierzu ist, dass die Bilderfassungsein- heit bereits grob eine Pose erreicht hat, in der eine annä¬ hernde Übereinstimmung der Kanten des dreidimensionalen Modells mit den von der Bilderfassungseinheit aufgenommenen Kanten vorhanden ist. Es ist hierzu also notwendig, die Bil¬ derfassungseinheit in eine hierfür geeignete Initialisie- rungsposition zu bewegen.An embodiment of the invention is particularly advantageous in which the features of the real environment sought during the reinitialization phase are determined during the initialization phase and / or tracking phase. In this way, the features are automatically generated by the system, and do not have to be previously provided by other means. With the aid of the image acquisition unit, the system can thus "learn" during the initialization and tracking phase which features of the real environment correlate with which poses. In a further advantageous embodiment of the invention, an edge detection algorithm is used to determine the Posenin ¬ formations during the initialization phase. This attempts edges of the three-dimensional Objektmo- dells approximately phase with edges within the captured by the image capture unit image of the object during the initialization ¬ to bring in cover, to thereby return ¬ connections to draw on the pose of the image capture unit. A prerequisite for this purpose that the imaging unit already roughly a pose has reached in which a Annae ¬ hernde correspondence of the edges of the three-dimensional model with the images taken by the image acquisition unit edge is present. It is therefore necessary for this purpose, the Bil ¬ derfassungseinheit currency position in one suitable for this initialization to move.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung wird ein SIFT-Algorithmus zur Ermittlung der Poseninformatio¬ nen während der Reinitialisierungsphase verwendet. Ein derar- tiger SIFT-Algorithmus leistet die Bestimmung der Poseninformationen durch Suchen der bekannten Merkmale der realen Umgebung in dem während der Reinitialisierungsphase aufgenommenen Abbild der realen Umgebung. Vorteil an der Verwendung eines derartigen Algorithmus in der Reinitialisierungsphase ist, dass hierfür die Bilderfassungseinheit nicht zwangsläufig in eine geeignete initiale Position gefahren werden muss, um die Position bzw. Orientierung der Bilderfassungseinheit bestimmen zu können. Dies ist in der Regel bei der Initialisie¬ rungsphase der Fall, da eine Posenbestimmung auf Basis eines Vergleiches des dreidimensionalen Objektmodells mit dessen zweidimensionalen Abbild erfordert, dass die Bilderfassungs¬ einheit eine Pose bei der Aufnahme des Abbildes hat, die ei¬ nen solchen Vergleich auch ermöglicht. Während der Reinitia¬ lisierungsphase wird lediglich versucht, Merkmale, die bei- spielsweise schon in der Initialisierungs- oder Trackingspha- se ermittelt wurden, innerhalb der während der Reinitialisie- rungsphase aufgenommenen Abbilder der realen Umgebung wieder zu finden.In a further advantageous embodiment of the invention, a SIFT algorithm is used to determine the Poseninformatio ¬ NEN during Reinitialisierungsphase. Such a SIFT algorithm makes the determination of the pose information by searching the known features of the real environment in the image of the real environment taken during the reinitialization phase. The advantage of using such an algorithm in the reinitialization phase is that the image acquisition unit does not necessarily have to be moved to a suitable initial position in order to be able to determine the position or orientation of the image acquisition unit. This is usually in the initialization ¬ approximate phase of the case as a Posen determination based on a comparison of the three-dimensional object model with the two-dimensional image requires that the image capture ¬ unit a pose during the recording of the image has the ei ¬ nen such a comparison, allows. During the Reinitia ¬ lisierungsphase is simply trying to features that were examples play as early as the initialization or Trackingspha- se determined, within the during the re-initialisation tion phase of the real environment.
Auch der SIFT-Algorithmus ist ähnlich wie das Kantentracking relativ rechenintensiv, hat jedoch den entscheidenden Vorteil, dass hierzu keine bestimmte Pose der Bilderkennungsein¬ heit bei der Aufnahme des Abbildes erforderlich ist. Wird beispielsweise die Bilderfassungseinheit von einem Anwender kurzzeitig aus dem modellierten Bereich herausbewegt und an- schließend wieder in den Bereich hineingeschwenkt, so kann direkt die Pose der Bilderfassungseinheit anhand der erkann¬ ten Merkmale bestimmt werden. Wird ein derartiges Verfahren beispielsweise für Augmented Reality Anwendungen eingesetzt, so wird ein Anwender des Systems den zwischenzeitlichen Tra- ckingverlust , der eintritt, wenn er seinen Kopf und damit die am Kopf befestigte Bilderfassungseinheit aus der modellierten Umgebung bewegt, kaum merken.Also, the SIFT algorithm is similar to the edge tracking relatively computationally intensive, but has the distinct advantage that this information is not certain pose of Bilderkennungsein ¬ ness is required when recording the image. For example, if the image capturing unit moved by a user for a short time from the modeled area and subsequently pivoted back into the field, the pose, the image acquisition unit are determined from the erkann ¬ th features directly. When such a method is used, for example, for augmented reality applications, a user of the system will hardly notice the intermittent tracking loss which occurs when he moves his head and thus the head-mounted image capture unit out of the modeled environment.
In weiterer vorteilhafter Ausgestaltung der Erfindung werden anhand der Poseninformationen Augmented Reality Informationen positionsgenau in einem Sichtfeld des Anwenders eingeblendet. Beispielsweise trägt hierbei ein Anwender eine Datenbrille und eine am Kopf des Anwenders befestigte Kamera, die als Bilderfassungseinheit dient. In dem die Position und die Ori- entierung der Kamera in Bezug auf die reale Umgebung ermit¬ telt wird, können auf den Blickwinkel des Anwenders rückge¬ schlossen werden und somit die positionsgenaue Integration der Augmented Reality Informationen in das Sichtfeld des An¬ wenders erfolgen.In a further advantageous embodiment of the invention, augmented reality information is displayed with exact position in a field of view of the user on the basis of the pose information. For example, a user wears a pair of data glasses and a camera attached to the user's head, which serves as an image capture unit. Where the position and orien- tation of the camera relative to the real environment ermit ¬ is telt, can access the viewing angle of the user rückge ¬ closed are and thus the position-accurate integration of augmented reality take place information in the field of view to ¬ wenders.
Vorteilhaft ist daher insbesondere auch eine Ausgestaltung der Erfindung, bei der ein Augmented Reality System ein System mit Mitteln zur Durchführung von Verfahrenschritten gemäß einer der oben genannten Ausführungsformen der Erfindung auf- weist. Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsbeispiele näher beschrieben und erläutert. Es zeigen:An embodiment of the invention is therefore particularly advantageous in which an augmented reality system has a system with means for carrying out method steps according to one of the abovementioned embodiments of the invention. In the following the invention will be described and explained in more detail with reference to the embodiments illustrated in the figures. Show it:
FIG 1 eine schematische Darstellung eines Verfahrens zur kontinuierlichen Bestimmung von Poseninformationen,1 shows a schematic representation of a method for the continuous determination of pose information,
FIG 2 eine Posenbestimmung während der Initialisierungspha¬ se und2 shows a determination of poses during the Initialisierungspha ¬ se and
FIG 3 eine Posenbestimmung während der Reinitialisierungs- phase .3 shows a determination of poses during the reinitialization phase.
FIG 1 zeigt eine schematische Darstellung eines Verfahrens zur kontinuierlichen Bestimmung von Poseninformationen, die eine Position und eine Orientierung einer Bilderfassungseinheit in Bezug auf eine reale Umgebung beschreiben. Ein derartiges Verfahren wird beispielsweise in Augmented Reality An¬ wendungen eingesetzt, um die Position und den Blickwinkel ei- nes Anwenders in Bezug zu einer von ihm betrachteten realen Umgebung zu bestimmen. Benötigt wird eine derartige Posenbe¬ stimmung für die positionsgenaue Einblendung von Zusatzinformationen in das Sichtfeld des Anwenders, welche bei Augmented Reality Anwendungen, z.B. zu Benutzerführungszwecken durchge- führt wird.1 shows a schematic representation of a method for the continuous determination of pose information, which describe a position and an orientation of an image acquisition unit with respect to a real environment. Such a method is used in applications, for example, Augmented Reality An ¬ to the position and the angle of egg nes user with respect to a consideration of his real environment to determine. Such a Posenbe ¬ mood is required for the positionally accurate insertion of additional information in the field of view of the user, which is performed in augmented reality applications, eg for user guidance purposes.
Während einer Initialisierungsphase 1 werden die Position und die Orientierung der Bilderfassungseinheit zunächst mit Mit¬ teln der Bilderkennung bestimmt. Es wird versucht, Umrisse der realen Umgebung mit Umrissen bzw. Kanten eines Modells des Objektes abzugleichen. Werden Kanten innerhalb eines Ab¬ bildes der realen Umgebung im dreidimensionalen Modell des Objektes wieder erkannt, so kann hierdurch auf die Pose der Bilderfassungseinheit geschlossen werden.During an initialization phase 1, the position and orientation of the imaging unit are initially with ¬ stuffs the image recognition determined. An attempt is made to match outlines of the real environment with outlines or edges of a model of the object. Are edges within an image from ¬ again recognized the real environment in three-dimensional model of the object, the image capture unit can thus be concluded that the pose.
Ein derartiger Abgleich ist jedoch sehr rechenintensiv, so dass während der Initialisierungsphase nur ca. drei Bilder pro Sekunde ausgewertet werden können. Daher wird nach der initialen Posenbestimmung eine Trackingphase 2 gestartet, in der nur noch Bewegungen einzelner Elemente innerhalb von während der Trackingphase aufgenommenen Abbildern zur Posenbe- Stimmung herangezogen werden. Sobald die erste Pose aus der Initialisierungsphase zusammen mit dem zugehörigen Abbild be¬ kannt sind, kann während der Trackingphase in einem nachfol¬ genden Abbild ermittelt werden, inwiefern Elemente der realen Umgebung sich innerhalb der aufeinander folgenden Abbilder bewegt haben. Es werden entsprechende Bewegungsinformationen für die beobachteten Elemente generiert, anhand derer eine Änderung der Pose bestimmt werden kann, die zwischen den beiden Abbildern der realen Umgebung vollzogen wurde. Diese Art der Posenbestimmung ist sehr viel weniger rechenintensiv als die zuvor beschriebene Posenbestimmung während der Initiali¬ sierungsphase. Aufgrund dessen kann eine Bildrate im Bereich von zwanzig Bildern pro Sekunde erzielt werden.However, such an adjustment is very compute-intensive, so that during the initialization phase only about three images can be evaluated per second. Therefore, after the initial pose determination, a tracking phase 2 is started, in which only movements of individual elements within images taken during the tracking phase are used to determine poses. Once the first pose of the initialization phase are withdrawn together with the associated image be ¬, constricting image can be determined to what extent the elements of the real environment have moved within the consecutive images during the tracking phase in a nachfol ¬. Corresponding motion information is generated for the observed elements, which can be used to determine a change in pose made between the two images of the real environment. This type of determination poses is much less computationally intensive than the previously described sierungsphase poses determination during Initiali ¬. Because of this, a frame rate in the range of twenty frames per second can be achieved.
Während der Trackingphase werden also Bewegungen einzelner Bildelemente innerhalb aufeinander folgender Abbilder der realen Umgebung herangezogen, um aus diesen die hierfür in der Regel ursächliche Posenänderung der Bilderfassungseinheit zu bestimmen. Als Elemente werden zum Beispiel bestimmte Pixel der Bilderfassungseinheit mit bestimmten Eigenschaften ge- wählt, deren Bewegungen innerhalb der Abbilder von Bild zu Bild verfolgt werden.During the tracking phase, therefore, movements of individual image elements within successive images of the real environment are used in order to determine from these the change in the pose of the image acquisition unit which is usually the cause of this. As elements, for example, certain pixels of the image acquisition unit are selected with certain properties whose movements within the images are tracked from image to image.
Solange eine zuverlässige Posenbestimmung anhand der Bewe¬ gungsinformationen möglich ist, wird das beschriebene Verfah- ren fortgesetzt. Wird hingegen z.B. durch eine schnelle Kopf¬ drehung des Anwenders die Bilderfassungseinheit komplett aus dem modellierten Umgebungsbereich bewegt und anschließend wieder in den Umgebungsbereich hineinbewegt, so kann eine Posenbestimmung, wie sie in der Trackingphase durchgeführt wird, nicht ohne weiteres fortgesetzt werden. Es ist eine Re- initialisierungsphase 3 notwendig, sobald die Bilderfassungs¬ einheit wieder in den modellierten Umgebungsbereich ge- schwenkt wird. Während der Reinitialisierungsphase 3 wird ei¬ ne neue Ausgangspose als Basis für die Trackingphase 2 be¬ stimmt. Hierbei wird im Erfassungsbereich der Bilderfassungs¬ einheit nach bekannten Merkmalen gesucht. Werden diese Merk- male erkannt, so kann eine Neuberechnung der Pose durchge¬ führt werden. Beispiele für derartige Merkmale sind bestimmte Farben, die für gewisse Bereiche der realen Umgebung charakteristisch sind. Im Gegensatz zur Initialisierungsphase 1 er¬ fordert die Reinitialisierungsphase 3 keine Ausrichtung der Bilderfassungseinheit in eine entsprechende Initialpose, die einen Abgleich der realen Umgebung mit dem dreidimensionalen Umgebungs- bzw. Objektmodell zulässt. Daher muss ein Anwender des Systems beispielsweise für Augmented Reality Anwendungen sein Arbeitsvorgang nicht merklich unterbrechen.As long as a reliable poses determination based on the BEWE ¬ occupancy information is possible, the procedural described continues reindeer. If, however, for example by rapid head ¬ the user turn the imaging unit completely out of the modeled environment field moves and then into moving back into the surrounding area, then a Posen determining how it is performed in the tracking phase, not be continued without difficulty. It is a re- initialization phase 3 is necessary as soon as the image capture unit ¬ back to the modeled environment area overall is pivoted. During the reset phase 3 is true ei ¬ ne new Ausgangspose as the basis for tracking phase 2 be ¬. Here, the image capture ¬ is in the detection range unit in accordance with known characteristics sought. These are noticeably male detected, a recalculation can pose Runaway ¬ leads are. Examples of such features are certain colors which are characteristic of certain areas of the real environment. In contrast to the initialization phase 1 it ¬ 3 requests the reset phase is no alignment of the imaging unit in a corresponding Initialpose which allows an alignment of the real environment with the three-dimensional ambient or object model. Therefore, a user of the system, for example, for augmented reality applications does not have to interrupt his work noticeably.
FIG 2 zeigt eine Posenbestimmung während der Initialisie¬ rungsphase. Im Erfassungsbereich der Bilderfassungseinheit befindet sich eine Antriebssteuerung 4, von der ein dreidimensionales Modell in einem Speicher eines Systems zur konti- nuierlichen Bestimmung von Poseninformationen, die eine Position und eine Orientierung einer Bilderfassungseinheit in Be¬ zug auf eine reale Umgebung beschreiben, vorliegt. Aus dem dreidimensionalen Modell der Antriebssteuerung werden charakteristische Umrisse 5 extrahiert. Weiterhin werden ein oder mehrere Abbilder der Antriebssteuerung 4 mit einer als CCD- Kamera ausgeführten Bilderfassungseinheit des Systems aufge¬ nommen. Zur Bestimmung der Pose wird versucht, die Umrisse 5 in einem Abbild der realen Umgebung bzw. der realen Antriebssteuerung 4 wieder zu erkennen. Um dies zu ermöglichen, muss die Bilderfassungseinheit in eine Pose gebracht werden, in der dass Abbild der realen Antriebssteuerung in grober Übereinstimmung mit dem dreidimensionalen Modell der Steuerung vorliegt, so dass ein Wiedererkennen der Umrisse 5 des Mo¬ dells im Abbild beispielsweise mittels eines Kantenerken- nungsalgorithmus möglich ist. FIG 3 zeigt eine Posenbestimmung während der Reinitialisie- rungsphase. Eine derartige Reinitialisierung ist beispiels¬ weise notwendig, wenn sich die Pose der Bilderfassungseinheit während der Trackingphase zwischen zwei aufeinander folgenden Aufnahmen der realen Umgebung sehr stark geändert hat. In einem solchen Fall ist eine Posenbestimmung auf Basis der Bewegungsinformationen u. U. nicht mehr möglich und es muss eine neue Ausgangspose für die Trackingphase bestimmt werden. Eine Reinitialisierungsphase ist in der Regel auch dann notwendig, wenn der Erfassungsbereich der Bilderfassungseinheit komplett aus dem Bereich der realen Umgebung herausbewegt wird, der als Modell in einem Speicher eines entsprechenden Systems zur Posenbestimmung vorliegt.2 shows a determination poses during the initialization phase ¬ approximately. In the detection range of the image capturing unit is a drive controller 4, by the three-dimensional model described in a memory of a system for continu- ous provision of poses information train a position and an orientation of an image sensing unit in Be ¬ a real environment, is present. From the three-dimensional model of the drive control characteristic outlines 5 are extracted. Furthermore, one or more images of the drive control 4 are taken with a camera embodied as CCD image sensing unit of the system up ¬. In order to determine the pose, an attempt is made to recognize the contours 5 in an image of the real environment or of the real drive control 4. In order to make this possible, should the image capturing unit in a pose brought present in that image of the real drive control in rough agreement with the three-dimensional model of the controller, so that recognition of the contours 5 of the Mo ¬ dells in the image, for example by means of a Kantenerken- algorithm is possible. FIG. 3 shows a determination of poses during the reinitialization phase. Such re-initialization is example ¬ as necessary if the pose of the image capture unit has greatly changed during the tracking phase between two consecutive images of the real environment. In such a case, a pose determination based on the motion information u. U. no longer possible and it must be determined a new starting position for the tracking phase. A reinitialization phase is generally necessary even if the detection area of the image acquisition unit is completely moved out of the area of the real environment, which is present as a model in a memory of a corresponding system for determining the pose.
Bei der Reinitialisierungsphase werden im Bildbereich derDuring the reinitialization phase in the image area the
Bilderfassungseinheit, die in diesem Beispiel als CMOS Kamera ausgeführt sei, Merkmale eines Objektes der realen Umgebung, bei dem es sich hier um die aus FIG 2 bekannte Antriebssteue¬ rung 4 handeln soll, gesucht. Diese Merkmale werden mit Hilfe eines aus dem Stand der Technik bekannten SIFT Algorithmus in den Abbildern der Antriebssteuerung 4 ermittelt. Aus den erkannten Merkmalen wird schließlich die Pose bestimmt.Image acquisition unit, which is executed in this example as a CMOS camera, features of an object of the real environment, which is here to act in the well-known from FIG 2 Antriebssteue ¬ tion 4 sought. These features are determined using a well-known from the prior art SIFT algorithm in the images of the drive control 4. From the recognized features finally the pose is determined.
Die charakteristischen Merkmale, die zur Posenbestimmung he- rangezogen werden, sind in einem Gitter 6 des dreidimensionalen Objektmodells hinterlegt. Damit kann bei Auffinden dieser Merkmale auch auf deren Position innerhalb des Objektmodells geschlossen werden und schließlich die Pose bestimmt werden.The characteristic features that are used to determine poses are stored in a grid 6 of the three-dimensional object model. This can be closed when finding these features on their position within the object model and finally the pose can be determined.
Die Merkmale können im Vorfeld in einem Speicher eines geeig¬ neten Systems zur kontinuierlichen Bestimmung von Poseninformationen hinterlegt werden. Alternativ können die Merkmale auch im laufenden Betrieb des Systems, also während der Ini- tialisierungs- und Trackingphase „gesammelt" werden. The characteristics can be stored for the continuous determination of poses information in a memory of a geeig ¬ Neten system in advance. Alternatively, the features can also be "collected" during operation of the system, ie during the initialization and tracking phase.

Claims

Patentansprüche claims
1. Verfahren zur kontinuierlichen Bestimmung von Poseninformationen, die eine Position und eine Orientierung einer BiI- derfassungseinheit in Bezug auf eine reale Umgebung beschrei¬ ben, wobei während einer Initialisierungsphase die Poseninfor¬ mationen durch Vergleich zumindest eines während der Initialisierungsphase mit der Bilderfassungseinheit aufgenom- menen Abbildes eines Objektes der realen Umgebung mit ei¬ nem dreidimensionalen Modell des Objektes ermittelt wer¬ den, wobei während einer an die Initialisierungsphase anschlie¬ ßenden Trackingphase die Poseninformationen durch Auswer- ten von Bewegungsinformationen gewonnen werden, wobei die Bewegungsinformationen Positionsänderungen von Elementen der realen Umgebung innerhalb von während der Trackingpha¬ se mit der Bilderfassungseinheit aufgenommenen Abbildern der realen Umgebung kennzeichnen und wobei - für den Fall, dass die Poseninformationen während der Trackingphase nicht ermittelt werden können, eine Reinitiali- sierungsphase gestartet wird, während der die Poseninfor¬ mationen durch Suchen von bekannten Merkmalen der realen Umgebung in zumindest einem während der Reinitialisie- rungsphase aufgenommenen Abbild der realen Umgebung ermittelt werden.1. A method for the continuous determination of poses information indicating a position and an orientation of a BiI- derfassungseinheit with respect to a real environment beschrei ¬ ben, wherein, during an initialization phase the Poseninfor ¬ mation by comparing at least one during the initialization phase of the image capture unit aufgenom- menen an object of the real environment with egg ¬ determined image nem three-dimensional model of the object ¬, wherein recovered during the initialization phase ¬ sequent tracking phase subsequent poses information by evaluating th motion information to, the movement information changes in position of elements of the real environment within of images recorded during the Trackingpha ¬ se with the image capture unit images of the real environment and where - in the event that the Poseninformationen can not be determined during the tracking phase, a Re initialization phase is started, during which the Poseninfor ¬ mations by searching known features of the real environment in at least one recorded during the reinitialization phase image of the real environment are determined.
2. Verfahren nach Anspruch 1, wobei die während der Reinitialisierungsphase gesuchten Merk- male der realen Umgebung während der Initialisierungsphase und/oder Trackingphase bestimmt werden.2. The method of claim 1, wherein the sought during the Reinitialisierungsphase features of the real environment during the initialization phase and / or tracking phase are determined.
3. Verfahren nach Anspruch 1 oder 2, wobei ein Kantenerkennungsalgorithmus zur Ermittlung der Po- seninformationen während der Initialisierungsphase verwendet wird. 3. The method according to claim 1 or 2, wherein an edge detection algorithm is used to determine the position information during the initialization phase.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein SIFT-Algorithmus zur Ermittlung der Poseninformati¬ onen während der Reinitialisierungsphase verwendet wird.4. The method according to any one of the preceding claims, wherein a SIFT algorithm is used to determine the Poseninformati ¬ ons during the Reinitialisierungsphase.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei anhand der Poseninformationen Augmented-Reality Infor¬ mationen positionsgenau in ein Sichtfeld eines Anwenders ein¬ geblendet werden.5. The method according to any one of the preceding claims, wherein on the basis of the pose information augmented reality information ¬ position accurately in a field of view of a user a blinded ¬ .
6. System zur kontinuierlichen Bestimmung von Poseninformationen, die eine Position und eine Orientierung einer Bilderfassungseinheit in Bezug auf eine reale Umgebung beschreiben, wobei das System aufweist: die Bilderfassungseinheit, - einen Speicher für ein dreidimensionales Modell eines Ob¬ jektes der realen Umgebung, erste Mittel zur Ermittlung der Poseninformationen während einer Initialisierungsphase durch Vergleich zumindest ei¬ nes während der Initialisierungsphase mit der Bilderfas- sungseinheit aufgenommenen Abbildes eines Objektes der re¬ alen Umgebung mit dem dreidimensionalen Modell, zweite Mittel zur Ermittlung der Poseninformationen durch Auswerten von Bewegungsinformationen während einer an die Initialisierungsphase anschließenden Trackingphase, wobei die Bewegungsinformationen Positionsänderungen von Elementen der realen Umgebung innerhalb von während der Trackingphase mit der Bilderfassungseinheit aufgenommenen Ab¬ bildern der realen Umgebung kennzeichnen, und dritte Mittel zur Ermittlung der Poseninformationen wäh- rend einer Reinitialisierungsphase für den Fall, dass die Poseninformationen während der Trackingphase nicht ermit¬ telt werden können, wobei die dritten Mittel derart ges¬ taltet sind, dass die Poseninformationen während der Re¬ initialisierungsphase durch Suchen von bekannten Merkmalen der realen Umgebung in zumindest einem während der Reinitialisierungsphase aufgenommenen Abbild der realen Umge¬ bung ermittelt werden. 6. System for the continuous determination of poses information describing a position and an orientation of an image sensing unit with respect to a real environment, the system comprising: the imaging unit, - a memory for a three-dimensional model of a Whether ¬ jektes the real environment, first means for determining the pose information during an initialization phase by comparing at least ei ¬ nes sungseinheit captured during the initialization phase with the Bilderfas- image of an object of the re ¬ alen environment with the three-dimensional model, second means for determining the pose information by evaluating motion information during the initialization phase subsequent tracking phase, wherein the movement information characterize changes in position of elements of the real environment within recorded during the tracking phase with the image acquisition unit Ab ¬ images of the real environment n, and third means for determining the pose information during a reset phase for the case that the pose information during the Tracking Phase is not ermit ¬ can be telt, wherein the third means such ges ¬ are taltet that poses information during re ¬ initialization phase by Searching known features of the real environment in at least one recorded during the Reinitialisierungsphase image of the real Umge ¬ exercise be determined.
7. System nach Anspruch 6, wobei das System vierte Mittel zur Bestimmung der während der Reinitialisierungsphase gesuchten Merkmale der realen Umge¬ bung während der Initialisierungsphase und/oder Trackingphase aufweist.7. The system of claim 6, wherein the system fourth means for determining the searched during the reset phase characteristics of the real Conversely ¬ bung during the initialization phase and / or having tracking phase.
8. System nach Anspruch 6 oder 7, wobei die ersten Mittel zur Ausführung eines Kantenerkennungsalgorithmus zur Ermittlung der Poseninformationen wäh- rend der Initialisierungsphase vorgesehen sind.8. System according to claim 6 or 7, wherein the first means are provided for executing an edge detection algorithm for determining the pose information during the initialization phase.
9. System nach Anspruch 6 bis 8, wobei die dritten Mittel zur Ausführung eines SIFT- Algorithmus zur Ermittlung der Poseninformationen während der Reinitialisierungsphase vorgesehen sind.9. The system of claim 6 to 8, wherein the third means are provided for carrying out an SIFT algorithm for determining the Poseninformationen during Reinitialisierungsphase.
10. Augmented Reality System mit einem System nach einem der Ansprüche 6 bis 9. 10. augmented reality system with a system according to one of claims 6 to 9.
PCT/EP2006/066754 2005-10-25 2006-09-26 Sytem and method for camera-based tracking WO2007048674A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005051396A DE102005051396A1 (en) 2005-10-25 2005-10-25 System and method for camera-based tracking
DE102005051396.4 2005-10-25

Publications (1)

Publication Number Publication Date
WO2007048674A1 true WO2007048674A1 (en) 2007-05-03

Family

ID=37497833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/066754 WO2007048674A1 (en) 2005-10-25 2006-09-26 Sytem and method for camera-based tracking

Country Status (2)

Country Link
DE (1) DE102005051396A1 (en)
WO (1) WO2007048674A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111247390A (en) * 2017-10-06 2020-06-05 高通股份有限公司 Concurrent relocation and reinitialization of VSLAMs

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014206623A1 (en) * 2014-04-07 2015-10-08 Bayerische Motoren Werke Aktiengesellschaft Localization of a head-mounted display (HMD) in the vehicle

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LEPETIT V ET AL: "Fully automated and stable registration for augmented reality applications", MIXED AND AUGMENTED REALITY, 2003. PROCEEDINGS. THE SECOND IEEE AND ACM INTERNATIONAL SYMPOSIUM ON 7-10 OCT. 2003, PISCATAWAY, NJ, USA,IEEE, 7 October 2003 (2003-10-07), pages 93 - 102, XP010662800, ISBN: 0-7695-2006-5 *
NAJAFI H ET AL: "Automated Initialization for Marker-Less Tracking: A Sensor Fusion Approach", MIXED AND AUGMENTED REALITY, 2004. ISMAR 2004. THIRD IEEE AND ACM INTERNATIONAL SYMPOSIUM ON ARLINGTON, VA, USA 02-05 NOV. 2004, PISCATAWAY, NJ, USA,IEEE, 2 November 2004 (2004-11-02), pages 79 - 88, XP010769631, ISBN: 0-7695-2191-6 *
SKRYPNYK I ET AL: "Scene Modelling, Recognition and Tracking with Invariant Image Features", MIXED AND AUGMENTED REALITY, 2004. ISMAR 2004. THIRD IEEE AND ACM INTERNATIONAL SYMPOSIUM ON ARLINGTON, VA, USA 02-05 NOV. 2004, PISCATAWAY, NJ, USA,IEEE, 2 November 2004 (2004-11-02), pages 110 - 119, XP010769634, ISBN: 0-7695-2191-6 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111247390A (en) * 2017-10-06 2020-06-05 高通股份有限公司 Concurrent relocation and reinitialization of VSLAMs
CN111247390B (en) * 2017-10-06 2023-09-01 高通股份有限公司 Concurrent relocation and reinitialization of VSLAM

Also Published As

Publication number Publication date
DE102005051396A1 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
DE60133386T2 (en) DEVICE AND METHOD FOR DISPLAYING A TARGET BY IMAGE PROCESSING WITHOUT THREE DIMENSIONAL MODELING
DE19516664C1 (en) Processor-supported detection of selective target object in image
EP3332284A1 (en) Method and apparatus for data capture and evaluation of ambient data
WO2015117907A2 (en) Selectively-adaptive data processor
DE102005025470B4 (en) Method and system for determining the position and orientation of a camera relative to a real object
DE102015111080B4 (en) Robotic device with machine vision
DE102014106211A1 (en) Vision-based multi-camera factory monitoring with dynamic integrity assessment
DE102010038341A1 (en) Video surveillance system and method for configuring a video surveillance system
EP2901414B1 (en) Method and image processing system for determining parameters of a camera
WO2017153355A1 (en) Method and device for carrying out eye gaze mapping
DE102013207664A1 (en) Arrangement and method for recognizing gestures
DE102014212632A1 (en) A method of monitoring operation of a medical device
WO2017042348A2 (en) Method and apparatus for superimposing a virtual image onto an image of a real scene, and mobile device
WO2020178198A1 (en) Estimating the movement of an image position
DE102004061841B4 (en) Markerless tracking system for augmented reality applications
DE102008036219A1 (en) Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set
EP3857304B1 (en) Method for focusing a camera
EP2831839B1 (en) Method for automatically operating a monitoring system
WO2007048674A1 (en) Sytem and method for camera-based tracking
WO2016012556A1 (en) Image generating apparatus and method with combination of functional imaging and ultrasound imaging
DE102020126954A1 (en) System and method for detecting a spatial orientation of a portable device
DE102020127797B4 (en) Sensor method for optically detecting objects of use to detect a safety distance between objects
WO2019072451A1 (en) Method for processing images
EP3449463A1 (en) Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings
AT520234B1 (en) Device for the interactive presentation of visual content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06793832

Country of ref document: EP

Kind code of ref document: A1