DE102007053008A1 - Target body and method for determining its spatial position - Google Patents

Target body and method for determining its spatial position Download PDF

Info

Publication number
DE102007053008A1
DE102007053008A1 DE102007053008A DE102007053008A DE102007053008A1 DE 102007053008 A1 DE102007053008 A1 DE 102007053008A1 DE 102007053008 A DE102007053008 A DE 102007053008A DE 102007053008 A DE102007053008 A DE 102007053008A DE 102007053008 A1 DE102007053008 A1 DE 102007053008A1
Authority
DE
Germany
Prior art keywords
target body
camera
light
spatial
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007053008A
Other languages
German (de)
Inventor
Sebastian Repetzki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
REPETZKI, SEBASTIAN, PROF. DR.-ING., INNSBRUCK, AT
Original Assignee
Repetzki Sebastian Dr-Ing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Repetzki Sebastian Dr-Ing filed Critical Repetzki Sebastian Dr-Ing
Priority to DE102007053008A priority Critical patent/DE102007053008A1/en
Priority to PCT/EP2008/009106 priority patent/WO2009059716A1/en
Publication of DE102007053008A1 publication Critical patent/DE102007053008A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird eine Klasse von Zielkörpern beschrieben, deren Oberfläche nur zwei unterschiedliche Lichtarten reflektiert bzw. aussendet und so gestaltet ist, dass die Grenzen zwischen den zwei Lichtarten, aus jeder räumlichen Richtung betrachtet, als gerade Strecken erscheinen. Ferner wird ein Verfahren beschrieben, das Kenntnis von den Lichteigenschaften und der Gestalt des Zielkörpers sowie von den Parametern der eingesetzten Kamera besitzt. Das Verfahren verarbeitet die von der Kamera aufgenommenen Bilder und ermittelt daraus die relative räumliche Lage des Zielkörpers, bezogen auf die bildgebende Kamera. Ein besonders geeigneter Zielkörper und das auf einen Computer übertragene Verfahren werden dazu eingesetzt, die räumliche Stellung der Hand einer Person kontinuierlich zu ermitteln. Zielkörper und Verfahren werden zu einer 6-Freiheitsgrade-Maus weitergebildet, das heißt zu einem Eingabegerät für alle sechs räumlichen Freiheitsgrade an der Schnittstelle zwischen Mensch und Computer.A class of target bodies is described whose surface reflects or emits only two different types of light and is designed so that the boundaries between the two types of light, viewed from any spatial direction, appear as straight lines. Furthermore, a method is described which has knowledge of the light properties and the shape of the target body as well as the parameters of the camera used. The method processes the images taken by the camera and determines therefrom the relative spatial position of the target body relative to the imaging camera. A particularly suitable target body and the method transmitted to a computer are used to continuously determine the spatial position of a person's hand. Target body and method are further developed into a 6-degree of freedom mouse, that is to an input device for all six spatial degrees of freedom at the interface between human and computer.

Description

Gegenstandobject

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung und zeitlichen Verfolgung der räumlichen Lage eines geeignet ausgestalteten Zielkörpers mittels einer einzigen Kamera sowie seine Weiterbildung zu einer Computermaus mit sechs Freiheitsgraden.The The invention relates to a method and a device for determination and temporal tracking of the spatial location of a suitable designed target body by means of a single camera as well as his training to a computer mouse with six degrees of freedom.

Der Begriff "räumliche Lage" steht im Rahmen dieser Patentschrift für die sechs Koordinatenwerte – drei translatorische und drei rotatorische Freiheitsgrade –, die zur eindeutigen Beschreibung der räumlichen Lage eines Festkörpers mit Bezug auf ein gegebenes Koordinatensystem erforderlich sind.Of the Term "spatial position" is within the scope of this patent for the six coordinate values - three translatory ones and three rotatory degrees of freedom - that are unique Description of the spatial position of a solid with respect to a given coordinate system.

Anwendungsgebietfield of use

3D-Programme sind Computerprogramme, die mit Modellen räumlich ausgedehnter Dinge arbeiten. Im Ingenieurwesen werden räumliche Modelle in CAD-Systemen, in Vermessungssoftware oder in Programmiersystemen für Bearbeitungsmaschinen oder Roboter eingesetzt. Zunehmend verbreiten sich 3D-Programme auf Anwendungsgebieten wie Chemie oder Medizintechnik, Unterhaltungsindustrie – Beispiele: Computerspiele und Filmproduktion –, Bekleidungsindustrie, Betriebssystemoberflächen, Internetdienste und vieles mehr. Demgegenüber besteht die manuelle Eingabeschnittstelle des Computers für grafische und geometrische Inhalte immer noch fast ausnahmslos aus zweidimensionalen Zeigegeräten wie Computermaus, Tablett, Joystick oder Spielekonsole.3D programs are computer programs that are more spacious with models Things work. In engineering become spatial models in CAD systems, in surveying software or in programming systems used for processing machines or robots. Increasingly 3D programs are spreading in application areas such as chemistry or Medical technology, entertainment industry - examples: computer games and Film Production, Garment Industry, Operating System Surfaces, Internet services and much more. In contrast, there is the manual input interface of the computer for graphical and geometric content is still almost invariably two-dimensional Pointing devices such as a computer mouse, tablet, joystick or game console.

In diesem Umfeld könnten 6-Freiheitsgrade-Mäuse schnell Einsatzmöglichkeiten finden, sollten diese den Anforderungen hinsichtlich Wirtschaftlichkeit, Genauigkeit, Rechenzeitbedarf, universeller Verwendbarkeit und Nutzungskomfort genügen können.In In this environment, 6-degree-of-freedom mice could become fast Find applications, these should meet the requirements in terms of cost-effectiveness, accuracy, computing time requirements, meet universal usability and ease of use can.

Stand der TechnikState of the art

Im Handel erhältliche Quasi-6-Freiheitsgrade-Mäuse beruhen auf der Lagemessung eines Griffknopfes relativ zu einer Basis. Da die relative Bewegungsfreiheit des Knopfes mechanisch eng begrenzt ist, werden die Messwerte von der hinterlegten Treibersoftware als translatorische und rotatorische Geschwindigkeiten interpretiert. Damit erreicht der Computerbenutzer eine gewünschte räumliche Lage ähnlich einem Pilot, der sich im bewegten Bezugssystem des Fluggeräts befindet und einen feststehenden Landepunkt ansteuert. Demgegenüber befindet sich bei dem Prinzip der hier vorliegenden Erfindung der Computerbenutzer auf festem Boden, hält sein Flugzeug in der Hand und führt dieses entlang einer räumlichen Flugbahn bis ins Ziel.in the Commercially available quasi-6-degree-of-freedom mice are based on the position measurement of a handle knob relative to a Base. Because the relative freedom of movement of the knob is mechanical is strictly limited, the measured values of the stored driver software interpreted as translational and rotational velocities. This gives the computer user a desired spatial Location similar to a pilot moving in the moving frame of the aircraft and a fixed landing point controls. In contrast, the principle of the here computer user on solid ground, Holds his plane in his hand and leads this along a spatial trajectory to the finish.

Zur Bestimmung und zeitlichen Verfolgung der Lage im Raum von Objekten mittels Verfahren der Bildverarbeitung wurden unterschiedliche Anordnungen und Algorithmen vorgeschlagen, jedoch hat sich keine davon als räumliche Computermaus für den Arbeitsplatzcomputer durchsetzen können.to Determination and temporal tracking of the position in the space of objects By means of image processing were different arrangements and algorithms proposed, however, none of them has been considered spatial Computer mouse for the workstation computer can enforce.

Die Erkennung räumlicher Gegenstände in zweidimensionalen Bildern wurde für den Fall von Körpern, die sich durch geradlinige Kanten auszeichnen, schon vor über zwanzig Jahren realisiert [Lowe]. Das Verfahren wurde seither zu einem Mustererkennungsverfahren weiterentwickelt und patentiert [ US 6 711 293 B1 ]. Zwei-Kamera-Installationen ermöglichen das echtzeitfähige, räumliche Verfolgen von Objekten, die dem Verfahren zuvor mittels Referenzbildern bekannt gemacht wurden [Skrypnyk, Lowe].The detection of spatial objects in two-dimensional images has been realized for the case of bodies that are characterized by straight edges more than twenty years ago [Lowe]. Since then, the process has been further developed into a pattern recognition process and patented [ US Pat. No. 6,711,293 B1 ]. Two-camera installations enable the real-time, spatial tracking of objects previously made known to the process using reference images [Skrypnyk, Lowe].

Verfahren, die auf mehrere Kameras angewiesen sind, siehe bspw. [ DE 10 2005 011 432 A1 ], bedürfen stets der sorgfältigen Kalibrierung der Kamerastellungen. Neben der damit verbundenen verringerten Mobilität und Wandelbarkeit des Arbeitsplatzes sind diese Verfahren prinzipiell rechenzeitintensiver als Einkamerasysteme. Höhere Rechenzeiten verringern jedoch die für das 3D-Programm verfügbare Rechenzeit und damit dessen Komfort oder gar dessen Nutzen für den Computernutzer.Procedures that rely on multiple cameras, see for example [ DE 10 2005 011 432 A1 ], always require careful calibration of camera positions. In addition to the associated reduced mobility and changeability of the workplace, these methods are in principle more computationally intensive than single-camera systems. Higher computation times, however, reduce the computation time available for the 3D program and thus its comfort or even its use for the computer user.

Kugelförmige Reflektoren, die vielfach in Virtual-Reality-Systemen zum Einsatz kommen, haben bei Einkamerasystemen den Nachteil, dass sich die Kugeln gegenseitig verdecken können und dann keine exakte Lagebestimmung möglich ist, vergleiche [ WO 2004/114112 A1 ].Spherical reflectors, which are often used in virtual reality systems, have the disadvantage in single-camera systems that the balls can obscure each other and then no exact position determination is possible, cf. WO 2004/114112 A1 ].

Häufig kommt die Farbsegmentierung zum Einsatz, um einen Zielkörper im Kamerabild aufzufinden. Für den Einsatz als 6D-Maus ist hierbei von Nachteil, dass Störungen aus den Lichteigenschaften des Bildhintergrundes, Schatten und Störlicht entstehen können.Often Color segmentation is used to create a target body in the camera image. For use as a 6D mouse This is disadvantageous in that disturbances from the light properties of the image background, shadow and streaks light arise can.

Im Patent [ US6526166 ] wird die räumliche Lage eines Würfels, dessen sechs Seiten mit drei verschiedenen Farben belegt sind, mittels einer einzelnen Kamera ermittelt. Drei Farben sind erforderlich, damit an jeder Würfelkante zwei verschiedene Farben aufeinander stoßen. Bei schrägen Betrachtungswinkeln sind drei Kanten des Würfels sichtbar. Diese bilden sich als Farbkontrast entlang gerader Linien auf dem Kamerabild ab. Mittels der drei gewonnenen Linien kann die Orientierung des Würfels ermittelt werden. Ist wenigstens eine Linienlänge sicher bekannt, lässt sich bei bekannter Kameraoptik auch die Lage des Würfels relativ zur Kamera berechnen. Erfasst die Kamera nur zwei oder gar nur eine Seite des Würfels, kann die Lage des Würfels im Raum aber nicht mehr sicher bestimmt werden.In the patent US6526166 ], the spatial position of a cube, whose six sides are covered with three different colors, is determined by means of a single camera. Three colors are required so that two different colors collide at each cube edge. At oblique viewing angles, three edges of the cube are visible. These form as color contrast along straight lines on the camera image. The orientation of the cube can be determined by means of the three obtained lines. If at least one line length is known, the position of the cube relative to the camera can also be calculated with known camera optics. If the camera captures only two or even one side of the cube, the position of the cube in space can be determined but can not be determined for sure.

Verfahren aus der Messtechnik, die mit nur einer Kamera auskommen, sind lediglich für kleine Auslenkungen des bekannten Zielkörpers von seiner Solllage ausgelegt, vergleiche [ WO 2005/075936 A1 ]. Bei diesem Verfahren werden Punkte des Zielkörpers im Bild identifiziert und zur Berechnung einer räumlichen Lage herangezogen.Techniques from the measurement technique, which manage with only one camera are designed only for small deflections of the known target body of its desired position, see [ WO 2005/075936 A1 ]. In this method, points of the target body are identified in the image and used to calculate a spatial position.

Auf Markern basierende Verfahren umgehen den Nachteil der Farbsegmentierung durch Vorgabe einer Hintergrundfarbe und einer Markerfarbe, im einfachsten Fall weiß und schwarz, die zusammen auf einer zumeist ebenen Fläche aufgetragen werden.On Marker-based methods circumvent the disadvantage of color segmentation by setting a background color and a marker color, in the simplest Case white and black, which together on a mostly flat Surface to be applied.

Im Projekt ARTools [MagicMouse] wurden quadratische Marker verwendet, deren räumliche Lage mittels eines einzelnen Kamerabildes bestimmt werden kann. Durch allseitige Belegung eines Würfels mit diesen Markern [Augmented Chemistry], kann die räumliche Lage des Würfels aus allen Blickrichtungen lückenlos ermittelt werden.in the Project ARTools [MagicMouse] used square markers their spatial position by means of a single camera image can be determined. Through all-sided occupancy of a cube With these markers [Augmented Chemistry], the spatial Position of the cube from all directions without gaps be determined.

In den Patenten [ US 2005 201613 ] und [ WO 2007/04431 A2 ] werden kleine kreisförmige Marker verwendet, die auf würfel- bzw. stabförmigen Grundkörpern aufgebracht wurden.In the patents US 2005 201613 ] and [ WO 2007/04431 A2 ] small circular markers are used, which were applied to cubic or rod-shaped bodies.

D. Bradley und G. Roth [Sphere] verwenden ebenfalls kleine kreisförmige Marker, die sie jedoch auf einer blauen Kugel verteilen. Durch Farbsegmentierung wird der Außendurchmesser der Kugel bestimmt und das Muster der darauf verteilten Marker mit einem hinterlegten Modell verglichen. Die Entwicklung zielt, wie die vorliegende Erfindung, auf das Anwendungsgebiet einer räumlichen Computermaus für 3D-Programme ab.D. Bradley and G. Roth [Sphere] also use small circular ones Markers, but they distribute them on a blue ball. By color segmentation the outer diameter of the ball is determined and the pattern the markers distributed thereon compared with a stored model. Development, like the present invention, is aimed at the field of application a spatial computer mouse for 3D programs from.

Aufgabenstellungtask

Die Aufgabe der vorliegenden Erfindung besteht darin, die räumliche Lage eines geeignet gestalteten Zielkörpers mittels der von einer einzelnen Kamera aufgenommenen Bilder sowie mittels eines geeigneten Verfahrens der Bildverarbeitung zu bestimmen und zeitlich zu verfolgen.The Object of the present invention is the spatial Location of a suitably designed target body by means of from a single camera taken pictures and by means of a appropriate method of image processing and time to pursue.

Darstellung der ErfindungPresentation of the invention

Die Erfindung beinhaltet ein Verfahren und eine Vorrichtung zur Bestimmung der räumlichen Lage eines Zielkörpers. Insbesondere beinhaltet die Erfindung ein Verfahren und eine Vorrichtung zur lückenlosen, quasi-kontinuierlichen und stabilen Bestimmung der Lage des Zielkörpers.The The invention includes a method and an apparatus for determination the spatial position of a target body. Especially The invention includes a method and an apparatus for gapless, quasi-continuous and stable determination the location of the target body.

Obwohl die Erfindung nicht an feste Arbeitsräume gebunden ist, ist es besonders vorteilhaft, einen zu einer Aufnahmeeinheit – beispielsweise einer Kamera – festen Arbeitsraum einzusetzen.Even though the invention is not bound to fixed work spaces, it is particularly advantageous to one to a receiving unit - for example to use a camera - firm working space.

Erfindungsgemäß wird ein Verfahren dargestellt, das besonders robust ist und insbesondere mit schwierigen Bildverhältnissen arbeiten kann. Insbesondere ist es so möglich, auch bei einem optisch schwierigen Bildhintergrund beziehungsweise bei einer ungünstigen Ausleuchtung eine präzise Bestimmung des Zielkörpers zu erreichen.According to the invention presented a method that is particularly robust and in particular can work with difficult picture conditions. Especially is it possible, even with a visually difficult image background or at an unfavorable illumination a to achieve precise determination of the target body.

Zielkörper und Verfahren sollen in ein Gerät eingehen, das die räumliche Bewegung der Hand eines Menschen erfasst und an einen Computer zur Verarbeitung überträgt.target body and methods are intended to enter into a device that spatial Motion of a human's hand captured and transmitted to a computer for processing.

Lösungselementesolution elements

Erfindungsgemäß ist es insbesondere zweckmäßig, eine nachfolgend als Zielkörper genannte Vorrichtung einzusetzen, deren Oberfläche mindestens zwei, von einer Kamera unterscheidbare Lichtarten reflektiert bzw. aussendet, wobei die Grenzen zwischen den Oberflächenanteilen der beiden Lichtarten als gerade Strecken ausgeführt sind, sowie Verfahren zur Bestimmung der räumlichen Lage des Zielkörpers relativ zu einer Kamera durch Verarbeitung der von dieser Kamera aufgenommenen Bilder dadurch gekennzeichnet dass

  • a. ein von einer Kamera erzeugtes Bild geladen wird,
  • b. eine Grauwertbild erzeugt wird, das die Lichtarten des Zielkörpers dem Minimal- bzw. Maximalwert zuweist,
  • c. ein Kantendetektor zur Bildung verketteter Kantenpunkte herangezogen wird,
  • d. gerade Linienstücke aus den Kantenpunktketten herausgeschnitten werden,
  • e. die geraden Linienstücke zu Polygonen zusammengesetzt werden,
  • f. eine Bewertung der Polygone erfolgt,
  • g. die zu den Polygonen passenden Projektionen der Zielkörperflächen bestimmt werden, die jeweils einer räumlichen Lage des Zielkörpers entsprechen,
  • h. eine Bewertung der räumlichen Lagen des Zielkörpers erfolgt,
  • i. ein Best-Fit des akzeptierten Zielkörpers erfolgt und
  • j. die ermittelte räumliche Lage übermittelt wird.
According to the invention, it is particularly expedient to use a device referred to below as a target body, the surface of which reflects or emits at least two types of light distinguishable by a camera, the boundaries between the surface portions of the two types of light being straight stretches, and methods for determining the spatial dimensions Location of the target relative to a camera by processing the images taken by this camera characterized in that
  • a. an image generated by a camera is loaded,
  • b. a gray value image is generated, which assigns the light types of the target body to the minimum or maximum value,
  • c. an edge detector is used to form chained edge points,
  • d. straight line pieces are cut out of the edge point chains,
  • e. the straight line pieces are put together to polygons,
  • f. an evaluation of the polygons takes place,
  • G. the projections of the target body surfaces that match the polygons are determined, each of which corresponds to a spatial position of the target body,
  • H. an evaluation of the spatial positions of the target body takes place,
  • i. a best fit of the accepted target body takes place and
  • j. the determined spatial position is transmitted.

Beim erfindungsgemäßen Verfahren wird die gestellte Aufgabe durch Auswahl eines Zielkörper gelöst, dessen Oberfläche nur zwei Lichtarten aussendet bzw. reflektiert, wobei die Grenzen zwischen Oberflächenanteilen zweier verschiedener Lichtarten entlang gerader Linien verlaufen, wobei ferner ein Bildauswerteverfahren die von einer Kamera aufgenommenen Bilder des Zielkörpers nach möglichen Projektionen der Oberflächenanteile und deren Grenzlinien absucht, daraus die relative Lage des Zielkörpers zur Kamera berechnet und diese Lage beliebigen Anwendungsprogrammen zur Verfügung stellt.In the method according to the invention, the object is achieved by selecting a target body, the surface of which emits or reflect only two types of light, the boundaries between surface portions of two different types of light along straight lines, where further an image evaluation the images of the target body taken by a camera after possible Projections of the surface portions and their Scans boundary lines, calculates the relative position of the target body to the camera and makes this location available to any application programs.

In vorteilhafter Ausgestaltung der Erfindung umfasst der Zielkörper geeignete Lichtquellen, insbesondere eine im Zielkörper eingebaute elektrische Lichtquelle.In Advantageous embodiment of the invention comprises the target body suitable light sources, in particular one in the target body built-in electric light source.

In weiterhin vorteilhafter Ausgestaltung der Erfindung wird der Zielkörper dergestalt einer herkömmlichen Computermaus hinzugefügt, dass der Computernutzer diesen Zielkörper vorteilhafterweise ohne wesentliche Änderung seiner Handstellung am Gehäuse der Computermaus in den Sichtbereich der Kamera hineinführen und darin frei bewegen kann.In Furthermore advantageous embodiment of the invention, the target body added to a conventional computer mouse, that the computer user this target body advantageously without significant change of his hand position on the housing Insert the computer mouse into the field of view of the camera and can move freely in it.

In weiterhin vorteilhafter Ausgestaltung der Erfindung wird die um den Zielkörper ergänzte Computermaus um einen Schalter erweitert, bei dessen Betätigung die Auswertung der Kamerabilder eingeschaltet bzw. unterbrochen wird.In Furthermore, advantageous embodiment of the invention is the order the target body complemented computer mouse by one Switch extended, when pressed the evaluation the camera images is switched on or interrupted.

Der Begriff "Kamerabilder" ist ebenso wie der Begriff "Kamera" in einer allgemeinen Bedeutung zu verstehen. Die Begriffe und andere für das Verständnis der Erfindung vorteilhafte Begriffe werden nachfolgend erläutert:
Der Begriff "Kamera" steht für ein beliebiges Bild gebendes Gerät, welches zweidimensionale Projektionen räumlicher Objekte nach hinreichend bekannten Gesetzmäßigkeiten erstellt und in digitaler Form an einen Computer weiterleiten kann. Eine auf Verfahren der Bildverarbeitung beruhende Computermaus benötigt insbesondere solche Kameras, deren Bildwiederholrate ausreichend hoch ist, um Bewegungen am Bildschirm kontinuierlich erscheinen zu lassen.
The term "camera images" as well as the term "camera" in a general meaning to understand. The terms and other terms useful for understanding the invention are explained below.
The term "camera" stands for any image-giving device that can create two-dimensional projections of spatial objects according to well-known laws and forward them in digital form to a computer. A computer mouse based on image processing requires in particular those cameras whose image refresh rate is sufficiently high to make movements on the screen appear continuous.

Das in den dreidimensionalen Raum mit seinen sechs Freiheitsgraden übertragene Prinzip der Computermaus soll im Rahmen dieser Patentschrift gleichbedeutend mit den Ausdrücken "6-Freiheitsgrade-Maus" oder "räumliche Computermaus" oder verkürzt "6D-Maus" bezeichnet werden.The translated into three-dimensional space with its six degrees of freedom Principle of the computer mouse should be synonymous in the context of this patent with the terms "6-degrees of freedom mouse" or "spatial degrees Computer mouse "or shortened" 6D mouse ".

Eine Weiterbildung der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass der Zielkörper von der Hand einer Person geführt wird und das Verfahren somit die sechs räumlichen Freiheitsgrade der Handstellung bestimmt.A Development of the device according to the invention and the method according to the invention characterized by the fact that the target body of the hand of a Person is led and the procedure thus the six spatial Degrees of freedom of the hand position determined.

Eine Weiterbildung der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass die Bestimmung der räumlichen Lage des Zielkörpers quasi-kontinuierlich erfolgt, indem jedes einzelne, von der Kamera erfasste Bild von dem Verfahren bearbeitet wird.A Development of the device according to the invention and the method according to the invention characterized by the fact that the determination of the spatial location The target body quasi-continuously takes place by each individual image captured by the camera processed by the method becomes.

Eine Weiterbildung der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass die Lichtarten als Farbeindrücke schwarz und weiß realisiert werden.A Development of the device according to the invention and the method according to the invention characterized by the fact that the types of light as color impressions be realized black and white.

Eine Weiterbildung der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass die Intensität eines oder beider Lichtarten durch eine im Zielkörper angebrachte Lichtquelle mit vorzugsweise elektrischer Energieversorgung erhöht und der Zielkörper teilweise transparent ausgeführt wird.A Development of the device according to the invention and the method according to the invention characterized by the fact that the intensity of one or both Types of light by a mounted in the target body light source preferably increased with electrical power supply and the target body made partially transparent becomes.

Eine Weiterbildung der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass die Grenzlinien zwischen den Lichtarten und die Kanten des Zielkörpers zusammenfallen.A Development of the device according to the invention and the method according to the invention characterized by the fact that the boundary lines between the types of light and the edges of the target body coincide.

Eine Weiterbildung der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass der Zielkörper die Form eines Kuboktaeders annimmt, dessen Quadrate einer Lichtart und dessen Dreiecke der anderen Lichtart zugewiesen werden.A Development of the device according to the invention and the method according to the invention characterized by the fact that the target body in the form of a Kuboktaeders whose squares are of a kind of light and whose triangles are the be assigned to another type of light.

Die Erfindung beinhaltet ferner eine "6-Freiheitsgrade-Maus" genannte Vorrichtung zur Eingabe von sechs Freiheitsgraden in einen Computer, welches auf dem Zielkörper und Verfahren gemäß Anspruch 1 beruht und die ermittelten räumlichen Lagen beliebigen Programmen zur Verfügung stellt.The The invention further includes a "6-degree mouse" Device for entering six degrees of freedom into a computer, which on the target body and method according to claim 1 and the determined spatial positions arbitrary Programs provides.

Eine weitere Ausgestaltung der Erfindung beinhaltet eine 6-Freiheitsgrade-Maus, deren Betrieb mittels wenigstens eines Schalters eingeschaltet, unterbrochen bzw. abgestellt werden kann.A Another embodiment of the invention includes a 6-degree freedom mouse, whose operation is switched on by means of at least one switch, can be interrupted or turned off.

Insbesondere ist es vorteilhaft, dass die 6-Freiheitsgrade-Maus mit einer herkömmlichen, zweidimensionalen Computermaus verbunden ist und unter Zuhilfenahme des Schalters wahlweise als herkömmliche 2D-Maus oder als räumliche Computermaus betrieben werden kann.Especially it is advantageous that the 6-degree of freedom mouse with a conventional, two-dimensional Computer mouse is connected and with the help of the switch optionally as a conventional 2D mouse or as spatial Computer mouse can be operated.

Bilderimages

1: Einsatz eines Ausführungsbeispiels der erfindungsgemäßen Vorrichtung an der Mensch-Maschine-Schnittstelle des Computerarbeitsplatzes. 1 : Use of an embodiment of the device according to the invention at the man-machine interface of the computer workstation.

2: Ausführungsbeispiel eines erfindungsgemäßen Zielkörpers in Form eines Kuboktaeders, der aus schwarzen und transparenten Oberflächenanteilen zusammengesetzt und mit einer inneren Lichtquelle versehen ist. 2 Embodiment of a target body according to the invention in the form of a Kuboktaeders, which is composed of black and transparent surface portions and provided with an inner light source.

3: Alternative Ausführungsformen des Zielkörpers. 3 : Alternative embodiments of the target body.

4: Hardware und Softwarearchitektur des erfindungsgemäßen Verfahrens. 4 : Hardware and software architecture of the method according to the invention.

5: Ablaufschema des erfindungsgemäßen Verfahrens. 5 : Flow chart of the method according to the invention.

6: Herausschneiden von geraden Linien aus Punkteketten und Zusammensetzung gerader Linien zu drei- und viereckigen Polygonen. 6 Cutting out straight lines from point chains and composing straight lines into triangular and quadrilateral polygons.

7: Bestimmen zweier Lagen im Raum eines regelmäßigen Dreiecks bei gegebener Projektion 7 : Determining two positions in the space of a regular triangle for a given projection

8: Ausführungsbeispiel einer zu einer 6D-Maus erweiterten herkömmlichen Computermaus 8th Embodiment of a conventional computer mouse extended to a 6D mouse

Ausgestaltungdesign

1 zeigt ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung am Computerarbeitsplatz. Der Computerarbeitsplatz umfasst zumindest eine Zentraleinheit 101, einen Bildschirm 102, eine Tastatur 103, eine Computermaus 104, sowie insbesondere eine an den Computer angeschlossene Kamera 105 und ferner den in der Hand des Computernutzers 107 geführten Zielkörper 106. Die Kamera ist so angeordnet, dass der Zielkörper innerhalb des größtmöglichen Teils des Bewegungsraumes der Hand eines am Arbeitstisch sitzenden Computernutzers für die Kamera sichtbar ist. 1 shows an embodiment of the device according to the invention at the computer workstation. The computer workstation comprises at least one central unit 101 , a screen 102 , a keyboard 103 , a computer mouse 104 , and in particular a camera connected to the computer 105 and also in the hands of the computer user 107 guided target body 106 , The camera is positioned so that the target body is visible to the camera within as much of the motion space of the hand of a desk-top computer user.

2a zeigt das bevorzugte Ausführungsbeispiel eines erfindungsgemäßen Zielkörpers in Form eines Kuboktaeders 201. Die Oberfläche des Zielkörpers wurde so gewählt, dass weißes Licht entweder größtenteils farblos reflektiert oder farblos absorbiert wird, wodurch die Farbeindrücke weiß 202 und schwarz 203 im Kamerabild hervorgerufen werden. 2a shows the preferred embodiment of a target body according to the invention in the form of a Kuboktaeders 201 , The surface of the target body was chosen so that white light is either largely colorless reflected or colorless, whereby the color impressions white 202 and black 203 caused in the camera image.

2b zeigt den bevorzugten Einsatz einer Lichtquelle 212 mit elektrischer Energieversorgung 213 im Inneren des Zielkörpers 211, die der Verstärkung des Kontrastes zwischen den Lichtarten des Zielkörpers einerseits und zwischen der Oberfläche des Zielkörpers und dem restlichen Inhalt des Kamerabildes andererseits dient. Andere Lichtanordnungen zur Verbesserung der Bildqualität nach dem erfindungsgemäßen Verfahren, könnten aus einer ringförmigen, zur Kamera konzentrischen Lichtquelle einerseits und hoch-reflektierenden bzw. hoch-absorbierenden Oberflächen des Zielkörpers andererseits bestehen, wobei insbesondere infrarotes Licht zum Einsatz kommen könnte. 2 B shows the preferred use of a light source 212 with electrical energy supply 213 inside the target body 211 which serves to enhance the contrast between the light types of the target body on the one hand and between the surface of the target body and the remaining content of the camera image on the other hand. Other light arrangements for improving the image quality according to the method of the invention could consist of an annular light source concentric with the camera on the one hand and highly reflective or highly absorbent surfaces of the target body on the other hand, in which case infrared light could be used in particular.

Im Ausführungsbeispiel wurden die Quadrate 203 des Kuboktaeders schwarz und die Dreiecke 202 weiß ausgeführt. Der Anspruchsbereich der vorliegenden Erfindung erstreckt sich jedoch unabhängig von dieser Wahl auf alle Lichtartenkombinationen, die für Kameras unterscheidbar sind.In the embodiment, the squares 203 of the cuboctahedron black and the triangles 202 executed white. However, regardless of this choice, the scope of the present invention extends to all combinations of illuminants that are distinguishable to cameras.

Vorteilhafterweise wurde eine konvexe Form für den Zielkörper gewählt, damit die Oberflächenelemente zwar perspektivisch verzerrt auf das Kamerabild projiziert werden, aber sich nicht gegenseitig im Bild beeinflussen und nur dann darin verschwinden, wenn sie der Betrachtungsrichtung abgewandt sind. Ferner verlaufen beim Kuboktaeder, wie gefordert, alle Grenzen zwischen schwarzen und weißen Flächenanteilen entlang gerader Kanten 204.Advantageously, a convex shape was chosen for the target body, so that the surface elements, although distorted in perspective distorted on the camera image, but not affect each other in the image and disappear only when they are facing away from the viewing direction. Furthermore, in the cuboctahedron, as required, all boundaries between black and white areas occur along straight edges 204 ,

Die vorliegende Erfindung schließt alle Körper ein, die dadurch ausgezeichnet sind, dass sie über gerade Grenzlinien zwischen Oberflächenanteilen zweier unterschiedlicher Lichtarten verfügen. 3 zeigt einige einfache Beispiele solcher Zielkörper.The present invention includes all bodies that are distinguished by having even boundaries between surface portions of two different types of light. 3 shows some simple examples of such target bodies.

3a zeigt einen schwarz-weiß belegter Oktaeder 310. Wie der Kuboktaeder 330 besitzt er die Eigenschaft, dass in jeder Ecke 311 genau vier Kanten 312 aufeinander treffen. Dadurch kann jedes beliebige Paar zweier benachbarter Flächen mit den beiden entgegengesetzten Lichtarten belegt werden, so dass die gemeinsame Kante 312 eine Grenzlinie zwischen den Lichtarten erzeugt. 3a shows a black and white occupied octahedron 310 , Like the cuboctahedron 330 he owns the property that in every corner 311 exactly four edges 312 meet each other. Thereby, any pair of two adjacent surfaces can be occupied by the two opposite types of light, so that the common edge 312 creates a borderline between the types of light.

3b stellt einen Würfel 320 dar. Da beim Würfel stets drei Kanten 322 in einer Ecke 321 aufeinander stoßen, müssen beispielsweise die Vorder- 323 und Rückseite mit einem Muster aus vier Dreiecken 324 belegt werden, damit alle Würfelkanten Grenzlinien zwischen den Lichtarten bilden. 3b puts a cube 320 There are always three edges on the cube 322 in a corner 321 collide with each other, for example, the front 323 and back with a pattern of four triangles 324 be occupied, so that all cube edges form boundary lines between the light types.

3c enthält den Kuboktaeder 330, der gegenüber dem Oktaeder 310 den Vorteil hat, dass im Mindestfalle immer noch vier Flächen sichtbar sind und damit auch die vier zwischen diesen vier Flächen liegenden Grenzlinien sichtbar sind. Diese Grenzlinien werden stets kontrastreich abgebildet, da sie im Gegensatz zu den Kanten an der Umrandung 331 des projizierten Kuboktaeders nicht mit dem a priori unbekannten Bildhintergrund kontrastieren. 3c contains the cuboctahedron 330 , the opposite of the octahedron 310 has the advantage that in the minimum case still four surfaces are visible and thus also the four boundary lines lying between these four surfaces are visible. These boundary lines are always displayed in high contrast, as they are in contrast to the edges on the border 331 of the projected cuboctahedron do not contrast with the a priori unknown image background.

3d gibt einen Rhombenkuboktaeder 340 und 3e einen Ikosidodekaeder 350 wider, die beide gegenüber dem Kuboktaeder den Nachteil kürzerer Kanten 341, 351 im Verhältnis zu ihren äußeren Abmessungen besitzen. Damit wird das Auffinden gerader Linien im Kamerabild bei weit von der Kamera entfernten Zielkörpern erschwert. 3d gives a rhombic cuboctahedron 340 and 3e an icosidodecahedron 350 Both have the disadvantage of shorter edges compared to the cuboctahedron 341 . 351 in proportion to their external dimensions. This makes it difficult to find straight lines in the camera image when the target body is far away from the camera.

4 gibt schematisch die Anordnung des erfindungsgemäßen Verfahrens innerhalb der Hardware- und Softwarearchitektur eines Computers mit Mensch-Maschine-Schnittelle wider. Der Nutzer des Computers 401 führt mit seiner Hand 402 den Zielkörper 403 im Sichtfenster 404 einer Kamera 405. Die von der Kamera aufgenommenen Bilder des Zielkörpers werden in Form digitaler Daten mittels Datenverbindung 406 an eine dafür geeignete Hardwarekomponente 407 weitergeleitet. Das Betriebssystem des Computers 408 wird vom Eingang eines Bildes in Kenntnis gesetzt und stellt Mechanismen bereit, die es anderen Programmen ermöglichen, mittelbar oder unmittelbar auf die Kamerabilder in Datenform zuzugreifen. 4 schematically illustrates the arrangement of the inventive method within the hardware and software architecture of a computer with man-machine interface. The user of the computer 401 leads with his hand 402 the target body 403 in the viewing window 404 a camera 405 , The pictures taken by the camera of the target Body are in the form of digital data via data connection 406 to a suitable hardware component 407 forwarded. The operating system of the computer 408 is notified of the input of an image and provides mechanisms that allow other programs to directly or indirectly access the camera images in data form.

Das erfindungsgemäße Verfahren – im Weiteren "Algorithmus" 409 genannt – nutzt diese Mechanismen, um das eingegangene Bild in einen internen Speicher zu laden. Der Algorithmus ist als ein Programm realisiert, das zusammen mit anderen Programmen vom Betriebssystem 408 auf der Computer-Hardware 407 ausgeführt werden kann. Der Algorithmus stellt seine Ergebnisse seinerseits mittelbar oder unmittelbar anderen Programmen zur Verfügung.The inventive method - hereinafter "algorithm" 409 - uses these mechanisms to load the received image into an internal memory. The algorithm is realized as a program that works together with other programs by the operating system 408 on the computer hardware 407 can be executed. The algorithm, in turn, provides its results directly or indirectly to other programs.

Ein Anwendungsprogramm unterscheidet sich von anderen Programmen dadurch, dass es vom Computernutzer wahrgenommen und bewusst und in seinem Interesse genutzt wird, indem dieses z. B. Aufgaben lösen hilft oder zur Unterhaltung dient. Ein Anwendungsprogramm 410 kann auf die Ergebnisse des Algorithmus 409 zugreifen und diese seinerseits weiterverarbeiten. Es könnte z. B. die ermittelte räumliche Lage des Zielkörpers dazu verwenden, ein virtuelles Objekt im Raum zu positionieren und mittelbar oder unmittelbar auf dem Bildschirm 411 grafisch darzustellen oder um damit eine Maschine, z. B. einen Industrieroboter, zu steuern oder sonst einen Sinneseindruck erzeugen, der vom Computernutzer als Antwort auf die räumliche Bewegung seiner Hand wahrgenommen werden kann.An application program differs from other programs in that it is perceived and used consciously and in its interest by the computer user, by using this z. B. helps solve tasks or serves for entertainment. An application program 410 can affect the results of the algorithm 409 access and process these in turn. It could be z. B. use the determined spatial position of the target body to position a virtual object in space and directly or indirectly on the screen 411 graphically or to make a machine, z. As an industrial robot, or otherwise create a sensory impression that can be perceived by the computer user in response to the spatial movement of his hand.

5 zeigt die Vorgehensweise des erfindungsgemäßen Verfahrens zur Ermittlung der relativen räumlichen Lage des Zielkörpers bezüglich einer Kamera. 5 shows the procedure of the inventive method for determining the relative spatial position of the target body with respect to a camera.

Ziel des Verfahrens ist es einerseits festzustellen, ob sich im Kamerabild eine Projektion des Zielkörpers befindet und andererseits, wenn dies der Fall sein sollte, die räumliche Lage des Zielkörpers mit größtmöglicher Genauigkeit aus dieser Projektion zu bestimmen. Diese Ziele werden erfindungsgemäß durch wiederholtes, abwechselndes Zusammenstellen von Kandidaten mit anschließender Bewertung erreicht, wobei sich die Natur der betrachteten Kandidaten schrittweise verändert.aim On the one hand, it is to determine whether the camera image is in the process a projection of the target body is located and on the other hand, if that is the case, the spatial location of the Target body with the greatest possible To determine accuracy from this projection. These goals will be according to the invention by repeated, alternating Compiling candidates with subsequent evaluation achieved, whereby the nature of the considered candidates changes gradually.

Sobald ein neues Kamerabild 500 verfügbar ist, greift das erfindungsgemäße Verfahren im Schritt 501 auf das digitalisierte Kamerabild zu und wandelt es in Schritt 502 in ein Graustufenbild um, dergestalt dass die erste der beiden Lichtarten des Zielkörpers in einen Grauwert nahe dem Minimum der Grauwerteskala und die zweite Lichtart in einen Grauwert nahe dessen Maximum umgewandelt wird.Once a new camera picture 500 is available, the inventive method engages in the step 501 on the digitized camera image and converts it into step 502 into a grayscale image such that the first of the two types of light of the target body is converted to a gray value near the minimum of the gray level scale and the second type of light is converted to a gray level near its maximum.

Im anschließenden Schritt 503 führt der Algorithmus ein unter Fachleuten der Bildverarbeitung als Standardmethode der Kantendetektion bekanntes Verfahren durch, das die folgenden Teilschritte beinhaltet: Glättung des Bildrauschens, Berechnung der Gradientenhöhe und -richtung im Graubild, Nichtmaximum-Löschung, Kantenpunktverkettung und Bewertung der Kantenpunktketten mittels Schwellwerten. Das Verfahren liefert den Verlauf der ins Kamerabild projizierten Grenzlinien zwischen den Lichtarten des Zielkörpers sowie eventuell weitere Lichtkanten, die nicht von den Grenzlinien des Zielkörpers hervorgerufen wurden.In the subsequent step 503 The algorithm performs a method known to those skilled in the art of image processing as the standard method of edge detection, which includes the following sub-steps: image noise smoothing, gradient height and direction calculation in the gray image, non-maximum deletion, edge point concatenation, and edge chain evaluation by thresholds. The method provides the progression of the boundary lines projected into the camera image between the light types of the target body and possibly further light edges which were not caused by the border lines of the target body.

Im Schritt 504 schneidet der Algorithmus alle geraden Abschnitte aus den gewonnenen Kantenpunktketten heraus, die als Projektion geradliniger Grenzlinien in Frage kommen, und wandelt diese in Linienstücke um.In step 504 The algorithm cuts out all the straight sections from the acquired edge point chains, which are considered projections of linear boundary lines, and converts them into line segments.

Im Schritt 505 wird aus den Linienstücken eine Liste von Kandidaten aufgestellt, im Weiteren als "Polygone" bezeichnet, die als Projektionen von Dreiecken oder Vierecken im Kamerabild in Frage kommen.In step 505 From the line pieces a list of candidates is set up, hereafter referred to as "polygons", which are considered projections of triangles or squares in the camera image in question.

Schritt 506 bewertet die Polygone unter Betrachtung der vom Polygon eingeschlossenen Fläche hinsichtlich ihrer Eignung als Kandidat für die Projektion eines Dreiecks oder Vierecks des Zielkörpers.step 506 evaluates the polygons, considering the area enclosed by the polygon, for their suitability as a candidate for the projection of a triangle or quadrangle of the target body.

Im Schritt 507 werden für jeden hinreichend Erfolg versprechenden Polygon-Kandidaten alle räumlichen Lagen des Zielkörpers, im Ausführungsbeispiel des Kuboktaeders, relativ zur Kamera berechnet, deren Projektionen auf das Kamerabild genau diesen Polygon-Kandidaten enthalten würden. Damit entsteht eine Kandidatenliste für die Zielkörper.In step 507 For each sufficiently promising polygon candidate, all spatial positions of the target body, in the exemplary embodiment of the cuboctahedron, are calculated relative to the camera whose projections on the camera image would contain precisely these polygon candidates. This creates a candidate list for the target body.

Schritt 508 bewertet die Zielkörper-Kandidaten unter Hinzunahme weiterer Linienstücke in der Umgebung des Polygons und unter Einbeziehung der im Schritt 7 ermittelten räumlichen Lage.step 508 evaluates the target body candidates by adding more line pieces in the vicinity of the polygon and including the one in the step 7 determined spatial position.

Mittels geeigneter Schwellwerte entscheidet Schritt 509 des Verfahrens, ob wenigstens ein hinreichend aussichtsreicher Zielkörper-Kandidat im Kamerabild vorliegt. Ist dies nicht der Fall, bricht der Algorithmus ab und fängt wieder bei Schritt 501 an.By means of suitable thresholds step decides 509 of the method, whether at least one sufficiently promising target body candidate is present in the camera image. If this is not the case, the algorithm aborts and starts again at step 501 at.

Andernfalls wählt der Algorithmus in Schritt 510 den besten Zielkörper-Kandidaten aus, und berechnet mittels eines unter Fachleuten bekannten Best-Fit-Verfahrens diejenige räumliche Lage des Zielkörpers, deren Projektion auf das Kamerabild bestmöglich mit den dem Zielkörper zugeordneten Linienstücken übereinstimmt.Otherwise, the algorithm chooses in step 510 the best target body candidate, and calculated by means of a best-fit method known to those skilled in the spatial position of the target body whose projection on the camera image as best as possible with the target body associated line pieces.

Im letzten Schritt 511 stellt der Algorithmus die berechnete räumliche Lage des Zielkörpers 512 zur Weiterverarbeitung durch Drittprogramme zur Verfügung und kehrt zu Schritt 501 zurück.In the last step 511 the algorithm sets the calculated spatial position of the target body 512 available for further processing by third party programs and returns to step 501 back.

6 zeigt beispielhaft die Schritte 503 bis 505 des Algorithmus. 6 shows by way of example the steps 503 to 505 of the algorithm.

6a gibt einen Ausschnitt aus einem Kamerabild 611 des Kuboktaeders wider sowie eine der vom Kantendetektor, Schritt 503, gefundenen Kantenpunktketten 612, die hier auf das Bild projiziert wurde. 6a gives a section of a camera image 611 of the cuboctahedron as well as one of the edge detector, step 503 , found edge point chains 612 that was projected onto the picture here.

6b zeigt die vom Algorithmus unter Anwendung enger Geradheitstoleranzen 622 gefundenen geradlinigen Abschnitte in der Kantenpunktekette 621 sowie die in diese geradlinigen Abschnitte hineingelegten Ausgleichsgeraden 623. 6b shows the algorithm using tight straightness tolerances 622 found rectilinear sections in the edge point chain 621 as well as in this rectilinear sections inserted equalization line 623 ,

In 6c wurden zunächst die Ausgleichsgeraden 623 nahe dem ersten 631 und letzten Punkt 632 des jeweiligen Abschnittes der Kantenpunktkette zu einem Linienstück 633 verkürzt. Der Richtungspfeil am Linienstück gibt an, welche Lichtart sich im ursprünglichen Bild 611 rechts bzw. links des Linienstücks befunden hat. Ferner zeigt das Bild die Suche von Paaren aus je einem Anfangs- 631 und einem Endpunkt 632 zweier verschiedener Linienstücke 633, deren gegenseitiger Abstand einen Schwellwert 634 unterschreitetIn 6c were first the equalizer 623 near the first 631 and last point 632 of the respective section of the edge point chain to a line piece 633 shortened. The directional arrow on the line section indicates which light type is in the original image 611 located on the right or left of the line piece. Furthermore, the picture shows the search for pairs from a 631 and an endpoint 632 two different line pieces 633 whose mutual distance is a threshold 634 below

In 6d hat der Algorithmus die drei gefundenen Paare 641, deren drei Anfangs- und drei Endpunkte zu denselben drei Linienstücken gehören, zu einem Dreieck 642 ergänzt, welches in guter Näherung dem weißen Dreieck in der Mitte der 6a entspricht.In 6d the algorithm has the three pairs found 641 whose three start and three endpoints belong to the same three line-pieces, to a triangle 642 added, which approximates the white triangle in the middle of the 6a equivalent.

Für Vierecke verläuft das Verfahren analog, wobei der Drehsinn der Pfeile in beiden Fällen angibt, welche Lichtart sich im Inneren des Polygons befinden muss.For Quadrilaterals, the procedure is analog, with the direction of rotation The arrows in both cases indicate which kind of light is must be located inside the polygon.

7 zeigt das in Schritt 507 durchgeführte Verfahren, das darin besteht, jedem im Kamerabild gefundenen Dreieck im Allgemeinen zwei im Raum liegende gleichseitige Dreiecke zuzuordnen. Die Kantenlänge dieser gleichseitigen Dreiecke ist gleich der Kantenlänge der Dreiecke des Zielkörpers. Vom Standpunkt der Kamera aus betrachtet erscheinen beide gleichseitigen Dreiecke völlig identisch und sie fallen außerdem mit dem im Kamerabild gefundenen Dreieck zusammen. 7 shows that in step 507 performed method, which is to assign each triangular triangle found in the camera image generally two equilateral triangles in space. The edge length of these equilateral triangles is equal to the edge length of the triangles of the target body. From the point of view of the camera, both equilateral triangles appear completely identical and they also coincide with the triangle found in the camera image.

Für Quadrate, deren Projektion im Allgemeinen Parallelogramme sind, wird zunächst in das gefundene Bildparallelogramm ein Dreieck eingezeichnet, das im Verhältnis zum gleichseitigen Dreieck dieselbe perspektivische Verzerrung aufweist, wie das Parallelogramm im Verhältnis zum Quadrat. Dieses eingezeichnete Dreieck wird gemäß Schritt 507 behandelt. Die Ergebnisse werden anschließend auf das Parallelogramm zurück übertragen, wodurch sich die zwei gesuchten räumlichen Lagen eines Quadrates bekannter Größe ergeben.For squares whose projections are generally parallelograms, a triangle is first drawn into the found image parallelogram, which has the same perspective distortion in relation to the equilateral triangle as the parallelogram in relation to the square. This drawn triangle will follow step 507 treated. The results are then transferred back to the parallelogram, yielding the two sought spatial locations of a square of known size.

Modellhaft geht das Verfahren von einem Kamerabezugssystem 701 im Brennpunkt des Kameraobjektivs und einem Bildbezugssystem 702 in einer Bildebene aus, die senkrecht zur Kameraachse z steht. In der Bildebene befindet sich modellhaft das Bildrechteck 703 dessen Mittelpunkt auf der Kameraachse z liegt. Der Abstand der Bildebene zum Brennpunkt ist so gewählt, dass das Verhältnis der Bildbreite zu diesem Abstand dem horizontalen Bildwinkel der Kamera entspricht. Vom Brennpunkt der Kamera gehen drei Strahlen 704 dergestalt in den Raum, dass jeder Strahl eine Ecke 705 des in die Bildebene einzeichneten Dreiecks 706 durchstößt. Das erfindungsgemäße Verfahren platziert die gleichseitigen Dreiecke 707 und 708 so im Raum, dass deren drei Ecken alle drei Strahlen berühren.The process is modeled on a camera orientation system 701 at the focal point of the camera lens and an image reference system 702 in an image plane that is perpendicular to the camera axis z. The pictorial rectangle is modeled in the image plane 703 whose center lies on the camera axis z. The distance of the image plane to the focal point is chosen so that the ratio of the image width to this distance corresponds to the horizontal angle of the camera. From the focal point of the camera go three rays 704 so in the room that each ray is a corner 705 of the triangle drawn in the picture plane 706 pierces. The method according to the invention places the equilateral triangles 707 and 708 so in the room that their three corners touch all three rays.

8 zeigt in Weiterbildung der vorliegenden Erfindung eine lediglich ergonomisch modifizierte, gewöhnliche Computermaus 801, die um einen Kuboktaeder 802 sowie einen Schalter 803 ergänzt wurde. Diese Anordnung realisiert ein Eingabegerät, das sowohl als gewöhnliche Computermaus wie auch als räumliche Computermaus, das heißt, als Eingabegerät für alle sechs räumlichen Freiheitsgrade Verwendung finden kann. 8th shows a further development of the present invention, a merely ergonomically modified, ordinary computer mouse 801 around a cuboctahedron 802 as well as a switch 803 was added. This arrangement realizes an input device that can be used both as an ordinary computer mouse and as a spatial computer mouse, that is, as an input device for all six spatial degrees of freedom.

Bei der räumlichen Computermaus nach dem erfindungsgemäßen Verfahren wird ein Verfolgungsmechanismus des in der Hand des Computernutzers gehaltenen Eingabegerätes 801 dadurch realisiert, dass die Lage des erfindungsgemäßen Zielkörpers, vorzugsweise eines Kuboktaeders 802, innerhalb des Sichtbereiches einer Kamera in jedem von der Kamera übermittelten Bild bestimmt wird.In the spatial computer mouse according to the inventive method is a tracking mechanism held in the hand of the computer user input device 801 realized in that the position of the target body according to the invention, preferably a Kuboktaeders 802 , is determined within the field of view of a camera in each image transmitted by the camera.

Erläuternd sei darauf verwiesen, dass eine gewöhnliche Computermaus die relative Verlagerung des am Bildschirm beobachtbaren Pointers steuert und zwar relativ zu jeder beliebigen Ausgangsstellung des Pointers. Die Verlagerung des Pointers wird vom Benutzer visuell kontrolliert und gegebenenfalls korrigiert, um den Pointer an einen gewünschten Punkt am Bildschirm zu stellen oder entlang einer Bahn zu bewegen. Reicht der Bewegungsraum der die Maus führenden Hand aufgrund von Kollisionen oder ungünstiger Körperhaltung nicht mehr aus, um eine gewünschte Bahn auszuführen, kann der Benutzer die Computermaus abheben, in eine günstigere Position bringen und wieder absetzen. Mit dem Abheben unterbricht der Benutzer absichtlich den Verfolgungsmechanismus (Kugel, Laser etc.), um den Pointer am Bildschirm zum Stillstand zu bringen, während die Computermaus verlagert wird. Dieser Vorgang soll als "Zustellung" bezeichnet werden.By way of illustration, it should be understood that a common computer mouse controls the relative displacement of the pointer observable on the screen relative to any initial position of the pointer. The displacement of the pointer is visually controlled by the user and corrected, if necessary, to place the pointer at a desired point on the screen or to move along a path. If the range of motion of the hand guiding the mouse is no longer sufficient to perform a desired trajectory due to collisions or unfavorable posture, the user can lift the computer mouse, place it in a more favorable position and set it down again. Upon taking off, the user intentionally interrupts the tracking mechanism (bullet, laser, etc.) to bring the pointer to a standstill on the screen, while the computer mouse is being relocated. This process should be referred to as "delivery".

Um eine Zustellung auch mit einer räumlichen Computermaus durchführen zu können, steht naturgemäß die für das Abheben in Anspruch genommene dritte Dimension nicht mehr zur Verfügung. In der erfindungsgemäßen Vorrichtung wird die Funktion des Abhebens stattdessen mittels eines Schalters 803 realisiert. Vorteilhafterweise handelt es sich dabei um einen an ergonomisch günstiger Stelle angebrachten Schalter. Ebenfalls vorteilhafterweise kann dieser Schalter auch dazu verwendet werden, die Computermaus vom gewöhnlichen 2D-Modus in den räumlichen Funktionsmodus hin- und herzuschalten.In order to be able to carry out a delivery even with a spatial computer mouse, it is natural that the third dimension taken up for withdrawal no longer be available. In the device according to the invention, the function of lifting is instead effected by means of a switch 803 realized. Advantageously, this is a switch attached to an ergonomically favorable location. Also advantageously, this switch can also be used to toggle the computer mouse from ordinary 2D mode to spatial mode of operation.

101101
Zentraleinheit des Computerscentral processing unit of the computer
102102
Bildschirmscreen
103103
Tastaturkeyboard
104104
Computermauscomputer mouse
105105
Kameracamera
106106
Zielkörpertarget body
107107
Hand des Computernutzershand of the computer user
201201
Kuboktaedercuboctahedron
202202
Weißes Dreieckwhite triangle
203203
Schwarzes Quadratblack square
204204
Gerade KanteJust edge
211211
Zielkörpertarget body
212212
Lichtquellelight source
213213
Elektrische Energieversorgungelectrical power supply
310310
Oktaederoctahedron
311311
Ecke des Oktaederscorner of the octahedron
312312
Kante des Oktaedersedge of the octahedron
320320
Würfelcube
321321
Ecke des Würfelscorner of the cube
322322
Kante des Würfelsedge of the cube
323323
Vorderseite des Würfelsfront of the cube
324324
Dreieck auf der Würfelvorderseitetriangle on the cube front
330330
Kuboktaedercuboctahedron
331331
Umrandung des projizierten Kuboktaedersborder of the projected cuboctahedron
340340
RhombenkuboktaederRhombicuboctahedron
341341
Kante des Rhombenkuboktaedersedge of the Rhombenkuboktaeders
350350
Ikosidodekaedericosidodecahedron
351351
Kante des Ikosidodekaedersedge of the Ikosidodekaeders
401401
Computernutzercomputer users
402402
Hand des Computernutzershand of the computer user
403403
Zielkörpertarget body
404404
Sichtfenster der Kamerawindow the camera
405405
Kameracamera
406406
DatenverbindungData Connection
407407
Hardware des Computershardware of the computer
408408
Betriebssystem des Computersoperating system of the computer
409409
Erfindungsgemäßer Algorithmusinventive algorithm
410410
Anwendungsprogrammapplication program
411411
Bildschirmscreen
500500
Kamerabildcamera image
501 ... 511501 ... 511
Schritte 501 bis 511 des Algorithmussteps 501 to 511 of the algorithm
512512
Räumliche Lagespatial location
611611
Kuboktaedercuboctahedron
612612
KantenpunktketteEdge point chain
621621
KantenpunktketteEdge point chain
622622
Geradheitstoleranzenstraightness
623623
Ausgleichsgeradefit line
631631
Anfangspunkt eines Linienstücksstarting point a line piece
632632
Endpunkt eines Linienstücksendpoint a line piece
633633
Linienstückline piece
634634
Abstandsschwellwertdistance threshold
641641
Anfangs-Endpunkt-PaarAt first endpoint pair
642642
Dreiecktriangle
701701
Bezugssystem der Kamerareference system the camera
702702
Bezugssystem des Kamerabildesreference system of the camera image
703703
Bildrechteckimage rectangle
704704
Strahlbeam
705705
Ecke des Dreieckscorner of the triangle
706706
Dreiecktriangle
707707
Erstes gleichseitiges Dreieckfirst equilateral triangle
708708
Zweites gleichzeitiges Dreiecksecond simultaneous triangle
801801
Computermauscomputer mouse
802802
Kuboktaedercuboctahedron
803803
Schalterswitch

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - US 6711293 B1 [0007] - US 6711293 B1 [0007]
  • - DE 102005011432 A1 [0008] - DE 102005011432 A1 [0008]
  • - WO 2004/114112 A1 [0009] WO 2004/114112 A1 [0009]
  • - US 6526166 [0011] US 6526166 [0011]
  • - WO 2005/075936 A1 [0012] WO 2005/075936 A1 [0012]
  • - US 2005201613 [0015] US 2005201613 [0015]
  • - WO 2007/04431 A2 [0015] - WO 2007/04431 A2 [0015]

Claims (10)

Zielkörper, dessen Oberfläche mindestens zwei, von einer Kamera unterscheidbare Lichtarten reflektiert bzw. aussendet, wobei die Grenzen zwischen den Oberflächenanteilen der beiden Lichtarten als gerade Strecken ausgeführt sind, sowie Verfahren zur Bestimmung der räumlichen Lage des Zielkörpers relativ zu einer Kamera durch Verarbeitung der von dieser Kamera aufgenommenen Bilder dadurch gekennzeichnet, dass a. ein von einer Kamera erzeugtes Bild geladen wird, b. eine Grauwertbild erzeugt wird, das die Lichtarten des Zielkörpers dem c. Minimal- bzw. Maximalwert zuweist, d. ein Kantendetektor zur Bildung verketteter Kantenpunkte herangezogen wird, e. gerade Linienstücke aus den Kantenpunktketten herausgeschnitten werden, f. die geraden Linienstücke zu Polygonen zusammengesetzt werden, g. eine Bewertung der Polygone erfolgt, h. die zu den Polygonen passenden Projektionen der Zielkörperflächen i. bestimmt werden, die jeweils einer räumlichen Lage des Zielkörpers entsprechen j. eine Bewertung der räumlichen Lagen des Zielkörpers erfolgt, k. ein Best-Fit des akzeptierten Zielkörpers erfolgt und l. die ermittelte räumliche Lage übermittelt wird.A target body whose surface reflects or emits at least two types of light distinguishable by a camera, wherein the boundaries between the surface portions of the two types of light are designed as straight stretches, and methods for determining the spatial position of the target relative to a camera by processing them Camera recorded images characterized in that a. an image generated by a camera is loaded, b. a gray value image is generated, which the lights of the target body the c. Assign minimum or maximum value, d. an edge detector is used to form chained edge points, e. straight line pieces are cut out of the edge point chains, f. the straight line pieces are assembled into polygons, g. an evaluation of the polygons takes place, h. the projections of the target body surfaces matching the polygons i. are determined, each corresponding to a spatial position of the target body j. an evaluation of the spatial positions of the target body takes place, k. a best fit of the accepted target body takes place and l. the determined spatial position is transmitted. Verfahren zum Einsatz des Zielkörpers nach Anspruch 1, wobei der Zielkörper von der Hand einer Person geführt wird und das Verfahren somit die sechs räumlichen Freiheitsgrade der Handstellung bestimmt.Method for using the target body according to claim 1, wherein the target body guided by the hand of a person and the method thus the six spatial degrees of freedom the hand position determined. Verfahren nach Anspruch 2, wobei die Bestimmung der räumlichen Lage des Zielkörpers quasi-kontinuierlich erfolgt, indem jedes einzelne, von der Kamera erfasste Bild von dem Verfahren bearbeitet wird.The method of claim 2, wherein the determination of spatial position of the target body quasi-continuously is done by taking every single, captured by the camera image of the procedure is processed. Verfahren nach Anspruch 2 oder 3, wobei die Lichtarten als Farbeindrücke schwarz und weiß realisiert werden.Method according to claim 2 or 3, wherein the types of light realized as color impressions black and white become. Verfahren nach einem der Ansprüche 2 bis 4, wobei die Intensität eines oder beider Lichtarten durch eine im Zielkörper angebrachte Lichtquelle mit vorzugsweise elektrischer Energieversorgung erhöht und der Zielkörper teilweise transparent ausgeführt wird.Method according to one of claims 2 to 4, wherein the intensity of one or both types of light a mounted in the target body light source preferably increased electrical power and the target body partially transparent. Verfahren nach einem der Ansprüche 2 bis 5, wobei die Grenzlinien zwischen den Lichtarten und die Kanten des Zielkörpers zusammenfallen.Method according to one of claims 2 to 5, where the boundary lines between the types of light and the edges of the target body coincide. Verfahren nach einem der Ansprüche 2 bis 6, wobei der Zielkörper die Form eines Kuboktaeders annimmt, dessen Quadrate einer Lichtart und dessen Dreiecke der anderen Lichtart zugewiesen werden.Method according to one of claims 2 to 6, wherein the target body takes the form of a Kuboktaeders, its squares of one kind of light and its triangles of the other kind of light be assigned to. Verwendung der Vorrichtung gemäß Anspruch 1 zur Durchführung des Verfahrens nach einem der Ansprüche 2 bis 7.Use of the device according to claim 1 for carrying out the method according to one of the claims 2 to 7. Verwendung nach Anspruch 8, wobei der Betrieb einer "6-Freiheitsgrade-Maus" mittels wenigstens eines Schalters eingeschaltet, unterbrochen bzw. abgestellt werden kann.Use according to claim 8, wherein the operation of a "6-degree of freedom mouse" switched on by means of at least one switch, can be interrupted or turned off. Verwendung nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die 6-Freiheitsgrade-Maus wahlweise als herkömmliche 2-D-Maus oder als räumliche Computermaus betrieben werden kann.Use according to claim 8 or 9, characterized that the 6-degree of freedom mouse optionally as conventional 2-D mouse or as a spatial computer mouse can be operated.
DE102007053008A 2007-11-05 2007-11-05 Target body and method for determining its spatial position Withdrawn DE102007053008A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102007053008A DE102007053008A1 (en) 2007-11-05 2007-11-05 Target body and method for determining its spatial position
PCT/EP2008/009106 WO2009059716A1 (en) 2007-11-05 2008-10-29 Pointing device and method for operating the pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007053008A DE102007053008A1 (en) 2007-11-05 2007-11-05 Target body and method for determining its spatial position

Publications (1)

Publication Number Publication Date
DE102007053008A1 true DE102007053008A1 (en) 2009-05-14

Family

ID=40090481

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007053008A Withdrawn DE102007053008A1 (en) 2007-11-05 2007-11-05 Target body and method for determining its spatial position

Country Status (2)

Country Link
DE (1) DE102007053008A1 (en)
WO (1) WO2009059716A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010016964A1 (en) * 2010-05-17 2011-11-17 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for controlling computer-generated display of e.g. vehicle on display device, involves detecting and processing movements of virtual object such that virtual object follows movements of subject model
WO2015082636A1 (en) * 2013-12-06 2015-06-11 Commissariat à l'énergie atomique et aux énergies alternatives Control device with multidirectional force feedback
EP3316066B1 (en) * 2016-10-26 2019-09-25 Einhell Germany AG Method for determining at least a part of a border

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311791B1 (en) 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
US8497902B2 (en) * 2009-12-18 2013-07-30 Sony Computer Entertainment Inc. System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof
CN102163092B (en) * 2011-03-25 2013-11-20 胡世曦 Finger mouse
JP6457262B2 (en) 2011-03-30 2019-01-23 アヴィザル,モルデチャイ Method and system for simulating surgery
KR101978740B1 (en) * 2012-02-15 2019-05-15 삼성전자주식회사 Tele-operation system and control method thereof
WO2013177520A1 (en) * 2012-05-25 2013-11-28 Surgical Theater LLC Hybrid image/scene renderer with hands free control
WO2015020134A1 (en) * 2013-08-08 2015-02-12 国立大学法人京都大学 Method for generating control command based on body motion, and control command generation device
JP5956481B2 (en) 2014-02-10 2016-07-27 レノボ・シンガポール・プライベート・リミテッド Input device, input method, and computer-executable program
CN105992996B (en) 2014-04-04 2019-11-26 外科手术室公司 Dynamic and interactive navigation in surgical environment
CN104647390B (en) * 2015-02-11 2016-02-10 清华大学 For the multiple-camera associating active tracing order calibration method of mechanical arm remote operating
BR112018007473A2 (en) 2015-10-14 2018-10-23 Surgical Theater LLC augmented reality surgical navigation
CN105278700A (en) * 2015-11-09 2016-01-27 深圳Tcl新技术有限公司 Wireless mouse working mode switching method and device
US10861236B2 (en) 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
US10866652B2 (en) 2017-11-13 2020-12-15 Samsung Electronics Co., Ltd. System and method for distributed device tracking
CN110763141B (en) * 2019-08-29 2021-09-03 北京空间飞行器总体设计部 Precision verification method and system of high-precision six-degree-of-freedom measurement system
US10843067B1 (en) * 2019-10-04 2020-11-24 Varjo Technologies Oy Input device, system, and method

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3223896A1 (en) * 1982-06-26 1984-01-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., 8000 München Method and arrangement for generating programs for track-controlled industrial robots
JPH0642920A (en) * 1992-07-27 1994-02-18 Mitsubishi Heavy Ind Ltd Apparatus for measuring three-dimensional position
DE19536295A1 (en) * 1995-09-29 1997-04-03 Daimler Benz Ag Arrangement of partially structured flat signal markers for calibration and orientation of three=dimensional sensors
US6417836B1 (en) * 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
DE10112732A1 (en) * 2001-03-14 2002-10-02 Boochs Frank Method for determining the position of measurement images of an object relative to the object
US6526166B1 (en) 1999-12-29 2003-02-25 Intel Corporation Using a reference cube for capture of 3D geometry
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
WO2004114112A1 (en) 2003-06-23 2004-12-29 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
WO2005075936A1 (en) 2004-02-03 2005-08-18 Isra Vision Systems Ag Method for determining the position of an object in a space
US20050201613A1 (en) 1998-10-23 2005-09-15 Hassan Mostafavi Single-camera tracking of an object
US20050276444A1 (en) * 2004-05-28 2005-12-15 Zhou Zhi Y Interactive system and method
DE102005011432A1 (en) 2005-03-12 2006-09-14 Volkswagen Ag Data glove for virtual-reality-system, has reference body comprising hand reference points identified as reference points by infrared camera, and retaining unit retaining person`s finger tip and comprising finger reference points
WO2007004431A1 (en) 2005-07-04 2007-01-11 Elfo-Tec Co., Ltd. Method of forming high-resolution pattern and apparatus therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2388418A (en) * 2002-03-28 2003-11-12 Marcus James Eales Input or pointing device with a camera
US20040212589A1 (en) * 2003-04-24 2004-10-28 Hall Deirdre M. System and method for fusing and displaying multiple degree of freedom positional input data from multiple input sources

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3223896A1 (en) * 1982-06-26 1984-01-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., 8000 München Method and arrangement for generating programs for track-controlled industrial robots
JPH0642920A (en) * 1992-07-27 1994-02-18 Mitsubishi Heavy Ind Ltd Apparatus for measuring three-dimensional position
DE19536295A1 (en) * 1995-09-29 1997-04-03 Daimler Benz Ag Arrangement of partially structured flat signal markers for calibration and orientation of three=dimensional sensors
US20050201613A1 (en) 1998-10-23 2005-09-15 Hassan Mostafavi Single-camera tracking of an object
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6417836B1 (en) * 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
US6526166B1 (en) 1999-12-29 2003-02-25 Intel Corporation Using a reference cube for capture of 3D geometry
DE10112732A1 (en) * 2001-03-14 2002-10-02 Boochs Frank Method for determining the position of measurement images of an object relative to the object
WO2004114112A1 (en) 2003-06-23 2004-12-29 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
WO2005075936A1 (en) 2004-02-03 2005-08-18 Isra Vision Systems Ag Method for determining the position of an object in a space
US20050276444A1 (en) * 2004-05-28 2005-12-15 Zhou Zhi Y Interactive system and method
DE102005011432A1 (en) 2005-03-12 2006-09-14 Volkswagen Ag Data glove for virtual-reality-system, has reference body comprising hand reference points identified as reference points by infrared camera, and retaining unit retaining person`s finger tip and comprising finger reference points
WO2007004431A1 (en) 2005-07-04 2007-01-11 Elfo-Tec Co., Ltd. Method of forming high-resolution pattern and apparatus therefor

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Lowe,D.G.: Three-Dimensional Object Recognition fr om Single Two-Dimensional Images. In: Artificial I ntelligence, 31, 3, (März 1987), S.355-395; Woods, E., et.al.: MagicMouse: an Inexpensive 6-Degree-of -Freedom Mouse. In: Proceedings of the 1st interna tional conference on Computer graphics and interac tive techniques in Australasia and South East Asia , S.285-286, 2003
Lowe,D.G.: Three-Dimensional Object Recognition from Single Two-Dimensional Images. In: Artificial Intelligence, 31, 3, (März 1987), S.355-395 *
Woods, E., et.al.: MagicMouse: an Inexpensive 6-Degree-of -Freedom Mouse. In: Proceedings of the 1st international conference on Computer graphics and interactive techniques in Australasia and South East Asia, S. 285-286, 2003 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010016964A1 (en) * 2010-05-17 2011-11-17 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for controlling computer-generated display of e.g. vehicle on display device, involves detecting and processing movements of virtual object such that virtual object follows movements of subject model
DE102010016964B4 (en) * 2010-05-17 2014-05-15 Krauss-Maffei Wegmann Gmbh & Co. Kg Method and device for controlling a computer-generated display of a virtual object
WO2015082636A1 (en) * 2013-12-06 2015-06-11 Commissariat à l'énergie atomique et aux énergies alternatives Control device with multidirectional force feedback
FR3014348A1 (en) * 2013-12-06 2015-06-12 Commissariat Energie Atomique MULTIDIRECTIONAL EFFORT RETENTION CONTROL DEVICE
US9895812B2 (en) 2013-12-06 2018-02-20 Commissariat A L'energie Atomique Et Aux Energies Alternatives Control device with multidirectional force feedback
EP3316066B1 (en) * 2016-10-26 2019-09-25 Einhell Germany AG Method for determining at least a part of a border

Also Published As

Publication number Publication date
WO2009059716A1 (en) 2009-05-14

Similar Documents

Publication Publication Date Title
DE102007053008A1 (en) Target body and method for determining its spatial position
DE102014013677B4 (en) Method for optically scanning and measuring an environment with a handheld scanner and subdivided display
DE60133386T2 (en) DEVICE AND METHOD FOR DISPLAYING A TARGET BY IMAGE PROCESSING WITHOUT THREE DIMENSIONAL MODELING
DE102016200225B4 (en) Perspective showing a virtual scene component
DE102018109463C5 (en) Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user using a mobile display device
DE102014013678B3 (en) Method for optically sensing and measuring an environment with a handheld scanner and gesture control
Ferland et al. Egocentric and exocentric teleoperation interface using real-time, 3D video projection
EP2705417A1 (en) Method for determining the relative position of an object in an area, and optical input system
DE102007045835A1 (en) Method and device for displaying a virtual object in a real environment
DE10043460A1 (en) Locating parts of the body by evaluating edge direction information
DE112014006911T5 (en) Method and system for scanning an object using an RGB-D sensor
EP3354190A1 (en) Computer-implemented method for detecting a cornea vertex
EP2627968B1 (en) Device and method for three-dimensional image capturing
DE102013215301A1 (en) System, method and computer program product for extruding a model through a two-dimensional scene
CN111145341B (en) Virtual-real fusion illumination consistency drawing method based on single light source
DE102014114131A1 (en) Information processing and electronic device
EP3931798A1 (en) Estimating the movement of an image position
DE102007009851B3 (en) Industrial robot's position determining method, involves determining position of robot relative to object based on assigned model points, and determining position of camera assigned to image and position of camera relative to robot
DE202014010357U1 (en) Device for optically scanning and measuring an environment with a hand-held scanner and control by gestures
DE102007041482A1 (en) Method for automatic recognition of at least the type and / or the position of a gesture formed with a limb, in particular a hand gesture
WO2017017103A1 (en) System for the stereoscopic representation of images of an endoscope
DE102019125612A1 (en) Method for the computer-implemented simulation of an optical sensor in a virtual environment
DE102014113015B4 (en) An apparatus for optically scanning and surveying an environment, comprising a hand-held scanner with a support structure
DE102013219736A1 (en) Design data creation
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: REPETZKI, SEBASTIAN, PROF. DR.-ING., INNSBRUCK, AT

8130 Withdrawal