AT501442A1 - COMPUTER-ASSISTED INTERFACE SYSTEM - Google Patents

COMPUTER-ASSISTED INTERFACE SYSTEM Download PDF

Info

Publication number
AT501442A1
AT501442A1 AT0029405A AT2942005A AT501442A1 AT 501442 A1 AT501442 A1 AT 501442A1 AT 0029405 A AT0029405 A AT 0029405A AT 2942005 A AT2942005 A AT 2942005A AT 501442 A1 AT501442 A1 AT 501442A1
Authority
AT
Austria
Prior art keywords
interface system
navigation
camera
mirror
control part
Prior art date
Application number
AT0029405A
Other languages
German (de)
Other versions
AT501442B1 (en
Inventor
Thomas Dipl Ing Kienzl
Original Assignee
Thomas Dipl Ing Kienzl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomas Dipl Ing Kienzl filed Critical Thomas Dipl Ing Kienzl
Priority to AT0029405A priority Critical patent/AT501442B1/en
Priority to PCT/AT2006/000069 priority patent/WO2006089323A1/en
Priority to EP06704711A priority patent/EP1856594A1/en
Publication of AT501442A1 publication Critical patent/AT501442A1/en
Application granted granted Critical
Publication of AT501442B1 publication Critical patent/AT501442B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00734Aspects not otherwise provided for battery operated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Accessories Of Cameras (AREA)
  • Navigation (AREA)

Description

• · · · • · · · • · · · • · · · 28459/cw• 28459 / cw. • 28459 / cw

Die Erfindung betrifft ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene, umfassend eine Kamera, die zur optischen Erfassung der Navigationsebene ausgelegt ist, wenigstens einen kabel- und elektronikfireien Steuerteil mit wenigstens einer darauf angeordneten optischen Markierung, der zur manuellen Führung in der Navigationsebene ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung bei Gebrauch des Steuerteils zur Kamera hin ausgerichtet ist.The invention relates to a computer-assisted interface system for manual navigation in a navigation plane, comprising a camera which is designed for optical detection of the navigation plane, at least one cable and elektronikfireien control part with at least one optical marking arranged thereon, which is designed for manual guidance in the navigation level and it is provided that the at least one optical marking is aligned with the use of the control part to the camera.

Solche Systeme sind in der Regel sehr komplex zu bedienen und für imgeübte Anwender nur schwer zu durchschauen. Die Vorstellungskraft der Anwender wird bei solchen Systemen kaum unterstützt und findet eher nur im akkustischen Bereich seine Anwendung. Die Anwendung für ein breites Publikum ist daher problematisch.Such systems are usually very complex to use and difficult for experienced users to see through. The imagination of users is hardly supported in such systems and is more likely to be used only in the acoustic field. The application for a wide audience is therefore problematic.

Die Aufgabe der Erfindung besteht darin, ein bekanntes Schnittstellensystem derart weiterzuentwickeln, dass es die bekannten Nachteile vermeidet und intuitiv für jedermann bedienbar ist.The object of the invention is to further develop a known interface system in such a way that it avoids the known disadvantages and can be operated intuitively by anyone.

Erfindungsgemäß wird dies dadurch erreicht, dass die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils in der Navigationsebene mit einem virtuellen zwei- oder dreidimensionalen Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist.According to the invention this is achieved in that the navigation parameters motion, position and orientation of the control part are coupled in the navigation plane with a virtual two- or three-dimensional model, which model can be displayed on an image output unit, such as a screen, depending on the navigation parameters.

Damit können kostengünstige Steuerteile für eine ansprechende Navigation in virtuellen 3D-Modellen eingesetzt werden, die auch von Laien einfach bedienbar sind.This allows cost-effective control parts for an appealing navigation in virtual 3D models are used, which are easy to use even by laymen.

In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Kamera zur optischen Erfassung der Navigationsebene von jener Seite der Navigationsebene her ausgelegt ist, die dem Benutzer abgewandt ist.In a particular embodiment of the invention can be provided that the camera is designed for the optical detection of the navigation plane from that side of the navigation plane ago, which is remote from the user.

Damit wird eine Abschattung der Kamera durch den Benutzer selbst zuverlässig vermieden.This shadowing of the camera by the user himself is reliably avoided.

In Weiterführung der Erfindung kann vorgesehen sein, dass in der Navigationsebene eine Platte aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die Kamera ausgelegt ist, transparent ist.In a continuation of the invention can be provided that in the navigation level, a plate made of glass or plastic is arranged, which is transparent to a wavelength range for which the camera is designed.

Durch eine derartige Platte wird die Navigation in der Navigationsebene erleichtert. 1 ·· ·· · ·· ··' Μ • ·· · · · · · · · · · • · · · · ······ • · · · · · · ··· · · ···· ··· · · ·Such a plate facilitates navigation in the navigation plane. 1 ·· ··························································· ···· · · ·

Weiters kann vorgesehen sein, dass die Navigationsebene von einem Rahmen begrenzt ist.Furthermore, it can be provided that the navigation level is limited by a frame.

Ein Rahmen erleichtert dem Benutzer die Orientierung bei der Navigation und bietet einer gegebenenfalls vorhandenen Glasplatte einen besseren Schutz.A frame makes navigation easier for the user and provides better protection for any glass plate that may be present.

In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass in bzw. auf der Navigationsebene ein Realmodell angeordnet ist, in dem der wenigstens eine Steuerteil navigierbar ist.In a particular embodiment of the invention can be provided that in or on the navigation level, a real model is arranged, in which the at least one control part is navigable.

Ein Realmodell bietet bei der Navigation zusätzliche Orientierung für denA real model offers additional orientation for the navigation

Benutzer.User.

Insbesondere kann vorgesehen sein, dass das Realmodell in der Art eines Grundrisses graphisch auf der Platte anbringbar oder angebracht istIn particular, it can be provided that the real model in the manner of a floor plan can be attached or attached graphically on the plate

Ein solches Realmodell ist besonders leicht realisierbar und aktualisierbar. Alternativ dazu kann vorgesehen sein, dass das Realmodell in der Art eines erhaben Modells auf der Platte anbringbar oder angebracht ist.Such a real model is particularly easy to implement and updatable. Alternatively, it can be provided that the real model can be attached or mounted in the manner of a raised model on the plate.

Ein solches Realmodell ist besonders anschaulich und bietet eine zusätzliche Orientierungshilfe für den Benutzer.Such a real model is particularly vivid and provides additional guidance to the user.

In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist.In a further development of the invention it can be provided that the plate is arranged on a stand.

So kann die Position einer Platte zuverlässig festgelegt werden.Thus, the position of a plate can be set reliably.

Alternativ dazu kann vorgesehen sein, dass der Rahmen auf einem Ständer angeordnet ist.Alternatively, it can be provided that the frame is arranged on a stand.

So kann die Position eines Rahmens zuverlässig festgelegt werden.Thus, the position of a frame can be set reliably.

In Weiterbildung der Erfindung kann vorgesehen sein, dass eine Beleuchtungseinrichtung zur Beleuchtung der Markierungen von Steuerteilen, die in der Navigationsebene angeordnet sind, ausgelegt ist, vorgesehen ist.In a further development of the invention, provision can be made for a lighting device to illuminate the markings of control parts which are arranged in the navigation plane to be provided.

Damit wird die Erkennung der Markierungen durch die Kamera noch zuverlässiger.This makes the detection of markings by the camera even more reliable.

In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass wenigstens ein Spiegel zur Umlenkung des Lichts der Beleuchtungseinrichtung oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen von Steuerteilen umgelenkt wird.In a particular embodiment of the invention can be provided that at least one mirror is provided for deflecting the light of the illumination device or of daylight, so that the corresponding light is deflected to the marks of control parts.

Damit wird auf einfache Art und Weise die Erkennung der Markierungen durch die Kamera noch zuverlässiger. 2 • · Μ ·· ·· • · .· · · ·· · · · ·This makes detection of the markings by the camera even more reliable in a simple way. 2 • · Μ ·· ·· • · · · · · · · · · · · · ·

• ··· · I • · · ·• ··· · I • · · ·

Weiters kann vorgesehen sein, dass wenigstens ein Erfassungsspiegel vorgesehen ist, auf den die Kamera derart ausgerichtet oder ausrichtbar ist, dass die Kamera zur optischen Erfassung der Navigationsebene über den Spiegel ausgelegt ist.Furthermore, it can be provided that at least one detection mirror is provided, on which the camera is aligned or alignable such that the camera is designed for optical detection of the navigation plane via the mirror.

Damit kann der erforderliche geometrische Abstand zwischen Kamera und Navigationsebene deutlich verringert werden und das Schnittstellensystem daher kompakter ausgeführt werden.Thus, the required geometric distance between the camera and the navigation level can be significantly reduced and the interface system therefore be made more compact.

Insbesondere kann vorgesehen sein, dass der Spiegel mit dem Erfassungsspiegel identisch ist.In particular, it can be provided that the mirror is identical to the detection mirror.

So wird die Anzahl der erforderlichen Bauteile reduziert.This reduces the number of required components.

In besonderer Weiterführung der Erfindung kann vorgesehen sein, dass das Schnittstellensystem zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgeführt ist.In a special embodiment of the invention, it can be provided that the interface system can be dismantled or folded and made portable for a person in the disassembled or folded state.

Damit ist eine flexible Einsatzmöglichkeit des Schnittstellensystems gegeben.For a flexible use of the interface system is given.

In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte und/oder den Spiegel bildet.In a further development of the invention it can be provided that the plate is arranged on a stand, which forms a cover and / or cover for the plate and / or the mirror in the disassembled or folded state of the interface system.

Damit wird ein Bruch der Platte und/oder des Spiegels beim Transport vermieden.This avoids breakage of the plate and / or the mirror during transport.

In einer besonderen Ausgestaltung der Erfindung kann vorgesehen sein, dass die Markierung des Steuerteils ein rotationsasymmetrisches Muster enthält.In a particular embodiment of the invention can be provided that the marking of the control part contains a rotationally asymmetric pattern.

Damit wird die Orientierung des Steuerteils in Abhängigkeit seiner Rotationslage bestimmbar.Thus, the orientation of the control part in dependence of its rotational position can be determined.

Insbesondere kann vorgesehen sein, dass die Markierung wenigstens aus zwei Flächen unterschiedlicher Farbe besteht.In particular, it can be provided that the marking consists of at least two surfaces of different colors.

Insbesondere kann vorgesehen sein, dass die zwei Flächen jeweils im Wesentlichen Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.In particular, it can be provided that the two surfaces are each substantially semicircles, which together form a circular disk.

Derartige Markierungen sind besonders einfach zu realisieren, z.B. mit gewöhnlichen Farbdruckern auf Klebefolie.Such markings are particularly easy to implement, e.g. with ordinary color printers on adhesive film.

In Weiterführung der Erfindung kann vorgesehen sein, dass die wenigstens zwei Flächen von einer Rahmenfläche in-einer Farbe, die ungleich der Farben der zwei Flächen ist, umgeben ist. 3 • · · · · · · ··· · t 9 ·· · · · · . · · ·In a continuation of the invention, it can be provided that the at least two surfaces are surrounded by a frame surface in a color that is not the same as the colors of the two surfaces. 3 • ······························································································ · · ·

Damit werden beide der Flächen von der Kamera identifizierbar, auch wenn der Hintergrund einer der beiden Farben ähnel sollte.This will make both of the surfaces identifiable by the camera, even if the background is similar to one of the two colors.

In besonderer Ausgestaltung der Erfindung kann schließlich vorgesehen sein, dass die Markierung weitere Flächen enthält, die innerhalb oder zwischen den wenigstens zwei Flächen angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden.In a particular embodiment of the invention may finally be provided that the marking contains further surfaces which are arranged within or between the at least two surfaces and which differ in their color from the adjacent surfaces.

Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in welchen Ausführungsformen dargestellt sind, näher beschrieben. Dabei zeigt:The invention will be further described with reference to the accompanying drawings, in which embodiments are shown. Showing:

Fig. la bis ld vier Ausführungsformen einer optischen Markierung einesFig. La to ld four embodiments of an optical marking of a

Steuerteils,Control part,

Fig 2 ein zusammengeklapptes bzw. aufgebautes computerunterstütztes Schnittstellensystem im Schrägriss,FIG. 2 shows a collapsed or constructed computer-aided interface system in an oblique view;

Fig. 3 eine andere Ausführungsform eines zerlegbaren computerunterstütztes Schnittstellensystems im SchrägrissFig. 3 shows another embodiment of a collapsible computer-aided interface system in an oblique view

Fig. 4 eine vertikale Ausführungsform eines computerunterstütztesFig. 4 shows a vertical embodiment of a computer-aided

Schnittstellensystems im Schrägriss, undInterface system in oblique view, and

Fig 5 ein computerunterstütztes Schnittstellensystem mit einer5 shows a computer-aided interface system with a

Navigationsfläche, einem Benutzer und einer Bildausgabeeinheit im Schrägriss.Navigation surface, a user and an image output unit in oblique view.

Ziel der Erfindung ist die für einen Benutzer einfache manuelle Navigation eines Benutzers mit Hilfe eines kabel- und elektronikfreien Steuerteils E in einerThe aim of the invention is simple for a user manual navigation of a user using a cable and electronic control unit E in one

Navigationsebene A, bei der die Navigation mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt ist, welches Modell an einer Bildausgäbeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E darstellbar ist, wie dies in Fig. 5 angedeutet ist.Navigation level A, in which the navigation is coupled to a virtual two- or three-dimensional model, which model can be displayed on a Bildausgäbeeinheit L, such as a screen, depending on the navigation parameter movement, position and orientation of the control part E, as shown in Fig. 5 is indicated.

Fig. la bis ld zeigen optische Markierungen El für ein Steuerteil E. Algorithmische Zielstellung ist das Auslesen von Koordinaten und Winkelinformationen geometrischer, färbiger Objekte aus den Bildinformationen einer Videokamera D. Da die ausgelesenen Daten einer Videokamera D lichtabhängig sind und immer ein mehr oder weniger starkes Rauschen mit sich bringen, ist das Design der Art und Form der Objekte ausschlaggebend. Die durch die Kamera D erfasste Form weist folgende Eigenschaften auf: Zwei Flächen 1 und 2 in Form von Halbkreisen, mit je zwei unterschiedliche Farben, sind von 4 einer andersfarbigen Rahmenfläche 3 umgeben. Die Flächen könnten auch andere Formen aufweisen. Der äußere Durchmesser des gesamten Kreises kann beispielsweise zwischen 4cm und 10cm betragen. Anhand dieser speziellen Form kann sowohl auf die Position als auch mit Hilfe der Flächen 1 und 2 auf den Winkel geschlossen werden. Die Rahmenfläche 3 dient der strikten Abgrenzung zum Hintergrund. Anmerkung: Sonst würde z.B. ein Benutzer mit einem z.B. rotem Pullover die Erkennung einer roten Fläche 1 oder 2 stören und unmöglich machen.Fig. La to ld show optical marks El for a control part E. Algorithmic objective is the reading of coordinates and angle information geometrical, colored objects from the image information of a video camera D. Since the read data from a video camera D are light-dependent and always a more or less strong Noise, the design of the type and shape of the objects is crucial. The shape detected by the camera D has the following properties: Two surfaces 1 and 2 in the form of semicircles, each with two different colors, are surrounded by 4 of a differently colored frame surface 3. The surfaces could also have other shapes. The outer diameter of the entire circle may be, for example, between 4cm and 10cm. Based on this special shape can be closed both on the position and with the help of the surfaces 1 and 2 on the angle. The frame surface 3 serves the strict demarcation to the background. Note: Otherwise, e.g. a user with a e.g. red sweater interfere with the detection of a red area 1 or 2 and make impossible.

Die anfallenden Videosignale werden vorerst von RGB in den HSV-Farbraum gewandelt. Vorteil des HSV-Raumes ist die eindeutige Zuweisung von Farben; so kann mittels des H-Parameters auf eine Farbe geschlossen werden, unabhängig von seiner Intensität oder Helligkeit. Dem gewonnenen HSV-Raum werden anschließend nur gewünschte Farbanteile durchgefiltert. Im nächsten Schritt werden alle benachbarten Bildpunkte zusammengefasst und untersucht. Dadurch werden mehrere Regionen gefunden - folgende können verworfen werden. Ist ihre Anzahl der Bildpunkte unter oder über einem signifikanten Wert, ist die Ausdehnungsbreite sowie Ausdehnungshöhe über oder unter einem signifikanten Wert, die Region muss beide Farben zu einem bestimmten Verhältnis enthalten, die Dichte (Anzahl Bildpunkte zu Fläche) darf einen gewissen Wert nicht unterschreiten. Mit Hilfe dieser Parameter kann sehr sicher auf gültige Steurerteile E geschlossen werden: Koordinaten und Winkel. Zur Bestimmung der Koordinaten der gefundenen Markierungen El wird deren Schwerpunkt herangezogen. Dadurch ist eine stabile Abfrage möglich, die eine höhere Auflösung als die physische Auflösung ermöglicht, da durch die Gewichtung der Bildpunkte Zwischenwerte möglich sind. Die Winkelbestimmung erfolgt über die Schwerpunktsbestimmung der beiden Flächen 1 und 2, daraus kann auf den Winkel geschlossen werden. Da durch die oben erwähnten Ungenauigkeiten des Videosignales die errechneten Koordinaten und Winkel der Steurteile E um einen gewissen Pegel schwanken, wird mit Hilfe eines Hochpasses geglättet: Schnell wechselnde Bewegungen (Steuerteil E wird schnell gedreht oder bewegt) werden nur schwach gefiltert um keinen Effekt der Verzögerung hervorzurufen, jedoch bei langsamen Bewegungen wird stärker gefiltert um ein „Zittern“ des Steuerteils E zu vermeiden. Fälschlich eruierte Steuerteile E, die kurzzeitig auftreten werden ausgeschieden, da ein erkanntes Steuerteil E über längere Zeit hintereinander (z.B. fünf mal) an seiner Position erkannt werden muss. Um mehrere Steuerteile E in ein und derselben Anwendung eindeutig voneinander unterscheiden zu können, wird die Markierung El weiter modifiziert. Ein oder zwei beispielsweise punktförmige weitere Flächen 4 und/oder 5 werden im Schwerpunkt der Flächen 1 und 2 angeordnet (vgl. Fig. lb bis ld). Durch ·· ·· · ·· ·· ·· • · · ♦ ♦♦ · · · · · · ···· · ······ • · ♦ ♦ · ♦ ♦ ♦·· · · ···· · · ♦ · · ·The resulting video signals are initially converted from RGB to the HSV color space. The advantage of HSV space is the clear assignment of colors; Thus, by means of the H-parameter can be closed to a color, regardless of its intensity or brightness. The obtained HSV space is then filtered through only desired color components. In the next step, all neighboring pixels are summarized and examined. This will find multiple regions - the following can be discarded. If their number of pixels is below or above a significant value, the extension width and the extension height are above or below a significant value, the region must contain both colors at a certain ratio, the density (number of pixels per surface) must not fall below a certain value. With the aid of these parameters, it is very possible to conclude valid control parts E: coordinates and angles. To determine the coordinates of the found marks El their center of gravity is used. This allows a stable query, which allows a higher resolution than the physical resolution, since intermediate values are possible due to the weighting of the pixels. The angle is determined by the determination of the center of gravity of the two surfaces 1 and 2, it can be concluded that the angle. Since due to the above-mentioned inaccuracies of the video signal, the calculated coordinates and angles of Steurteile E fluctuate by a certain level, is smoothed with the help of a high pass: Fast changing movements (control part E is quickly rotated or moved) are filtered only weakly to no effect of the delay but with slow movements is filtered more to avoid "jittering" of the control part E. Faulty eruierte control parts E, which occur for a short time will be eliminated because a recognized control part E over a long period of time (for example, five times) must be recognized in its position. In order to clearly distinguish between several control parts E in one and the same application, the marking El is further modified. One or two, for example, point-shaped further surfaces 4 and / or 5 are arranged in the center of gravity of the surfaces 1 and 2 (see Fig. Lb to ld). Due to ············ · · · · · · ·

Kombination dieses Systems erhält man insgesammt vier unterschiedliche Markierungen El (Fig. la bis ld) bzw. Steuerteile E.Combination of this system gives a total of four different markers El (Fig. La to ld) or control parts E.

Fig. 2 zeigt ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin, über den Spiegel als Umlenkung, ausgerichtet ist. Durch die Art der Markierung E1 können über die Kamera D die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt werden, welches Modell an einer Bildausgabeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter dargestellt wird.FIG. 2 shows a computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical marking El arranged thereon, which is designed for manual guidance in the navigation plane A, the optical marking El being directed toward the camera D, via the mirror as a deflection. Due to the nature of the marking E1, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model, which model is displayed on an image output unit L, such as a screen. depending on the navigation parameter.

Die Zeichnung zeigt eine zerlegbare, mobile Einheit. Sie besteht aus einem leichten Rahmen C (der wie eine Schachtel an der Vorderseite geschlossen ist), an dessen Unterseite ist ein klappbarer Spiegel B montiert. Dieser Spiegel refektiert Umgebungslicht auf die Unterseite der Navigationsfläche A und somit auf die optische Markierung El. Weiters kann ein Erfassungsspiegel B2 zur Umlenkung des Kamerabildes vorgesehen sein. Durch den c Einsatz des Erfassungsspiegels B2 wird der Abstand Kamera D - Navigationsfläche A erweitert und somit die Bauhöhe verkleinert, was für die Transportierbarkeit und Mobilität einen entscheidenten Vorteil darstellt. Der Spiegel B und der Erfassungsspiegel B2 können identisch sein. Spiegel B und/oder Erfassungsspiegel B2 können beim Transport in den Rahmen C geklappt werden, worin er geschützt ist An der oberen Innenseite des Rahmens C ist eine Kamera D justierbar montiert. Das Bild der Kamera D erfasst über den Spiegel B2 als Umlenkung, die gesamte Navigationsunterfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D ist mittels USB oder Firewire mit dem Computer verbunden. Am Rahmen C ist noch ein klappbarer oder ansteckbarer Ständer F angebracht sodass die Einheit bei Gebrauch stabil steht und nicht kippen kann. Die Naviagtionsoberfläche A bzw. Platte Al wird beim Aufbau der Einheit in einen Schlitz des Rahmens C geschoben und wird somit in einer stabilen Lage gehalten. Auf die Naviagtionsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K gestellt Bei ungünstigen Lichverhältnissen kann im Rahmen C noch eine Leuchte H angordnet werden, um die Erkennung der Steurteile E eindeutig zu gewährleiten. 6 v *The drawing shows a dismountable, mobile unit. It consists of a light frame C (which is closed like a box on the front), on the underside of which a hinged mirror B is mounted. This mirror refects ambient light on the underside of the navigation area A and thus on the optical marking El. Furthermore, a detection mirror B2 can be provided for deflecting the camera image. The distance between the camera D and the navigation surface A is widened by the use of the detection level B2 and thus the height is reduced, which represents a decisive advantage for transportability and mobility. The mirror B and the detection mirror B2 may be identical. Mirror B and / or detection mirror B2 can be folded during transport into the frame C, in which it is protected on the upper inside of the frame C, a camera D is mounted adjustable. The image of the camera D detected via the mirror B2 as a deflection, the entire lower navigation surface A and thus the position and position of the control part E. The camera D is connected via USB or Firewire to the computer. On the frame C is still a hinged or attachable stand F attached so that the unit is stable in use and can not tilt. The Naviagtionsoberfläche A or plate Al is pushed in the construction of the unit in a slot of the frame C and is thus held in a stable position. Depending on the application, a corresponding real model K is placed on the navigation surface A. In the case of unfavorable light conditions, a light H can still be arranged in frame C in order to unambiguously ensure the recognition of the control parts E. 6 years *

Auf der Naviagtionsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K, wie ein erhabenes Modell, ein graphisch angebrachter Plan oder anderes angeordnet.On the Naviagtionsoberfläche A depending on the application, a corresponding real model K, such as a raised model, a graphically mounted plan or other arranged.

Fig. 3 zeigt ein vergleichbares computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A. Es besteht aus einem Leuchtkasten und einer Naviagtionsoberfläche A, hier als Platte Al ausgebildet, die über eine Konstruktion miteinander (im Bild nicht dargestellt) verbunden sind. Entweder ist das Verbindungsgestänge faltbar oder demontierbar. Da das System auf einfallendes Seitenlicht unempfindlich ist, müssen die Seitenflächen nicht geschlossene sein, können jedoch bei Wunsch aus Stoff oder einem leichten Plattenmaterial montiert werden. Die Naviagtionsoberfläche A oder Platte Al muss nicht direkt konstruktiv mit dem Leuchtkasten verbunden sein, die Naviagtionsoberfläche A oder Platte Al kann z.B. auch von der Decke abgehängt werden, oder auf Wandkonsolen gelegt sein. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktionunterschiedlich ausgeführt.3 shows a comparable computer-assisted interface system for manual navigation in a navigation plane A. It consists of a light box and a navigation surface A, here designed as a plate Al, which are connected to one another via a construction (not shown in the figure). Either the connecting rod is foldable or dismountable. Since the system is insensitive to incident light, the side surfaces need not be closed, but may be mounted on fabric or lightweight board material if desired. The Naviagtionsoberfläche A or plate Al need not be directly constructively connected to the light box, Naviagtionsoberfläche A or plate Al may, for example. be suspended from the ceiling, or placed on wall brackets. Depending on the application and spatial conditions, the construction is carried out differently.

Das Steuerteil E wird von der Kamera D erfasst und die Daten ausgewertet.The control part E is detected by the camera D and evaluated the data.

Die Entfernung der Naviagtionsoberfläche A vom Fußboden soll derart gestaltet werden, dass sowohl Kinder, Rollstuhlfahrer und erwachsene Menschen die Anordnung bedienen können (ca. 75 bis 85 cm Höhe).The removal of the Naviagtionsoberfläche A from the floor should be designed so that both children, wheelchair users and adult people can operate the arrangement (about 75 to 85 cm in height).

Der Leuchtkasten besteht aus einem Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung G. In dieser Plexiglasabdeckung G ist eine Öffnung I vorgesehen, auf das die Sichtbeziehung Kamera D und Navigationsoberfläche A durch die Plexiglasabdeckung G nicht verdeckt ist. Die Kamera D erfasst die gesamte Navigationsoberfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB, Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K, wie ein erhabenes Modell (wie auch in Fig. 5), ein Plan oder anderes angeordnet.The light box consists of a frame C, brightness-adjustable lamps H, camera D, opal Plexiglas cover G. In this plexiglass cover G, an opening I is provided on which the visual relationship camera D and navigation surface A is not obscured by the Plexiglas cover G. The camera D detects the entire navigation surface A and thus the position and position of the control part E. The camera D is connected to the computer by means of USB, Firewire or frame grabber card. Depending on the application, a corresponding real model K, such as a raised model (as in FIG. 5), a plan or another, is arranged on the navigation surface A.

Fig. 4 zeigt ein weiteres im Wesentlichen vertikal angeordnetes computerunterstütztes Schnittstellensystem zur manuellen Navigation in einerFig. 4 shows another substantially vertically arranged computer-aided interface system for manual navigation in one

Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin ausgerichtet ist. Durch die Art der Markierung El können über die Kamera D die 7 • ·· · ·· · · · · ♦ · • ·· « · ··· · ·· • · · · ♦ · # ··♦ · · • · · » · · · ·· ·Navigation level A, comprising a camera D, which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical marking El arranged thereon, which is designed for manual guidance in the navigation plane A, with the optical marking El being aligned with the camera D. Due to the nature of the mark El, the camera D can be used for 7 • ························································· · »· · ··· ·

Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalen Modell gekoppelt werden.Navigation parameters motion, position and orientation of the control part E in the navigation level A are detected and coupled with a virtual two- or three-dimensional model.

Fig. 4 zeigt eine stationäre vertikal angebrachte Einheit. Sie besteht aus einem Leuchtkasten und einer vertikalen Navigationsoberfläche A. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktion unterschiedlich ausgeführt. Der Leuchtkasten besteht aus folgenden Teilen: Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung. Bei dieser Anordnung kann j e nach Anwendung auf die Platte Al vollständig verzichtet werden. Da der Steuerteil E sehr unempfindlich auf den Abstand zur Kamera D reagiert (Toleranzbereich + - 20 cm), kann die Naviagtionsoberfläche A als ein umlaufender Navigationsrahmen A2 ausgebildet sein. Dieser Navigationsrahmen A2 dient nur zur Orientierung des Benutzers und zur Anbringung des Realmodells K oder anderer Realvorgaben. In der Praxis wird das Ganze folgendermaßen ausgeführt werden: Eine an der Rückwand befestigte oder frei im Raum aufgestellte Leuchtquelle H (incl. aller Teile wie vorher beschrieben), davor in einigen Abstand angebrachte Navigationsoberfläche A als Platte Al oder lediglich ein Navigationsrahmen A2. Die Benutzer können vor der Navigationsoberfläche A stehend navigieren. Die Kamera D erfasst die gesamte Navigationsoberfläche A bzw. den Navigationsrahmen A2 und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB oder Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A kann je nach Anwendung ein entsprechendes Realmodell K, z.B. ein erhabenes Modell, ein Plan oder anderes angeordnet werden.Fig. 4 shows a stationary vertically mounted unit. It consists of a lightbox and a vertical navigation surface A. Depending on the application and spatial conditions, the construction is carried out differently. The lightbox consists of the following parts: frame C, brightness adjustable lamps H, camera D, opal Plexiglas cover. In this arrangement, j e can be completely dispensed with after application to the plate Al. Since the control part E reacts very insensitive to the distance to the camera D (tolerance range + - 20 cm), the Naviagtionsoberfläche A may be formed as a circumferential navigation frame A2. This navigation frame A2 is only for the orientation of the user and for attaching the real model K or other real targets. In practice, the whole will be carried out as follows: A fixed to the rear wall or freely placed in space light source H (including all parts as previously described), in front of some spaced navigation surface A as a plate Al or just a navigation frame A2. The users can navigate in front of the navigation interface A in a standing position. The camera D detects the entire navigation surface A or the navigation frame A2 and thus the position and position of the control part E. The camera D is connected by USB or Firewire or Framegrabberkarte with the computer. Depending on the application, a corresponding real model K, e.g. a sublime model, plan, or otherwise arranged.

Weitere erfindungsgemäße Ausführungsformen weisen lediglich einen Teil der beschriebenen Merkmale auf, wobei jede Merkmalskombination, insbesondere auch von verschiedenen beschriebenen Ausführungsformen, vorgesehen sein kann.Further embodiments according to the invention have only a part of the features described, wherein each feature combination, in particular also of various described embodiments, can be provided.

Patentansprüche: 8Claims: 8

Claims (16)

• · • · • · • · • » · · · ·· · · ·· • · Μ· · • · · · • ·· ·· ·· 28459/cw PATENTANSPRÜCHE Computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene (A), umfassend eine Kamera (D), die zur optischen Erfassung der Navigationsebene (A) ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil (E) mit wenigstens einer darauf angeordneten optischen Markierung (El), der zur manuellen Führung in der Navigationsebene (A) ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung (El) bei Gebrauch des Steuerteils (E) zur Kamera (D) hin ausgerichtet ist, dadurch gekennzeichnet, dass die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils (E) in der Navigationsebene (A) mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit (L), wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist. Schnittstellensystem nach Anspruch 1, dadurch gekennzeichnet, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) von jener Seite der Navigationsebene (A) her ausgelegt ist, die dem Benutzer abgewandt ist. Schnittstellensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in der Navigationsebene (A) eine Platte (Al) aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die Kamera (D) ausgelegt ist, transparent ist. Schnittstellensystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Navigationsebene (A) von einem Navigationsrahmen (A2) begrenzt ist. Schnittstellensystem nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass in bzw. auf der Navigationsebene (A) ein Realmodell (K) angeordnet ist, in dem der wenigstens eine Steuerteil (E) navigierbar ist 9 "L. "L. ·« ·* ·· • » · t · • # · · • · · · • · · · . ·· ·· · «· ·♦ ♦· ft · « ♦ ♦ « ·· · · ·· ft I ··« · I ft · · · « ·· ·· ··28459 / cw PATENT CLIENTS Computer-assisted interface system for manual navigation in one navigation level (A). comprising a camera (D), which is designed for optical detection of the navigation plane (A), at least one cable and electronics-free control part (E) with at least one optical marking (El) arranged thereon, for manual guidance in the navigation plane (A ) is designed and is intended that the at least one optical marking (El) in use of the control part (E) to the camera (D) is aligned, characterized in that the navigation parameters movement, position and orientation of the control part (E) in the navigation plane (A) are coupled to a virtual two- or three-dimensional model, which model of an image output unit (L), such as a screen, depending on the navigation parameters is adjustable. Interface system according to claim 1, characterized in that the camera (D) for the optical detection of the navigation plane (A) is designed from that side of the navigation plane (A), which faces away from the user. Interface system according to claim 1 or 2, characterized in that in the navigation plane (A) a plate (Al) made of glass or plastic is arranged, which is transparent for a wavelength range for which the camera (D) is designed. Interface system according to one of claims 1 to 3, characterized in that the navigation plane (A) by a navigation frame (A2) is limited. Interface system according to claim 3 or 4, characterized in that in or on the navigation plane (A) a real model (K) is arranged, in which the at least one control part (E) is navigable 9 "L. &Quot; L. · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·. ·························································································· 6. Schnittstellensystem nach Anspruch 5, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines Grundriß grafisch auf der Platte (Al) anbringbar oder angebracht ist.6. interface system according to claim 5, characterized in that the real model (K) in the manner of a plan diagram on the plate (Al) can be attached or attached. 7. Schnittstellensystem nach Anspruch 5, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines erhaben Modells auf der Platte (Al) anbringbar oder angebracht ist.7. interface system according to claim 5, characterized in that the real model (K) in the manner of a raised model on the plate (Al) can be attached or mounted. 8. Schnittstellensystem nach Anspruch 3, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist.8. interface system according to claim 3, characterized in that the plate (Al) on a stand (F) is arranged. 9. Schnittstellensystem nach Anspruch 4, dadurch gekennzeichnet, dass der Navigationsrahmen (A2) auf einem Ständer (F) angeordnet ist. e* '9. interface system according to claim 4, characterized in that the navigation frame (A2) on a stand (F) is arranged. e * ' 10. Schnittstellensystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass eine Beleuchtungseinrichtung (H) zur Beleuchtung der Markierungen (El) von Steuerteilen (E), die in der Navigationsebene (A) angeordnet sind, ausgelegt ist, vorgesehen ist.10. Interface system according to one of claims 1 to 9, characterized in that a lighting device (H) for illuminating the markings (El) of control parts (E), which are arranged in the navigation plane (A), is provided. 11. Schnittstellensystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass wenigstens ein Spiegel (B) zur Umlenkung des Lichts der Beleuchtungseinrichtung (H) oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen (El) von Steuerteilen (E) umgelenkt wird.11. Interface system according to one of claims 1 to 10, characterized in that at least one mirror (B) for deflecting the light of the illumination device (H) or of daylight is provided so that the corresponding light on the marks (El) of control parts (E ) is deflected. 12. Schnittstellensystem nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass wenigstens ein Erfassungsspiegel (B2) vorgesehen ist, auf den die Kamera (D) derart ausgerichtet oder aurichtbar ist, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) über den Spiegel (B2) ausgelegt ist.12. Interface system according to one of claims 1 to 11, characterized in that at least one detection mirror (B2) is provided, on which the camera (D) is aligned or aurichtbar that the camera (D) for optical detection of the navigation plane (A ) is designed over the mirror (B2). 13. Schnittstellensystem nach Anspruch 12, dadurch gekennzeichnet, dass der Spiegel (B) mit dem Erfassungsspiegel (B2) identisch ist 10 ·» ·· • · ·13. Interface system according to claim 12, characterized in that the mirror (B) with the detection mirror (B2) is identical 10 · »·· · · · ·· ···· ·· 14. Schnittstellensystem nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass es zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgefuhrt ist.14. Interface system according to one of claims 1 to 13, characterized in that it can be dismantled or folded and executed in a disassembled or folded state for a person wearable. 15. Schnittstellensystem nach Anspruch 14, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte (Al) und/oder den Spiegel (B) bildet.15. Interface system according to claim 14, characterized in that the plate (Al) is arranged on a stand (F), in the disassembled or collapsed state of the interface system, a cover and / or shell for the plate (Al) and / or the Mirror (B) forms. 16. Schnittstellensystem nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die Markierung (El) des Steuerteils (E) ein rotationsasymmetrisches Muster enthält.16. Interface system according to one of claims 1 to 15, characterized in that the marking (El) of the control part (E) contains a rotationally asymmetric pattern. 17. Schnittstellensystem nach Anspruch 16, dadurch gekennzeichnet, dass die Markierung (El) wenigstens aus zwei Flächen (1, 2) unterschiedlicher Farbe besteht.17. interface system according to claim 16, characterized in that the marking (El) consists of at least two surfaces (1, 2) of different colors. 18. Schnittstellensystem nach Anspruch 16, dadurch gekennzeichnet, dass die zwei Flächen (1, 2) jeweils im Wesentlichen Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.18. Interface system according to claim 16, characterized in that the two surfaces (1, 2) are each substantially semicircles, which together form a circular disk. 19. Schnittstellensystem nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass die wenigstens zwei Flächen (1, 2) von einer Rahmenfläche (3) in einer Farbe, die ungleich der Farben der zwei Flächen (1,2) ist, umgeben ist.19. Interface system according to one of claims 16 to 18, characterized in that the at least two surfaces (1, 2) of a frame surface (3) in a color which is different from the colors of the two surfaces (1,2) is surrounded , 20. Schnittstellensystem nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, dass die Markierung (El) weitere Flächen (4 und 5) enthält, die innerhalb oder zwischen den wenigstens zwei Flächen (1, 2) angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden. 1120. Interface system according to one of claims 17 to 19, characterized in that the marking (El) further surfaces (4 and 5), which are arranged within or between the at least two surfaces (1, 2) and in their color different from the adjacent areas. 11
AT0029405A 2005-02-22 2005-02-22 COMPUTER-BASED INTERFACE SYSTEM AT501442B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AT0029405A AT501442B1 (en) 2005-02-22 2005-02-22 COMPUTER-BASED INTERFACE SYSTEM
PCT/AT2006/000069 WO2006089323A1 (en) 2005-02-22 2006-02-21 Computer-aided interface system
EP06704711A EP1856594A1 (en) 2005-02-22 2006-02-21 Computer-aided interface system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT0029405A AT501442B1 (en) 2005-02-22 2005-02-22 COMPUTER-BASED INTERFACE SYSTEM

Publications (2)

Publication Number Publication Date
AT501442A1 true AT501442A1 (en) 2006-09-15
AT501442B1 AT501442B1 (en) 2007-07-15

Family

ID=36283710

Family Applications (1)

Application Number Title Priority Date Filing Date
AT0029405A AT501442B1 (en) 2005-02-22 2005-02-22 COMPUTER-BASED INTERFACE SYSTEM

Country Status (3)

Country Link
EP (1) EP1856594A1 (en)
AT (1) AT501442B1 (en)
WO (1) WO2006089323A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT505672B1 (en) * 2007-11-28 2009-03-15 Thomas Dipl Ing Kienzl COMPUTER-ASSISTED INTERFACE SYSTEM
AT510808B1 (en) * 2010-11-24 2013-04-15 Kienzl Thomas Dipl Ing METHOD FOR THE PRESENTATION OF AN OBJECT ON A DISPLAY UNIT
WO2023196395A1 (en) * 2022-04-05 2023-10-12 Wayfair Llc Real-time visualization of a virtual scene controllable through physical objects

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (en) * 1994-06-30 1995-11-30 Siemens Ag Computer data entry stylus with indistinguishable contact surfaces
WO1998013745A2 (en) * 1996-09-12 1998-04-02 Eidgenössische Technische Hochschule, Eth Zentrum, Institut Für Konstruktion Und Bauweisen Interaction area for data representation
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
NL1020440C2 (en) * 2002-04-19 2003-10-21 Univ Eindhoven Tech Data input method for electronic desktop, provides visual illustration determined by position and type of input device used

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29600640U1 (en) * 1996-01-16 1996-09-12 Reuter Susanne Vertical wheeled case with integrated computer workstation
JP3423676B2 (en) * 2000-07-19 2003-07-07 キヤノン株式会社 Virtual object operation device and virtual object operation method
GB0023681D0 (en) * 2000-09-27 2000-11-08 Canon Kk Image processing apparatus
US7139685B2 (en) * 2000-11-03 2006-11-21 Siemens Aktiengesellschaft Video-supported planning of equipment installation and/or room design
US6683316B2 (en) * 2001-08-01 2004-01-27 Aspex, Llc Apparatus for correlating an optical image and a SEM image and method of use thereof
US20030089832A1 (en) * 2001-11-02 2003-05-15 Gold Robert J. Multi-function accessory for handheld electronics

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (en) * 1994-06-30 1995-11-30 Siemens Ag Computer data entry stylus with indistinguishable contact surfaces
WO1998013745A2 (en) * 1996-09-12 1998-04-02 Eidgenössische Technische Hochschule, Eth Zentrum, Institut Für Konstruktion Und Bauweisen Interaction area for data representation
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
NL1020440C2 (en) * 2002-04-19 2003-10-21 Univ Eindhoven Tech Data input method for electronic desktop, provides visual illustration determined by position and type of input device used

Also Published As

Publication number Publication date
EP1856594A1 (en) 2007-11-21
AT501442B1 (en) 2007-07-15
WO2006089323A1 (en) 2006-08-31

Similar Documents

Publication Publication Date Title
DE102014013677B4 (en) Method for optically scanning and measuring an environment with a handheld scanner and subdivided display
DE69828912T2 (en) Hint that uses the image of a hand
DE602004011979T3 (en) METHOD AND DEVICE FOR PROVIDING OMNIDIRECTIONAL LIGHTING IN A SCANNING DEVICE
EP2458328B1 (en) Construction measuring device with an automatic plumbing point finding function
DE112010004767T5 (en) Point cloud data processing device, point cloud data processing method and point cloud data processing program
DE19749107A1 (en) Standard scale with clearly discernible reference points
DE102008054453A1 (en) Measuring system for measuring rooms and / or objects
WO2015039761A1 (en) Access control device
DE102012107153A1 (en) Device and method for determining the self-position of an image-receiving camera
AT501442B1 (en) COMPUTER-BASED INTERFACE SYSTEM
EP2253251A1 (en) Picture frame
DE10259954A1 (en) Device for determining the wheel and / or axle geometry of motor vehicles
DE202014010357U1 (en) Device for optically scanning and measuring an environment with a hand-held scanner and control by gestures
EP3921804A1 (en) Calibration unit for a monitoring device, monitoring device for man-overboard monitoring and method for calibration
AT505672B1 (en) COMPUTER-ASSISTED INTERFACE SYSTEM
DE102014113015B4 (en) An apparatus for optically scanning and surveying an environment, comprising a hand-held scanner with a support structure
WO2006048311A2 (en) Method and device for acquiring biometric data
DE102016200967A1 (en) System for measuring a three-dimensional position
DE10203992A1 (en) input device
DE102008037741A1 (en) Device for recording biometric data
DE102006012694B4 (en) Optical device for image acquisition
DE3620449A1 (en) Device for observing animals
DE102010016964B4 (en) Method and device for controlling a computer-generated display of a virtual object
AT165857B (en) Image finders, in particular for photographic and cinematographic handhelds
DE4100481A1 (en) Sub-range measuring unit for camera with spot measurement - indicates spot in rangefinder and selects spot by eye movement of unit adjustment

Legal Events

Date Code Title Description
MM01 Lapse because of not paying annual fees

Effective date: 20160222