EP1856594A1 - Computer-aided interface system - Google Patents

Computer-aided interface system

Info

Publication number
EP1856594A1
EP1856594A1 EP06704711A EP06704711A EP1856594A1 EP 1856594 A1 EP1856594 A1 EP 1856594A1 EP 06704711 A EP06704711 A EP 06704711A EP 06704711 A EP06704711 A EP 06704711A EP 1856594 A1 EP1856594 A1 EP 1856594A1
Authority
EP
European Patent Office
Prior art keywords
interface system
navigation
camera
control part
navigation plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP06704711A
Other languages
German (de)
French (fr)
Inventor
Thomas Kienzl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of EP1856594A1 publication Critical patent/EP1856594A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00734Aspects not otherwise provided for battery operated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function

Definitions

  • the invention relates to a computer-assisted interface system for manual navigation in a navigation plane having a first and a second side, comprising a camera, which is designed for optical detection of the navigation plane, at least one cable and electronic control part with at least one optical marking arranged thereon manual guidance in the navigation plane is designed on the first page and is intended that the at least one optical marking is aligned with the use of the control part towards the camera, wherein the navigation parameters movement, position and orientation of the control part in the navigation plane with a virtual two- or three-dimensional model are coupled, which model can be displayed on an image output unit, such as a screen, depending on the navigation parameters.
  • the camera is designed for the optical detection of the navigation plane from the second side of the navigation plane, which second side is opposite this when using the at least one control part.
  • This can cost-effective control parts for an appealing navigation in virtual SD models are used, which are easy to use even by laymen. Due to the viewing direction of the camera, either directly or via mirrors from the side opposite the user, a good visual contact between the camera and the navigation level is always ensured. This shadowing of the camera by the user himself is reliably avoided. In this way, error detections are effectively prevented.
  • the invention can be provided that in the navigation level a
  • Plate made of glass or plastic is arranged for a wavelength range for which the
  • Such a plate facilitates navigation in the navigation plane.
  • the navigation level is limited by a frame.
  • a frame makes navigation easier for the user and provides better protection for any glass plate that may be present.
  • Navigation level is arranged a real model in which the at least one control part is navigable.
  • a Reahnodell provides additional navigation for the user in the navigation.
  • the real model in the manner of a floor plan can be attached or attached graphically on the plate.
  • Such a Reahnodell is particularly easy to implement and updatable.
  • the real model can be attached or mounted in the manner of a raised model on the plate.
  • Projection system is projected to the navigation level.
  • the projection system for the projection of the real model is likewise designed from the second side of the navigation plane.
  • the plate is arranged on a stand.
  • the position of a plate can be set reliably.
  • the frame is arranged on a stand.
  • Lighting the markers of control parts, which are arranged in the navigation plane, is designed is provided.
  • At least one mirror is provided for deflecting the light of the illumination device or of daylight, so that the corresponding light is deflected to the marks of control parts.
  • At least one detection mirror is provided, on which the camera is aligned or alignable such that the camera is designed for optical detection of the navigation plane via the mirror.
  • the required geometric distance between the camera and the navigation level can be significantly reduced and the interface system therefore be made more compact.
  • the mirror is identical to the detection mirror.
  • Interface system can be dismantled or folded and run in disassembled or folded state for a person wearable.
  • the plate is arranged on a stand, which forms a cover and / or cover for the plate and / or the mirror in the disassembled or folded state of the interface system.
  • the marking of the control part contains a rotationally asymmetric pattern.
  • the marking consists of at least two surfaces of different colors.
  • the two surfaces each substantially
  • Semicircles are, which together form a circular disk.
  • Such markings are particularly easy to implement, e.g. with ordinary
  • the at least two surfaces are surrounded by a frame surface in a color which is different from the colors of the two surfaces.
  • Marker contains additional areas within or between the at least two
  • Plains are arranged and differ in their color from the adjacent surfaces.
  • FIG. 2 shows a collapsed or constructed computer-aided interface system in an oblique view
  • Fig. 3 shows another embodiment of a collapsible computer-aided
  • FIG. 4 shows a vertical embodiment of a computer-assisted interface system in FIG.
  • FIG. 5 shows a computer-aided interface system with a navigation surface, a
  • the aim of the invention is the user's simple manual navigation of a user with the help of a cable and electronic control unit E in a navigation plane A, in which the navigation is coupled to a virtual two- or three-dimensional model, which model of an image output unit L, such as a screen, depending on the navigation parameter movement, position and orientation of the control part E can be displayed, as indicated in Fig. 5.
  • Fig. Ia to Id show optical marks El for a control part E.
  • Algorithmic objective is the reading of coordinates and angle information geometrical, colored objects from the image information of a video camera D. Since the read data from a video camera D are light-dependent and always a more or less strong Noise, the design of the type and shape of the objects is crucial.
  • the shape detected by the camera D has the following characteristics: two surfaces 1 and 2 in shape of semicircles, each with two different colors are surrounded by a different colored frame surface 3.
  • the surfaces could also have other shapes.
  • the outer diameter of the entire circle can be arbitrarily large, but preferably be between 4cm and 10cm. Based on this special shape can be closed both on the position and with the help of the surfaces 1 and 2 on the angle.
  • the frame surface 3 serves the strict demarcation to the background. Note: Otherwise, for example, a user with a red sweater, for example, would disturb the detection of a red area 1 or 2 and make it impossible.
  • the resulting video signals are initially converted from RGB to the HSV color space.
  • the advantage of HSV space is the clear assignment of colors; Thus, by means of the H parameter, a color can be deduced, irrespective of its intensity or brightness.
  • the obtained HSV space is then filtered through only desired color components. In the next step, all neighboring pixels are summarized and examined. This will find multiple regions - the following can be discarded.
  • FIG. 2 shows a computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical marking El arranged thereon, which is designed for manual guidance in the navigation plane A, the optical marking El being directed toward the camera D, via the mirror as a deflection. Due to the nature of the marking El, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model, which model is displayed on an image output unit L, such as a screen. depending on the navigation parameter. It would also be conceivable to form the navigation plane A itself as a picture output medium.
  • the drawing shows a dismountable, mobile unit. It consists of a light frame C (which is closed like a box on the front), on the underside of which a hinged mirror B is mounted. This mirror reflects ambient light on the underside of the navigation surface A and thus on the optical marking El. Furthermore, a detection mirror B2 can be provided for deflecting the camera image. Through the use of the detection mirror B2, the distance between camera D and navigation surface A is widened, thus reducing the overall height, which represents a decisive advantage for transportability and mobility.
  • the mirror B and the detection mirror B2 may be identical. Mirror B and / or detection mirror B2 can be folded during transport into the frame C, in which it is protected. On the upper inside of the frame C, a camera D is adjustably mounted.
  • the camera D is connected via USB or Firewire to the computer.
  • On the frame C is still a hinged or attachable stand F attached, so that the unit is stable in use and can not tip over.
  • the navigation surface A or plate Al is pushed in the construction of the unit in a slot of the frame C and is thus held in a stable position.
  • a corresponding real model K is placed on the navigation surface A.
  • a lamp H are arranged to ensure the detection of the control parts E unique.
  • a corresponding real model K such as a raised model, a graphically attached plan or other is arranged on the navigation surface A.
  • the real model is projected onto the navigation plane by means of a projection system (not shown).
  • the navigation plane is provided with a projection foil.
  • This is advantageously a rear projection film, which is arranged on the second side of the navigation plane A.
  • the projection can advantageously also take place from the lower, that is, the side facing away from the user and the control part opposite side. 3 shows a comparable computer-assisted interface system for manual navigation in a navigation plane A.
  • the navigation surface A or disk Al need not be directly constructively connected to the lightbox, the navigation surface A or disk Al may be e.g. be suspended from the ceiling, or placed on wall brackets. Depending on the application and spatial conditions, the construction will be carried out differently.
  • the control part E is detected by the camera D and evaluated the data. The removal of the navigation surface A from the floor should be designed so that both children, wheelchair users and adults can operate the arrangement (about 75 to 85 cm in height).
  • the light box consists of a frame C, brightness-adjustable lamps H, camera D, opal Plexiglas cover G.
  • an opening I is provided so that the visual relationship camera D and navigation surface A is not obscured by the Plexiglas cover G.
  • the camera D detects the entire navigation surface A and thus the position and position of the control part E.
  • the camera D is connected to the computer by means of USB, Firewire or frame grabber card.
  • a corresponding real model K 5 such as a raised model (as in FIG. 5), a plan or another, is arranged on the navigation surface A.
  • FIG. 4 shows a further essentially vertically arranged computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical mark El arranged thereon, which is designed for manual guidance in the navigation plane A, with the optical marking El being aligned with the camera D. Due to the nature of the marking El, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model.
  • Fig. 4 shows a stationary vertically mounted unit. It consists of a lightbox and a vertical navigation surface A. Depending on the application and spatial conditions, the construction will be carried out differently.
  • the lightbox consists of the following parts: frame C, brightness adjustable lamps H, camera D, opal Plexiglas cover. In this arrangement, depending on the application to the plate Al can be completely dispensed with. Since the control part E reacts very insensitive to the distance to the camera D (tolerance range +/- 20 cm), the navigation surface A may be formed as a circumferential navigation frame A2. This navigation frame A2 is only for the orientation of the user and for attaching the real model K or other real targets.
  • the users can navigate in front of the navigation interface A in a standing position.
  • the camera D detects the entire navigation surface A or the navigation frame A2 and thus the position and position of the control part E.
  • the camera D is connected by USB or Firewire or Framegrabber badge with the computer.
  • a corresponding real model K e.g. a sublime model, plan, or otherwise arranged.
  • images can be projected dynamically, that is, alternately, on the navigation surface A by means of a projection system as a real presetting.
  • Any images, templates, navigation assistance, etc. can be projected dynamically or statically onto the navigation interface.
  • the navigation surface can be designed as a rear projection system.
  • the projector may be a video / data projector, a laser projector or other projection system. It advantageously points in the same direction as the camera. The reading of the mark El on the control part E and the image projection then take place from the same direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Accessories Of Cameras (AREA)
  • Navigation (AREA)

Abstract

Disclosed is a computer-assisted interface system for manually navigating on a navigation plane (A). Said interface system comprises a camera (D) that is designed for optically detecting the navigation plane (A) as well as at least one wireless and electronics-free control part (E) with at least one optical mark (El) located thereupon. Said control part (E) is designed so as to be manually guided on the navigation plane (A) while the at least one optical mark (El) is oriented towards the camera (D) when the control part (E) is used. In order to be able to operate the interface system in an intuitively detectable manner, the navigation parameters movement, position, and orientation of the control part (E) on the navigation plane (A) are coupled to a virtual two-dimensional or three-dimensional model which can be represented on an image output unit (L), such as a screen, in accordance with the navigation parameters.

Description

Computerunterstütztes Schnittstellensystem Computer-aided interface system
Die Erfindung betrifft ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene mit einer ersten und einer zweiten Seite, umfassend eine Kamera, die zur optischen Erfassung der Navigationsebene ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil mit wenigstens einer darauf angeordneten optischen Markierung, der zur manuellen Führung in der Navigationsebene auf deren ersten Seite ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung bei Gebrauch des Steuerteils zur Kamera hin ausgerichtet ist, wobei die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils in der Navigationsebene mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist.The invention relates to a computer-assisted interface system for manual navigation in a navigation plane having a first and a second side, comprising a camera, which is designed for optical detection of the navigation plane, at least one cable and electronic control part with at least one optical marking arranged thereon manual guidance in the navigation plane is designed on the first page and is intended that the at least one optical marking is aligned with the use of the control part towards the camera, wherein the navigation parameters movement, position and orientation of the control part in the navigation plane with a virtual two- or three-dimensional model are coupled, which model can be displayed on an image output unit, such as a screen, depending on the navigation parameters.
Solche Systeme sind in der Regel sehr komplex zu bedienen und für ungeübte Anwender nur schwer zu durchschauen. Die Vorstellungskraft der Anwender wird bei solchen Systemen kaum unterstützt und findet eher nur im akustischen Bereich seine Anwendung. Die Anwendung für ein breites Publikum ist daher problematisch. Überdies ist es bei bisher bekannt gewordenen Systemen problematisch, die Position des Steuerteils jederzeit sicher zu erfassen. Da der Benutzer bei diesen Systemen den freien Sichtkontakt der Kamera auf das Steuerteil leicht behindern kann, lassen sich Fehlerkennungen nicht vermeiden. Die Aufgabe der Erfindung besteht daher darin, ein bekanntes Schnittstellensystem derart weiterzuentwickeln, dass es die bekannten Nachteile vermeidet und intuitiv für jedermann bedienbar ist. Weiters soll eine sichere Bedienung des Systems ohne Fehlerkennungen jederzeit gewährleistet sein und das System einen geringen Platzbedarf aufweisen. Erfindungsgemäß wird dies dadurch erreicht, dass die Kamera zur optischen Erfassung der Navigationsebene von der zweiten Seite der Navigationsebene her ausgelegt ist, welche zweite Seite bei Verwendung des zumindest einen Steuerteils diesem gegenüberliegt. Damit können kostengünstige Steuerteile für eine ansprechende Navigation in virtuellen SD- Modellen eingesetzt werden, die auch von Laien einfach bedienbar sind. Durch die Blickrichtung der Kamera entweder direkt oder über Spiegel von der dem Benutzer gegenüber liegenden Seite her ist ständig ein guter Sichtkontakt der Kamera auf die Navigationsebene sichergestellt. Damit wird eine Abschattung der Kamera durch den Benutzer selbst zuverlässig vermieden. Auf diese Weise sind Fehlerkennungen wirksam verhindert. In Weiterfuhrung der Erfindung kann vorgesehen sein, dass in der Navigationsebene eineSuch systems are usually very complex to use and difficult to understand for inexperienced users. The imagination of users is hardly supported in such systems and is more likely to be used only in the acoustic field. The application for a wide audience is therefore problematic. Moreover, it is problematic in previously known systems to detect the position of the control part at any time safely. Since the user can easily hinder the free visual contact of the camera with the control unit in these systems, error detection can not be avoided. The object of the invention is therefore to further develop a known interface system in such a way that it avoids the known disadvantages and can be operated intuitively by anyone. Furthermore, a safe operation of the system without error detection should be guaranteed at all times and the system has a small footprint. According to the invention, this is achieved in that the camera is designed for the optical detection of the navigation plane from the second side of the navigation plane, which second side is opposite this when using the at least one control part. This can cost-effective control parts for an appealing navigation in virtual SD models are used, which are easy to use even by laymen. Due to the viewing direction of the camera, either directly or via mirrors from the side opposite the user, a good visual contact between the camera and the navigation level is always ensured. This shadowing of the camera by the user himself is reliably avoided. In this way, error detections are effectively prevented. In Weiterfuhrung the invention can be provided that in the navigation level a
Platte aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den diePlate made of glass or plastic is arranged for a wavelength range for which the
Kamera ausgelegt ist, transparent ist.Camera is designed, is transparent.
Durch eine derartige Platte wird die Navigation in der Navigationsebene erleichtert.Such a plate facilitates navigation in the navigation plane.
Weiters kann vorgesehen sein, dass die Navigationsebene von einem Rahmen begrenzt ist.Furthermore, it can be provided that the navigation level is limited by a frame.
Ein Rahmen erleichtert dem Benutzer die Orientierung bei der Navigation und bietet einer gegebenenfalls vorhandenen Glasplatte einen besseren Schutz.A frame makes navigation easier for the user and provides better protection for any glass plate that may be present.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass in bzw. auf derIn a particular embodiment of the invention can be provided that in or on the
Navigationsebene ein Realmodell angeordnet ist, in dem der wenigstens eine Steuerteil navigierbar ist.Navigation level is arranged a real model in which the at least one control part is navigable.
Ein Reahnodell bietet bei der Navigation zusätzliche Orientierung für den Benutzer.A Reahnodell provides additional navigation for the user in the navigation.
Insbesondere kann vorgesehen sein, dass das Realmodell in der Art eines Grundriss graphisch auf der Platte anbringbar oder angebracht ist.In particular, it can be provided that the real model in the manner of a floor plan can be attached or attached graphically on the plate.
Ein solches Reahnodell ist besonders leicht realisierbar und aktualisierbar.Such a Reahnodell is particularly easy to implement and updatable.
Alternativ dazu kann vorgesehen sein, dass das Realmodell in der Art eines erhaben Modells auf der Platte anbringbar oder angebracht ist.Alternatively, it can be provided that the real model can be attached or mounted in the manner of a raised model on the plate.
Ein solches Realmodell ist besonders anschaulich und bietet eine zusätzlicheSuch a real model is particularly vivid and offers an additional
Orientierungshilfe für den Benutzer.Guidance for the user.
Alternativ oder zusätzlich dazu kann vorgesehen sein, dass das Realmodell mittels einesAlternatively or additionally, it can be provided that the real model by means of a
Projektionssystems auf die Navigationsebene projiziert wird.Projection system is projected to the navigation level.
Dadurch kann auch die Realvorgabe während der Benutzung des Systems geändert werden.This can also be used to change the real default while using the system.
Dies erlaubt z.B. bei der Navigation in einem Gebäude virtuell das Stockwerk zu wechseln, obwohl der Benutzer mit dem Steuerteil real immer in einer Ebene navigiert.This allows e.g. virtually to navigate the floor during navigation in a building, even though the user with the control part real always navigates in a plane.
In diesem Zusammenhang kann vorgesehen sein, dass das Projektionssystem zur Projektion des Realmodells ebenfalls von der zweiten Seite der Navigationsebene her ausgelegt ist.In this context, it can be provided that the projection system for the projection of the real model is likewise designed from the second side of the navigation plane.
Dadurch ist eine besonders kompakte Bauweise möglich und überdies sichergestellt, dass derThis makes a particularly compact design possible and also ensures that the
Benutzer auch die projizierte Realvorgabe nicht abschattet.User does not shadow the projected real target.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist.In a further development of the invention it can be provided that the plate is arranged on a stand.
So kann die Position einer Platte zuverlässig festgelegt werden.Thus, the position of a plate can be set reliably.
Alternativ dazu kann vorgesehen sein, dass der Rahmen auf einem Ständer angeordnet ist.Alternatively, it can be provided that the frame is arranged on a stand.
So kann die Position eines Rahmens zuverlässig festgelegt werden. In Weiterbildung der Erfindung kann vorgesehen sein, dass eine Beleuchtungseinrichtung zurThus, the position of a frame can be set reliably. In a further development of the invention can be provided that a lighting device for
Beleuchtung der Markierungen von Steuerteilen, die in der Navigationsebene angeordnet sind, ausgelegt ist, vorgesehen ist.Lighting the markers of control parts, which are arranged in the navigation plane, is designed is provided.
Damit wird die Erkennung der Markierungen durch die Kamera noch zuverlässiger.This makes the detection of markings by the camera even more reliable.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass wenigstens ein Spiegel zur Umlenkung des Lichts der Beleuchtungseinrichtung oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen von Steuerteilen umgelenkt wird.In a particular embodiment of the invention can be provided that at least one mirror is provided for deflecting the light of the illumination device or of daylight, so that the corresponding light is deflected to the marks of control parts.
Damit wird auf einfache Art und Weise die Erkennung der Markierungen durch die Kamera noch zuverlässiger.This makes detection of the markings by the camera even more reliable in a simple way.
Weiters kann vorgesehen sein, dass wenigstens ein Erfassungsspiegel vorgesehen ist, auf den die Kamera derart ausgerichtet oder ausrichtbar ist, dass die Kamera zur optischen Erfassung der Navigationsebene über den Spiegel ausgelegt ist.Furthermore, it can be provided that at least one detection mirror is provided, on which the camera is aligned or alignable such that the camera is designed for optical detection of the navigation plane via the mirror.
Damit kann der erforderliche geometrische Abstand zwischen Kamera und Navigationsebene deutlich verringert werden und das Schnittstellensystem daher kompakter ausgeführt werden.Thus, the required geometric distance between the camera and the navigation level can be significantly reduced and the interface system therefore be made more compact.
Insbesondere kann vorgesehen sein, dass der Spiegel mit dem Erfassungsspiegel identisch ist.In particular, it can be provided that the mirror is identical to the detection mirror.
So wird die Anzahl der erforderlichen Bauteile reduziert.This reduces the number of required components.
In besonderer Weiterführung der Erfindung kann vorgesehen sein, dass dasIn a special continuation of the invention can be provided that the
Schnittstellensystem zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgeführt ist.Interface system can be dismantled or folded and run in disassembled or folded state for a person wearable.
Damit ist eine flexible Einsatzmöglichkeit des Schnittstellensystems gegeben.For a flexible use of the interface system is given.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte und/oder den Spiegel bildet.In a further development of the invention it can be provided that the plate is arranged on a stand, which forms a cover and / or cover for the plate and / or the mirror in the disassembled or folded state of the interface system.
Damit wird ein Bruch der Platte und/oder des Spiegels beim Transport vermieden.This avoids breakage of the plate and / or the mirror during transport.
In einer besonderen Ausgestaltung der Erfindung kann vorgesehen sein, dass die Markierung des Steuerteils ein rotationsasymmetrisches Muster enthält.In a particular embodiment of the invention can be provided that the marking of the control part contains a rotationally asymmetric pattern.
Damit wird die Orientierung des Steuerteils in Abhängigkeit seiner Rotationslage bestimmbar.Thus, the orientation of the control part in dependence of its rotational position can be determined.
Insbesondere kann vorgesehen sein, dass die Markierung wenigstens aus zwei Flächen unterschiedlicher Farbe besteht.In particular, it can be provided that the marking consists of at least two surfaces of different colors.
Insbesondere kann vorgesehen sein, dass die zwei Flächen jeweils im WesentlichenIn particular, it can be provided that the two surfaces each substantially
Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.Semicircles are, which together form a circular disk.
Derartige Markierungen sind besonders einfach zu realisieren, z.B. mit gewöhnlichenSuch markings are particularly easy to implement, e.g. with ordinary
Farbdruckern auf Klebefolie. In Weiterfuhrung der Erfindung kann vorgesehen sein, dass die wenigstens zwei Flächen von einer Rahmenfläche in einer Farbe, die ungleich der Farben der zwei Flächen ist, umgeben sind.Color printers on adhesive film. In continuation of the invention, it may be provided that the at least two surfaces are surrounded by a frame surface in a color which is different from the colors of the two surfaces.
Damit werden beide der Flächen von der Kamera identifizierbar, auch wenn der Hintergrund einer der beiden Farben ähneln sollte.This will make both of the surfaces identifiable by the camera, even if the background is similar to one of the two colors.
In besonderer Ausgestaltung der Erfindung kann schließlich vorgesehen sein, dass dieIn a particular embodiment of the invention may finally be provided that the
Markierung weitere Flächen enthält, die innerhalb oder zwischen den wenigstens zweiMarker contains additional areas within or between the at least two
Flächen angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden.Plains are arranged and differ in their color from the adjacent surfaces.
Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in welchenThe invention will be described with reference to the accompanying drawings in which
Ausfuhrungsformen dargestellt sind, näher beschrieben. Dabei zeigt:Embodiments are shown, described in more detail. Showing:
Fig. Ia bis Id vier Ausführungsformen einer optischen Markierung eines Steuerteils,1a to Id four embodiments of an optical marking of a control part,
Fig. 2 ein zusammengeklapptes bzw. aufgebautes computerunterstütztes Schnittstellensystem im Schrägriss,FIG. 2 shows a collapsed or constructed computer-aided interface system in an oblique view; FIG.
Fig. 3 eine andere Ausführungsform eines zerlegbaren computerunterstütztenFig. 3 shows another embodiment of a collapsible computer-aided
Schnittstellensystems im SchrägrissInterface system in oblique view
Fig. 4 eine vertikale Ausführungsform eines computerunterstützten Schnittstellensystems im4 shows a vertical embodiment of a computer-assisted interface system in FIG
Schrägriss, undOblique, and
Fig 5 ein computerunterstütztes Schnittstellensystem mit einer Navigationsfläche, einem5 shows a computer-aided interface system with a navigation surface, a
Benutzer und einer Bildausgabeeinheit im Schrägriss.User and an image output unit in oblique view.
Ziel der Erfindung ist die für einen Benutzer einfache manuelle Navigation eines Benutzers mit Hilfe eines kabel- und elektronikfreien Steuerteils E in einer Navigationsebene A, bei der die Navigation mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt ist, welches Modell an einer Bildausgabeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E darstellbar ist, wie dies in Fig. 5 angedeutet ist.The aim of the invention is the user's simple manual navigation of a user with the help of a cable and electronic control unit E in a navigation plane A, in which the navigation is coupled to a virtual two- or three-dimensional model, which model of an image output unit L, such as a screen, depending on the navigation parameter movement, position and orientation of the control part E can be displayed, as indicated in Fig. 5.
Fig. Ia bis Id zeigen optische Markierungen El für ein Steuerteil E. Algorithmische Zielstellung ist das Auslesen von Koordinaten und Winkelinformationen geometrischer, färbiger Objekte aus den Bildinformationen einer Videokamera D. Da die ausgelesenen Daten einer Videokamera D lichtabhängig sind und immer ein mehr oder weniger starkes Rauschen mit sich bringen, ist das Design der Art und Form der Objekte ausschlaggebend. Die durch die Kamera D erfasste Form weist folgende Eigenschaften auf: Zwei Flächen 1 und 2 in Form von Halbkreisen, mit je zwei unterschiedliche Farben, sind von einer andersfarbigen Rahmenfläche 3 umgeben. Die Flächen könnten auch andere Formen aufweisen. Der äußere Durchmesser des gesamten Kreises kann beliebig groß sein, bevorzugt jedoch zwischen 4cm und 10cm betragen. Anhand dieser speziellen Form kann sowohl auf die Position als auch mit Hilfe der Flächen 1 und 2 auf den Winkel geschlossen werden. Die Rahmenfläche 3 dient der strikten Abgrenzung zum Hintergrund. Anmerkung: Sonst würde z.B. ein Benutzer mit einem z.B. roten Pullover die Erkennung einer roten Fläche 1 oder 2 stören und unmöglich machen. Die anfallenden Videosignale werden vorerst von RGB in den HSV-Farbraum gewandelt. Vorteil des HSV-Raumes ist die eindeutige Zuweisung von Farben; so kann mittels des H- Parameters auf eine Farbe geschlossen werden, unabhängig von seiner Intensität oder Helligkeit. Dem gewonnenen HSV-Raum werden anschließend nur gewünschte Farbanteile durchgefiltert. Im nächsten Schritt werden alle benachbarten Bildpunkte zusammengefasst und untersucht. Dadurch werden mehrere Regionen gefunden - folgende können verworfen werden. Ist ihre Anzahl der Bildpunkte unter oder über einem signifikanten Wert, ist die Ausdehnungsbreite sowie Ausdehnungshöhe über oder unter einem signifikanten Wert, die Region muss beide Farben zu einem bestimmten Verhältnis enthalten, die Dichte (Anzahl Bildpunkte zu Fläche) darf einen gewissen Wert nicht unterschreiten. Mit Hilfe dieser Parameter kann sehr sicher auf gültige Steuerteile E geschlossen werden: Koordinaten und Winkel. Zur Bestimmung der Koordinaten der gefundenen Markierungen El wird deren Schwerpunkt herangezogen. Dadurch ist eine stabile Abfrage möglich, die eine höhere Auflösung als die physische Auflösung ermöglicht, da durch die Gewichtung der Bildpunkte Zwischenwerte möglich sind. Die Winkelbestimmung erfolgt über die Schwerpunktsbestimmung der beiden Flächen 1 und 2, daraus kann auf den Winkel geschlossen werden. Da durch die oben erwähnten Ungenauigkeiten des Videosignals die errechneten Koordinaten und Winkel der Steuerteile E um einen gewissen Pegel schwanken, wird mit Hilfe eines Hochpasses geglättet: Schnell wechselnde Bewegungen (Steuerteil E wird schnell gedreht oder bewegt) werden nur schwach gefiltert, um keinen Effekt der Verzögerung hervorzurufen, jedoch bei langsamen Bewegungen wird stärker gefiltert um ein „Zittern" des Steuerteils E zu vermeiden. Fälschlich eruierte Steuerteile E, die kurzzeitig auftreten, werden ausgeschieden, da ein erkanntes Steuerteil E über längere Zeit hintereinander (z.B. fünf mal) an seiner Position erkannt werden muss. Um mehrere Steuerteile E in ein und derselben Anwendung eindeutig voneinander unterscheiden zu können, wird die Markierung El weiter modifiziert. Eine oder zwei beispielsweise punktförmige weitere Flächen 4 und/oder 5 werden im Schwerpunkt der Flächen 1 und 2 angeordnet (vgl. Fig. Ib bis Id). Durch. Kombination dieses Systems erhält man insgesamt vier unterschiedliche Markierungen El (Fig. Ia bis Id) bzw. Steuerteile E. Weiters wäre es möglich, durch Erhöhung der Anzahl an punktförmigen Flächen eine noch größere Zahl von unterschiedlichen Steuerteilen erkennen zu können.Fig. Ia to Id show optical marks El for a control part E. Algorithmic objective is the reading of coordinates and angle information geometrical, colored objects from the image information of a video camera D. Since the read data from a video camera D are light-dependent and always a more or less strong Noise, the design of the type and shape of the objects is crucial. The shape detected by the camera D has the following characteristics: two surfaces 1 and 2 in shape of semicircles, each with two different colors are surrounded by a different colored frame surface 3. The surfaces could also have other shapes. The outer diameter of the entire circle can be arbitrarily large, but preferably be between 4cm and 10cm. Based on this special shape can be closed both on the position and with the help of the surfaces 1 and 2 on the angle. The frame surface 3 serves the strict demarcation to the background. Note: Otherwise, for example, a user with a red sweater, for example, would disturb the detection of a red area 1 or 2 and make it impossible. The resulting video signals are initially converted from RGB to the HSV color space. The advantage of HSV space is the clear assignment of colors; Thus, by means of the H parameter, a color can be deduced, irrespective of its intensity or brightness. The obtained HSV space is then filtered through only desired color components. In the next step, all neighboring pixels are summarized and examined. This will find multiple regions - the following can be discarded. If their number of pixels is below or above a significant value, the extension width and the extension height are above or below a significant value, the region must contain both colors at a certain ratio, the density (number of pixels per surface) must not fall below a certain value. With the aid of these parameters, it is possible to safely deduce valid control parts E: coordinates and angles. To determine the coordinates of the found marks El their center of gravity is used. This allows a stable query, which allows a higher resolution than the physical resolution, since intermediate values are possible due to the weighting of the pixels. The angle is determined by the determination of the center of gravity of the two surfaces 1 and 2, it can be concluded that the angle. Since the calculated coordinates and angles of the control parts E fluctuate by a certain level due to the above-mentioned inaccuracies of the video signal, smoothing with the aid of a high-pass filter: fast-changing movements (control part E is rotated or moved quickly) are filtered only weakly in order to avoid an effect of Delay, but with slow movements is filtered more to avoid "trembling" of the control part E. Faulty eruierte control parts E, which occur briefly, are eliminated because a recognized control part E for a long time in a row (eg five times) in its position In order to be able to clearly distinguish between several control parts E in the same application, the marking El is further modified One or two, for example, point-shaped further surfaces 4 and / or 5 become in the center of gravity of the surfaces 1 and 2 arranged (see Fig. Ib to Id). By. Combination of this system gives a total of four different markers El (Fig. Ia to Id) and control parts E. Furthermore, it would be possible to recognize by increasing the number of punctiform surfaces an even larger number of different control parts.
Fig. 2 zeigt ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin, über den Spiegel als Umlenkung, ausgerichtet ist. Durch die Art der Markierung El können über die Kamera D die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt werden, welches Modell an einer Bildausgabeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter dargestellt wird. Hierbei wäre es auch denkbar, die Navigationsebene A selbst als Bildausgabemedium auszubilden.FIG. 2 shows a computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical marking El arranged thereon, which is designed for manual guidance in the navigation plane A, the optical marking El being directed toward the camera D, via the mirror as a deflection. Due to the nature of the marking El, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model, which model is displayed on an image output unit L, such as a screen. depending on the navigation parameter. It would also be conceivable to form the navigation plane A itself as a picture output medium.
Die Zeichnung zeigt eine zerlegbare, mobile Einheit. Sie besteht aus einem leichten Rahmen C (der wie eine Schachtel an der Vorderseite geschlossen ist), an dessen Unterseite ist ein klappbarer Spiegel B montiert. Dieser Spiegel reflektiert Umgebungslicht auf die Unterseite der Navigationsfläche A und somit auf die optische Markierung El. Weiters kann ein Erfassungsspiegel B2 zur Umlenkung des Kamerabildes vorgesehen sein. Durch den Einsatz des Erfassungsspiegels B2 wird der Abstand Kamera D - Navigationsfläche A erweitert und somit die Bauhöhe verkleinert, was für die Transportierbarkeit und Mobilität einen entscheidenden Vorteil darstellt. Der Spiegel B und der Erfassungsspiegel B2 können identisch sein. Spiegel B und/oder Erfassungsspiegel B2 können beim Transport in den Rahmen C geklappt werden, worin er geschützt ist. An der oberen Innenseite des Rahmens C ist eine Kamera D justierbar montiert. Das Bild der Kamera D erfasst über den Spiegel B2 als Umlenkung, die gesamte Navigationsunterfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D ist mittels USB oder Firewire mit dem Computer verbunden. Am Rahmen C ist noch ein klappbarer oder ansteckbarer Ständer F angebracht, sodass die Einheit bei Gebrauch stabil steht und nicht kippen kann. Die Navigationsoberfläche A bzw. Platte Al wird beim Aufbau der Einheit in einen Schlitz des Rahmens C geschoben und wird somit in einer stabilen Lage gehalten. Auf die Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K gestellt. Bei ungünstigen Lichtverhältnissen kann im Rahmen C noch eine Leuchte H angeordnet werden, um die Erkennung der Steuerteile E eindeutig zu gewährleisten.The drawing shows a dismountable, mobile unit. It consists of a light frame C (which is closed like a box on the front), on the underside of which a hinged mirror B is mounted. This mirror reflects ambient light on the underside of the navigation surface A and thus on the optical marking El. Furthermore, a detection mirror B2 can be provided for deflecting the camera image. Through the use of the detection mirror B2, the distance between camera D and navigation surface A is widened, thus reducing the overall height, which represents a decisive advantage for transportability and mobility. The mirror B and the detection mirror B2 may be identical. Mirror B and / or detection mirror B2 can be folded during transport into the frame C, in which it is protected. On the upper inside of the frame C, a camera D is adjustably mounted. The image of the camera D detected via the mirror B2 as a deflection, the entire lower navigation surface A and thus the position and position of the control part E. The camera D is connected via USB or Firewire to the computer. On the frame C is still a hinged or attachable stand F attached, so that the unit is stable in use and can not tip over. The navigation surface A or plate Al is pushed in the construction of the unit in a slot of the frame C and is thus held in a stable position. Depending on the application, a corresponding real model K is placed on the navigation surface A. In unfavorable lighting conditions, in frame C still a lamp H are arranged to ensure the detection of the control parts E unique.
Auf der Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K, wie ein erhabenes Modell, ein graphisch angebrachter Plan oder anderes angeordnet. Es kann auch vorgesehen sein, dass das Realmodell mittels eines nicht dargestellten Projektionssystems auf die Navigationsebene projiziert wird. Dazu kann vorgesehen sein, dass die Navigationsebene mit einer Projektionsfolie versehen ist. Diese ist vorteilhafterweise eine Rückprojektionsfolie, welche auf der zweiten Seite der Navigationsebene A angeordnet ist. Die Projektion kann vorteilhafterweise ebenfalls von der unteren, das heißt der dem Benutzer abgewandten und dem Steuerteil gegenüberliegenden Seite her erfolgen. Fig. 3 zeigt ein vergleichbares computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A. Es besteht aus einem Leuchtkasten und einer Navigationsoberfläche A, hier als Platte Al ausgebildet, die über eine Konstruktion miteinander (im Bild nicht dargestellt) verbunden sind. Entweder ist das Verbindungsgestänge faltbar oder demontierbar. Da das System auf einfallendes Seitenlicht unempfindlich ist, müssen keine geschlossenen Seitenteile vorhanden sein, können jedoch bei Wunsch aus Stoff oder einem leichten Plattenmaterial montiert werden. Die Navigationsoberfläche A oder Platte Al muss nicht direkt konstruktiv mit dem Leuchtkasten verbunden sein, die Navigationsoberfläche A oder Platte Al kann z.B. auch von der Decke abgehängt werden, oder auf Wandkonsolen gelegt sein. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktion unterschiedlich ausgeführt werden. Das Steuerteil E wird von der Kamera D erfasst und die Daten ausgewertet. Die Entfernung der Navigationsoberfläche A vom Fußboden soll derart gestaltet werden, dass sowohl Kinder, Rollstuhlfahrer und erwachsene Menschen die Anordnung bedienen können (ca. 75 bis 85 cm Höhe).On the navigation surface A, depending on the application, a corresponding real model K, such as a raised model, a graphically attached plan or other is arranged. It can also be provided that the real model is projected onto the navigation plane by means of a projection system (not shown). For this purpose, it can be provided that the navigation plane is provided with a projection foil. This is advantageously a rear projection film, which is arranged on the second side of the navigation plane A. The projection can advantageously also take place from the lower, that is, the side facing away from the user and the control part opposite side. 3 shows a comparable computer-assisted interface system for manual navigation in a navigation plane A. It consists of a light box and a navigation surface A, here designed as a plate Al, which are connected to each other via a construction (not shown in the figure). Either the connecting rod is foldable or dismountable. Since the system is insensitive to incident light, there is no need for closed side panels, but it may be mounted in fabric or lightweight panel material if desired. The navigation surface A or disk Al need not be directly constructively connected to the lightbox, the navigation surface A or disk Al may be e.g. be suspended from the ceiling, or placed on wall brackets. Depending on the application and spatial conditions, the construction will be carried out differently. The control part E is detected by the camera D and evaluated the data. The removal of the navigation surface A from the floor should be designed so that both children, wheelchair users and adults can operate the arrangement (about 75 to 85 cm in height).
Der Leuchtkasten besteht aus einem Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung G. In dieser Plexiglasabdeckung G ist eine Öffnung I vorgesehen, so dass die Sichtbeziehung Kamera D und Navigationsoberfläche A durch die Plexiglasabdeckung G nicht verdeckt ist. Die Kamera D erfasst die gesamte Navigationsoberfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB, Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K5 wie ein erhabenes Modell (wie auch in Fig. 5), ein Plan oder anderes angeordnet. Fig. 4 zeigt ein weiteres im Wesentlichen vertikal angeordnetes computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin ausgerichtet ist. Durch die Art der Markierung El können über die Kamera D die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt werden.The light box consists of a frame C, brightness-adjustable lamps H, camera D, opal Plexiglas cover G. In this Plexiglas cover G, an opening I is provided so that the visual relationship camera D and navigation surface A is not obscured by the Plexiglas cover G. The camera D detects the entire navigation surface A and thus the position and position of the control part E. The camera D is connected to the computer by means of USB, Firewire or frame grabber card. Depending on the application, a corresponding real model K 5, such as a raised model (as in FIG. 5), a plan or another, is arranged on the navigation surface A. 4 shows a further essentially vertically arranged computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical mark El arranged thereon, which is designed for manual guidance in the navigation plane A, with the optical marking El being aligned with the camera D. Due to the nature of the marking El, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model.
Fig. 4 zeigt eine stationäre vertikal angebrachte Einheit. Sie besteht aus einem Leuchtkasten und einer vertikalen Navigationsoberfläche A. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktion unterschiedlich ausgeführt werden. Der Leuchtkasten besteht aus folgenden Teilen: Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung. Bei dieser Anordnung kann je nach Anwendung auf die Platte Al vollständig verzichtet werden. Da der Steuerteil E sehr unempfindlich auf den Abstand zur Kamera D reagiert (Toleranzbereich +/- 20 cm), kann die Navigationsoberfläche A als ein umlaufender Navigationsrahmen A2 ausgebildet sein. Dieser Navigationsrahmen A2 dient nur zur Orientierung des Benutzers und zur Anbringung des Realmodells K oder anderer Realvorgaben. In der Praxis wird das Ganze folgendermaßen ausgeführt werden: Eine an der Rückwand befestigte oder frei im Raum aufgestellte Leuchtquelle H (incl. aller Teile wie vorher beschrieben), davor in einigen Abstand angebrachte Navigationsoberfläche A als Platte Al oder lediglich ein Navigationsrahmen A2. Die Benutzer können vor der Navigationsoberfläche A stehend navigieren. Die Kamera D erfasst die gesamte Navigationsoberfläche A bzw. den Navigationsrahmen A2 und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB oder Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A kann je nach Anwendung ein entsprechendes Realmodell K, z.B. ein erhabenes Modell, ein Plan oder anderes angeordnet werden.Fig. 4 shows a stationary vertically mounted unit. It consists of a lightbox and a vertical navigation surface A. Depending on the application and spatial conditions, the construction will be carried out differently. The lightbox consists of the following parts: frame C, brightness adjustable lamps H, camera D, opal Plexiglas cover. In this arrangement, depending on the application to the plate Al can be completely dispensed with. Since the control part E reacts very insensitive to the distance to the camera D (tolerance range +/- 20 cm), the navigation surface A may be formed as a circumferential navigation frame A2. This navigation frame A2 is only for the orientation of the user and for attaching the real model K or other real targets. In practice, the whole will be carried out as follows: A fixed to the rear wall or freely placed in space light source H (including all parts as previously described), in front of some spaced navigation surface A as a plate Al or just a navigation frame A2. The users can navigate in front of the navigation interface A in a standing position. The camera D detects the entire navigation surface A or the navigation frame A2 and thus the position and position of the control part E. The camera D is connected by USB or Firewire or Framegrabberkarte with the computer. Depending on the application, a corresponding real model K, e.g. a sublime model, plan, or otherwise arranged.
Als Alternative oder auch in Kombination mit dem erhabenen Realmodell bzw. dem Plan können mittels eines Projektionssystems Bilder dynamisch, das heißt abwechselnd, auf die Navigationsoberfläche A als Realvorgabe projiziert werden. Es können beliebige Bilder, Vorlagen, Hilfestellungen beim Navigieren usw. dynamisch oder statisch auf die Navigationsoberfläche projiziert werden. Es besteht immer eine eindeutige Verknüpfung von projiziertem Bild - der „Realvorgabe" -, virtuellem Bild oder Ton an einem Ausgabegerät (beispielsweise Bildschirm und/oder Lautsprecher) und Position und Orientierung des Steuerteils. Dies erlaubt beispielsweise bei der Navigation in einem Gebäude virtuell das Stockwerk zu wechseln, obwohl der Benutzer mit dem Steuerteil real immer in einer Ebene navigiert. Die Navigationsoberfläche kann dabei als Rückprojektionssystem ausgeführt sein. Der Projektor kann ein Video/Datenprojektor, ein Laserprojektor oder ein anderes Projektionssystem sein. Er weist vorteilhafterweise in die selbe Richtung wie die Kamera. Das Auslesen der Markierung El auf dem Steuerteil E und die Bildprojektion erfolgen dann aus der selben Richtung.As an alternative or in combination with the sublime real model or the plan, images can be projected dynamically, that is, alternately, on the navigation surface A by means of a projection system as a real presetting. Any images, templates, navigation assistance, etc. can be projected dynamically or statically onto the navigation interface. There is always a clear link between the projected image - the "default" - virtual image or sound on an output device (For example, screen and / or speakers) and position and orientation of the control part. This allows, for example, when navigating in a building to virtually change the floor, although the user with the control part real always navigates in a plane. The navigation surface can be designed as a rear projection system. The projector may be a video / data projector, a laser projector or other projection system. It advantageously points in the same direction as the camera. The reading of the mark El on the control part E and the image projection then take place from the same direction.
Weitere erfindungsgemäße Ausführungsformen weisen lediglich einen Teil der beschriebenen Merkmale auf, wobei jede Merkmalskombination, insbesondere auch von verschiedenen beschriebenen Ausführungsformen, vorgesehen sein kann. Further embodiments according to the invention have only a part of the features described, wherein each feature combination, in particular also of various described embodiments, can be provided.

Claims

P A T E N T A N S P R Ü C H E PATENT APPLICATIONS
1. Computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene (A) mit einer ersten und einer zweiten Seite, umfassend eine Kamera (D), die zur optischen Erfassung der Navigationsebene (A) ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil (E) mit wenigstens einer darauf angeordneten optischen Markierung (El), der zur manuellen Führung in der Navigationsebene (A) auf deren ersten Seite ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung (El) bei Gebrauch des Steuerteils (E) zur Kamera (D) hin ausgerichtet ist, wobei die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils (E) in der Navigationsebene (A) mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit (L), wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist, dadurch gekennzeichnet, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) von der zweiten Seite der Navigationsebene (A) her ausgelegt ist, welche zweite Seite bei Verwendung des zumindest einen Steuerteils (E) diesem gegenüberliegt.Computer-assisted interface system for manual navigation in a navigation plane (A) with a first and a second side, comprising a camera (D), which is designed for optical detection of the navigation plane (A), at least one cable and electronic control part (E) with at least one optical marking (El) arranged thereon, which is designed for manual guidance in the navigation plane (A) on its first side and is provided so that the at least one optical marking (E1) is in use of the control part (E) to the camera (D) is aligned, wherein the navigation parameters motion, position and orientation of the control part (E) in the navigation plane (A) are coupled to a virtual two- or three-dimensional model, which model on an image output unit (L), such as a screen, depending on the navigation parameters can be represented, characterized in that the camera (D) for the optical detection of the Navigat ion level (A) is designed from the second side of the navigation plane (A) forth, which second side when using the at least one control part (E) opposite to this.
2. Schnittstellensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in der Navigationsebene (A) eine Platte (Al) aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die Kamera (D) ausgelegt ist, transparent ist.2. Interface system according to claim 1 or 2, characterized in that in the navigation plane (A) a plate (Al) made of glass or plastic is arranged, which is transparent to a wavelength range for which the camera (D) is designed.
3. Schnittstellensystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Navigationsebene (A) von einem Navigationsrahmen (A2) begrenzt ist.3. Interface system according to one of claims 1 to 3, characterized in that the navigation plane (A) by a navigation frame (A2) is limited.
4. Schnittstellensystem nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass in bzw. auf der Navigationsebene (A) ein Realmodell (K) angeordnet ist, in dem der wenigstens eine Steuerteil (E) navigierbar ist. 4. Interface system according to claim 3 or 4, characterized in that in or on the navigation plane (A), a real model (K) is arranged, in which the at least one control part (E) is navigable.
5. Schnittstellensystem nach Ansprach 4, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines Grundrisses graphisch auf der Platte (Al) anbringbar oder angebracht ist.5. interface system according to spoke 4, characterized in that the real model (K) in the manner of a floor plan is graphically mounted or mounted on the plate (Al).
6. Schnittstellensystem nach Anspruch 4, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines erhaben Modells auf der Platte (Al) anbringbar oder angebracht ist.6. interface system according to claim 4, characterized in that the real model (K) in the manner of a raised model on the plate (Al) can be attached or attached.
7. Schnittstellensystem nach Anspruch 4, dadurch gekennzeichnet, dass das Realmodell (K) mittels eines Projektionssystems auf die Navigationsebene (A) projiziert wird.7. interface system according to claim 4, characterized in that the real model (K) by means of a projection system on the navigation plane (A) is projected.
8. Schnittstellensystem nach Anspruch 7, dadurch gekennzeichnet, dass das Projektionssystem zur Projektion des Realmodells (K) ebenfalls von der zweiten Seite der Navigationsebene (A) her ausgelegt ist.8. interface system according to claim 7, characterized in that the projection system for the projection of the real model (K) is also designed from the second side of the navigation plane (A) ago.
9. Schnittstellensystem nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist.9. Interface system according to one of claims 2 to 8, characterized in that the plate (Al) is arranged on a stand (F).
10. Schnittstellensystem nach Ansprach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass der Navigationsrahmen (A2) auf einem Ständer (F) angeordnet ist.10. Interface system according to one of claims 3 to 9, characterized in that the navigation frame (A2) on a stand (F) is arranged.
11. Schnittstellensystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass eine Beleuchtungseinrichtung (H) zur Beleuchtung der Markierungen (El) von Steuerteilen (E), die in der Navigationsebene (A) angeordnet sind, ausgelegt ist, vorgesehen ist.11. Interface system according to one of claims 1 to 10, characterized in that a lighting device (H) for illuminating the markings (El) of control parts (E), which are arranged in the navigation plane (A), is provided.
12. Schnittstellensystem nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass wenigstens ein Spiegel (B) zur Umlenkung des Lichts der Beleuchtungseinrichtung (H) oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen (El) von Steuerteilen (E) umgelenkt wird.12. Interface system according to one of claims 1 to 11, characterized in that at least one mirror (B) for deflecting the light of the illumination device (H) or of daylight is provided so that the corresponding light on the markings (El) of control parts (E ) is deflected.
13. Schnittstellensystem nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass wenigstens ein Erfassungsspiegel (B2) vorgesehen ist, auf den die Kamera (D) derart ausgerichtet oder ausrichtbar ist, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) über den Spiegel (B2) ausgelegt ist.13. Interface system according to one of claims 1 to 12, characterized in that at least one detection mirror (B2) is provided, on which the camera (D) is oriented or alignable, that the camera (D) for the optical detection of the navigation plane (A) via the mirror (B2) is designed.
14. Schnittstellensystem nach Anspruch 13, dadurch gekennzeichnet, dass der Spiegel (B) mit dem Erfassungsspiegel (B2) identisch ist.14. Interface system according to claim 13, characterized in that the mirror (B) with the detection mirror (B2) is identical.
15. Schnittstellensystem nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass es zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgeführt ist.15. Interface system according to one of claims 1 to 13, characterized in that it is dismountable or collapsible and carried out in the disassembled or folded state for a person portable.
16. Schnittstellensystem nach Anspruch 15, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte (Al) und/oder den Spiegel (B) bildet.16. Interface system according to claim 15, characterized in that the plate (Al) on a stand (F) is arranged, which in the disassembled or collapsed state of the interface system, a cover and / or shell for the plate (Al) and / or Mirror (B) forms.
17. Schnittstellensystem nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Markierung (El) des Steuerteils (E) ein rotationsasymmetrisches Muster enthält.17. Interface system according to one of claims 1 to 16, characterized in that the marking (El) of the control part (E) contains a rotationally asymmetric pattern.
18. Schnittstellensystem nach Anspruch 17, dadurch gekennzeichnet, dass die Markierung (El) wenigstens aus zwei Flächen (1, 2) unterschiedlicher Farbe besteht.18. interface system according to claim 17, characterized in that the marking (El) consists of at least two surfaces (1, 2) of different colors.
19. Schnittstellensystem nach Ansprach 18, dadurch gekennzeichnet, dass die zwei Flächen (1, 2) jeweils im Wesentlichen Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.19. Interface system according to spoke 18, characterized in that the two surfaces (1, 2) are each substantially semicircles, which together form a circular disk.
20. Schnittstellensystem nach Ansprach 18 oder 19, dadurch gekennzeichnet, dass die wenigstens zwei Flächen (1, 2) von einer Rahmenfläche (3) in einer Farbe, die ungleich der Farben der zwei Flächen (1, 2) ist, umgeben sind.20. Interface system according to spoke 18 or 19, characterized in that the at least two surfaces (1, 2) of a frame surface (3) in a color that is different from the colors of the two surfaces (1, 2) are surrounded.
21. Schnittstellensystem nach einem der Ansprüche 18 bis 20, dadurch gekennzeichnet, dass die Markierung (El) weitere Flächen (4, 5) enthält, die innerhalb oder zwischen den wenigstens zwei Flächen (1, 2) angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden. 21. Interface system according to one of claims 18 to 20, characterized in that the marking (El) further surfaces (4, 5), which are arranged within or between the at least two surfaces (1, 2) and in their color different from the adjacent areas.
EP06704711A 2005-02-22 2006-02-21 Computer-aided interface system Withdrawn EP1856594A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AT0029405A AT501442B1 (en) 2005-02-22 2005-02-22 COMPUTER-BASED INTERFACE SYSTEM
PCT/AT2006/000069 WO2006089323A1 (en) 2005-02-22 2006-02-21 Computer-aided interface system

Publications (1)

Publication Number Publication Date
EP1856594A1 true EP1856594A1 (en) 2007-11-21

Family

ID=36283710

Family Applications (1)

Application Number Title Priority Date Filing Date
EP06704711A Withdrawn EP1856594A1 (en) 2005-02-22 2006-02-21 Computer-aided interface system

Country Status (3)

Country Link
EP (1) EP1856594A1 (en)
AT (1) AT501442B1 (en)
WO (1) WO2006089323A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT505672B1 (en) * 2007-11-28 2009-03-15 Thomas Dipl Ing Kienzl COMPUTER-ASSISTED INTERFACE SYSTEM
AT510808B1 (en) * 2010-11-24 2013-04-15 Kienzl Thomas Dipl Ing METHOD FOR THE PRESENTATION OF AN OBJECT ON A DISPLAY UNIT
WO2023196395A1 (en) * 2022-04-05 2023-10-12 Wayfair Llc Real-time visualization of a virtual scene controllable through physical objects

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (en) * 1994-06-30 1995-11-30 Siemens Ag Computer data entry stylus with indistinguishable contact surfaces
DE29600640U1 (en) * 1996-01-16 1996-09-12 Reuter Susanne Vertical wheeled case with integrated computer workstation
WO1998013745A2 (en) * 1996-09-12 1998-04-02 Eidgenössische Technische Hochschule, Eth Zentrum, Institut Für Konstruktion Und Bauweisen Interaction area for data representation
JP2002032784A (en) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab Device and method for operating virtual object
WO2002035909A2 (en) * 2000-11-03 2002-05-10 Siemens Corporate Research, Inc. Video-supported planning and design with physical marker objects sign
US20030089832A1 (en) * 2001-11-02 2003-05-15 Gold Robert J. Multi-function accessory for handheld electronics

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
GB0023681D0 (en) * 2000-09-27 2000-11-08 Canon Kk Image processing apparatus
US6683316B2 (en) * 2001-08-01 2004-01-27 Aspex, Llc Apparatus for correlating an optical image and a SEM image and method of use thereof
NL1020440C2 (en) * 2002-04-19 2003-10-21 Univ Eindhoven Tech Data input method for electronic desktop, provides visual illustration determined by position and type of input device used

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (en) * 1994-06-30 1995-11-30 Siemens Ag Computer data entry stylus with indistinguishable contact surfaces
DE29600640U1 (en) * 1996-01-16 1996-09-12 Reuter Susanne Vertical wheeled case with integrated computer workstation
WO1998013745A2 (en) * 1996-09-12 1998-04-02 Eidgenössische Technische Hochschule, Eth Zentrum, Institut Für Konstruktion Und Bauweisen Interaction area for data representation
JP2002032784A (en) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab Device and method for operating virtual object
WO2002035909A2 (en) * 2000-11-03 2002-05-10 Siemens Corporate Research, Inc. Video-supported planning and design with physical marker objects sign
US20030089832A1 (en) * 2001-11-02 2003-05-15 Gold Robert J. Multi-function accessory for handheld electronics

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO2006089323A1 *

Also Published As

Publication number Publication date
AT501442B1 (en) 2007-07-15
AT501442A1 (en) 2006-09-15
WO2006089323A1 (en) 2006-08-31

Similar Documents

Publication Publication Date Title
DE102014013677B4 (en) Method for optically scanning and measuring an environment with a handheld scanner and subdivided display
DE102014013678B3 (en) Method for optically sensing and measuring an environment with a handheld scanner and gesture control
DE69828912T2 (en) Hint that uses the image of a hand
DE602004011979T3 (en) METHOD AND DEVICE FOR PROVIDING OMNIDIRECTIONAL LIGHTING IN A SCANNING DEVICE
DE60028894T2 (en) Presentation system with an interactive presentation
DE69817498T2 (en) Hand pointing device
DE69723953T2 (en) Multiple projection system
DE2332779C3 (en) Device for continuously dividing and marking lane lines on lanes or the like
DE102019111436A1 (en) Multiple imaging arrangement for a reader
WO2001091042A2 (en) Positioning unit
DE2829464A1 (en) DEVICE FOR PERCEIVING THE POSITION OF AN INACTIVE OBJECT
DE10245226A1 (en) presentation system
WO2006089323A1 (en) Computer-aided interface system
DE3100584C2 (en) Device for visual simulators
DE2136862C3 (en) For scanning or displaying an image for transmission over telephone connections serving device with a source of coherent light
DE102016223671A1 (en) Illumination system for the determination of geometric properties as well as driver assistance system and method
DE202014010357U1 (en) Device for optically scanning and measuring an environment with a hand-held scanner and control by gestures
WO2012139552A1 (en) Device for calibrating a multi-camera recording device for three-dimensional image recording
DE2141839C3 (en) Motion picture
DE102007057272B4 (en) Apparatus and method for projecting a graphical representation on a projection surface
AT505672B1 (en) COMPUTER-ASSISTED INTERFACE SYSTEM
DE10203992A1 (en) input device
EP0261621A1 (en) Apparatus for the determination of the dimensions of an object by means of photography
DE4100481A1 (en) Sub-range measuring unit for camera with spot measurement - indicates spot in rangefinder and selects spot by eye movement of unit adjustment
DE2730679A1 (en) Illuminated mirror system for sales display case - has narrow viewing opening with partially light permeable mirror behind

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20070924

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20150701

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20151112