EP1128317A2 - Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung - Google Patents

Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung Download PDF

Info

Publication number
EP1128317A2
EP1128317A2 EP01103774A EP01103774A EP1128317A2 EP 1128317 A2 EP1128317 A2 EP 1128317A2 EP 01103774 A EP01103774 A EP 01103774A EP 01103774 A EP01103774 A EP 01103774A EP 1128317 A2 EP1128317 A2 EP 1128317A2
Authority
EP
European Patent Office
Prior art keywords
arrangement according
shop window
pointing object
camera
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP01103774A
Other languages
English (en)
French (fr)
Other versions
EP1128317A3 (de
Inventor
Christoph Maggioni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=7631734&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=EP1128317(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1128317A2 publication Critical patent/EP1128317A2/de
Publication of EP1128317A3 publication Critical patent/EP1128317A3/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address

Definitions

  • the invention relates to a method and an arrangement for Interaction with one visible in a shop window Presentation.
  • a user moves with a commercially available touchscreen with your finger on a surface and moves you with it Mouse pointer on a screen.
  • the mouse pointer is at the desired position, you can tap the Touchscreen triggered the action associated with the position become.
  • [1] or [2] is an arrangement for interaction, a so-called virtual touchscreen, known.
  • an interaction component e.g. one hand or a pointer
  • an interaction surface which preferably projects a graphical user interface
  • Shop windows have the advantage that they are for customers especially beyond normal opening hours Information about salable goods or services advertise.
  • the shop window itself opens up to the customer no possibility of interaction, rather exhausted the effect of familiar shop windows in mere observation the goods displayed behind the shop window and / or Services.
  • the object of the invention is to provide an arrangement for interaction with a representation visible in a shop window.
  • an arrangement for interacting with a representation visible in a shop window in which a recording unit is provided that picks up a pointing object in the vicinity of the shop window.
  • a computer unit is also provided, by means of which a position of the pointing object within the representation is determined.
  • the position of the pointing object is preferred a section of the visible in the shop window Representation shows, determined.
  • This cutout is especially linked to a given action, i.e. this action can be done by the user based on the area to be triggered.
  • There is a possibility of triggering in that the user with the pointing object for a predetermined time period over the area, another It is possible that if the value falls below one predefined distance between the display object and the shop window the action is triggered.
  • the user can thus by Movement of the pointing object within the visible Representation of an input unit, comparable to one Computer mouse, move. Triggering the action - this corresponds to a "click" or "double click" with the Computer mouse - happens in the way described above and Wise.
  • a great advantage of the invention is that the Interaction with the shop window for the shop owner or Operator of the shop window is largely maintenance-free because the customer does not have any thanks to the contactless interaction causes mechanical wear. Furthermore, that is scenario described is extremely insensitive to possible damage, e.g. through vandalism. Finally are simple operation for the user and therefore one high usability guaranteed.
  • a further training consists in that at least part of the Representation statically connected to the shop window, is printed in particular on this. This is suitable especially for fixed operating schemes that have a plurality of Have areas that have a predetermined functionality to have. An additional changing content can nevertheless be provided such that an information part of the Presentation with always new (not static) content is supplied.
  • An example of static with one each Functional areas are navigation switches for "forward”, “backward”, “start”, “end”.
  • the representation, in particular part of the representation, by means of a Screen, especially a flat screen becomes.
  • the flat screen behind be arranged in the shop window and with the user provide for changing representations.
  • One embodiment is that a projector is provided, which is set up in such a way that at least part of the display can be projected onto the shop window is. It is advantageous that the shop window at least partially a semi-transparent one coated surface. So it is possible by that Projector projected into the shop window for the Customer-friendly design.
  • Another training is that the Recording unit is at least one camera.
  • the recording unit is a camera and that is a means of steel division is provided, which is set up such that the camera records two different beam paths. That's the way it is possible with only one camera based on the two different beam paths the position of the pointing object (for example using a triangulation method) determine.
  • To split the beam path can for example, a high quality mirror is provided his.
  • the computer unit thus receives one camera only one shot, but two different ones Beam paths, that is for determining the position of the Pointing object in the room in front of the window two contains different image sequences over time. Based this comes from different perspectives Image sequences allow the position of the pointing object before the display visible on the shop window determine. This position is used to determine whether the user moves the pointing object over an area that is linked to a specified action or whether it is this triggers the specified action (for the trigger mechanisms see above or below).
  • Another embodiment is that two cameras are provided, each in front of the room on the Show window display visible representation.
  • the Cameras advantageously set up in such a way that different perspectives on the pointing object representation visible in the shop window. Because of the different perspectives it is possible how described above, the position of the pointing object in front of the to determine the display visible in the shop window. This is crucial for triggering actions based on the Pointing object.
  • a preferred embodiment is that the at least one camera and in particular every camera behind the shop window. This ensures that the camera corresponds to the physical range of the User and various weather influences is removed.
  • Optical deflection unit can be provided, which are listed in this way is that the beam path of the associated camera in the Space in front of the display visible on the shop window judges. If the user perceives the interaction, he leads the pointing object in this room, the at least one camera takes a picture (from different Perspectives) of the pointing object.
  • one or more (optical) Deflection units can be provided. Is crucial in particular that the beam path for each camera or each partial beam path of each camera onto the space in front of the the display is visible and aligned so that the pointing object used for the interaction is included can be.
  • Another training is that the minimum a deflection unit a prism or at least one mirror contains.
  • the at least one Deflection unit in front of the shop window is also an embodiment.
  • the at least one camera is arranged below the representation.
  • a reflective surface is implemented above the representation.
  • the pointing object can be recognized with high contrast against the background. This leads to good results even in adverse lighting conditions and thus to a high level of user acceptance when interacting with the shop window.
  • the reflecting surface is above the illustration, this has the additional advantage that the reflecting surface is hardly contaminated and, in particular, weather conditions can be easily removed by additional roofing of the area in front of the shop window. This ensures high quality reflection.
  • a reflective surface can be provided in such a way is set up that the beam path from the camera to the Camera is reflected.
  • deflection unit and optional the reflective surface also to the side of the display, in particular at any angle to the shop window his.
  • a lighting unit can be provided, which the room in front of that visible on the shop window Representation with waves in the invisible spectral range illuminated.
  • the lighting unit can in particular be operated pulsed.
  • the Lighting unit at least one infrared light source, in particular at least one infrared light-emitting diode.
  • a predefined action triggered the predefined action is triggered in particular if the pointing object for a specified period of time on a displayed area lingers within the representation.
  • the specified action when approaching of the pointing object to the shop window from a predetermined one Proximity are triggered.
  • a further training is that the position of Pointing object can be determined using a triangulation method is.
  • the pointing object is a Is a user's hand or finger.
  • Another training course is that of a movement of the pointing object using the at least one camera and based on the computer unit to a movement of an analog Pointing device (comparable to a mouse pointer) implemented becomes.
  • a method is also used to solve the problem Interaction with one visible in a shop window Representation given where a pointing object is nearby of the shop window. It becomes a position of the Pointing object within the representation determined and one predetermined action by the pointing object by pointing to triggered a given area.
  • the method is particularly suitable for implementation based on the arrangement according to the invention or one of its Developments explained above.
  • FIG. 1 shows a sketch with an arrangement for the interaction of a user 107 with a shop window 104.
  • the hand or fingers of the user 107 serves as a pointing object 109.
  • a representation 105 is projected into the shop window 104 by means of a projector 101.
  • the representation 105 offers the user 107 at least one surface 110, which is designed as a virtual switch and when "actuated” a predetermined action is triggered on a computer unit 108. This “actuation” is in particular such that the user 107 remains in front of the surface 110 with the pointing object 109 for a predetermined period of time.
  • the "actuation" can also take place in that the user 107 brings his pointing object 109 closer than a predetermined threshold value to the shop window 104 in front of the surface 110.
  • the determination of the position of the pointing object 109 in front of the display 105 or the surface 110 is determined by the two cameras 102 and 103 in connection with the computer unit 108.
  • the two cameras 102 and 103 deliver images of the pointing object 109, that is to say in particular of the space in front of the representation 105, from two different perspectives.
  • the beam path of the two cameras 102 and 103 is preferably illuminated with infrared light, which is emitted by a reflecting surface 106 is reflected by the camera.
  • the computer unit 108 ensures that the position of the pointing object 109 before the display 105 is determined from the recordings of the two cameras 102 and 103. For this purpose, a triangulation method is used in particular. In general, from the two two-dimensional representations provided by the cameras 102 and 103, the difference in the perspective of the two representations enables the three-dimensional position of the pointing object 109 in front of the representation 105 to be deduced. Furthermore, the projector 101 is also controlled by the computer unit 108.
  • the combination of computer unit 108, projector 101, display 105, cameras 102 and 103 and pointing object 109 thus represents an arrangement for interaction, the computer unit 108 with the aid of the projector 101 causing a dynamic display 105 and the interaction of the user 107 being over Pointing object 109 is captured by cameras 102 and 103 and predetermined actions with regard to the movement of pointing object 109 are triggered before display 105.
  • FIG. 2 shows a first side view scenario for the interaction of a user 205 with a shop window 201.
  • a camera 202 is shown behind the shop window 201, the beam path of the camera 202 being deflected onto the area in front of the shop window by means of a mirror or a prism 203 becomes.
  • the user 205 interacts with his finger as a pointing object 207 on a display 204.
  • the display 204 is, for example, imported into the shop window 201 by means of a projector.
  • the representation 204 can also be a flat screen in or behind the shop window 201.
  • infrared light is imitated, preferably with the camera.
  • reflecting surfaces 206 are provided below the representation 204, so that the pointing object 207 is captured in the beam path between the camera 202, mirror or prism 203 and reflecting surfaces 206.
  • the pointing object of the user 205 stands out strongly from the background, and recognition is thus improved, as shown in FIG. 1 above.
  • FIG. 3 shows a second side view scenario for the interaction of a user 305 with a shop window 301.
  • FIG. 3 is carried out analogously to FIG. 2, with the difference that a camera 302 is designed together with a mirror or prism 303 below a display 304 and a reflective surface 306 is provided above the image 304.
  • An advantageous effect again consists in that a pointing object 307 of the user 305 is recognized with high contrast, whereby this arrangement of camera 302, mirror or prism 303 and reflecting surface 306 ensures on the one hand that the reflecting surface is protected against weather influences and dirt and on the other hand, the deflection unit mirror or prism 303 can be made small and inconspicuous, so that there are no restrictions for the user 305 in the operation.
  • FIG. 4 shows a camera 401 with a means for beam splitting 402, which is preferably designed as a mirror or prism, on the basis of which a beam path of the camera 401 is divided into two different beam paths 403 and 404.
  • a computer unit 405 is also shown, which controls the camera 401 or evaluates images of the camera 401. In this evaluation, the computer unit 405 receives two image sequences that come from different perspectives, corresponding to the beam path 403 and beam path 404. The computer unit 405 thus assembles three-dimensional information from these sequences of two two-dimensional representations, so that the position of the pointing object can be determined before the representation on the shop window.
  • the computer unit PRZE comprises a processor CPU, a memory MEM and an input / output interface IOS, which is used in different ways via an interface IFC: an output becomes visible on a monitor MON and / or on a printer via a graphic interface PRT issued. An entry is made using a mouse MAS or a keyboard TAST.
  • the computer unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS.
  • additional components can be connected to the data bus BUS, for example additional memory, data storage (hard disk) or scanner.
  • step 601 the user's pointing object is recorded and in step 602 the position of the pointing object in front of the shop window is determined, for example by means of triangulation. Based on the position of the pointing object, depending on the content of the display on the shop window, a predetermined action can be triggered with the pointing object. This triggering can take place, for example, as described above, by lingering on a predetermined area (“virtual switch”) for a predetermined period of time or by moving the pointing object closer to the shop window (see step 603).
  • a predetermined area (“virtual switch”) for a predetermined period of time or by moving the pointing object closer to the shop window (see step 603).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Abstract

Es wird eine Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung angegeben, bei der eine Aufnahmeeinheit vorgesehen ist, die ein Zeigeobjekt in der Nähe des Schaufensters aufnimmt. Ferner ist eine Rechnereinheit vorgesehen, anhand derer eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird. <IMAGE>

Description

Die Erfindung betrifft ein Verfahren und eine Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung.
Bei einem handelsüblichen Touchscreen verfährt ein Benutzer mit dem Finger auf einer Fläche und bewegt damit einen Mauszeiger auf einem Bildschirm. Befindet sich der Mauszeiger auf der gewünschten Position kann durch kurzes Tippen auf den Touchscreen die mit der Position verbundene Aktion ausgelöst werden.
Ferner ist aus [1] oder [2] eine Anordnung zur Interaktion, ein sogenannter Virtual Touchscreen, bekannt. Mit der Aufnahme einer Interaktionskomponente, z.B. einer Hand oder einem Zeigestab, zusammen mit einer Interaktionsfläche auf die vorzugsweise eine graphische Bedienoberfläche projiziert wird, ist es möglich, direkt auf der graphischen Bedienoberfläche zu interagieren, die oben beschriebene Aufteilung zwischen Darstellung der Bedienoberfläche und Touchscreen entfällt.
Schaufenster weisen den Vorteil auf, dass sie für die Kunden insbesondere auch jenseits der üblichen Öffnungszeiten Informationen über verkäufliche Waren oder Dienstleistungen anpreisen. Das Schaufenster selbst eröffnet aber den Kunden keine Möglichkeit zur Interaktion, vielmehr erschöpft sich die Wirkung bekannter Schaufenster in der bloßen Betrachtung der hinter dem Schaufenster ausgestellten Waren und/oder Dienstleistungen.
Die Aufgabe der Erfindung besteht darin, eine Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung anzugeben.
Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.
Zur Lösung der Aufgabe wird eine Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung angegeben, bei der eine Aufnahmeeinheit vorgesehen ist, die ein Zeigeobjekt in der Nähe des Schaufensters aufnimmt.
Ferner ist eine Rechnereinheit vorgesehen, anhand derer eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird.
Dabei wird bevorzugt die Position des Zeigeobjekts, das auf einen Ausschnitt innerhalb der in dem Schaufenster sichtbaren Darstellung zeigt, bestimmt. Dieser Ausschnitt ist insbesondere mit einer vorgegebenen Aktion verknüpft, d.h. diese Aktion kann von dem Benutzer anhand der Fläche ausgelöst werden. Eine Möglichkeit der Auslösung besteht darin, dass der Benutzer mit dem Zeigeobjekt für eine vorgegebene Zeitdauer über der Fläche verweilt, eine andere Möglichkeit ist es, dass bei Unterschreiten eines vorgegebenen Abstands zwischen Zeigeobjekt und Schaufenster die Aktion ausgelöst wird. Der Benutzer kann somit durch Verfahren des Zeigeobjekts innerhalb der sichtbaren Darstellung eine Eingabeeinheit, vergleichbar einer Computermaus, bewegen. Die Auslösung der Aktion - dies entspricht einem "Klick" bzw. "Doppelklick" mit der Computermaus - geschieht auf die oben beschriebene Art und Weise.
Somit ist es dem Kunden möglich, sich an dem Schaufenster interaktiv zu informieren oder sogar bestimmte Angebote durch Interaktion an bzw. mit dem Schaufenster wahrzunehmen. Beispiele für solche Interaktionen sind:
  • Zusammenstellung eines individuellen Kraftfahrzeuges anhand eines virtuellen Katalogs im Schaufenster eines Kraftfahrzeugverkäufers;
  • Information bezüglich Touristikangeboten im Schaufenster eines Reiseunternehmers;
  • sonstige Information bzw. Angebotserstellung für individuelle Bedürfnisse;
  • Kauf, Buchung oder Vorauswahl einer bestimmten Leistung.
Ein großer Vorteil der Erfindung besteht darin, dass die Interaktion mit dem Schaufenster für den Ladeninhaber bzw. Betreiber des Schaufensters weitgehend wartungsfrei ist, da der Kunde durch die berührungslose Interaktion keinen mechanischen Verschleiß verursacht. Ferner ist das beschriebene Szenario äußerst unempfindlich gegenüber möglichen Beschädigungen, z.B. durch Vandalismus. Schließlich sind für den Benutzer eine einfache Bedienung und damit eine hohe Benutzerfreundlichkeit gewährleistet.
Eine Weiterbildung besteht darin, dass zumindest ein Teil der Darstellung mit dem Schaufenster statisch verbunden, insbesondere auf dieses aufgedruckt ist. Dies eignet sich besonders für fest Bedienschemata, die eine Mehrzahl von Flächen aufweisen, die eine vorbestimmte Funktionalität haben. Ein sich zusätzlich wechselnder Inhalt kann dennoch vorgesehen sein derart, dass ein Informationsteil der Darstellung mit immer neuen (nicht statischen) Inhalten versorgt wird. Ein Beispiel für statisch mit jeweils einer Fläche verbundenen Funktionalitäten sind Navigationsschalter für "vorwärts", "rückwärts", "Anfang", "Ende".
Eine andere Weiterbildung ist es, dass die Darstellung, insbesondere ein Teil der Darstellung, mittels eines Bildschirms, insbesondere eines Flachbildschirms erzeugt wird. Hierfür kann beispielsweise der Flachbildschirm hinter dem Schaufenster angeordnet sein und den Benutzer mit wechselnden Darstellungen vorsorgen.
Hierbei sei angemerkt, dass die Bezeichnung "hinter" dem Schaufenster das bezeichnet, was vom Kunden durch das Schaufenster getrennt ist; demgemäß bezeichnet "vor" dem Schaufenster den Raum, den der Kunde, insbesondere zur Interaktion, benutzt.
Eine Ausgestaltung besteht darin, dass ein Projektor vorgesehen ist, der derart eingereichtet ist, dass mindestens ein Teil der Darstellung auf das Schaufenster projizierbar ist. Hierbei ist es von Vorteil, dass das Schaufenster zumindest teilweise eine halbtransparente oder eine beschichtete Fläche aufweist. So ist es möglich, die von dem Projektor in das Schaufenster projizierte Darstellung für den Kunden gut ablesbar auszuführen.
Eine andere Weiterbildung besteht darin, dass die Aufnahmeeinheit mindestens eine Kamera ist.
Eine Weiterbildung besteht darin, dass die Aufnahmeeinheit eine Kamera ist und dass ein Mittel zur Stahlenteilung vorgesehen ist, das derart eingerichtet ist, dass die Kamera zwei unterschiedliche Strahlengänge aufnimmt. So ist es möglich mit nur einer Kamera anhand der beiden unterschiedlichen Strahlengänge die Position des Zeigeobjekts (zum Beispiel mittels eines Triangulationsverfahrens) zu bestimmen. Zur Aufteilung des Strahlengangs kann beispielsweise ein qualitativ hochwertiger Spiegel vorgesehen sein. Die Rechnereinheit erhält somit von der einen Kamera nur eine Aufnahme, die aber zwei unterschiedliche Strahlengänge, das heißt für die Bestimmung der Position des Zeigeobjekts im Raum vor dem Schaufenster zwei unterschiedliche Bildsequenzen über die Zeit enthält. Anhand dieser aus unterschiedlichen Perspektiven stammenden Bildsequenzen ist es möglich, die Position des Zeigeobjekts vor der auf dem Schaufenster sichtbaren Darstellung zu bestimmen. Diese Position wird eingesetzt, um festzustellen, ob der Benutzer das Zeigeobjekt über eine Fläche bewegt, die mit einer vorgegebenen Aktion verknüpft ist bzw. ob er diese vorgegebene Aktion auslöst (zu den Auslösemechanismen siehe oben bzw. unten).
Eine andere Ausgestaltung ist es, dass zwei Kameras vorgesehen sind, die jeweils den Raum vor der auf dem Schaufenster sichtbaren Darstellung aufnehmen. Dabei sind die Kameras vorteilhaft derart eingerichtet, dass aus unterschiedlichen Perspektiven das Zeigeobjekt vor der auf dem Schaufenster sichtbaren Darstellung aufgenommen wird. Durch die unterschiedlichen Perspektiven ist es möglich, wie oben beschrieben, die Position des Zeigeobjekts vor der auf dem Schaufenster sichtbaren Darstellung zu bestimmen. Dies ist entscheidend für die Auslösung von Aktionen anhand des Zeigeobjekts.
Eine bevorzugte Ausgestaltung besteht darin, dass die mindestens eine Kamera und insbesondere jede Kamera hinter dem Schaufenster ausgeführt ist. Dadurch ist sichergestellt, dass die Kamera dem physikalischen Wirkungsbereich des Benutzers und diversen Witterungseinflüssen entzogen ist. In diesem Fall kann für jede Kamera hinter dem Schaufenster eine optische Umlenkeinheit vorgesehen sein, die derart aufgeführt ist, dass sie den Strahlengang der zugehörigen Kamera in den Raum vor der auf das Schaufenster sichtbaren Darstellung richtet. Nimmt der Benutzer die Interaktion wahr, so führt er das Zeigeobjekt in diesen Raum, die mindestens einen Kamera macht damit eine Aufnahme (aus unterschiedlichen Perspektiven) von dem Zeigeobjekt.
Hierbei sei angemerkt, dass eine oder mehrere (optische) Umlenkeinheiten vorgesehen sein können. Entscheidend ist insbesondere, dass der Strahlengang für jede Kamera bzw. jeder Teilstrahlengang jeder Kamera auf den Raum vor der in dem Schaufenster sichtbaren Darstellung ausgerichtet ist und damit das zur Interaktion eingesetzte Zeigeobjekt aufgenommen werden kann.
Eine andere Weiterbildung besteht darin, dass die mindestens eine Umlenkeinheit ein Prisma oder mindestens einen Spiegel enthält.
Auch ist es eine Ausgestaltung, dass die mindestens eine Umlenkeinheit vor dem Schaufenster ausgeführt ist.
Eine andere Ausgestaltung ist es, dass die mindestens eine Kamera unterhalb der Darstellung angeordnet ist. In diesem Fall ist es von Vorteil, dass oberhalb der Darstellung eine reflektierende Fläche ausgeführt ist. Dadurch kann das Zeigeobjekt kontraststark vor dem Hintergrund erkannt werden. Dies führt auch bei widrigen Lichtverhältnissen zu guten Ergebnissen und damit zu einer hohen Akzeptanz des Benutzers bei der Interaktion mit dem Schaufenster.
Ist die reflektierende Fläche oberhalb der Darstellung ausgeführt, so hat dies den zusätzlichen Vorteil, dass die reflektierende Fläche kaum verschmutzt und insbesondere Witterungseinflüssen durch eine zusätzliche Überdachung des Bereichs vor dem Schaufenster leicht entzogen werden kann. Damit ist eine qualitativ hochwertige Reflexion gewährleistet.
Eine andere Ausgestaltung besteht darin, dass die mindestens eine Kamera oberhalb der Darstellung ausgeführt ist. In diesem Fall kann unterhalb der Darstellung eine reflektierende Fläche vorgesehen sein, die derart eingerichtet ist, dass der Strahlengang von der Kamera zu der Kamera reflektiert wird.
Alternativ können Kamera und ggf. Umlenkeinheit und optional die reflektierende Fläche auch seitlich zu der Darstellung, insbesondere um beliebige Winkel zum Schaufenster, angeordnet sein. Die dargestellten Ausführungen oberhalb und unterhalb der Darstellung sind lediglich zwei von vielen Möglichkeiten.
Um die Qualität bei der Erkennung des Zeigeobjekts zusätzlich zu erhöhen, kann eine Beleuchtungseinheit vorgesehen sein, die den Raum vor der auf dem Schaufenster sichtbaren Darstellung mit Wellen im nichtsichtbaren Spektralbereich beleuchtet. Dabei kann die Beleuchtungseinheit insbesondere gepulst betrieben werden. Vorzugsweise umfasst die Beleuchtungseinheit mindestens eine Infrarot-Lichtquelle, insbesondere mindestens eine Infrarot-Leuchtdiode.
Anhand der Rechnereinheit werden die von der mindestens einen Kamera gelieferten Bildsequenzen aus unterschiedlichen Perspektiven ausgewertet und so die Position des Zeigeobjekts vor der in dem Schaufenster sichtbaren Darstellung bestimmt. Abhängig von der Position des Zeigeobjekts wird eine vorgegebene Aktion ausgelöst, wobei die vorgegebene Aktion insbesondere dann ausgelöst wird, wenn das Zeigeobjekt für eine vorgegebene Zeitdauer auf einer dargestellten Fläche innerhalb der Darstellung verweilt. Dabei hat die dargestellte Fläche eine bestimmte Funktionalität, die bei einer solchen Auslösung von der Rechnereinheit ausgeführt wird. Alternativ kann die vorgegebene Aktion bei Annäherung des Zeigeobjekts an das Schaufenster ab einer vorgegebenen Nähe ausgelöst werden.
Eine Weiterbildung besteht darin, dass die Position des Zeigeobjekts mittels eine Triangulationsverfahrens bestimmbar ist.
Auch ist es eine Ausgestaltung, dass das Zeigeobjekt eine Hand oder ein Finger eines Benutzers ist.
Eine andere Weiterbildung besteht darin, dass eine Bewegung des Zeigeobjekts anhand der mindestens einen Kamera und anhand der Rechnereinheit zu einer Bewegung eines analogen Zeigegeräts (vergleichbar mit einem Mauszeiger) umgesetzt wird.
Auch wird zur Lösung der Aufgabe ein Verfahren zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung angegeben, bei dem ein Zeigeobjekt in der Nähe des Schaufensters aufgenommen wird. Es wird eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt und eine vorgegebene Aktion durch das Zeigeobjekt durch Zeigen auf eine vorgegebene Fläche ausgelöst.
Das Verfahren ist insbesondere geeignet zur Durchführung anhand der erfindungsgemäßen Anordnung oder einer seiner vorstehend erläuterten Weiterbildungen.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung dargestellt und erläutert.
Es zeigen
Fig. 1
eine Skizze mit einer Anordnung zur Interaktion mit einem Schaufenster;
Fig.2
ein erstes Szenario (in Seitenansicht) zur Interaktion eines Benutzers mit einem Schaufenster;
Fig.3
ein zweites Szenario (in Seitenansicht) zur Interaktion eines Benutzers mit einem Schaufenster;
Fig.4
eine Kamera mit einem Mittel zur Strahlenteilung, anhand dessen die Kamera zwei unterschiedliche Strahlengänge aufzeichnet;
Fig.5
eine Rechnereinheit.
Fig.6
eine Skizze mit Schritten eines Verfahrens zur Interaktion eines Benutzers mit einem Schaufenster.
Fig.1 zeigt eine Skizze mit einer Anordnung zur Interaktion eines Benutzers 107 mit einem Schaufenster 104. Als ein Zeigeobjekt 109 dient die Hand bzw. der Finger des Benutzers 107. In das Schaufenster 104 wird mittels eines Projektors 101 eine Darstellung 105 projiziert. Die Darstellung 105 bietet dem Benutzer 107 mindestens eine Fläche 110, die als ein virtueller Schalter ausgeführt ist und bei deren "Betätigung" eine vorgegebene Aktion auf einer Rechnereinheit 108 ausgelöst wird. Dieses "Betätigen" gestaltet sich insbesondere derart, dass der Benutzer 107 mit dem Zeigeobjekt 109 für eine vorgegebene Zeitdauer vor der Fläche 110 verweilt. Alternativ kann die "Betätigung" auch dadurch erfolgen, dass der Benutzer 107 sein Zeigeobjekt 109 näher als einen vorgegebenen Schwellwert an das Schaufenster 104 vor der Fläche 110 heranführt. Die Ermittlung der Position des Zeigeobjekts 109 vor der Darstellung 105 bzw. der Fläche 110 wird durch die beiden Kameras 102 und 103 in Verbindung mit der Rechnereinheit 108 bestimmt. Die beiden Kameras 102 und 103 liefern aus zwei unterschiedlichen Perspektiven Aufnahmen von dem Zeigeobjekt 109, also insbesondere von dem Raum vor der Darstellung 105. Bevorzugt wird der Strahlengang der beiden Kameras 102 und 103 mit Infrarot-Licht beleuchtet, welches von einer reflektierenden Fläche 106 zu der Kamera reflektiert wird. Bewegt sich in diesem Strahlengang ein Zeigeobjekt 109, so kann dies kontraststark vor dem Hintergrund erkannt werden. Die Rechnereinheit 108 stellt sicher, dass aus den Aufnahmen der beiden Kameras 102 und 103 die Position des Zeigeobjekts 109 vor der Darstellung 105 bestimmt wird. Dazu wird insbesondere ein Verfahren zur Triangulation eingesetzt, allgemein wird aus den beiden von den Kameras 102 und 103 gelieferten zweidimensionalen Darstellungen durch den Unterschied in der Perspektive der beiden Darstellungen auf die dreidimensionale Position des Zeigeobjekts 109 vor der Darstellung 105 rückgeschlossen. Weiterhin wird auch der Projektor 101 von der Rechnereinheit 108 angesteuert. Die Kombination von Rechnereinheit 108, Projektor 101, Darstellung 105, Kameras 102 und 103 und Zeigeobjekt 109 stellt damit eine Anordnung zur Interaktion dar, wobei die Rechnereinheit mit 108 mit Hilfe des Projektors 101 eine dynamische Darstellung 105 bewirkt und die Interaktion des Benutzers 107 über sein Zeigeobjekt 109 mittels der Kameras 102 und 103 eingefangen wird und vorgegebene Aktionen im Hinblick auf die Bewegung des Zeigeobjekts 109 vor der Darstellung 105 ausgelöst werden.
Fig.2 zeigt ein erstes Szenario in Seitenansicht zur Interaktion eines Benutzers 205 mit einem Schaufenster 201. Es ist eine Kamera 202 hinter dem Schaufenster 201 dargestellt, wobei der Strahlengang der Kamera 202 mittels eines Spiegels oder eines Prismas 203 auf den Bereich vor das Schaufenster umgelenkt wird. Der Benutzer 205 interagiert mit seinem Finger als Zeigeobjekt 207 auf einer Darstellung 204. Die Darstellung 204 ist beispielsweise, wie in Fig.1 gezeigt, mittels eines Projektors in das Schaufenster 201 eingespielt. Alternativ kann die Darstellung 204 auch ein Flachbildschirm in oder hinter dem Schaufenster 201 sein. Zur besseren Erkennung des Zeigeobjekts 207 wird, vorzugsweise mit der Kamera, Infrarot-Licht imitiert. Zusätzlich werden reflektierende Flächen 206 vorgesehen unterhalb der Darstellung 204, so dass das Zeigeobjekt 207 in den Strahlengang zwischen Kamera 202, Spiegel oder Prisma 203 und reflektierenden Flächen 206 erfasst ist. Dadurch hebt sich das Zeigeobjekt des Benutzers 205 stark von dem Hintergrund ab, eine Erkennung ist somit, wie oben in Fig.1 dargestellt, verbessert.
Fig.3 zeigt ein zweites Szenario in Seitenansicht zur Interaktion eines Benutzers 305 mit einem Schaufenster 301. Fig.3 ist analog zu Fig.2 ausgeführt mit dem Unterschied, dass eine Kamera 302 zusammen mit einem Spiegel oder Prisma 303 unterhalb einer Darstellung 304 ausgeführt ist und eine reflektierende Fläche 306 oberhalb der Darstellung 304 vorgesehen ist. Ein vorteilhafter Effekt besteht wiederum darin, dass ein Zeigeobjekt 307 des Benutzers 305 kontraststark erkannt wird, wobei durch diese Anordnung von Kamera 302, Spiegel oder Prisma 303 und reflektierender Fläche 306 zum einen sichergestellt ist, dass die reflektierende Fläche vor Witterungseinflüssen und Verschmutzung geschützt ist und zum anderen die Umlenkeinheit Spiegel oder Prisma 303 klein und unauffällig ausgeführt werden kann, so dass sich in der Bedienung keinerlei Einschränkungen für den Benutzer 305 ergeben.
Fig.4 zeigt eine Kamera 401 mit einem Mittel zur Strahlenteilung 402, das vorzugsweise als Spiegel oder Prisma ausgeführt ist, anhand dessen ein Strahlengang der Kamera 401 in zwei unterschiedliche Strahlengänge 403 und 404 aufgeteilt wird. Ferner ist eine Rechnereinheit 405 gezeigt, die die Kamera 401 ansteuert bzw. Bilder der Kamera 401 auswertet. Bei dieser Auswertung empfängt die Rechnereinheit 405 zweierlei Bildsequenzen, die aus unterschiedlichen Perspektiven, entsprechend Strahlengang 403 und Strahlengang 404, stammen. Die Rechnereinheit 405 setzt somit aus diesen Sequenzen zweier zweidimensionaler Darstellungen eine dreidimensionale Information zusammen, so dass die Position des Zeigeobjekts vor der Darstellung auf dem Schaufenster ermittelt werden kann.
In Fig.5 ist eine Rechnereinheit PRZE dargestellt. Die Rechnereinheit PRZE umfasst einen Prozessor CPU, einen Speicher MEM und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Rechnereinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet. Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z.B. zusätzlicher Speicher, Datenspeicher (Festplatte) oder Scanner.
Fig.6 zeigt eine Skizze mit Schritten eines Verfahrens zur Interaktion eines Benutzers mit einem Schaufenster. In einem Schritt 601 wird das Zeigeobjekt des Benutzers aufgenommen und in einem Schritt 602 wird die Position des Zeigeobjekts vor dem Schaufenster, zum Beispiel mittels Triangulation, bestimmt. Anhand der Position des Zeigeobjekts kann, abhängig von dem Inhalt der Darstellung auf dem Schaufenster, mit dem Zeigeobjekt eine vorgegebene Aktion ausgelöst werden. Dieses Auslösen kann beispielsweise, wie oben beschrieben, durch Verweilen für eine vorgegebene Zeitdauer auf einer vorgegebenen Fläche ("virtueller Schalter") oder durch Annäherung des Zeigeobjekts an das Schaufenster erfolgen (siehe Schritt 603).
Literaturverzeichnis:
[1]
Projektion mit Gestenbedienung und Auswertung im sichtbaren Bereich, US 5,528,263
[2]
DE 197 08 240 C1

Claims (28)

  1. Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung,
    a) bei der eine Aufnahmeeinheit vorgesehen ist, die ein Zeigeobjekt in der Nähe des Schaufensters aufnimmt;
    b) bei der eine Rechnereinheit vorgesehen ist, anhand derer eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird.
  2. Anordnung nach Anspruch 1,
    bei der zumindest ein Teil der Darstellung auf dem Schaufenster statisch befestigt, insbesondere aufgedruckt, ist.
  3. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der ein Bildschirm, insbesondere ein Flachbildschirms, vorgesehen ist, der mindestens einen Teil der Darstellung erzeugt.
  4. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der ein Projektor vorgesehen ist, der derart eingerichtet ist, dass mindestens ein Teil der Darstellung auf das Schaufenster projizierbar ist.
  5. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der das Schaufenster zumindest teilweise eine halbtransparente oder beschichtete Fläche ist.
  6. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der die Aufnahmeeinheit mindestens eine Kamera ist.
  7. Anordnung nach Anspruch 6,
    a) bei der die Aufnahmeeinheit eine Kamera ist;
    b) bei der ein Mittel zur Strahlenteilung vorgesehen ist, das derart eingerichtet ist, dass die Kamera zwei Strahlengänge aufnimmt.
  8. Anordnung nach Anspruch 6,
    bei der zwei Kameras vorgesehen sind, die jeweils den Raum vor der auf dem Schaufenster sichtbaren Darstellung aufnehmen.
  9. Anordnung nach einem der Ansprüche 6 bis 8,
    bei der die mindestens eine Kamera hinter dem Schaufenster ausgeführt ist.
  10. Anordnung nach Anspruch 9,
    bei der mindestens eine Umlenkeinheit vorgesehen ist, die derart eingerichtet ist, dass der mindestens eine Strahlengang der mindestens einen Kamera auf den Raum vor die auf dem Schaufenster sichtbaren Darstellung gerichtet ist.
  11. Anordnung nach Anspruch 10,
    bei der die mindestens eine Umlenkeinheit ein Prisma oder mindestens einen Spiegel enthält.
  12. Anordnung nach Anspruch 10 oder 11,
    bei der die mindestens eine Umlenkeinheit vor dem Schaufenster ausgeführt ist.
  13. Anordnung nach einem der Ansprüche 6 bis 12,
    bei der die mindestens eine Kamera unterhalb der Darstellung ausgeführt ist.
  14. Anordnung nach Anspruch 13,
    bei der oberhalb der Darstellung eine reflektierende Fläche ausgeführt ist.
  15. Anordnung nach einem der Ansprüche 6 bis 12,
    bei der die mindestens eine Kamera oberhalb der Darstellung ausgeführt ist.
  16. Anordnung nach Anspruch 15,
    bei der unterhalb der Darstellung eine reflektierende Fläche vorgesehen ist, die derart eingerichtet ist, dass der Strahlengang von der Kamera zu der Kamera reflektiert wird.
  17. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der eine Beleuchtungseinheit vorgesehen ist, die den Raum vor der auf dem Schaufenster sichtbaren Darstellung mit Wellen im nichtsichtbaren Spektralbereich beleuchtet.
  18. Anordnung nach Anspruch 17,
    bei der die Beleuchtungseinheit gepulst betrieben wird.
  19. Anordnung nach Anspruch 17 oder 18,
    bei der die Beleuchtungseinheit mindestens eine Infrarotlichtquelle umfasst.
  20. Anordnung nach Anspruch 19,
    bei der die Infrarotlichtquelle eine Infrarot-Leuchtdiode ist.
  21. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der mittels der mindestens einen Kamera und der Rechnereinheit die Position des Zeigeobjekts bestimmbar ist.
  22. Anordnung nach Anspruch 21,
    bei der mittels der Rechnereinheit abhängig von der Position des Zeigeobjekts eine vorgegebene Aktion ausgelöst wird.
  23. Anordnung nach Anspruch 22,
    bei der die vorgegebene Aktion ausgelöst wird, indem das Zeigeobjekt für eine vorgegebene Zeitdauer auf einer dargestellten Fläche innerhalb der Darstellung verweilt.
  24. Anordnung nach Anspruch 22,
    bei der die vorgegebene Aktion durch Annäherung des Zeigeobjekts an das Schaufenster bis zu einer vorgegebenen Nähe ausgelöst wird.
  25. Anordnung nach einem der Ansprüche 21 bis 24,
    bei der die Position des Zeigeobjekts mittels eines Triangulationsverfahrens bestimmbar ist.
  26. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der das Zeigeobjekt eine Hand oder ein Finger eines Benutzers ist.
  27. Anordnung nach einem der vorhergehenden Ansprüche,
    bei der eine Bewegung des Zeigeobjekts anhand der mindestens einen Kamera und anhand der Rechnereinheit zu einer Bewegung eines analogen Zeigegeräts (Mauszeiger) umgesetzt wird.
  28. Verfahren zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung,
    a) bei dem ein Zeigeobjekt in der Nähe des Schaufensters aufgenommen wird;
    b) bei der eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird;
    c) bei der durch das Zeigeobjekt durch Zeigen auf eine vorgegebene Fläche innerhalb der Darstellung eine vorgegebene Aktion ausgelöst wird.
EP01103774A 2000-02-21 2001-02-15 Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung Withdrawn EP1128317A3 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10007891 2000-02-21
DE10007891A DE10007891C2 (de) 2000-02-21 2000-02-21 Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung

Publications (2)

Publication Number Publication Date
EP1128317A2 true EP1128317A2 (de) 2001-08-29
EP1128317A3 EP1128317A3 (de) 2002-07-03

Family

ID=7631734

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01103774A Withdrawn EP1128317A3 (de) 2000-02-21 2001-02-15 Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung

Country Status (3)

Country Link
US (1) US7034807B2 (de)
EP (1) EP1128317A3 (de)
DE (1) DE10007891C2 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003102667A1 (de) * 2002-05-04 2003-12-11 Bauhaus-Universität Weimar Verfahren und vorrichtung zur konsistenten darstellung von realen und virtuelle objekten
EP1879099A1 (de) * 2006-07-10 2008-01-16 Era Optoelectronics Inc. Dateneingabegerät
CN103309136A (zh) * 2013-07-09 2013-09-18 三亚全息数字技术应用有限公司 展示装置
DE102014208327A1 (de) 2013-05-17 2014-11-20 Ifm Electronic Gmbh Verfahren und System zur Steuerung eines Medienausgabegeräts
DE102014208327B4 (de) 2013-05-17 2024-07-11 pmdtechnologies ag System zur Steuerung eines Medienausgabegeräts

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
DE10163648A1 (de) * 2001-12-21 2003-07-03 Klaus-Dieter Frank Interaktives Projektions- und Eingabesystem
EP1488639A1 (de) * 2002-03-22 2004-12-22 British Telecommunications Public Limited Company Interaktives videosystem
DE10232415A1 (de) * 2002-07-17 2003-10-23 Siemens Ag Eingabegerät für eine Datenverarbeitungsanlage
DE10260305A1 (de) * 2002-12-20 2004-07-15 Siemens Ag HMI Einrichtung mit einem optischem Touch Screen
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
US7787010B2 (en) * 2003-03-20 2010-08-31 Pixar Video to film flat panel digital recorder and method
WO2004097612A2 (en) * 2003-05-01 2004-11-11 Delta Dansk Elektronik, Lys & Akustik A man-machine interface based on 3-d positions of the human body
ES2228251B1 (es) * 2003-05-09 2006-02-16 Universitat Pompeu Fabra Dispositivo de interfaz natural no invasiva para la interaccion con un sistema informatico y metodo de operacion.
DE10360952A1 (de) * 2003-12-23 2005-07-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Objekt und einer graphisch darstellbaren Benutzeroberfläche
DE102005001417B4 (de) 2004-01-29 2009-06-25 Heidelberger Druckmaschinen Ag Projektionsflächenabhängige Anzeige-/Bedienvorrichtung
TW200627244A (en) * 2005-01-17 2006-08-01 Era Optoelectronics Inc Data input device
EP1851750A4 (de) 2005-02-08 2010-08-25 Oblong Ind Inc System und verfahren für ein steuersystem auf genture-basis
JP2007172303A (ja) * 2005-12-22 2007-07-05 Seiko Epson Corp 情報入力システム
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
EP1821184A3 (de) * 2006-02-08 2007-11-14 Almeva AG System und Verfahren zur Interaktion mit einer Anzeige durch ein Schaufenster
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8407725B2 (en) * 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US8395658B2 (en) * 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
TW200813785A (en) * 2006-09-08 2008-03-16 Era Optoelectronics Inc Image position interpretation apparatus
CN101149653B (zh) * 2006-09-22 2011-01-26 时代光电科技股份有限公司 判读影像位置的装置
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
BRPI0704156A2 (pt) * 2007-09-17 2009-05-12 Nadaletti Leandro Prade sistema de propaganda e compras vinte e quatro horas
HUP0700391A2 (en) * 2007-06-05 2008-12-29 Zsombor Lazar Method of determining an intrusion into a monitored area and system for generating output signals in response to such intrusion
CN101971128B (zh) * 2007-12-05 2013-07-17 阿尔梅瓦股份公司 屏幕与指针对象之间交互用的交互装置
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
EP2304527A4 (de) * 2008-06-18 2013-03-27 Oblong Ind Inc Auf gestik basierendes steuersystem für fahrzeugschnittstellen
FR2937753B1 (fr) * 2008-10-23 2011-05-20 Idealys Entertainment Livre interactif permettant de lire virtuellement en temps reel, sans toucher tactile et sans accessoire, tout type de contenus images (textes, photos et videos) par capture de mouvements
DE202008014205U1 (de) 2008-10-24 2009-01-15 Keller, Gregor Anordnung zur Interaktion mit einem Computer
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
CN102577368B (zh) * 2009-04-16 2016-01-06 惠普开发有限公司 在虚拟协同系统中传送视觉表示
JP5553546B2 (ja) * 2009-07-07 2014-07-16 キヤノン株式会社 画像投影装置、及びその制御方法
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
CN102129151A (zh) * 2010-01-20 2011-07-20 鸿富锦精密工业(深圳)有限公司 前投影控制系统及方法
TW201205551A (en) * 2010-07-29 2012-02-01 Hon Hai Prec Ind Co Ltd Display device assembling a camera
CN102446473B (zh) * 2010-10-13 2015-04-22 奇纬光电新材料(中国)有限公司 橱窗互动广告的装置及实施方法
KR101507458B1 (ko) * 2010-12-31 2015-03-31 멀티 터치 오와이 대화식 디스플레이
WO2012162386A1 (en) 2011-05-23 2012-11-29 360Brandvision, LLC Accessory for reflecting an image from a display screen of a portable electronic device
DE102011108079A1 (de) 2011-07-21 2013-01-24 Peter Strzygowski Verfahren und Vorrichtung zur Anordnung komplex verknüpfter Informationen sowie deren Durchwegung
CA2779837C (en) * 2012-04-24 2021-05-04 Comcast Cable Communications, Llc Video presentation device and method using gesture control
JP6111682B2 (ja) * 2013-01-21 2017-04-12 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
US10461743B2 (en) * 2013-01-11 2019-10-29 Imagesurge, Inc. Interactive display system and method for use with low emissivity glass using infrared illumination
US9922356B1 (en) * 2013-01-22 2018-03-20 Carvana, LLC Methods and systems for online transactions
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9465488B2 (en) * 2013-05-09 2016-10-11 Stephen Howard System and method for motion detection and interpretation
US10891003B2 (en) 2013-05-09 2021-01-12 Omni Consumer Products, Llc System, method, and apparatus for an interactive container
US9360888B2 (en) * 2013-05-09 2016-06-07 Stephen Howard System and method for motion detection and interpretation
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
EP2849442B1 (de) * 2013-09-16 2017-03-29 ameria GmbH Gestengesteuertes Rückprojektionssystem
TW201514892A (zh) * 2013-10-09 2015-04-16 Utechzone Co Ltd 物件的資訊呈現裝置與方法
US20150102993A1 (en) * 2013-10-10 2015-04-16 Omnivision Technologies, Inc Projector-camera system with an interactive screen
US9317150B2 (en) * 2013-12-28 2016-04-19 Intel Corporation Virtual and configurable touchscreens
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
JP6267558B2 (ja) * 2014-03-25 2018-01-24 株式会社デンソーテン 車両用装置及び車両制御方法
EP3241074B1 (de) 2014-12-30 2023-08-09 Omni Consumer Products, LLC System und verfahren für interaktive projektion
JP6459705B2 (ja) * 2015-03-27 2019-01-30 セイコーエプソン株式会社 インタラクティブプロジェクター、インタラクティブプロジェクションシステム、及び、インタラクティブプロジェクターの制御方法
JP6623812B2 (ja) * 2016-02-17 2019-12-25 セイコーエプソン株式会社 位置検出装置、及び、そのコントラスト調整方法
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
EP4350431A3 (de) 2016-12-07 2024-07-03 Scheich, Davo Fotografische kammer für ein fahrzeug
FR3061345B1 (fr) * 2016-12-23 2020-10-09 Herve Harounian Borne interactive d'accueil et d'information des usagers d'un lieu public
US10509513B2 (en) * 2017-02-07 2019-12-17 Oblong Industries, Inc. Systems and methods for user input device tracking in a spatial operating environment
PL422371A1 (pl) * 2017-07-27 2019-01-28 Paweł Ryłko Sposób uzyskiwania funkcji dotykowej na obrazach rzutowanych przez projektory wizyjne na dowolne powierzchnie płaskie
DE102018200623A1 (de) * 2018-01-16 2019-07-18 Robert Bosch Gmbh Interaktive Warenpräsentationsvorrichtung
US11412135B2 (en) 2018-12-05 2022-08-09 Ovad Custom Stages, Llc Bowl-shaped photographic stage
US11582425B2 (en) 2020-06-10 2023-02-14 Magna Electronics Inc. Driver monitoring system using camera with adjustable mirror

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2263765A (en) * 1992-01-25 1993-08-04 Paul Philip Oliver Touch screen systems
DE4423005C1 (de) * 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
DE19539955A1 (de) * 1995-10-26 1997-04-30 Sick Ag Optische Erfassungseinrichtung
EP0829798A2 (de) * 1996-09-12 1998-03-18 Digital Equipment Corporation Bildunterstützter berührungsempfindlicher Bildschirm
DE19708240A1 (de) * 1997-02-28 1998-09-10 Siemens Ag Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
EP0977159A1 (de) * 1998-07-27 2000-02-02 Hitachi Computer Products (Europe) S.A. Elektronisches Endgerät

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
DE4312672A1 (de) * 1993-04-19 1994-10-20 Ulrich Prof Dr Ing Kuipers Vorrichtung und Verfahren eines berührungslosen mauskompatiblen PC-Zeigereingabegerätes
GB9312438D0 (en) * 1993-06-16 1993-07-28 Potter Billett G Display apparatus
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5598265A (en) * 1995-04-06 1997-01-28 Zygo Corporation Method for profiling an object surface using a large equivalent wavelength and system therefor
US6481851B1 (en) * 1995-09-20 2002-11-19 Videotronic Systems Adjustable contrast reflected display system
DE19543959C2 (de) 1995-11-25 2000-04-20 P & I Gmbh Computergestützte Projektionsvorrichtung
US5736975A (en) * 1996-02-02 1998-04-07 Interactive Sales System Interactive video display
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
DE19843902A1 (de) * 1997-09-26 1999-04-01 Denso Corp Bildinformations-Anzeigesystem und Hologramm-Anzeigevorrichtung
JP3794180B2 (ja) * 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
WO1999040562A1 (en) * 1998-02-09 1999-08-12 Joseph Lev Video camera computer touch screen system
US6545670B1 (en) * 1999-05-11 2003-04-08 Timothy R. Pryor Methods and apparatus for man machine interfaces and related activity

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2263765A (en) * 1992-01-25 1993-08-04 Paul Philip Oliver Touch screen systems
DE4423005C1 (de) * 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
DE19539955A1 (de) * 1995-10-26 1997-04-30 Sick Ag Optische Erfassungseinrichtung
EP0829798A2 (de) * 1996-09-12 1998-03-18 Digital Equipment Corporation Bildunterstützter berührungsempfindlicher Bildschirm
DE19708240A1 (de) * 1997-02-28 1998-09-10 Siemens Ag Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
EP0977159A1 (de) * 1998-07-27 2000-02-02 Hitachi Computer Products (Europe) S.A. Elektronisches Endgerät

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003102667A1 (de) * 2002-05-04 2003-12-11 Bauhaus-Universität Weimar Verfahren und vorrichtung zur konsistenten darstellung von realen und virtuelle objekten
EP1879099A1 (de) * 2006-07-10 2008-01-16 Era Optoelectronics Inc. Dateneingabegerät
DE102014208327A1 (de) 2013-05-17 2014-11-20 Ifm Electronic Gmbh Verfahren und System zur Steuerung eines Medienausgabegeräts
DE102014208327B4 (de) 2013-05-17 2024-07-11 pmdtechnologies ag System zur Steuerung eines Medienausgabegeräts
CN103309136A (zh) * 2013-07-09 2013-09-18 三亚全息数字技术应用有限公司 展示装置

Also Published As

Publication number Publication date
EP1128317A3 (de) 2002-07-03
DE10007891C2 (de) 2002-11-21
US7034807B2 (en) 2006-04-25
US20010020933A1 (en) 2001-09-13
DE10007891A1 (de) 2001-09-06

Similar Documents

Publication Publication Date Title
DE10007891C2 (de) Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung
DE19708240C2 (de) Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE19710686C2 (de) Verfahren zum Markieren eines Fensters einer fensterorientierten Benutzeroberfläche
DE102009032637A1 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE102015110495A1 (de) Informationsverarbeitungsvorrichtung, die ein bestimmtes objekt in einem aufgenommenen bild erkennt, und verfahren zu deren steuerung
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
EP1161740A1 (de) Anordnung zur interaktion
EP1012698B1 (de) Vorrichtung zur darstellung und virtuellen eingabe von daten
DE102004044999A1 (de) Eingabesteuerung für Geräte
DE112019002604T5 (de) Virtuelle Bildanzeigevorrichtung
EP2663909A1 (de) Fernsteuerungseinrichtung und schnittstellen-modul zur steuerung einer vorrichtung anhand eines beweglichen objektes
EP2380077A2 (de) Gerät mit einer eingabevorrichtung zur eingabe von steuerbefehlen
DE102015226153A1 (de) Anzeigevorrichtung und Bedieneinrichtung
DE102019211518B3 (de) Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung
WO2003056504A1 (de) Interaktives projektions- und eingabesystem
DE102018205445A1 (de) Optische Anzeigevorrichtung sowie Verfahren zur Gestenerkennung von Nutzern auf einer optischen Anzeigeeinrichtung
DE19744441A1 (de) Elektronisches Zeigegerät mit optoelektronischer Sensoreinrichtung
DE112019000857T5 (de) Referenzpositionseinstellverfahren und Vorrichtung zur Anzeige eines virtuellen Bilds
DE102022111443A1 (de) Berührungslose Steuereinrichtung für einen Präsentationsbereich sowie Bedieneinheit
DE9112796U1 (de) Eingabegerät für Computer
AT520234B1 (de) Vorrichtung zur interaktiven Präsentation von visuellen Inhalten
DE102018200623A1 (de) Interaktive Warenpräsentationsvorrichtung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

AKX Designation fees paid
REG Reference to a national code

Ref country code: DE

Ref legal event code: 8566

DBV Designated contracting states (deleted)
17P Request for examination filed

Effective date: 20030102

RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20070901