EP1128317A2 - Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung - Google Patents
Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung Download PDFInfo
- Publication number
- EP1128317A2 EP1128317A2 EP01103774A EP01103774A EP1128317A2 EP 1128317 A2 EP1128317 A2 EP 1128317A2 EP 01103774 A EP01103774 A EP 01103774A EP 01103774 A EP01103774 A EP 01103774A EP 1128317 A2 EP1128317 A2 EP 1128317A2
- Authority
- EP
- European Patent Office
- Prior art keywords
- arrangement according
- shop window
- pointing object
- camera
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F27/00—Combined visual and audible advertising or displaying, e.g. for public address
Definitions
- the invention relates to a method and an arrangement for Interaction with one visible in a shop window Presentation.
- a user moves with a commercially available touchscreen with your finger on a surface and moves you with it Mouse pointer on a screen.
- the mouse pointer is at the desired position, you can tap the Touchscreen triggered the action associated with the position become.
- [1] or [2] is an arrangement for interaction, a so-called virtual touchscreen, known.
- an interaction component e.g. one hand or a pointer
- an interaction surface which preferably projects a graphical user interface
- Shop windows have the advantage that they are for customers especially beyond normal opening hours Information about salable goods or services advertise.
- the shop window itself opens up to the customer no possibility of interaction, rather exhausted the effect of familiar shop windows in mere observation the goods displayed behind the shop window and / or Services.
- the object of the invention is to provide an arrangement for interaction with a representation visible in a shop window.
- an arrangement for interacting with a representation visible in a shop window in which a recording unit is provided that picks up a pointing object in the vicinity of the shop window.
- a computer unit is also provided, by means of which a position of the pointing object within the representation is determined.
- the position of the pointing object is preferred a section of the visible in the shop window Representation shows, determined.
- This cutout is especially linked to a given action, i.e. this action can be done by the user based on the area to be triggered.
- There is a possibility of triggering in that the user with the pointing object for a predetermined time period over the area, another It is possible that if the value falls below one predefined distance between the display object and the shop window the action is triggered.
- the user can thus by Movement of the pointing object within the visible Representation of an input unit, comparable to one Computer mouse, move. Triggering the action - this corresponds to a "click" or "double click" with the Computer mouse - happens in the way described above and Wise.
- a great advantage of the invention is that the Interaction with the shop window for the shop owner or Operator of the shop window is largely maintenance-free because the customer does not have any thanks to the contactless interaction causes mechanical wear. Furthermore, that is scenario described is extremely insensitive to possible damage, e.g. through vandalism. Finally are simple operation for the user and therefore one high usability guaranteed.
- a further training consists in that at least part of the Representation statically connected to the shop window, is printed in particular on this. This is suitable especially for fixed operating schemes that have a plurality of Have areas that have a predetermined functionality to have. An additional changing content can nevertheless be provided such that an information part of the Presentation with always new (not static) content is supplied.
- An example of static with one each Functional areas are navigation switches for "forward”, “backward”, “start”, “end”.
- the representation, in particular part of the representation, by means of a Screen, especially a flat screen becomes.
- the flat screen behind be arranged in the shop window and with the user provide for changing representations.
- One embodiment is that a projector is provided, which is set up in such a way that at least part of the display can be projected onto the shop window is. It is advantageous that the shop window at least partially a semi-transparent one coated surface. So it is possible by that Projector projected into the shop window for the Customer-friendly design.
- Another training is that the Recording unit is at least one camera.
- the recording unit is a camera and that is a means of steel division is provided, which is set up such that the camera records two different beam paths. That's the way it is possible with only one camera based on the two different beam paths the position of the pointing object (for example using a triangulation method) determine.
- To split the beam path can for example, a high quality mirror is provided his.
- the computer unit thus receives one camera only one shot, but two different ones Beam paths, that is for determining the position of the Pointing object in the room in front of the window two contains different image sequences over time. Based this comes from different perspectives Image sequences allow the position of the pointing object before the display visible on the shop window determine. This position is used to determine whether the user moves the pointing object over an area that is linked to a specified action or whether it is this triggers the specified action (for the trigger mechanisms see above or below).
- Another embodiment is that two cameras are provided, each in front of the room on the Show window display visible representation.
- the Cameras advantageously set up in such a way that different perspectives on the pointing object representation visible in the shop window. Because of the different perspectives it is possible how described above, the position of the pointing object in front of the to determine the display visible in the shop window. This is crucial for triggering actions based on the Pointing object.
- a preferred embodiment is that the at least one camera and in particular every camera behind the shop window. This ensures that the camera corresponds to the physical range of the User and various weather influences is removed.
- Optical deflection unit can be provided, which are listed in this way is that the beam path of the associated camera in the Space in front of the display visible on the shop window judges. If the user perceives the interaction, he leads the pointing object in this room, the at least one camera takes a picture (from different Perspectives) of the pointing object.
- one or more (optical) Deflection units can be provided. Is crucial in particular that the beam path for each camera or each partial beam path of each camera onto the space in front of the the display is visible and aligned so that the pointing object used for the interaction is included can be.
- Another training is that the minimum a deflection unit a prism or at least one mirror contains.
- the at least one Deflection unit in front of the shop window is also an embodiment.
- the at least one camera is arranged below the representation.
- a reflective surface is implemented above the representation.
- the pointing object can be recognized with high contrast against the background. This leads to good results even in adverse lighting conditions and thus to a high level of user acceptance when interacting with the shop window.
- the reflecting surface is above the illustration, this has the additional advantage that the reflecting surface is hardly contaminated and, in particular, weather conditions can be easily removed by additional roofing of the area in front of the shop window. This ensures high quality reflection.
- a reflective surface can be provided in such a way is set up that the beam path from the camera to the Camera is reflected.
- deflection unit and optional the reflective surface also to the side of the display, in particular at any angle to the shop window his.
- a lighting unit can be provided, which the room in front of that visible on the shop window Representation with waves in the invisible spectral range illuminated.
- the lighting unit can in particular be operated pulsed.
- the Lighting unit at least one infrared light source, in particular at least one infrared light-emitting diode.
- a predefined action triggered the predefined action is triggered in particular if the pointing object for a specified period of time on a displayed area lingers within the representation.
- the specified action when approaching of the pointing object to the shop window from a predetermined one Proximity are triggered.
- a further training is that the position of Pointing object can be determined using a triangulation method is.
- the pointing object is a Is a user's hand or finger.
- Another training course is that of a movement of the pointing object using the at least one camera and based on the computer unit to a movement of an analog Pointing device (comparable to a mouse pointer) implemented becomes.
- a method is also used to solve the problem Interaction with one visible in a shop window Representation given where a pointing object is nearby of the shop window. It becomes a position of the Pointing object within the representation determined and one predetermined action by the pointing object by pointing to triggered a given area.
- the method is particularly suitable for implementation based on the arrangement according to the invention or one of its Developments explained above.
- FIG. 1 shows a sketch with an arrangement for the interaction of a user 107 with a shop window 104.
- the hand or fingers of the user 107 serves as a pointing object 109.
- a representation 105 is projected into the shop window 104 by means of a projector 101.
- the representation 105 offers the user 107 at least one surface 110, which is designed as a virtual switch and when "actuated” a predetermined action is triggered on a computer unit 108. This “actuation” is in particular such that the user 107 remains in front of the surface 110 with the pointing object 109 for a predetermined period of time.
- the "actuation" can also take place in that the user 107 brings his pointing object 109 closer than a predetermined threshold value to the shop window 104 in front of the surface 110.
- the determination of the position of the pointing object 109 in front of the display 105 or the surface 110 is determined by the two cameras 102 and 103 in connection with the computer unit 108.
- the two cameras 102 and 103 deliver images of the pointing object 109, that is to say in particular of the space in front of the representation 105, from two different perspectives.
- the beam path of the two cameras 102 and 103 is preferably illuminated with infrared light, which is emitted by a reflecting surface 106 is reflected by the camera.
- the computer unit 108 ensures that the position of the pointing object 109 before the display 105 is determined from the recordings of the two cameras 102 and 103. For this purpose, a triangulation method is used in particular. In general, from the two two-dimensional representations provided by the cameras 102 and 103, the difference in the perspective of the two representations enables the three-dimensional position of the pointing object 109 in front of the representation 105 to be deduced. Furthermore, the projector 101 is also controlled by the computer unit 108.
- the combination of computer unit 108, projector 101, display 105, cameras 102 and 103 and pointing object 109 thus represents an arrangement for interaction, the computer unit 108 with the aid of the projector 101 causing a dynamic display 105 and the interaction of the user 107 being over Pointing object 109 is captured by cameras 102 and 103 and predetermined actions with regard to the movement of pointing object 109 are triggered before display 105.
- FIG. 2 shows a first side view scenario for the interaction of a user 205 with a shop window 201.
- a camera 202 is shown behind the shop window 201, the beam path of the camera 202 being deflected onto the area in front of the shop window by means of a mirror or a prism 203 becomes.
- the user 205 interacts with his finger as a pointing object 207 on a display 204.
- the display 204 is, for example, imported into the shop window 201 by means of a projector.
- the representation 204 can also be a flat screen in or behind the shop window 201.
- infrared light is imitated, preferably with the camera.
- reflecting surfaces 206 are provided below the representation 204, so that the pointing object 207 is captured in the beam path between the camera 202, mirror or prism 203 and reflecting surfaces 206.
- the pointing object of the user 205 stands out strongly from the background, and recognition is thus improved, as shown in FIG. 1 above.
- FIG. 3 shows a second side view scenario for the interaction of a user 305 with a shop window 301.
- FIG. 3 is carried out analogously to FIG. 2, with the difference that a camera 302 is designed together with a mirror or prism 303 below a display 304 and a reflective surface 306 is provided above the image 304.
- An advantageous effect again consists in that a pointing object 307 of the user 305 is recognized with high contrast, whereby this arrangement of camera 302, mirror or prism 303 and reflecting surface 306 ensures on the one hand that the reflecting surface is protected against weather influences and dirt and on the other hand, the deflection unit mirror or prism 303 can be made small and inconspicuous, so that there are no restrictions for the user 305 in the operation.
- FIG. 4 shows a camera 401 with a means for beam splitting 402, which is preferably designed as a mirror or prism, on the basis of which a beam path of the camera 401 is divided into two different beam paths 403 and 404.
- a computer unit 405 is also shown, which controls the camera 401 or evaluates images of the camera 401. In this evaluation, the computer unit 405 receives two image sequences that come from different perspectives, corresponding to the beam path 403 and beam path 404. The computer unit 405 thus assembles three-dimensional information from these sequences of two two-dimensional representations, so that the position of the pointing object can be determined before the representation on the shop window.
- the computer unit PRZE comprises a processor CPU, a memory MEM and an input / output interface IOS, which is used in different ways via an interface IFC: an output becomes visible on a monitor MON and / or on a printer via a graphic interface PRT issued. An entry is made using a mouse MAS or a keyboard TAST.
- the computer unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS.
- additional components can be connected to the data bus BUS, for example additional memory, data storage (hard disk) or scanner.
- step 601 the user's pointing object is recorded and in step 602 the position of the pointing object in front of the shop window is determined, for example by means of triangulation. Based on the position of the pointing object, depending on the content of the display on the shop window, a predetermined action can be triggered with the pointing object. This triggering can take place, for example, as described above, by lingering on a predetermined area (“virtual switch”) for a predetermined period of time or by moving the pointing object closer to the shop window (see step 603).
- a predetermined area (“virtual switch”) for a predetermined period of time or by moving the pointing object closer to the shop window (see step 603).
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
Ferner ist eine Rechnereinheit vorgesehen, anhand derer eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird.
- Zusammenstellung eines individuellen Kraftfahrzeuges anhand eines virtuellen Katalogs im Schaufenster eines Kraftfahrzeugverkäufers;
- Information bezüglich Touristikangeboten im Schaufenster eines Reiseunternehmers;
- sonstige Information bzw. Angebotserstellung für individuelle Bedürfnisse;
- Kauf, Buchung oder Vorauswahl einer bestimmten Leistung.
Ist die reflektierende Fläche oberhalb der Darstellung ausgeführt, so hat dies den zusätzlichen Vorteil, dass die reflektierende Fläche kaum verschmutzt und insbesondere Witterungseinflüssen durch eine zusätzliche Überdachung des Bereichs vor dem Schaufenster leicht entzogen werden kann. Damit ist eine qualitativ hochwertige Reflexion gewährleistet.
- Fig. 1
- eine Skizze mit einer Anordnung zur Interaktion mit einem Schaufenster;
- Fig.2
- ein erstes Szenario (in Seitenansicht) zur Interaktion eines Benutzers mit einem Schaufenster;
- Fig.3
- ein zweites Szenario (in Seitenansicht) zur Interaktion eines Benutzers mit einem Schaufenster;
- Fig.4
- eine Kamera mit einem Mittel zur Strahlenteilung, anhand dessen die Kamera zwei unterschiedliche Strahlengänge aufzeichnet;
- Fig.5
- eine Rechnereinheit.
- Fig.6
- eine Skizze mit Schritten eines Verfahrens zur Interaktion eines Benutzers mit einem Schaufenster.
- [1]
- Projektion mit Gestenbedienung und Auswertung im sichtbaren Bereich, US 5,528,263
- [2]
- DE 197 08 240 C1
Claims (28)
- Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung,a) bei der eine Aufnahmeeinheit vorgesehen ist, die ein Zeigeobjekt in der Nähe des Schaufensters aufnimmt;b) bei der eine Rechnereinheit vorgesehen ist, anhand derer eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird.
- Anordnung nach Anspruch 1,
bei der zumindest ein Teil der Darstellung auf dem Schaufenster statisch befestigt, insbesondere aufgedruckt, ist. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der ein Bildschirm, insbesondere ein Flachbildschirms, vorgesehen ist, der mindestens einen Teil der Darstellung erzeugt. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der ein Projektor vorgesehen ist, der derart eingerichtet ist, dass mindestens ein Teil der Darstellung auf das Schaufenster projizierbar ist. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der das Schaufenster zumindest teilweise eine halbtransparente oder beschichtete Fläche ist. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der die Aufnahmeeinheit mindestens eine Kamera ist. - Anordnung nach Anspruch 6,a) bei der die Aufnahmeeinheit eine Kamera ist;b) bei der ein Mittel zur Strahlenteilung vorgesehen ist, das derart eingerichtet ist, dass die Kamera zwei Strahlengänge aufnimmt.
- Anordnung nach Anspruch 6,
bei der zwei Kameras vorgesehen sind, die jeweils den Raum vor der auf dem Schaufenster sichtbaren Darstellung aufnehmen. - Anordnung nach einem der Ansprüche 6 bis 8,
bei der die mindestens eine Kamera hinter dem Schaufenster ausgeführt ist. - Anordnung nach Anspruch 9,
bei der mindestens eine Umlenkeinheit vorgesehen ist, die derart eingerichtet ist, dass der mindestens eine Strahlengang der mindestens einen Kamera auf den Raum vor die auf dem Schaufenster sichtbaren Darstellung gerichtet ist. - Anordnung nach Anspruch 10,
bei der die mindestens eine Umlenkeinheit ein Prisma oder mindestens einen Spiegel enthält. - Anordnung nach Anspruch 10 oder 11,
bei der die mindestens eine Umlenkeinheit vor dem Schaufenster ausgeführt ist. - Anordnung nach einem der Ansprüche 6 bis 12,
bei der die mindestens eine Kamera unterhalb der Darstellung ausgeführt ist. - Anordnung nach Anspruch 13,
bei der oberhalb der Darstellung eine reflektierende Fläche ausgeführt ist. - Anordnung nach einem der Ansprüche 6 bis 12,
bei der die mindestens eine Kamera oberhalb der Darstellung ausgeführt ist. - Anordnung nach Anspruch 15,
bei der unterhalb der Darstellung eine reflektierende Fläche vorgesehen ist, die derart eingerichtet ist, dass der Strahlengang von der Kamera zu der Kamera reflektiert wird. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der eine Beleuchtungseinheit vorgesehen ist, die den Raum vor der auf dem Schaufenster sichtbaren Darstellung mit Wellen im nichtsichtbaren Spektralbereich beleuchtet. - Anordnung nach Anspruch 17,
bei der die Beleuchtungseinheit gepulst betrieben wird. - Anordnung nach Anspruch 17 oder 18,
bei der die Beleuchtungseinheit mindestens eine Infrarotlichtquelle umfasst. - Anordnung nach Anspruch 19,
bei der die Infrarotlichtquelle eine Infrarot-Leuchtdiode ist. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der mittels der mindestens einen Kamera und der Rechnereinheit die Position des Zeigeobjekts bestimmbar ist. - Anordnung nach Anspruch 21,
bei der mittels der Rechnereinheit abhängig von der Position des Zeigeobjekts eine vorgegebene Aktion ausgelöst wird. - Anordnung nach Anspruch 22,
bei der die vorgegebene Aktion ausgelöst wird, indem das Zeigeobjekt für eine vorgegebene Zeitdauer auf einer dargestellten Fläche innerhalb der Darstellung verweilt. - Anordnung nach Anspruch 22,
bei der die vorgegebene Aktion durch Annäherung des Zeigeobjekts an das Schaufenster bis zu einer vorgegebenen Nähe ausgelöst wird. - Anordnung nach einem der Ansprüche 21 bis 24,
bei der die Position des Zeigeobjekts mittels eines Triangulationsverfahrens bestimmbar ist. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der das Zeigeobjekt eine Hand oder ein Finger eines Benutzers ist. - Anordnung nach einem der vorhergehenden Ansprüche,
bei der eine Bewegung des Zeigeobjekts anhand der mindestens einen Kamera und anhand der Rechnereinheit zu einer Bewegung eines analogen Zeigegeräts (Mauszeiger) umgesetzt wird. - Verfahren zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung,a) bei dem ein Zeigeobjekt in der Nähe des Schaufensters aufgenommen wird;b) bei der eine Position des Zeigeobjekts innerhalb der Darstellung bestimmt wird;c) bei der durch das Zeigeobjekt durch Zeigen auf eine vorgegebene Fläche innerhalb der Darstellung eine vorgegebene Aktion ausgelöst wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10007891 | 2000-02-21 | ||
DE10007891A DE10007891C2 (de) | 2000-02-21 | 2000-02-21 | Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung |
Publications (2)
Publication Number | Publication Date |
---|---|
EP1128317A2 true EP1128317A2 (de) | 2001-08-29 |
EP1128317A3 EP1128317A3 (de) | 2002-07-03 |
Family
ID=7631734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP01103774A Withdrawn EP1128317A3 (de) | 2000-02-21 | 2001-02-15 | Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung |
Country Status (3)
Country | Link |
---|---|
US (1) | US7034807B2 (de) |
EP (1) | EP1128317A3 (de) |
DE (1) | DE10007891C2 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003102667A1 (de) * | 2002-05-04 | 2003-12-11 | Bauhaus-Universität Weimar | Verfahren und vorrichtung zur konsistenten darstellung von realen und virtuelle objekten |
EP1879099A1 (de) * | 2006-07-10 | 2008-01-16 | Era Optoelectronics Inc. | Dateneingabegerät |
CN103309136A (zh) * | 2013-07-09 | 2013-09-18 | 三亚全息数字技术应用有限公司 | 展示装置 |
DE102014208327A1 (de) | 2013-05-17 | 2014-11-20 | Ifm Electronic Gmbh | Verfahren und System zur Steuerung eines Medienausgabegeräts |
DE102014208327B4 (de) | 2013-05-17 | 2024-07-11 | pmdtechnologies ag | System zur Steuerung eines Medienausgabegeräts |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
DE10163648A1 (de) * | 2001-12-21 | 2003-07-03 | Klaus-Dieter Frank | Interaktives Projektions- und Eingabesystem |
EP1488639A1 (de) * | 2002-03-22 | 2004-12-22 | British Telecommunications Public Limited Company | Interaktives videosystem |
DE10232415A1 (de) * | 2002-07-17 | 2003-10-23 | Siemens Ag | Eingabegerät für eine Datenverarbeitungsanlage |
DE10260305A1 (de) * | 2002-12-20 | 2004-07-15 | Siemens Ag | HMI Einrichtung mit einem optischem Touch Screen |
US7312788B2 (en) | 2003-03-11 | 2007-12-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Gesture-based input device for a user interface of a computer |
US7787010B2 (en) * | 2003-03-20 | 2010-08-31 | Pixar | Video to film flat panel digital recorder and method |
WO2004097612A2 (en) * | 2003-05-01 | 2004-11-11 | Delta Dansk Elektronik, Lys & Akustik | A man-machine interface based on 3-d positions of the human body |
ES2228251B1 (es) * | 2003-05-09 | 2006-02-16 | Universitat Pompeu Fabra | Dispositivo de interfaz natural no invasiva para la interaccion con un sistema informatico y metodo de operacion. |
DE10360952A1 (de) * | 2003-12-23 | 2005-07-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Interaktion zwischen einem Objekt und einer graphisch darstellbaren Benutzeroberfläche |
DE102005001417B4 (de) | 2004-01-29 | 2009-06-25 | Heidelberger Druckmaschinen Ag | Projektionsflächenabhängige Anzeige-/Bedienvorrichtung |
TW200627244A (en) * | 2005-01-17 | 2006-08-01 | Era Optoelectronics Inc | Data input device |
EP1851750A4 (de) | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | System und verfahren für ein steuersystem auf genture-basis |
JP2007172303A (ja) * | 2005-12-22 | 2007-07-05 | Seiko Epson Corp | 情報入力システム |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
EP1821184A3 (de) * | 2006-02-08 | 2007-11-14 | Almeva AG | System und Verfahren zur Interaktion mit einer Anzeige durch ein Schaufenster |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8537111B2 (en) | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US8407725B2 (en) * | 2007-04-24 | 2013-03-26 | Oblong Industries, Inc. | Proteins, pools, and slawx in processing environments |
US8395658B2 (en) * | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
TW200813785A (en) * | 2006-09-08 | 2008-03-16 | Era Optoelectronics Inc | Image position interpretation apparatus |
CN101149653B (zh) * | 2006-09-22 | 2011-01-26 | 时代光电科技股份有限公司 | 判读影像位置的装置 |
KR100851977B1 (ko) * | 2006-11-20 | 2008-08-12 | 삼성전자주식회사 | 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치. |
BRPI0704156A2 (pt) * | 2007-09-17 | 2009-05-12 | Nadaletti Leandro Prade | sistema de propaganda e compras vinte e quatro horas |
HUP0700391A2 (en) * | 2007-06-05 | 2008-12-29 | Zsombor Lazar | Method of determining an intrusion into a monitored area and system for generating output signals in response to such intrusion |
CN101971128B (zh) * | 2007-12-05 | 2013-07-17 | 阿尔梅瓦股份公司 | 屏幕与指针对象之间交互用的交互装置 |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
EP2304527A4 (de) * | 2008-06-18 | 2013-03-27 | Oblong Ind Inc | Auf gestik basierendes steuersystem für fahrzeugschnittstellen |
FR2937753B1 (fr) * | 2008-10-23 | 2011-05-20 | Idealys Entertainment | Livre interactif permettant de lire virtuellement en temps reel, sans toucher tactile et sans accessoire, tout type de contenus images (textes, photos et videos) par capture de mouvements |
DE202008014205U1 (de) | 2008-10-24 | 2009-01-15 | Keller, Gregor | Anordnung zur Interaktion mit einem Computer |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
CN102577368B (zh) * | 2009-04-16 | 2016-01-06 | 惠普开发有限公司 | 在虚拟协同系统中传送视觉表示 |
JP5553546B2 (ja) * | 2009-07-07 | 2014-07-16 | キヤノン株式会社 | 画像投影装置、及びその制御方法 |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
CN102129151A (zh) * | 2010-01-20 | 2011-07-20 | 鸿富锦精密工业(深圳)有限公司 | 前投影控制系统及方法 |
TW201205551A (en) * | 2010-07-29 | 2012-02-01 | Hon Hai Prec Ind Co Ltd | Display device assembling a camera |
CN102446473B (zh) * | 2010-10-13 | 2015-04-22 | 奇纬光电新材料(中国)有限公司 | 橱窗互动广告的装置及实施方法 |
KR101507458B1 (ko) * | 2010-12-31 | 2015-03-31 | 멀티 터치 오와이 | 대화식 디스플레이 |
WO2012162386A1 (en) | 2011-05-23 | 2012-11-29 | 360Brandvision, LLC | Accessory for reflecting an image from a display screen of a portable electronic device |
DE102011108079A1 (de) | 2011-07-21 | 2013-01-24 | Peter Strzygowski | Verfahren und Vorrichtung zur Anordnung komplex verknüpfter Informationen sowie deren Durchwegung |
CA2779837C (en) * | 2012-04-24 | 2021-05-04 | Comcast Cable Communications, Llc | Video presentation device and method using gesture control |
JP6111682B2 (ja) * | 2013-01-21 | 2017-04-12 | セイコーエプソン株式会社 | 表示装置、および、表示装置の制御方法 |
US10461743B2 (en) * | 2013-01-11 | 2019-10-29 | Imagesurge, Inc. | Interactive display system and method for use with low emissivity glass using infrared illumination |
US9922356B1 (en) * | 2013-01-22 | 2018-03-20 | Carvana, LLC | Methods and systems for online transactions |
US9524028B2 (en) | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9465488B2 (en) * | 2013-05-09 | 2016-10-11 | Stephen Howard | System and method for motion detection and interpretation |
US10891003B2 (en) | 2013-05-09 | 2021-01-12 | Omni Consumer Products, Llc | System, method, and apparatus for an interactive container |
US9360888B2 (en) * | 2013-05-09 | 2016-06-07 | Stephen Howard | System and method for motion detection and interpretation |
US9829984B2 (en) | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
EP2849442B1 (de) * | 2013-09-16 | 2017-03-29 | ameria GmbH | Gestengesteuertes Rückprojektionssystem |
TW201514892A (zh) * | 2013-10-09 | 2015-04-16 | Utechzone Co Ltd | 物件的資訊呈現裝置與方法 |
US20150102993A1 (en) * | 2013-10-10 | 2015-04-16 | Omnivision Technologies, Inc | Projector-camera system with an interactive screen |
US9317150B2 (en) * | 2013-12-28 | 2016-04-19 | Intel Corporation | Virtual and configurable touchscreens |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
JP6267558B2 (ja) * | 2014-03-25 | 2018-01-24 | 株式会社デンソーテン | 車両用装置及び車両制御方法 |
EP3241074B1 (de) | 2014-12-30 | 2023-08-09 | Omni Consumer Products, LLC | System und verfahren für interaktive projektion |
JP6459705B2 (ja) * | 2015-03-27 | 2019-01-30 | セイコーエプソン株式会社 | インタラクティブプロジェクター、インタラクティブプロジェクションシステム、及び、インタラクティブプロジェクターの制御方法 |
JP6623812B2 (ja) * | 2016-02-17 | 2019-12-25 | セイコーエプソン株式会社 | 位置検出装置、及び、そのコントラスト調整方法 |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
EP4350431A3 (de) | 2016-12-07 | 2024-07-03 | Scheich, Davo | Fotografische kammer für ein fahrzeug |
FR3061345B1 (fr) * | 2016-12-23 | 2020-10-09 | Herve Harounian | Borne interactive d'accueil et d'information des usagers d'un lieu public |
US10509513B2 (en) * | 2017-02-07 | 2019-12-17 | Oblong Industries, Inc. | Systems and methods for user input device tracking in a spatial operating environment |
PL422371A1 (pl) * | 2017-07-27 | 2019-01-28 | Paweł Ryłko | Sposób uzyskiwania funkcji dotykowej na obrazach rzutowanych przez projektory wizyjne na dowolne powierzchnie płaskie |
DE102018200623A1 (de) * | 2018-01-16 | 2019-07-18 | Robert Bosch Gmbh | Interaktive Warenpräsentationsvorrichtung |
US11412135B2 (en) | 2018-12-05 | 2022-08-09 | Ovad Custom Stages, Llc | Bowl-shaped photographic stage |
US11582425B2 (en) | 2020-06-10 | 2023-02-14 | Magna Electronics Inc. | Driver monitoring system using camera with adjustable mirror |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2263765A (en) * | 1992-01-25 | 1993-08-04 | Paul Philip Oliver | Touch screen systems |
DE4423005C1 (de) * | 1994-06-30 | 1995-11-30 | Siemens Ag | Eingabevorrichtung für einen Computer |
DE19539955A1 (de) * | 1995-10-26 | 1997-04-30 | Sick Ag | Optische Erfassungseinrichtung |
EP0829798A2 (de) * | 1996-09-12 | 1998-03-18 | Digital Equipment Corporation | Bildunterstützter berührungsempfindlicher Bildschirm |
DE19708240A1 (de) * | 1997-02-28 | 1998-09-10 | Siemens Ag | Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
EP0977159A1 (de) * | 1998-07-27 | 2000-02-02 | Hitachi Computer Products (Europe) S.A. | Elektronisches Endgerät |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
DE4312672A1 (de) * | 1993-04-19 | 1994-10-20 | Ulrich Prof Dr Ing Kuipers | Vorrichtung und Verfahren eines berührungslosen mauskompatiblen PC-Zeigereingabegerätes |
GB9312438D0 (en) * | 1993-06-16 | 1993-07-28 | Potter Billett G | Display apparatus |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5598265A (en) * | 1995-04-06 | 1997-01-28 | Zygo Corporation | Method for profiling an object surface using a large equivalent wavelength and system therefor |
US6481851B1 (en) * | 1995-09-20 | 2002-11-19 | Videotronic Systems | Adjustable contrast reflected display system |
DE19543959C2 (de) | 1995-11-25 | 2000-04-20 | P & I Gmbh | Computergestützte Projektionsvorrichtung |
US5736975A (en) * | 1996-02-02 | 1998-04-07 | Interactive Sales System | Interactive video display |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
DE19843902A1 (de) * | 1997-09-26 | 1999-04-01 | Denso Corp | Bildinformations-Anzeigesystem und Hologramm-Anzeigevorrichtung |
JP3794180B2 (ja) * | 1997-11-11 | 2006-07-05 | セイコーエプソン株式会社 | 座標入力システム及び座標入力装置 |
WO1999040562A1 (en) * | 1998-02-09 | 1999-08-12 | Joseph Lev | Video camera computer touch screen system |
US6545670B1 (en) * | 1999-05-11 | 2003-04-08 | Timothy R. Pryor | Methods and apparatus for man machine interfaces and related activity |
-
2000
- 2000-02-21 DE DE10007891A patent/DE10007891C2/de not_active Revoked
-
2001
- 2001-02-15 EP EP01103774A patent/EP1128317A3/de not_active Withdrawn
- 2001-02-21 US US09/790,030 patent/US7034807B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2263765A (en) * | 1992-01-25 | 1993-08-04 | Paul Philip Oliver | Touch screen systems |
DE4423005C1 (de) * | 1994-06-30 | 1995-11-30 | Siemens Ag | Eingabevorrichtung für einen Computer |
DE19539955A1 (de) * | 1995-10-26 | 1997-04-30 | Sick Ag | Optische Erfassungseinrichtung |
EP0829798A2 (de) * | 1996-09-12 | 1998-03-18 | Digital Equipment Corporation | Bildunterstützter berührungsempfindlicher Bildschirm |
DE19708240A1 (de) * | 1997-02-28 | 1998-09-10 | Siemens Ag | Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
EP0977159A1 (de) * | 1998-07-27 | 2000-02-02 | Hitachi Computer Products (Europe) S.A. | Elektronisches Endgerät |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003102667A1 (de) * | 2002-05-04 | 2003-12-11 | Bauhaus-Universität Weimar | Verfahren und vorrichtung zur konsistenten darstellung von realen und virtuelle objekten |
EP1879099A1 (de) * | 2006-07-10 | 2008-01-16 | Era Optoelectronics Inc. | Dateneingabegerät |
DE102014208327A1 (de) | 2013-05-17 | 2014-11-20 | Ifm Electronic Gmbh | Verfahren und System zur Steuerung eines Medienausgabegeräts |
DE102014208327B4 (de) | 2013-05-17 | 2024-07-11 | pmdtechnologies ag | System zur Steuerung eines Medienausgabegeräts |
CN103309136A (zh) * | 2013-07-09 | 2013-09-18 | 三亚全息数字技术应用有限公司 | 展示装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1128317A3 (de) | 2002-07-03 |
DE10007891C2 (de) | 2002-11-21 |
US7034807B2 (en) | 2006-04-25 |
US20010020933A1 (en) | 2001-09-13 |
DE10007891A1 (de) | 2001-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10007891C2 (de) | Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung | |
DE19708240C2 (de) | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich | |
DE69530395T2 (de) | Interaktives projektiertes videobildanzeigesystem | |
EP1998996B1 (de) | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung | |
DE60028894T2 (de) | Präsentationssystem mit einer interaktiven Darstellung | |
DE19710686C2 (de) | Verfahren zum Markieren eines Fensters einer fensterorientierten Benutzeroberfläche | |
DE102009032637A1 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE102015110495A1 (de) | Informationsverarbeitungsvorrichtung, die ein bestimmtes objekt in einem aufgenommenen bild erkennt, und verfahren zu deren steuerung | |
DE102016210288A1 (de) | Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung | |
EP1161740A1 (de) | Anordnung zur interaktion | |
EP1012698B1 (de) | Vorrichtung zur darstellung und virtuellen eingabe von daten | |
DE102004044999A1 (de) | Eingabesteuerung für Geräte | |
DE112019002604T5 (de) | Virtuelle Bildanzeigevorrichtung | |
EP2663909A1 (de) | Fernsteuerungseinrichtung und schnittstellen-modul zur steuerung einer vorrichtung anhand eines beweglichen objektes | |
EP2380077A2 (de) | Gerät mit einer eingabevorrichtung zur eingabe von steuerbefehlen | |
DE102015226153A1 (de) | Anzeigevorrichtung und Bedieneinrichtung | |
DE102019211518B3 (de) | Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung | |
WO2003056504A1 (de) | Interaktives projektions- und eingabesystem | |
DE102018205445A1 (de) | Optische Anzeigevorrichtung sowie Verfahren zur Gestenerkennung von Nutzern auf einer optischen Anzeigeeinrichtung | |
DE19744441A1 (de) | Elektronisches Zeigegerät mit optoelektronischer Sensoreinrichtung | |
DE112019000857T5 (de) | Referenzpositionseinstellverfahren und Vorrichtung zur Anzeige eines virtuellen Bilds | |
DE102022111443A1 (de) | Berührungslose Steuereinrichtung für einen Präsentationsbereich sowie Bedieneinheit | |
DE9112796U1 (de) | Eingabegerät für Computer | |
AT520234B1 (de) | Vorrichtung zur interaktiven Präsentation von visuellen Inhalten | |
DE102018200623A1 (de) | Interaktive Warenpräsentationsvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR |
|
AX | Request for extension of the european patent |
Free format text: AL;LT;LV;MK;RO;SI |
|
PUAL | Search report despatched |
Free format text: ORIGINAL CODE: 0009013 |
|
AK | Designated contracting states |
Kind code of ref document: A3 Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR |
|
AX | Request for extension of the european patent |
Free format text: AL;LT;LV;MK;RO;SI |
|
AKX | Designation fees paid | ||
REG | Reference to a national code |
Ref country code: DE Ref legal event code: 8566 |
|
DBV | Designated contracting states (deleted) | ||
17P | Request for examination filed |
Effective date: 20030102 |
|
RBV | Designated contracting states (corrected) |
Designated state(s): DE FR GB |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN |
|
18D | Application deemed to be withdrawn |
Effective date: 20070901 |