WO2000055802A1 - Anordnung zur interaktion - Google Patents

Anordnung zur interaktion Download PDF

Info

Publication number
WO2000055802A1
WO2000055802A1 PCT/DE2000/000637 DE0000637W WO0055802A1 WO 2000055802 A1 WO2000055802 A1 WO 2000055802A1 DE 0000637 W DE0000637 W DE 0000637W WO 0055802 A1 WO0055802 A1 WO 0055802A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
arrangement according
user interface
projection surface
interaction
Prior art date
Application number
PCT/DE2000/000637
Other languages
English (en)
French (fr)
Inventor
Christoph Maggioni
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP00920363A priority Critical patent/EP1161740A1/de
Priority to JP2000605959A priority patent/JP2002539742A/ja
Publication of WO2000055802A1 publication Critical patent/WO2000055802A1/de
Priority to US09/953,728 priority patent/US20020041325A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Definitions

  • the invention relates to an arrangement for interaction.
  • a so-called virtual touchscreen is known from [1].
  • an interaction component e.g. a hand or a pointer
  • an interaction surface onto which a graphical user interface is preferably projected it is possible to interact directly on the graphical user interface, the division described above between the display of the user interface and the touch screen being omitted.
  • a flat speaker (surface speaker) is known from [2].
  • a miniature camera also known as a "keyhole camera” with a very small lens diameter of, for example, 1 mm is also known and can be purchased from electronics retailers.
  • the object of the invention is to provide an arrangement for interaction, on the basis of which a user can be recorded when viewing a display area as if he were looking directly into a camera. This object is achieved according to the features of the independent claim. Further developments of the invention also result from the dependent claims.
  • an arrangement for interaction which has a projection surface which is arranged so that it can be seen by a user.
  • a camera is also provided, which is arranged in the projection surface.
  • An above-mentioned miniature camera with a small lens diameter is preferably suitable for this.
  • a hole in the order of magnitude of the objective diameter is advantageously provided in the projection surface.
  • the camera is located behind this hole. With the small lens diameter, such a small hole in the projection surface is no longer distracting. This allows the face of the
  • the user For each viewing area, the user can be viewed from the front.
  • a service such as video telephony, in which the face of an addressee is displayed within the projection surface, the addressee has the impression that the user is looking him in the eye. The annoying effect of the participants looking past each other in video telephony is thereby avoided.
  • a further development consists in that a dark spot, at least comprising the lens of the camera, is projected onto the location of the camera. This ensures good quality in the recognition of the participant.
  • a processor unit is provided which is set up in such a way that a (graphical) user interface can be represented on the projection surface (also: interaction surface).
  • a further camera can be provided, by means of which the user interface can be recorded.
  • Interaction component in particular a hand or a finger of the user, can be interpreted on the projection surface as functionality of an input pointer.
  • a graphical user interface is projected onto the interaction surface.
  • the camera records the user interface. If the interaction component, e.g. Hand or finger of the user, via the user interface, the interaction component is recorded and a function shown on the user interface is triggered by the processor unit depending on its position. In other words, the interaction component perceives the functionality of an input pointer, in particular a (computer) mouse pointer, on the user interface.
  • a (triggering) event in the analogous example with the computer mouse: click or double-click) can, in particular, be a dwelling of the interaction component for a predetermined period of time at the position associated with the function.
  • the interaction surface can be illuminated with infrared light.
  • the recording camera can be set up in such a way that it (especially) for the spectral range of the infrared light is sensitive. This results in increased insensitivity to the influence of extraneous light.
  • the arrangement described is suitable for use in a virtual touchscreen or in a
  • Videophone can also be a special application of the virtual touchscreen.
  • One embodiment consists in that the projection surface (interaction surface) is designed as a flat loudspeaker.
  • Fig.l an arrangement for interaction
  • FIG. 2 shows a processor unit
  • FIG. 1 An arrangement of a virtual touch screen is described in FIG.
  • An interaction area (graphical user interface BOF) is mapped onto a predefinable area, here a projection display PD (interaction area).
  • the PD projection display replaces a conventional screen.
  • the input is made by pointing directly to the interaction component, hand H, on the BOF user interface.
  • the gestures are recognized and positioned within the BOF user interface by a video-based system (gesture computer) that is able to recognize and track the projection and shape of the human hand, for example, in real time.
  • the projection display PD illuminated with infrared light.
  • the infrared light source IRL can advantageously be designed using infrared light-emitting diodes.
  • a camera K which is preferably designed with a special infrared filter IRF, which is sensitive in the infrared spectral range, takes this
  • the user interface BO is mapped onto the projection display PD.
  • the user interface BOF can be designed as a menu system on a monitor of the computer R.
  • a mouse pointer MZ is moved by the hand H of the user. Instead of the hand H, a pointer can also be used as an interaction component.
  • the hand H is moved to the field F, the mouse pointer MZ follows the hand H. If the hand H remains above the field F for a predefinable time duration, the function associated with the field F is triggered on the computer R.
  • the user interface BOF is preferably designed as a flat loudspeaker, so that a sound development spreads from the surface of the user interface.
  • the flat speaker is controlled by means of a control line SL via the computer R.
  • a user KPF talks to the representation of his addressee GES.
  • the user KPF looks at the representation and makes virtual eye contact z with the addressee GES (indicated by the line of sight SEHL).
  • the user KPF is recorded frontally by a view camera KAM, which is located in the projection area, preferably in the image of the face of the addressee GES, and this image is transmitted to the addressee GES.
  • This is preferably the image of the user KPF by means of a camera line KAML in the computer R and from there, for example, via telephone line to the addressee.
  • Both participants, both the user KPF and the addressee GES perceive the "videotelephony" service as having the impression that they are in direct eye contact with each other.
  • a dark field corresponding to the size of the lens diameter of the view camera KAM is projected on the place of the view camera KAM by means of the projector P. This enables interference-reduced and high-quality transmission of the recording of the user KPF.
  • the view camera is preferably designed as a miniature camera with a small diameter.
  • the processor unit PRZE comprises a processor CPU, a memory SPE and an input / output interface IOS, which is used in different ways via an interface IFC: an output is visible on a monitor MON and / or on a printer via a graphic interface PRT issued. An entry is made using a mouse MAS or a keyboard TAST.
  • the processor unit PRZE also has a data bus BUS, which connects a memory MEM, the processor CPU and the input / output interface IOS guaranteed.
  • additional components can be connected to the data bus BUS, for example additional memory, data storage (hard disk) or scanner.

Abstract

Es wird eine Anordnung zur Interaktion angegeben, die eine Projektionsfläche aufweist, die für einen Benutzer einsehbar angeordnet ist. Ferner ist eine Kamera vorgesehen, die in der Projektionsfläche angeordnet ist.

Description

Beschreibung
Anordnung zur Interaktion
Die Erfindung betrifft eine Anordnung zur Interaktion.
Aus [1] ist ein sogenannter Virtual Touchscreen bekannt. Mit der Aufnahme einer Interaktionskomponente, z.B. einer Hand oder einem Zeigestab, zusammen mit einer Interaktionsfläche auf die vorzugsweise eine graphische Bedienoberfläche projiziert wird, ist es möglich direkt auf der graphischen Bedienoberfläche zu interagieren, die oben beschriebene Aufteilung zwischen Darstellung der Bedienoberfläche und Touchscreen entfällt.
Ein Flachlautsprecher (Flächenlautsprecher) ist aus [2] bekannt.
Auch bekannt und im Elektronik-Fachhandel zu erwerben ist eine Miniaturkamera (auch sog. "Schlüssellochkamera") mit sehr geringem Objektivdurchmesser von bspw. 1mm.
Nun ist es z.B. bei der Kommunikation zweier Benutzer über das Virtual Touchscreen nachteilig, daß bei Projektion eines Gesichts des Benutzers auf die Bedienoberfläche der betrachtende Benutzer die Bedienoberfläche ansieht und dabei die Aufnahme seines Gesichts nicht entlang seiner Blickrichtung erfolgt. Damit erscheint der Blick des Teilnehmers, z.B. bei der Bildtelefonie, nicht auf den Adressaten gerichtet zu sein, vielmehr schaut der Teilnehmer an dem Adressaten vorbei.
Die Aufgabe der Erfindung besteht darin, eine Anordnung zur Interaktion anzugeben, anhand derer bei Betrachtung einer Darstellungsfläche ein Benutzer so aufgenommen werden kann als würde er direkt in eine Kamera schauen. Diese Aufgabe wird gemäß den Merkmalen des unabhängigen Patentanspruchs gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.
Zur Lösung der Aufgabe wird eine Anordnung zur Interaktion angegeben, die eine Projektionsfläche aufweist, die für einen Benutzer einsehbar angeordnet ist. Ferner ist eine Kamera vorgesehen, die in der Projektionsfläche angeordnet ist.
Dazu eignet sich bevorzugt eine oben genannte Miniaturkamera mit geringem Objektivdurchmesser. Vorteilhaft wird in der Projektionsfläche ein Loch in der Größenordnung des Objektivdurchmessers vorgesehen. Hinter diesem Loch ist die Kamera angeordnet. Bei dem geringen Objektivdurchmesser fällt ein solch kleines Loch in der Projektionsfläche nicht weiter störend auf. Dadurch kann das Gesicht des die
Pro ektionsfläche betrachtenden Benutzers frontal aufgenommen werden. Gerade bei einem Dienst wie der Bildtelefonie, bei der innerhalb der Projektionsfläche das Gesicht eines Adressaten dargestellt wird, entsteht für den Adressaten der Eindruck, der Benutzer würde ihm in die Augen sehen. Der lästige Effekt, daß die Teilnehmer an der Bildtelefonie aneinander vorbeisehen, wird dadurch vermieden.
Eine Weiterbildung besteht darin, daß an die Stelle der Kamera ein zumindest das Objektiv der Kamera umfassender dunkler Fleck projiziert wird. Dadurch wird eine gute Qualität bei der Erkennung des Teilnehmers gewährleistet.
Hierbei sei angemerkt, daß neben dem Teilnehmer auch andere vor der Kamera angeordnete Objekte aufgenommen werden können. Ferner sind auch mehrere (Miniatur-) Kameras in der Projektionsfläche anordenbar, so daß abhängig vom Blick des Betrachters die den Blick am besten erfassende Kamera für die Aufnahme eingesetzt wird. Eine Weiterbildung besteht darin, daß eine Prozessoreinheit vorgesehen ist, die derart eingerichtet ist, daß auf der Projektionsfläche (auch: Interaktionsfläche) eine (graphische) Bedienoberfläche darstellbar ist. Insbesondere kann eine weitere Kamera vorgesehen sein, anhand derer die Bedienoberfläche aufnehmbar ist.
Eine zusätzliche Weiterbildung besteht darin, daß die Prozessoreinheit derart eingerichtet ist, daß eine Aufnahme einer Bewegung oder eines Verweilens der
Interaktionskomponente, insbesondere einer Hand oder eines Fingers des Benutzers, auf der Projektionsfläche als Funktionalität eines Eingabezeigers interpretierbar ist.
Insbesondere wird auf die Interaktionsflache eine graphische Bedienoberfläche projiziert. Die Kamera nimmt die Bedienoberfläche auf. Begibt sich die Interaktionskomponente, z.B. Hand oder Finger des Benutzers, über die Bedienoberfläche, so wird die Interaktionskomponente aufgenommen und mittels Prozessoreinheit abhängig von ihrer Position eine auf der Bedienoberfläche dargestellte Funktion ausgelöst. Mit anderen Worten nimmt die Interaktionskomponente auf der Bedienoberfläche die Funktionalität eines Eingabezeigers, insbesondere eines (Computer-)Mauszeigers wahr. Ein (Auslöse-) Ereignis (im analogen Beispiel mit der Computermaus: Klick oder Doppelklick) kann insbesondere ein Verweilen der Interaktionskomponente für eine vorgegebene Zeitdauer an der mit der Funktion assoziierten Position sein.
Um eine verbesserte Erkennungsleistung der Interaktionskomponente auf der Interaktionsfläche (im Beispiel: auf der Bedienoberfläche) zu ermöglichen, kann die Interaktionsfläche mit Infrarotlicht beleuchtet werden. Die aufnehmende Kamera kann derart eingerichtet sein, daß sie für den Spektralbereich des Infrarotlichts (besonders) empfindlich ist. Dadurch wird eine erhöhte Unempfindlichkeit gegenüber Fremdlichteinfluß erzielt.
Insbesondere ist die beschriebene Anordnung geeignet zum Einsatz in einem Virtual Touchscreen oder in einem
Bildtelefon. Dabei kann das Bildtelefon auch eine spezielle Applikation des Virtual Touchsreens sein.
Eine Ausgestaltung besteht darin, daß die Projektionsfläche (Interaktionsfläche) als ein Flachlautsprecher ausgeführt ist .
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung dargestellt und erläutert.
Es zeigen
Fig.l eine Anordnung zur Interaktion;
Fig.2 eine Prozessoreinheit.
In Fig.l wird eine Anordnung eines Virtual-Touch-Screens beschrieben. Eine Interaktionsfläche (graphische Bedienoberfläche BOF) wird auf einen vorgebbaren Bereich, hier ein Projektionsdisplay PD (Interaktionsfläche) , abgebildet. Das Projektionsdisplay PD ersetzt dabei einen konventionellen Bildschirm. Die Eingabe erfolgt durch direktes Zeigen mit der Interaktionskomponente, der Hand H auf die Bedienoberfläche BOF. Dadurch können beispielsweise Tastatur, Maus, Touchscreen oder Digitalisiertablett konventioneller Systeme ersetzt werden. Die Erkennung der Gesten und die Positionierung innerhalb der Bedienoberfläche BOF werden durch ein videobasiertes System (Gestik-Computer) , das in der Lage ist, Projektion und Form z.B. der menschlichen Hand in Echtzeit zu erkennen und zu verfolgen, realisiert. Ferner wird in Fig.l das Projektionsdisplay PD mit Infrarotlicht beleuchtet. Die Infrarotlichtquelle IRL kann vorteilhaft mittels Infrarotleuchtdioden ausgeführt sein. Eine Kamera K, die vorzugsweise mit einem speziellen Infrarotfilter IRF, das im infraroten Spektralbereich empfindlich ist, ausgestaltet ist, nimmt das
Projektionsdisplay PD auf. Mit einem Projektor P, der von einem Rechner R gesteuert wird, wird die Bedienoberfläche BO auf das Projektionsdisplay PD abgebildet. Die Bedienoberfläche BOF kann dabei ausgestaltet sein als ein Menüsystem auf einem Monitor des Rechners R. Ein Mauszeiger MZ wird durch die Hand H des Benutzers bewegt. Anstelle der Hand H kann als Interaktionskomponente auch ein Zeigestab verwendet werden.
Soll auf der Bedienoberfläche BOF die mit der Betätigung des Feldes F assoziierte Funktion aufgerufen werden, so wird die Hand H zu dem Feld F bewegt, der Mauszeiger MZ folgt dabei der Hand H. Verharrt die Hand H für eine vorgebbare Zeitdaue über dem Feld F, so wird die mit dem Feld F assoziierte Funktion auf dem Rechner R ausgelöst.
Vorzugsweise ist die Bedienoberfläche BOF als Flachlautsprecher ausgeführt, so daß sich eine Schallentwicklung von der Fläche der Bedienoberfläche ausbreitet. Angesteuert wird der Flachlautsprecher mittels einer Steuerleitung SL über den Rechner R.
Im Beispiel von Fig.l wird der Dienst "Bildtelefonie" wahrgenommen, ein Benutzer KPF unterhält sich mit der Darstellung seines Adressaten GES. Dabei blickt der Benutzer KPF auf die Darstellung und stellt virtuellen Blickkontakt z dem Adressaten GES her (angedeutet durch die Blicklinie SEHL) . Durch eine Blickkamera KAM, die sich in der Projektionsfläche, vorzugsweise in der Abbildung des Gesicht des Adressaten GES, befindet, wird der Benutzer KPF frontal aufgenommen und diese Aufnahme zu dem Adressaten GES übermittelt. Dazu wird vorzugsweise das Bild des Benutzers KPF mittels einer Kameraleitung KAML in den Rechner R und von dort z.B. via Telefonleitung zu dem Adressaten übertragen. Beide Teilnehmer, sowohl der Benutzer KPF als auch der Adressat GES haben mit Wahrnehmung des Dienstes "Bildtelefonie" somit den Eindruck als würden sie in unmittelbarem Blickkontakt zueinander stehen.
Insbesondere ist es von Vorteil, wenn an die Stelle der Blickkamera KAM ein im wesentlichen der Größe des Objektivdurchmessers der Blickkamera KAM entsprechendes dunkles Feld mittels Projektor P projiziert wird. Dadurch wird eine störungsreduzierte und qualitativ hochwertige Übertragung der Aufnahme des Benutzers KPF ermöglicht.
Alternativ können anstelle der Blickkamera KAM mehrere derartige Kameras vorgesehen sein. Auch ist es möglich mittels Software das Gesicht des Adressaten GES zu detektieren und dieses Gesicht in die Umgebung der Blickkamera KAM zu projizieren. Die Blickkamera ist dabei bevorzugt als eine Miniaturkamera mit kleinem Durchmesser ausgeführt .
Hierbei sei angemerkt, daß mit "die Blickkamera KAM ist in der Pro ektionsfläche angeordnet" die gesamte Projektionsfläche einschließlich des Randes der Projektion gemeint ist.
In Fig.2 ist eine Prozessoreinheit PRZE dargestellt. Die Prozessoreinheit PRZE umfaßt einen Prozessor CPU, einen Speicher SPE und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Prozessoreinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet. Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z.B. zusätzlicher Speicher, Datenspeicher (Festplatte) oder Scanner.
Literaturverzeichnis :
[1] Projektion mit Gestenbedienung und Auswertung im sichtbaren Bereich, US 5,528,263
[2] Produktbeschreibung: Flächenlautsprecher: das schallende Poster - Dekorativ, leicht und effektvoll; Siemens AG, 1999, siehe auch: http://www.atd.siemens.de/it-dl

Claims

Patentansprüche
1. Anordnung zur Interaktion, a) mit einer Projektionsfläche, die für einen Benutzer einsehbar angeordnet ist; b) mit einer Kamera, die in der Projektionsflache angeordnet ist.
2. Anordnung nach Anspruch 1, bei der auf der Projektionsfläche ein Adressat darstellbar ist.
3. Anordnung nach einem der vorhergehenden Ansprüche, mit einer Prozessoreinheit, die derart eingerichtet ist, daß auf der Pro ektionsflache eine Bedienoberflache darstellbar ist.
4. Anordnung nach Anspruch 3, bei der eine weitere Kamera vorgesehen ist, die die Bedienoberflache aufnimmt.
5. Anordnung nach Anspruch 4, bei der die Prozessoreinheit derart eingerichtet ist, daß eine Aufnahme einer Bewegung oder eines Verweilens einer Interaktionskomponente auf der Projektionsfläche als
Funktionalltat eines Eingabezeigers interpretierbar ist.
6. Anordnung nach einem der vorhergehenden Anspr che zum Einsatz m einem Virtual Touchscreen.
7. Anordnung nach einem der vorhergehenden Ansprüche zum Einsatz m einem Bildtelefon.
8. Anordnung nach einem der vorhergehenden Ansprüche, bei der die Projektionsfläche als ein Flachlautsprecher ausgebildet ist. Anordnung nach einem der vorhergehenden Ansprüche, bei der an die Stelle der Kamera ein zumindest das Objektiv der Kamera umfassender dunkler Fleck projiziert wird.
PCT/DE2000/000637 1999-03-17 2000-03-01 Anordnung zur interaktion WO2000055802A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP00920363A EP1161740A1 (de) 1999-03-17 2000-03-01 Anordnung zur interaktion
JP2000605959A JP2002539742A (ja) 1999-03-17 2000-03-01 対話のための装置
US09/953,728 US20020041325A1 (en) 1999-03-17 2001-09-17 Interaction configuration

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19911985.6 1999-03-17
DE19911985 1999-03-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/953,728 Continuation US20020041325A1 (en) 1999-03-17 2001-09-17 Interaction configuration

Publications (1)

Publication Number Publication Date
WO2000055802A1 true WO2000055802A1 (de) 2000-09-21

Family

ID=7901363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2000/000637 WO2000055802A1 (de) 1999-03-17 2000-03-01 Anordnung zur interaktion

Country Status (4)

Country Link
US (1) US20020041325A1 (de)
EP (1) EP1161740A1 (de)
JP (1) JP2002539742A (de)
WO (1) WO2000055802A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001031424A2 (de) * 1999-10-25 2001-05-03 Siemens Aktiengesellschaft Anordnung zur interaktion
WO2003026299A1 (en) * 2001-09-14 2003-03-27 Accenture Global Services Gmbh Lab window collaboration
AU2007249116B2 (en) * 2001-09-14 2010-03-04 Accenture Global Services Limited Lab window collaboration
AU2003257269B2 (en) * 2001-05-08 2010-03-25 Digislide Holdings Limited Portable image projection device
CN1661538B (zh) * 2004-02-27 2010-05-05 三星电子株式会社 用于具有触摸屏的终端的指示设备和使用该设备的方法
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US8345920B2 (en) 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8432448B2 (en) 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US9377874B2 (en) 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040205256A1 (en) * 2002-11-27 2004-10-14 Richard Hoffman System and method for communicating between two or more locations
NO318883B1 (no) 2003-04-07 2005-05-18 Tandberg Telecom As Arrangement og fremgangsmate for forbedret kommunikasjon mellom deltakere i en videokonferanse
US7949616B2 (en) * 2004-06-01 2011-05-24 George Samuel Levy Telepresence by human-assisted remote controlled devices and robots
JP2008009572A (ja) * 2006-06-27 2008-01-17 Fuji Xerox Co Ltd ドキュメント処理システム、ドキュメント処理方法及びプログラム
JP5053655B2 (ja) * 2007-02-20 2012-10-17 キヤノン株式会社 映像装置および画像通信装置
JP2008227883A (ja) * 2007-03-13 2008-09-25 Brother Ind Ltd プロジェクタ
US20110206828A1 (en) * 2009-07-10 2011-08-25 Bio2 Technologies, Inc. Devices and Methods for Tissue Engineering
JP5711736B2 (ja) * 2009-07-10 2015-05-07 バイオ2 テクノロジーズ,インク. 生体組織工学のためのデバイスおよび方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0622722A2 (de) * 1993-04-30 1994-11-02 Rank Xerox Limited Interaktives Kopiersystem
EP0626636A2 (de) * 1993-03-16 1994-11-30 Hitachi, Ltd. Benutzerschnittstelle für Informationsverarbeitungssystem
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
DE19708240A1 (de) * 1997-02-28 1998-09-10 Siemens Ag Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
DE19734511A1 (de) * 1997-08-08 1999-02-11 Siemens Ag Kommunikationseinrichtung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0626636A2 (de) * 1993-03-16 1994-11-30 Hitachi, Ltd. Benutzerschnittstelle für Informationsverarbeitungssystem
EP0622722A2 (de) * 1993-04-30 1994-11-02 Rank Xerox Limited Interaktives Kopiersystem
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
DE19708240A1 (de) * 1997-02-28 1998-09-10 Siemens Ag Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
DE19734511A1 (de) * 1997-08-08 1999-02-11 Siemens Ag Kommunikationseinrichtung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANON.: "Two-Way Desk-Top Display System", IBM TECHNICAL DISCLOSURE BULLETIN, vol. 36, no. 09b, September 1993 (1993-09-01), NEW YORK US, pages 359 - 360, XP000397184 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001031424A2 (de) * 1999-10-25 2001-05-03 Siemens Aktiengesellschaft Anordnung zur interaktion
WO2001031424A3 (de) * 1999-10-25 2001-11-29 Siemens Ag Anordnung zur interaktion
AU2003257269B2 (en) * 2001-05-08 2010-03-25 Digislide Holdings Limited Portable image projection device
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US7441198B2 (en) 2001-09-14 2008-10-21 Accenture Global Services Gmbh Virtual collaboration window system and method
AU2007249116B2 (en) * 2001-09-14 2010-03-04 Accenture Global Services Limited Lab window collaboration
WO2003026299A1 (en) * 2001-09-14 2003-03-27 Accenture Global Services Gmbh Lab window collaboration
CN1661538B (zh) * 2004-02-27 2010-05-05 三星电子株式会社 用于具有触摸屏的终端的指示设备和使用该设备的方法
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8432448B2 (en) 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8345920B2 (en) 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition

Also Published As

Publication number Publication date
JP2002539742A (ja) 2002-11-19
US20020041325A1 (en) 2002-04-11
EP1161740A1 (de) 2001-12-12

Similar Documents

Publication Publication Date Title
WO2000055802A1 (de) Anordnung zur interaktion
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
EP0963563B1 (de) Anordnung und verfahren zur detektion eines objekts in einem von wellen im nichtsichtbaren spektralbereich angestrahlten bereich
DE102008000001B4 (de) Integrierte Hardware- und Softwarebenutzerschnittstelle
DE602004011676T2 (de) Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung
DE4344050C1 (de) Eingabeverfahren und Eingabevorrichtung für Computerterminals zum Schutz vor Ausspähung und zur Gewährleistung der Intimität eines Nutzers
EP1128317A2 (de) Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung
DE102006052779A1 (de) Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
EP1184804A2 (de) System zur Bildwiedergabe
EP1012698B1 (de) Vorrichtung zur darstellung und virtuellen eingabe von daten
DE102010013843A1 (de) Bedienvorrichtung
WO2001008409A1 (de) Mobiles bildtelefon
DE102012008986B4 (de) Kamerasystem mit angepasster ROI, Kraftfahrzeug und entsprechendes Verfahren
DE102008056917A1 (de) Kooperationsfenster/wand
DE10119648B4 (de) Anordnung zur Bedienung von fernsehtechnischen Geräten
DE10054242A1 (de) Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung
WO2001084482A2 (de) Vorrichtung zur eingabe von relativen koordinaten
WO2020002421A1 (de) Präsentationssystem und präsentationsverfahren
DE102008037060A1 (de) Anzeigesystem
EP1161720B1 (de) Verfahren und anordnung zur interaktion mit einem benutzer
DE102004027289B4 (de) Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument
EP1159670A1 (de) Eingabe-/ausgabevorrichtung für ein benutzerendgerät
DE102019002884A1 (de) Bedienvorrichtung
WO2003056504A1 (de) Interaktives projektions- und eingabesystem
WO2003046821A1 (de) Virtuelle stifteingabe

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000920363

Country of ref document: EP

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2000 605959

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09953728

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000920363

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2000920363

Country of ref document: EP