DE112008003983T5 - Berührungsbildschirmanzeige mit mehreren Kameras - Google Patents

Berührungsbildschirmanzeige mit mehreren Kameras Download PDF

Info

Publication number
DE112008003983T5
DE112008003983T5 DE112008003983T DE112008003983T DE112008003983T5 DE 112008003983 T5 DE112008003983 T5 DE 112008003983T5 DE 112008003983 T DE112008003983 T DE 112008003983T DE 112008003983 T DE112008003983 T DE 112008003983T DE 112008003983 T5 DE112008003983 T5 DE 112008003983T5
Authority
DE
Germany
Prior art keywords
touch screen
cameras
display screen
reflectors
webcam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112008003983T
Other languages
English (en)
Inventor
Bradley Col. Suggs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE112008003983T5 publication Critical patent/DE112008003983T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors

Abstract

Ein Anzeigesystem, das folgende Merkmale umfasst: einen planaren Anzeigebildschirm, der sich in zwei Dimensionen erstreckt; mehrere Kameras, die Sichtfelder haben, die sich mehr orthogonal als parallel zu dem Anzeigebildschirm erstrecken zum Betrachten von fernen Objekten; Reflektoren zum Umleiten von Berührungsbildschirmlicht von einer Richtung entlang dem Anzeigebildschirm zu einer Richtung zu den Kameras hin; und einen Videoprozessor zum Lokalisieren einer 2D-Position relativ zu dem Anzeigebildschirm eines Objekts nahe zu dem Anzeigebildschirm als eine Funktion von Bildern, die ansprechend auf das Berührungsbildschirmlicht durch die Kameras erzeugt werden.

Description

  • Hintergrund
  • Ein „Berührungsbildschirm” ist eine Anzeige, die das Vorliegen und die Position einer Berührung, zum Beispiel durch einen Finger, innerhalb des Anzeigebereichs erfassen kann. Berührungsbildschirmfähigkeiten können durch eine Auswahl an Technologien ermöglicht werden, einschließlich Widerstands-, Oberflächenwellen-, Kapazitäts-, Infrarot-, Dehnungsmesser-, Diffusionslaserabbildungs-, Optische-Bildabbildungs-, Dispersiv-Signal-Technologie und Schallimpulserkennung. Ein Berührungsbildschirm ermöglicht Nutzereingabe ohne ein separates Gerät, wie zum Beispiel eine Maus oder ein Tastfeld (Trackpad) zu benötigen. Anders als diese Geräte ermöglicht es ein Berührungsbildschirm einem Nutzer, direkt auf dem Bildschirm mit dem, was angezeigt ist, wo es angezeigt ist, zu interagieren, und nicht indirekt.
  • Berührungsbildschirme werden zunehmend in kleinen Geräten eingebaut, wie z. B. Mobiltelefonen, PDAs, digitalen Abspielgeräten und Navigationseinheiten. Große Berührungsbildschirmanzeigen sind auch zunehmend üblich in Kiosken und anderen gewerblichen Umgebungen. Anzeigen für Tischcomputer stellen jedoch normalerweise keine Berührungsbildschirmfähigkeiten bereit.
  • TouchSmartTM Computer, erhältlich von der Hewlett-Packard Company, sind bemerkenswerte Ausnahmen. Die Computer umfassen eine Berührungsbildschirmanzeige und sind visuell von derselben dominiert. Infrarotemitter an den oberen Ecken der Anzeige strahlen Licht ab, das normalerweise durch gegenüberliegende Anzeigeblenden reflektiert wird. Lineare Detektorarrays erfassen die Reflektionen und alle Schatten, um eine Berührung trigonometrisch zu lokalisieren. Die Berührungsbildschirmfähigkeiten erhöhen die Kosten der Computer erheblich.
  • Kurze Beschreibung der Zeichnungen
  • Die Merkmale und Vorteile der Erfindung sowie zusätzliche Merkmale und Vorteile derselben werden hierin nachfolgend besser verständlich als Folge einer detaillierten Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung in Verbindung mit den folgenden Zeichnungen.
  • 1 ist eine schematische Darstellung eines Computersystems, das eine Berührungsbildschirmanzeige gemäß einem Ausführungsbeispiel der Erfindung umfasst.
  • 2 ist eine schematische Draufsicht einer Anzeige von 1 mit Reflektoren in „Webcam-Modus”-Positionen, die es ermöglichen, dass Sensoren als Stereowebcam verwendet werden.
  • 3 ist eine schematische Draufsicht der Anzeige von 1 mit Reflektoren in „Berührungsbildschirm-Modus”-Positionen, die es ermöglichen, dass Sensoren verwendet werden, um Berührungsbildschirmfähigkeiten zu bewirken.
  • 4 ist ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
  • Diese Figuren zeigen Implementierungen/Ausführungsbeispiele der Erfindung und nicht die Erfindung selbst.
  • Detaillierte Beschreibung
  • Die vorliegende Erfindung ermöglicht die Verwendung eines Paars von Webcams (z. B. statt eines Paars von Linear-Array-Sensoren), um Berührungsbildschirmfunktionalität bereitzustellen. Kosteneinsparungen werden zum Teil aufgrund von Größeneinsparungen erreicht: Webcam-Sensoren sind beispielsweise weniger aufwendig als die linearen Sensoren, die bei einigen Berührungsbildschirmimplementierungen verwendet werden. Kosteneffektivität wird ferner verbessert, da die Kameras auch als Webcams verwendet werden können, was Stereobilderfassung und 3D-Gestensteuerung ermöglicht.
  • Ein All-in-one-Computer (Komplettcomputer) AP1 gemäß einem Ausführungsbeispiel der Erfindung ist in 1 gezeigt. Der Computer AP1 hat Stereokameras 11L und 11R, die verwendet werden: 1) für Berührungsbildschirmfunktionalität und 2) Webcamfunktionalität, anders ausgedrückt für Bilderfassung und zum Verfolgen von Finger- oder Stiftposition auf einer Anzeige. Obwohl sich das dargestellte Ausführungsbeispiel auf einen All-in-one-Computer bezieht (Computer und Anzeige als monolithische Einheit), beziehen sich andere Ausführungsbeispiele auf eine Anzeige, die von dem Computer selbst getrennt ist.
  • Der All-in-one-Computer AP1 umfasst ein Gehäuse 13, Prozessoren 15, computerlesbare Speichermedien 17 (einschließlich Hauptspeicher, Platte und Flash-basierte Speicherung), einen Mehrbildvideoprozessor 19 und Kommunikations-(einschließlich I/O-)Vorrichtungen, einschließlich eines Anzeigebildschirms 21. Das Gehäuse 13 stellt einen Rahmen 23 für den Anzeigebildschirm 21 bereit, der eine Glasplatte 25 umfasst, wie es in 2 und 3 gezeigt ist. Der Rahmen 23 und der Anzeigebildschirm 21 werden durch eine retroreflektierende Blende 27 überbrückt.
  • Kameras 11L und 11R sind unter der Glasplatte 25 nahe jeweiligen oberen Ecken 29L und 29R des Anzeigebildschirms 21 angeordnet. Kameras 11L und 11R (1) haben jeweilige Sichtfelder 31L und 31R (2). Sichtfelder 31L und 31R sind normalerweise nach außen gerichtet, mit einer gewissen Neigung zu ihrer gemeinsamen Mitte hin, so dass dieselben schräg verlaufen zu einer erwarteten Nutzerposition je nach Wunsch für die Verwendung als Stereo-Webcam und für 3D-Gestensteuerung. Selbst mit der Neigung sind die Sichtfelder 31L und 31R mehr orthogonal als parallel zu dem (der 2D-Oberfläche des) Anzeigebildschirm(s) 21. Dies ermöglicht es den Kameras 11L und 11R, „Objektlicht” von Objekten zu erfassen, die relativ zu dem Anzeigebildschirm 21 zentriert sind und zumindest 30,5 cm (1 foot) von demselben entfernt, so dass die Objekte erfasst werden können.
  • Damit die Kameras 11L und 11R für Berührungsbildschirmfunktionalität verwendet werden können, können Augenlidreflektoren 33L und 33R zu Positionen bewegt werden, die jeweils Sichtfelder 31L und 31R verdecken. In diesen Positionen bewirken die Reflektoren 33R und 33R, dass „Berührungsbildschirm”-Licht, das von der Blende 27 entlang dem Anzeigebildschirm 21 (und somit nicht innerhalb den Sichtfeldern 31L und 31R) ankommt, zu den jeweiligen Kameras 11L und 11R umgeleitet wird. Bei einem Ausführungsbeispiel wird dieses Licht durch eine emittierende Blende bereitgestellt. Bei dem dargestellten Ausführungsbeispiel wird dieses Licht durch Punktquelleninfrarotemitter 35L und 35R bereitgestellt, die grob mit den Kameras 11L bzw. 11R angeordnet sind. In diesem Fall ist die Blende 27 retroreflektierend, da einfallendes Licht 34 von einem Emitter 35L, 35R als Berührungsbildschirmlicht 36 zurück zu dem Emitter reflektiert wird, durch die Blende mit einem Minimum an Streuung. Augenlidreflektoren 33L und 33R haben jeweilige Aperturen 37L und 37R (3), durch die Licht von dem Emitter 35L und 35R zu gegenüberliegenden Seiten der retroreflektierenden Blende 27 gerichtet wird.
  • Jeder Emitter 35L, 35R emittiert Infrarotlicht 35 und richtet es zu den zwei gegenüberliegenden Seiten der Blende 37. Genauer gesagt, der Emitter 35L richtet IR-Licht zu der unteren Seite 38B (1) und rechten Seite 39R der retroreflektierenden Blende 27, während der Emitter 35R IR-Licht zu der unteren Seite 39B und zur linken Seite 39L der Blende 27 richtet. Die Emitter 35L und 35R und die Blende 27 sind nicht in den Feldern 31L und 31R (2). Mit den Reflektoren 33L und 33R in ihren Webcam-Modus-Positionen, wie es in 2 gezeigt ist, trifft somit weder das IR-Licht 34, das durch Emitter 35L und 35R emittiert wird, noch das IR-Licht 36, das durch die Blende 27 reflektiert wird, auf die Kameras 11L und 11R. IR-Cut-Filter 41L und 41R (2) begrenzen das Licht, das die Kameras 11L und 11R erreicht, auf sichtbares Licht, so dass die Kameras 11L und 11R Bilder liefern, die enger mit dem übereinstimmen, was eine Person sieht und nicht mit IR-Licht überlastet sind.
  • Kameras 11L und 11R sind mit dem Videoprozessor 19 verbunden, der eine Verarbeitung der digitalen Signale von den Kameras durchführt. Der Videoprozessor 19 erfasst die Positionen von Reflektoren 33L und 33R, um Berührungsbildschirm- und Webcam-Modi zu unterscheiden. Der Videoprozessor 19 kommuniziert mit anderen Computerkomponenten unter Verwendung einer internen USB-Verbindung. Bei alternativen Ausführungsbeispielen werden IEEE 1394 (Firewire) oder andere Protokollverbindungen verwendet. In einem 3D-Gesten-Untermodus reduziert die Verarbeitung die Stereobilder in eine Verschiebungsabbildung (Abstandsinformationen), die der Computer AP1 dann interpretieren kann und nach Bedarf darauf reagieren kann.
  • Licht, das entlang dem Anzeigebildschirm 21 übertragen wird, kann durch ein Objekt blockiert werden, das den Anzeigebildschirm 21 berührt oder anderweitig ausreichend nahe zu demselben ist. Wenn der Computer AP1 im Berührungsbildschirm-Modus ist (mit den Reflektoren 33L und 33R, die die Sichtfelder 31L und 31R verdecken), kann der Videoprozessor 19 die resultierenden Schatten erfassen und lokalisieren. Der Videoprozessor 19 bestimmt trigonometrisch die 2D-Anzeigebildschirmposition des Objekts durch Vergleichen der Position von Unterbrechungen (Schatten), wie sie durch Kameras 11L und 11R gesehen werden.
  • Auf dem Medium 17 sind computerlesbare Daten und Programme von Computerausführbaren Befehlen codiert. Ein solches Programm ist eine Berührungsbildschirm/Webcam-Modus-Steuerung 43, die eine Schnittstelle für einen Nutzer liefert, um zwischen Webcam- und Berührungsbildschirm-Modi für den Computer AP1 zu wechseln. Wenn ein Nutzer zum Berührungsbildschirm-Modus wechselt, werden die Reflektoren 33L und 33R in die Sichtfelder 31L und 31R bewegt und verdecken dieselben somit, so dass 11R. Ein Nutzer kann einen Webcam-Modus auswählen durch Bewegen der Reflektoren 33L und 33R zu ihren Webcam-Positionen (2), aus den Sichtfeldern 31L und 31R. Bei dem dargestellten Ausführungsbeispiel werden die Reflektoren 33L und 33R manuell durch einen Nutzer bewegt und die Bewegung wird durch die Modussteuerung 43 erfasst.
  • Bei einem alternativen Ausführungsbeispiel sind die Reflektoren motorisiert und werden durch Modussteuerungssoftware gesteuert.
  • Ein Nutzer kann aus mehreren Modi auswählen, die durch den Videoprozessor 19 bereitgestellt werden: 1) im Berührungsbildschirm-Modus bestimmt der Videoprozessor 19 Berührungspositionen; 2) im Rohmodus liefert der Videoprozessor 19 ein Paar von rohen Videosignalen; im 2D-Webcam-Modus ein Paar von rohen Videobildern (überwiegend für den Webcam-Modus); 3) im 2D-Webcam-Modus kombiniert der Videoprozessor 19 rohe Bilder, um gemischte 2D-Videobilder zu liefern; 4) im 3D-Webcam-Modus kombiniert der Videoprozessor 19 rohe Videobilder, um 3D-Bilder zu liefern; 5) im 3D-Befehlsmodus kombiniert der Videoprozessor 19 rohe Videobilder mit Gesten, die in Befehle umgewandelt werden können. Der letztere Modus liefert gestenbasierte Steuerung des Computers AP1 als eine Alternative zur Berührungsbildschirmsteuerung. Diese gestenbasierte Steuerung kann nicht-modal (kein Bedarf, die Reflektoren 33L und 33R in Position zu bewegen) und komfortabler als Berührungsbildschirmsteuerung sein (einige Menschen finden es unangenehm, wenn sie ihre Arme für einen Berührungsbildschirmbetrieb für lange Zeitperioden ausgestreckt halten).
  • Ein Verfahren ME1 gemäß der Erfindung ist in 4 als Flussdiagramm dargestellt. Bei Schritt M1 wechselt ein Nutzer die Modi (z. B. durch manuelles Bewegen der Reflektoren 33L und 33R) zwischen einem Berührungsbildschirm-Modus M11 und einem Webcam-Modus M21. In dem Fall, in dem der Wechsel zu dem Berührungsbildschirm-Modus M11 stattfindet, werden die Reflektoren 33L und 33R bewegt, so dass dieselben jeweilige Sichtfelder 31L und 31R der Kameras 11L und 11R bei Schritt M12 verdecken. Außerdem können IR-Emitter 35L und 35R eingeschaltet werden. Reflektoren 33L und 33R leiten bei Schritt M13 Licht von Wegen entlang und daher mehr parallel als orthogonal zu dem Anzeigebildschirm 21 um zu einem Weg, der mehr orthogonal als parallel zu dem Anzeigebildschirm ist. Falls ein Finger oder Stift oder ähnliches Objekt den Anzeigebildschirm kontaktiert oder sich zumindest demselben nähert, blockiert dasselbe Licht, das mehr parallel als orthogonal zu dem Anzeigebildschirm übertragen wird. In solch einem Fall können bei Schritt 14 Schatten in Videobildern erfasst werden. Die Positionen der Schatten in den jeweiligen Kamerabildern können verwendet werden, um bei Schritt M15 eine 2D-Position des Objekts relativ zu dem Anzeigebildschirm zu lokalisieren. Diese Positionsinformationen können verwendet werden, um zweidimensionale Gesten (Berührung, Gleiten usw.) zu interpretieren, so dass die Gesten bei Schritt M16 als Befehle interpretiert werden können (zu Befehlen umgewandelt werden können).
  • In dem Fall dass ein Nutzer bei Schritt M1 zu einem Webcam-Modus wechselt M21, Werden die Reflektoren 33L und 33R bei Schritt M22 aus den jeweiligen Kamerasichtfeldern 31L und 31R bewegt; außerdem können die Emitter 35L und 35R ausgeschaltet werden. Das Entfernen der Reflektoren 33L und 33R ermöglicht es, dass Licht, das mehr orthogonal als parallel zu dem Anzeigebildschirm übertragen wird, bei Schritt M23 die Kameras 11L und 11R erreicht ohne umgeleitet zu werden. Dies ermöglicht es, dass mehrere Videobilder eines fernen Objekts, z. B. eines Kopfs eines Nutzers, bei Schritt M24 erzeugt werden. Die mehreren Bilder können kombiniert werden, um bei Schritt M25 ein einheitliches 2D- oder 3D-Videobild zu erzeugen. Außerdem können 3D-Gesten, die in den Videobildern erfasst werden, bei Schritt M26 in Befehle („auswählen”, „bewegen”, usw.) umgewandelt werden.
  • Die hierin beschriebene Technologie stellt das Reduzieren der Grenzkosten von Berührungsbildschirmtechnologie bereit durch 1) Verwenden weithin verfügbarer und ökonomischer (Webcam-)Kameras für Berührungsbildschirmtechnologie; und 2) Veranlassen, dass die Berührungsbildschirmkomponenten (z. B. Kameras) für andere Zwecke verwendet werden können (z. B. Webcamfunktionalität plus 3D-Gesteneingabe). Durch Bereitstellen von sowohl Berührungsbildschirm- als auch Gestenfunktionalität wird eine Brücke bereitgestellt zwischen vertrauter Berührungsbildschirmsteuerung und aufkommenden Gestensteuertechnologien.
  • Die vorhergehende Beschreibung wurde zu Erklärungszwecken mit Bezugnahme auf spezifische Ausführungsbeispiele beschrieben. Die darstellenden Erörterungen sollen jedoch nicht erschöpfend sein oder die Erfindung auf die genau offenbarten Formen begrenzen. Hinsichtlich der offenbarten Lehren sind viele Modifikationen und Variationen möglich. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Prinzipien der Erfindung und ihre praktischen Anwendungen am besten zu erläutern, um es dadurch anderen Fachleuten auf diesem Gebiet zu ermöglichen, die Erfindung am besten anzuwenden, und verschiedene Ausführungsbeispiele mit verschiedenen Modifikationen sind für die bestimmte in Erwägung gezogene Nutzung geeignet.
  • Wie der Begriff hierin verwendet wird, bezieht sich „Berührungsbildschirm” auf jede Technologie, die verwendet wird, um eine Position auf einem Anzeigebildschirm zu identifizieren, der durch einen Finger, Stift oder ähnliches Objekt kontaktiert wird. Obwohl einige Berührungsbildschirmtechnologien tatsächlich Berührung erfassen, ist die bildbasierte Technologie, die hierin beschrieben ist, nicht in diesem Sinne berührungsbasiert. Stattdessen erfasst die vorliegende Erfindung eine Position durch Bilderfassung und es spielt keine Rolle, ob das Objekt, das erfasst wird, tatsächlich den Anzeigebildschirm berührt oder nur nahe genug zu dem Anzeigebildschirm ist, um Licht zu unterbrechen, das entlang dem Anzeigebildschirm übertragen wird.
  • Hierin bedeutet „fern” weit genug von einem Anzeigebildschirm entfernt, dass nicht erfasst werden kann durch Licht, das verwendet wird, um eine 2D-Position in dem Berührungsbildschirm-Modus zu lokalisieren; in der Praxis kann dies ein Zentimeter oder mehr von dem Anzeigebildschirm entfernt sein. „Nah” bedeutet hierin in Kontakt mit oder nahe genug, um durch Licht erfasst zu werden, das verwendet wird, um eine 2D-Position im Berührungsbildschirm-Modus zu lokalisieren. Nah ist typischerweise weniger als ein Zentimeter.
  • Die Erfindung stellt viele Alternativen zu dem dargestellten Ausführungsbeispiel bereit. Die Erfindung ermöglicht Ausführungsbeilspiele für All-in-one-Computer, separate Computer und Anzeigen. Die Erfindung kann bei Geräten angewendet werden, die nicht typischerweise als Computer angesehen werden (obwohl dieselben Computerkomponenten umfassen können), z. B. Fernsehgeräte und Anzeigetafeln auf anderen Geräten, wie z. B. Druckern. Die Kameras können an anderen Positionen angeordnet sein, z. B. an unteren Ecken oder entlang den Seiten der Anzeige. Mehr als zwei Kameras können verwendet werden; z. B. kann eine dritte Kamera oben in der Mitte oder unten in der Mitte dazu beitragen, die Position eines Objekts, das die Anzeige berührt, aufzulösen. Die standardmäßig mittige Webcam kann mit den Stereokameras kombiniert werden, um zwei Berührungen in einem Berührungsbildschirm-Modus zu unterscheiden oder um eine Verschiebungsabbildung zu verfeinern, sowie um Einsparungen bei Schnittstellenlogik und Schaltungsplatinenkosten zu liefern.
  • Die Form der Reflektoren kann durch Fachleute auf diesem Gebiet bestimmt werden, vorausgesetzt, dass die gegenüberliegenden Seiten der Blende innerhalb des Sichtfelds der Kameras sein müssen, wie es durch die Reflektoren modifiziert wird. Abhängig von dem Ausführungsbeispiel können sich Reflektoren zwischen Positionen bewegen oder drehen. Alternativ kann ein nichtbeweglicher Reflektor verwendet werden. Der Reflektor kann beispielsweise aus einem Material sein, dass elektrisch gesteuert werden kann, so dass es stärker reflektierend oder stärker durchlässig ist. Bei einem anderen Ausführungsbeispiel arbeitet der Reflektor als halbdurchscheinender Spiegel oder Strahlteiler, der es ermöglicht, dass etwas Licht durchgelassen wird (für Berührungsbildschirmverwendung) und etwas übertragen wird (für Webcamnutzung).
  • Bei dem dargestellten Ausführungsbeispiel wird Infrarotstrahlung im Berührungsbildschirm-Modus verwendet und sichtbares Licht wird im Webcam-Modus verwendet. Andere Ausführungsbeispiele nutzen dieses geteilte Spektrum, um einen nicht-modalen Betrieb zu ermöglichen oder Modenwechseln durch Wechseln von Spektren zu ermöglichen. Bei dem dargestellten Ausführungsbeispiel können Reflektoren in Position zwischen einem IR-Cut-Filter und einer Kamera bewegt werden. Bei einem alternativen Ausführungsbeispiel nutzen die Emitter und Berührungsbildschirmfunktionalität ein sichtbares statt eines IR-Spektrums. Dies ermöglicht es, dass ein IR-Cut-Filter mit der Kamera gekoppelt wird; anstatt durch den Reflektor von der Kamera getrennt zu werden. Anstatt die Emitter zusammen mit den Kameras anzuordnen, kann die Blende emittierend sein (entweder IR- oder sichtbares Spektrum). Bei einem anderen Ausführungsbeispiel werden Kameras gemäß dem Modus gedreht; bei diesem Ausführungsbeispiel sind keine Reflektoren erforderlich. Diese und andere Variationen und Modifikationen zu dem dargestellten Ausführungsbeispiel werden durch die vorliegende Erfindung ermöglicht, deren Schutzbereich durch die folgenden Ansprüche definiert ist.
  • Zusammenfassung
  • Ein Anzeigesystem hat mehrere Kameras mit Sichtfeldern, die sich mehr orthogonal als parallel zu einem Anzeigebildschirm erstrecken, zum Betrachten von fernen Objekten. Reflektoren richten Berührungsbildschirmlicht von einer Richtung entlang dem Anzeigebildschirm zu einer Richtung zu den Kameras hin um. Ein Videoprozessor lokalisiert eine 2D-Position relativ zu dem Anzeigebildschirm eines Objekts nahe zu dem Anzeigebildschirm als eine Funktion von Bildern, die ansprechend auf das Berührungsbildschirmlicht durch die Kameras erzeugt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 1394 [0016]

Claims (10)

  1. Ein Anzeigesystem, das folgende Merkmale umfasst: einen planaren Anzeigebildschirm, der sich in zwei Dimensionen erstreckt; mehrere Kameras, die Sichtfelder haben, die sich mehr orthogonal als parallel zu dem Anzeigebildschirm erstrecken zum Betrachten von fernen Objekten; Reflektoren zum Umleiten von Berührungsbildschirmlicht von einer Richtung entlang dem Anzeigebildschirm zu einer Richtung zu den Kameras hin; und einen Videoprozessor zum Lokalisieren einer 2D-Position relativ zu dem Anzeigebildschirm eines Objekts nahe zu dem Anzeigebildschirm als eine Funktion von Bildern, die ansprechend auf das Berührungsbildschirmlicht durch die Kameras erzeugt werden.
  2. Ein Anzeigesystem gemäß Anspruch 1, bei dem die Reflektoren einen Berührungsbildschirmzustand und einen Webcamzustand aufweisen, wobei die Reflektoren das Berührungsbildschirmlicht nur in dem Berührungsbildschirmzustand richten, wobei die Reflektoren Objektlicht von fernen Objekten erfassen, wenn dieselben in dem Webcamzustand sind.
  3. Ein Anzeigesystem gemäß Anspruch 2, bei dem: der Berührungsbildschirmzustand Berührungsbildschirmpositionen der Reflektoren umfasst, in denen dieselben die Sichtfelder verdecken; und der Webcamzustand Webcampositionen der Reflektoren umfasst, in denen dieselben die Sichtfelder nicht verdecken.
  4. Ein Anzeigesystem gemäß Anspruch 2, bei dem die Reflektoren beweglich sind, so dass ein Nutzer dieselben zwischen den Berührungsbildschirmpositionen und den Webcampositionen bewegen kann.
  5. Ein Anzeigesystem gemäß Anspruch 2, bei dem der Videoprozessor das Interpretieren von 3D-Gesten als Befehle ermöglicht.
  6. Ein Verfahren, das folgende Schritte umfasst: Wechseln zwischen einem Webcam-Modus und einem Berührungsbildschirm-Modus; in dem Webcam-Modus, Erfassen eines Objekts, das fern von einem Anzeigebildschirm ist, unter Verwendung von zwei oder mehr Kameras, und Erzeugen eines Videobildes des Objekts; und in dem Berührungsbildschirm-Modus, Reflektieren von Licht, das mehr parallel als orthogonal zu dem Anzeigebildschirm verläuft, so dass dasselbe umgeleitet wird, um mehr orthogonal als parallel zu dem Anzeigebildschirm zu sein, so dass dasselbe auf die Kameras trifft, und Bestimmen einer Position auf einer Oberfläche des Anzeigebildschirms, der durch ein Objekt kontaktiert wird, als eine Funktion des Lichts, das auf die Kameras trifft.
  7. Ein Verfahren gemäß Anspruch 6, bei dem das Schalten das Bewegen von Reflektoren umfasst zwischen: a) Positionen, an denen dieselben Sichtfelder von jeweiligen der Kameras verdecken; und b) Positionen, an denen dieselben Sichtfelder von jeweiligen der Kameras nicht verdecken.
  8. Ein Verfahren gemäß Anspruch 6, das ferner in dem Webcam-Modus das Umwandeln von 3D-Gesten in Befehle durch das Objekt umfasst, als eine Funktion von mehreren Videobildern, die durch die Kameras aufgenommen werden.
  9. Ein Verfahren gemäß Anspruch 9, das ferner folgende Schritte umfasst: Ausschalten von Infrarotemittern, wenn von dem Kamera-Modus zu dem Berührungsbildschirm-Modus gewechselt wird; und Einschalten der Emitter, wenn von dem Berührungsbildschirm-Modus zu dem Kameramodus gewechselt wird.
  10. Ein Verfahren gemäß Anspruch 6, bei dem die Kameras an gegenüberliegenden oberen Ecken des Anzeigebildschirms angeordnet sind.
DE112008003983T 2008-09-15 2008-09-15 Berührungsbildschirmanzeige mit mehreren Kameras Ceased DE112008003983T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/076469 WO2010030296A1 (en) 2008-09-15 2008-09-15 Touchscreen display with plural cameras

Publications (1)

Publication Number Publication Date
DE112008003983T5 true DE112008003983T5 (de) 2011-07-21

Family

ID=42005377

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112008003983T Ceased DE112008003983T5 (de) 2008-09-15 2008-09-15 Berührungsbildschirmanzeige mit mehreren Kameras

Country Status (8)

Country Link
US (1) US8593434B2 (de)
JP (1) JP5331887B2 (de)
CN (1) CN102160018B (de)
BR (1) BRPI0822675B1 (de)
DE (1) DE112008003983T5 (de)
GB (1) GB2475212B (de)
TW (1) TW201011616A (de)
WO (1) WO2010030296A1 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100177162A1 (en) * 2009-01-15 2010-07-15 Charles Macfarlane Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream
US8558804B2 (en) * 2009-12-14 2013-10-15 Silicon Motion, Inc. Touch control apparatus and touch point detection method
US9377903B2 (en) 2010-06-01 2016-06-28 Cho-Yi Lin Portable optical touch system
TWI569174B (zh) * 2010-06-01 2017-02-01 林卓毅 可攜式光學觸控系統
US9250749B2 (en) 2010-06-01 2016-02-02 Cho-Yi Lin Electrical apparatus
WO2012093773A2 (ko) 2011-01-04 2012-07-12 에이큐 주식회사 광고 정보 제공 시스템
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
TWI452510B (zh) * 2011-12-23 2014-09-11 Innolux Corp 顯示裝置及其偵測遠端物體移動之方法
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9069414B2 (en) 2012-08-02 2015-06-30 Nano-Optic Devices, Llc Touchscreen sensor for touchscreen display unit
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
JP2014102668A (ja) * 2012-11-20 2014-06-05 Toshiba Corp 表示装置
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
TWI492114B (zh) * 2013-02-05 2015-07-11 Quanta Comp Inc 光學式多點觸控裝置與其光學觸控模組
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
CN103780812A (zh) * 2013-11-26 2014-05-07 广东欧珀移动通信有限公司 显示装置及其摄像显示方法
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
CN103744596A (zh) * 2014-01-20 2014-04-23 联想(北京)有限公司 显示控制方法和电子设备
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN106681496A (zh) * 2016-12-07 2017-05-17 南京仁光电子科技有限公司 基于多侦测面的控制方法和装置
DE102017223674A1 (de) * 2017-12-22 2019-06-27 BSH Hausgeräte GmbH Gargerät und Verfahren zum Betreiben desselben
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4847606A (en) * 1987-08-25 1989-07-11 Oak Industries Inc. Control and display system
US4990901A (en) * 1987-08-25 1991-02-05 Technomarket, Inc. Liquid crystal display touch screen having electronics on one side
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP2003087876A (ja) * 2001-09-14 2003-03-20 Takenaka Komuten Co Ltd 機器利用支援装置及び方法
CA2515955C (en) * 2003-02-14 2011-01-11 Next Holdings Limited Touch screen signal processing
US7629967B2 (en) * 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US20060044282A1 (en) 2004-08-27 2006-03-02 International Business Machines Corporation User input apparatus, system, method and computer program for use with a screen having a translucent surface
US7355594B2 (en) 2004-09-30 2008-04-08 Symbol Technologies, Inc. Optical touch screen arrangement
EP1645944B1 (de) 2004-10-05 2012-08-15 Sony France S.A. Eine Inhalt-Verwaltungsschnittstelle
JP4570145B2 (ja) * 2004-12-07 2010-10-27 株式会社シロク 位置検出平面外に撮像部を有する光学式位置検出装置
DE102007021537B4 (de) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
ATE509308T1 (de) 2007-12-05 2011-05-15 Almeva Ag Interaktionsanordnung zur interaktion zwischen einem bildschirm und einem zeigerobjekt
US8213914B2 (en) * 2008-08-04 2012-07-03 Lg Electronics Inc. Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal
US8111247B2 (en) * 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE 1394

Also Published As

Publication number Publication date
JP2012503230A (ja) 2012-02-02
WO2010030296A1 (en) 2010-03-18
GB201104407D0 (en) 2011-04-27
GB2475212A (en) 2011-05-11
BRPI0822675A2 (pt) 2015-06-30
US20110134036A1 (en) 2011-06-09
BRPI0822675B1 (pt) 2019-09-17
US8593434B2 (en) 2013-11-26
GB2475212B (en) 2013-03-20
CN102160018B (zh) 2014-09-24
TW201011616A (en) 2010-03-16
CN102160018A (zh) 2011-08-17
JP5331887B2 (ja) 2013-10-30

Similar Documents

Publication Publication Date Title
DE112008003983T5 (de) Berührungsbildschirmanzeige mit mehreren Kameras
DE102018005131A1 (de) Mobiles Gerät mit Frontkamera und maximierter Bildschirmoberfläche
KR102049132B1 (ko) 증강 현실 광 가이드 디스플레이
EP3174044A1 (de) Pixeltreiberschaltung und deren ansteuerungsverfahren, arraysubstrat, transflektive anzeigevorrichtung
WO2016041425A1 (zh) 输入法虚拟键盘的调整方法和输入法装置
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE102018103468A1 (de) Informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
DE102009043800A1 (de) Optische Fingernavigation unter Verwendung von quantisierter Bewegungsinformation
JP2015518199A (ja) 光ガイドディスプレイ及び視野
CN104102394A (zh) 一种光学多点触控设备及方法
DE112009004948T5 (de) Anzeige mit einem optischen Sensor
DE112013004801T5 (de) Multimodaler Berührungsbildschirmemulator
CN102063231A (zh) 一种基于图像检测的非接触式电子白板系统及检测方法
CN102148922A (zh) 一种电子设备、图像采集装置及图像采集控制方法
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
DE102014106581A1 (de) Anpassen eines Displays ausgehend von einem Einstellen eines Computergerätes
US11080506B2 (en) Fingerprint identification method and apparatus, storage medium and terminal
EP3698236B1 (de) System und verfahren zur gleichzeitigen verwaltung einer vielzahl von designationsperipheriegeräten
DE102015103836A1 (de) Endgerät und Informationsverarbeitungsverfahren
US20050231767A1 (en) Touch sensitive scan area selection apparatus and method
KR101507458B1 (ko) 대화식 디스플레이
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
US8610970B1 (en) Liquid crystal display (LCD) scanners
US20170257624A1 (en) 3d display device and sensing method for 3d display device
DE102013103383A1 (de) Berührungsvorrichtung und Berührungsprojektionssystem, diese Vorrichtung verwendend

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final