-
Hintergrund
-
Ein „Berührungsbildschirm” ist eine Anzeige, die das Vorliegen und die Position einer Berührung, zum Beispiel durch einen Finger, innerhalb des Anzeigebereichs erfassen kann. Berührungsbildschirmfähigkeiten können durch eine Auswahl an Technologien ermöglicht werden, einschließlich Widerstands-, Oberflächenwellen-, Kapazitäts-, Infrarot-, Dehnungsmesser-, Diffusionslaserabbildungs-, Optische-Bildabbildungs-, Dispersiv-Signal-Technologie und Schallimpulserkennung. Ein Berührungsbildschirm ermöglicht Nutzereingabe ohne ein separates Gerät, wie zum Beispiel eine Maus oder ein Tastfeld (Trackpad) zu benötigen. Anders als diese Geräte ermöglicht es ein Berührungsbildschirm einem Nutzer, direkt auf dem Bildschirm mit dem, was angezeigt ist, wo es angezeigt ist, zu interagieren, und nicht indirekt.
-
Berührungsbildschirme werden zunehmend in kleinen Geräten eingebaut, wie z. B. Mobiltelefonen, PDAs, digitalen Abspielgeräten und Navigationseinheiten. Große Berührungsbildschirmanzeigen sind auch zunehmend üblich in Kiosken und anderen gewerblichen Umgebungen. Anzeigen für Tischcomputer stellen jedoch normalerweise keine Berührungsbildschirmfähigkeiten bereit.
-
TouchSmartTM Computer, erhältlich von der Hewlett-Packard Company, sind bemerkenswerte Ausnahmen. Die Computer umfassen eine Berührungsbildschirmanzeige und sind visuell von derselben dominiert. Infrarotemitter an den oberen Ecken der Anzeige strahlen Licht ab, das normalerweise durch gegenüberliegende Anzeigeblenden reflektiert wird. Lineare Detektorarrays erfassen die Reflektionen und alle Schatten, um eine Berührung trigonometrisch zu lokalisieren. Die Berührungsbildschirmfähigkeiten erhöhen die Kosten der Computer erheblich.
-
Kurze Beschreibung der Zeichnungen
-
Die Merkmale und Vorteile der Erfindung sowie zusätzliche Merkmale und Vorteile derselben werden hierin nachfolgend besser verständlich als Folge einer detaillierten Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung in Verbindung mit den folgenden Zeichnungen.
-
1 ist eine schematische Darstellung eines Computersystems, das eine Berührungsbildschirmanzeige gemäß einem Ausführungsbeispiel der Erfindung umfasst.
-
2 ist eine schematische Draufsicht einer Anzeige von 1 mit Reflektoren in „Webcam-Modus”-Positionen, die es ermöglichen, dass Sensoren als Stereowebcam verwendet werden.
-
3 ist eine schematische Draufsicht der Anzeige von 1 mit Reflektoren in „Berührungsbildschirm-Modus”-Positionen, die es ermöglichen, dass Sensoren verwendet werden, um Berührungsbildschirmfähigkeiten zu bewirken.
-
4 ist ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
-
Diese Figuren zeigen Implementierungen/Ausführungsbeispiele der Erfindung und nicht die Erfindung selbst.
-
Detaillierte Beschreibung
-
Die vorliegende Erfindung ermöglicht die Verwendung eines Paars von Webcams (z. B. statt eines Paars von Linear-Array-Sensoren), um Berührungsbildschirmfunktionalität bereitzustellen. Kosteneinsparungen werden zum Teil aufgrund von Größeneinsparungen erreicht: Webcam-Sensoren sind beispielsweise weniger aufwendig als die linearen Sensoren, die bei einigen Berührungsbildschirmimplementierungen verwendet werden. Kosteneffektivität wird ferner verbessert, da die Kameras auch als Webcams verwendet werden können, was Stereobilderfassung und 3D-Gestensteuerung ermöglicht.
-
Ein All-in-one-Computer (Komplettcomputer) AP1 gemäß einem Ausführungsbeispiel der Erfindung ist in 1 gezeigt. Der Computer AP1 hat Stereokameras 11L und 11R, die verwendet werden: 1) für Berührungsbildschirmfunktionalität und 2) Webcamfunktionalität, anders ausgedrückt für Bilderfassung und zum Verfolgen von Finger- oder Stiftposition auf einer Anzeige. Obwohl sich das dargestellte Ausführungsbeispiel auf einen All-in-one-Computer bezieht (Computer und Anzeige als monolithische Einheit), beziehen sich andere Ausführungsbeispiele auf eine Anzeige, die von dem Computer selbst getrennt ist.
-
Der All-in-one-Computer AP1 umfasst ein Gehäuse 13, Prozessoren 15, computerlesbare Speichermedien 17 (einschließlich Hauptspeicher, Platte und Flash-basierte Speicherung), einen Mehrbildvideoprozessor 19 und Kommunikations-(einschließlich I/O-)Vorrichtungen, einschließlich eines Anzeigebildschirms 21. Das Gehäuse 13 stellt einen Rahmen 23 für den Anzeigebildschirm 21 bereit, der eine Glasplatte 25 umfasst, wie es in 2 und 3 gezeigt ist. Der Rahmen 23 und der Anzeigebildschirm 21 werden durch eine retroreflektierende Blende 27 überbrückt.
-
Kameras 11L und 11R sind unter der Glasplatte 25 nahe jeweiligen oberen Ecken 29L und 29R des Anzeigebildschirms 21 angeordnet. Kameras 11L und 11R (1) haben jeweilige Sichtfelder 31L und 31R (2). Sichtfelder 31L und 31R sind normalerweise nach außen gerichtet, mit einer gewissen Neigung zu ihrer gemeinsamen Mitte hin, so dass dieselben schräg verlaufen zu einer erwarteten Nutzerposition je nach Wunsch für die Verwendung als Stereo-Webcam und für 3D-Gestensteuerung. Selbst mit der Neigung sind die Sichtfelder 31L und 31R mehr orthogonal als parallel zu dem (der 2D-Oberfläche des) Anzeigebildschirm(s) 21. Dies ermöglicht es den Kameras 11L und 11R, „Objektlicht” von Objekten zu erfassen, die relativ zu dem Anzeigebildschirm 21 zentriert sind und zumindest 30,5 cm (1 foot) von demselben entfernt, so dass die Objekte erfasst werden können.
-
Damit die Kameras 11L und 11R für Berührungsbildschirmfunktionalität verwendet werden können, können Augenlidreflektoren 33L und 33R zu Positionen bewegt werden, die jeweils Sichtfelder 31L und 31R verdecken. In diesen Positionen bewirken die Reflektoren 33R und 33R, dass „Berührungsbildschirm”-Licht, das von der Blende 27 entlang dem Anzeigebildschirm 21 (und somit nicht innerhalb den Sichtfeldern 31L und 31R) ankommt, zu den jeweiligen Kameras 11L und 11R umgeleitet wird. Bei einem Ausführungsbeispiel wird dieses Licht durch eine emittierende Blende bereitgestellt. Bei dem dargestellten Ausführungsbeispiel wird dieses Licht durch Punktquelleninfrarotemitter 35L und 35R bereitgestellt, die grob mit den Kameras 11L bzw. 11R angeordnet sind. In diesem Fall ist die Blende 27 retroreflektierend, da einfallendes Licht 34 von einem Emitter 35L, 35R als Berührungsbildschirmlicht 36 zurück zu dem Emitter reflektiert wird, durch die Blende mit einem Minimum an Streuung. Augenlidreflektoren 33L und 33R haben jeweilige Aperturen 37L und 37R (3), durch die Licht von dem Emitter 35L und 35R zu gegenüberliegenden Seiten der retroreflektierenden Blende 27 gerichtet wird.
-
Jeder Emitter 35L, 35R emittiert Infrarotlicht 35 und richtet es zu den zwei gegenüberliegenden Seiten der Blende 37. Genauer gesagt, der Emitter 35L richtet IR-Licht zu der unteren Seite 38B (1) und rechten Seite 39R der retroreflektierenden Blende 27, während der Emitter 35R IR-Licht zu der unteren Seite 39B und zur linken Seite 39L der Blende 27 richtet. Die Emitter 35L und 35R und die Blende 27 sind nicht in den Feldern 31L und 31R (2). Mit den Reflektoren 33L und 33R in ihren Webcam-Modus-Positionen, wie es in 2 gezeigt ist, trifft somit weder das IR-Licht 34, das durch Emitter 35L und 35R emittiert wird, noch das IR-Licht 36, das durch die Blende 27 reflektiert wird, auf die Kameras 11L und 11R. IR-Cut-Filter 41L und 41R (2) begrenzen das Licht, das die Kameras 11L und 11R erreicht, auf sichtbares Licht, so dass die Kameras 11L und 11R Bilder liefern, die enger mit dem übereinstimmen, was eine Person sieht und nicht mit IR-Licht überlastet sind.
-
Kameras 11L und 11R sind mit dem Videoprozessor 19 verbunden, der eine Verarbeitung der digitalen Signale von den Kameras durchführt. Der Videoprozessor 19 erfasst die Positionen von Reflektoren 33L und 33R, um Berührungsbildschirm- und Webcam-Modi zu unterscheiden. Der Videoprozessor 19 kommuniziert mit anderen Computerkomponenten unter Verwendung einer internen USB-Verbindung. Bei alternativen Ausführungsbeispielen werden IEEE 1394 (Firewire) oder andere Protokollverbindungen verwendet. In einem 3D-Gesten-Untermodus reduziert die Verarbeitung die Stereobilder in eine Verschiebungsabbildung (Abstandsinformationen), die der Computer AP1 dann interpretieren kann und nach Bedarf darauf reagieren kann.
-
Licht, das entlang dem Anzeigebildschirm 21 übertragen wird, kann durch ein Objekt blockiert werden, das den Anzeigebildschirm 21 berührt oder anderweitig ausreichend nahe zu demselben ist. Wenn der Computer AP1 im Berührungsbildschirm-Modus ist (mit den Reflektoren 33L und 33R, die die Sichtfelder 31L und 31R verdecken), kann der Videoprozessor 19 die resultierenden Schatten erfassen und lokalisieren. Der Videoprozessor 19 bestimmt trigonometrisch die 2D-Anzeigebildschirmposition des Objekts durch Vergleichen der Position von Unterbrechungen (Schatten), wie sie durch Kameras 11L und 11R gesehen werden.
-
Auf dem Medium 17 sind computerlesbare Daten und Programme von Computerausführbaren Befehlen codiert. Ein solches Programm ist eine Berührungsbildschirm/Webcam-Modus-Steuerung 43, die eine Schnittstelle für einen Nutzer liefert, um zwischen Webcam- und Berührungsbildschirm-Modi für den Computer AP1 zu wechseln. Wenn ein Nutzer zum Berührungsbildschirm-Modus wechselt, werden die Reflektoren 33L und 33R in die Sichtfelder 31L und 31R bewegt und verdecken dieselben somit, so dass 11R. Ein Nutzer kann einen Webcam-Modus auswählen durch Bewegen der Reflektoren 33L und 33R zu ihren Webcam-Positionen (2), aus den Sichtfeldern 31L und 31R. Bei dem dargestellten Ausführungsbeispiel werden die Reflektoren 33L und 33R manuell durch einen Nutzer bewegt und die Bewegung wird durch die Modussteuerung 43 erfasst.
-
Bei einem alternativen Ausführungsbeispiel sind die Reflektoren motorisiert und werden durch Modussteuerungssoftware gesteuert.
-
Ein Nutzer kann aus mehreren Modi auswählen, die durch den Videoprozessor 19 bereitgestellt werden: 1) im Berührungsbildschirm-Modus bestimmt der Videoprozessor 19 Berührungspositionen; 2) im Rohmodus liefert der Videoprozessor 19 ein Paar von rohen Videosignalen; im 2D-Webcam-Modus ein Paar von rohen Videobildern (überwiegend für den Webcam-Modus); 3) im 2D-Webcam-Modus kombiniert der Videoprozessor 19 rohe Bilder, um gemischte 2D-Videobilder zu liefern; 4) im 3D-Webcam-Modus kombiniert der Videoprozessor 19 rohe Videobilder, um 3D-Bilder zu liefern; 5) im 3D-Befehlsmodus kombiniert der Videoprozessor 19 rohe Videobilder mit Gesten, die in Befehle umgewandelt werden können. Der letztere Modus liefert gestenbasierte Steuerung des Computers AP1 als eine Alternative zur Berührungsbildschirmsteuerung. Diese gestenbasierte Steuerung kann nicht-modal (kein Bedarf, die Reflektoren 33L und 33R in Position zu bewegen) und komfortabler als Berührungsbildschirmsteuerung sein (einige Menschen finden es unangenehm, wenn sie ihre Arme für einen Berührungsbildschirmbetrieb für lange Zeitperioden ausgestreckt halten).
-
Ein Verfahren ME1 gemäß der Erfindung ist in 4 als Flussdiagramm dargestellt. Bei Schritt M1 wechselt ein Nutzer die Modi (z. B. durch manuelles Bewegen der Reflektoren 33L und 33R) zwischen einem Berührungsbildschirm-Modus M11 und einem Webcam-Modus M21. In dem Fall, in dem der Wechsel zu dem Berührungsbildschirm-Modus M11 stattfindet, werden die Reflektoren 33L und 33R bewegt, so dass dieselben jeweilige Sichtfelder 31L und 31R der Kameras 11L und 11R bei Schritt M12 verdecken. Außerdem können IR-Emitter 35L und 35R eingeschaltet werden. Reflektoren 33L und 33R leiten bei Schritt M13 Licht von Wegen entlang und daher mehr parallel als orthogonal zu dem Anzeigebildschirm 21 um zu einem Weg, der mehr orthogonal als parallel zu dem Anzeigebildschirm ist. Falls ein Finger oder Stift oder ähnliches Objekt den Anzeigebildschirm kontaktiert oder sich zumindest demselben nähert, blockiert dasselbe Licht, das mehr parallel als orthogonal zu dem Anzeigebildschirm übertragen wird. In solch einem Fall können bei Schritt 14 Schatten in Videobildern erfasst werden. Die Positionen der Schatten in den jeweiligen Kamerabildern können verwendet werden, um bei Schritt M15 eine 2D-Position des Objekts relativ zu dem Anzeigebildschirm zu lokalisieren. Diese Positionsinformationen können verwendet werden, um zweidimensionale Gesten (Berührung, Gleiten usw.) zu interpretieren, so dass die Gesten bei Schritt M16 als Befehle interpretiert werden können (zu Befehlen umgewandelt werden können).
-
In dem Fall dass ein Nutzer bei Schritt M1 zu einem Webcam-Modus wechselt M21, Werden die Reflektoren 33L und 33R bei Schritt M22 aus den jeweiligen Kamerasichtfeldern 31L und 31R bewegt; außerdem können die Emitter 35L und 35R ausgeschaltet werden. Das Entfernen der Reflektoren 33L und 33R ermöglicht es, dass Licht, das mehr orthogonal als parallel zu dem Anzeigebildschirm übertragen wird, bei Schritt M23 die Kameras 11L und 11R erreicht ohne umgeleitet zu werden. Dies ermöglicht es, dass mehrere Videobilder eines fernen Objekts, z. B. eines Kopfs eines Nutzers, bei Schritt M24 erzeugt werden. Die mehreren Bilder können kombiniert werden, um bei Schritt M25 ein einheitliches 2D- oder 3D-Videobild zu erzeugen. Außerdem können 3D-Gesten, die in den Videobildern erfasst werden, bei Schritt M26 in Befehle („auswählen”, „bewegen”, usw.) umgewandelt werden.
-
Die hierin beschriebene Technologie stellt das Reduzieren der Grenzkosten von Berührungsbildschirmtechnologie bereit durch 1) Verwenden weithin verfügbarer und ökonomischer (Webcam-)Kameras für Berührungsbildschirmtechnologie; und 2) Veranlassen, dass die Berührungsbildschirmkomponenten (z. B. Kameras) für andere Zwecke verwendet werden können (z. B. Webcamfunktionalität plus 3D-Gesteneingabe). Durch Bereitstellen von sowohl Berührungsbildschirm- als auch Gestenfunktionalität wird eine Brücke bereitgestellt zwischen vertrauter Berührungsbildschirmsteuerung und aufkommenden Gestensteuertechnologien.
-
Die vorhergehende Beschreibung wurde zu Erklärungszwecken mit Bezugnahme auf spezifische Ausführungsbeispiele beschrieben. Die darstellenden Erörterungen sollen jedoch nicht erschöpfend sein oder die Erfindung auf die genau offenbarten Formen begrenzen. Hinsichtlich der offenbarten Lehren sind viele Modifikationen und Variationen möglich. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Prinzipien der Erfindung und ihre praktischen Anwendungen am besten zu erläutern, um es dadurch anderen Fachleuten auf diesem Gebiet zu ermöglichen, die Erfindung am besten anzuwenden, und verschiedene Ausführungsbeispiele mit verschiedenen Modifikationen sind für die bestimmte in Erwägung gezogene Nutzung geeignet.
-
Wie der Begriff hierin verwendet wird, bezieht sich „Berührungsbildschirm” auf jede Technologie, die verwendet wird, um eine Position auf einem Anzeigebildschirm zu identifizieren, der durch einen Finger, Stift oder ähnliches Objekt kontaktiert wird. Obwohl einige Berührungsbildschirmtechnologien tatsächlich Berührung erfassen, ist die bildbasierte Technologie, die hierin beschrieben ist, nicht in diesem Sinne berührungsbasiert. Stattdessen erfasst die vorliegende Erfindung eine Position durch Bilderfassung und es spielt keine Rolle, ob das Objekt, das erfasst wird, tatsächlich den Anzeigebildschirm berührt oder nur nahe genug zu dem Anzeigebildschirm ist, um Licht zu unterbrechen, das entlang dem Anzeigebildschirm übertragen wird.
-
Hierin bedeutet „fern” weit genug von einem Anzeigebildschirm entfernt, dass nicht erfasst werden kann durch Licht, das verwendet wird, um eine 2D-Position in dem Berührungsbildschirm-Modus zu lokalisieren; in der Praxis kann dies ein Zentimeter oder mehr von dem Anzeigebildschirm entfernt sein. „Nah” bedeutet hierin in Kontakt mit oder nahe genug, um durch Licht erfasst zu werden, das verwendet wird, um eine 2D-Position im Berührungsbildschirm-Modus zu lokalisieren. Nah ist typischerweise weniger als ein Zentimeter.
-
Die Erfindung stellt viele Alternativen zu dem dargestellten Ausführungsbeispiel bereit. Die Erfindung ermöglicht Ausführungsbeilspiele für All-in-one-Computer, separate Computer und Anzeigen. Die Erfindung kann bei Geräten angewendet werden, die nicht typischerweise als Computer angesehen werden (obwohl dieselben Computerkomponenten umfassen können), z. B. Fernsehgeräte und Anzeigetafeln auf anderen Geräten, wie z. B. Druckern. Die Kameras können an anderen Positionen angeordnet sein, z. B. an unteren Ecken oder entlang den Seiten der Anzeige. Mehr als zwei Kameras können verwendet werden; z. B. kann eine dritte Kamera oben in der Mitte oder unten in der Mitte dazu beitragen, die Position eines Objekts, das die Anzeige berührt, aufzulösen. Die standardmäßig mittige Webcam kann mit den Stereokameras kombiniert werden, um zwei Berührungen in einem Berührungsbildschirm-Modus zu unterscheiden oder um eine Verschiebungsabbildung zu verfeinern, sowie um Einsparungen bei Schnittstellenlogik und Schaltungsplatinenkosten zu liefern.
-
Die Form der Reflektoren kann durch Fachleute auf diesem Gebiet bestimmt werden, vorausgesetzt, dass die gegenüberliegenden Seiten der Blende innerhalb des Sichtfelds der Kameras sein müssen, wie es durch die Reflektoren modifiziert wird. Abhängig von dem Ausführungsbeispiel können sich Reflektoren zwischen Positionen bewegen oder drehen. Alternativ kann ein nichtbeweglicher Reflektor verwendet werden. Der Reflektor kann beispielsweise aus einem Material sein, dass elektrisch gesteuert werden kann, so dass es stärker reflektierend oder stärker durchlässig ist. Bei einem anderen Ausführungsbeispiel arbeitet der Reflektor als halbdurchscheinender Spiegel oder Strahlteiler, der es ermöglicht, dass etwas Licht durchgelassen wird (für Berührungsbildschirmverwendung) und etwas übertragen wird (für Webcamnutzung).
-
Bei dem dargestellten Ausführungsbeispiel wird Infrarotstrahlung im Berührungsbildschirm-Modus verwendet und sichtbares Licht wird im Webcam-Modus verwendet. Andere Ausführungsbeispiele nutzen dieses geteilte Spektrum, um einen nicht-modalen Betrieb zu ermöglichen oder Modenwechseln durch Wechseln von Spektren zu ermöglichen. Bei dem dargestellten Ausführungsbeispiel können Reflektoren in Position zwischen einem IR-Cut-Filter und einer Kamera bewegt werden. Bei einem alternativen Ausführungsbeispiel nutzen die Emitter und Berührungsbildschirmfunktionalität ein sichtbares statt eines IR-Spektrums. Dies ermöglicht es, dass ein IR-Cut-Filter mit der Kamera gekoppelt wird; anstatt durch den Reflektor von der Kamera getrennt zu werden. Anstatt die Emitter zusammen mit den Kameras anzuordnen, kann die Blende emittierend sein (entweder IR- oder sichtbares Spektrum). Bei einem anderen Ausführungsbeispiel werden Kameras gemäß dem Modus gedreht; bei diesem Ausführungsbeispiel sind keine Reflektoren erforderlich. Diese und andere Variationen und Modifikationen zu dem dargestellten Ausführungsbeispiel werden durch die vorliegende Erfindung ermöglicht, deren Schutzbereich durch die folgenden Ansprüche definiert ist.
-
Zusammenfassung
-
Ein Anzeigesystem hat mehrere Kameras mit Sichtfeldern, die sich mehr orthogonal als parallel zu einem Anzeigebildschirm erstrecken, zum Betrachten von fernen Objekten. Reflektoren richten Berührungsbildschirmlicht von einer Richtung entlang dem Anzeigebildschirm zu einer Richtung zu den Kameras hin um. Ein Videoprozessor lokalisiert eine 2D-Position relativ zu dem Anzeigebildschirm eines Objekts nahe zu dem Anzeigebildschirm als eine Funktion von Bildern, die ansprechend auf das Berührungsbildschirmlicht durch die Kameras erzeugt werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Nicht-Patentliteratur
-