AT520234B1 - Vorrichtung zur interaktiven Präsentation von visuellen Inhalten - Google Patents

Vorrichtung zur interaktiven Präsentation von visuellen Inhalten Download PDF

Info

Publication number
AT520234B1
AT520234B1 ATA50624/2017A AT506242017A AT520234B1 AT 520234 B1 AT520234 B1 AT 520234B1 AT 506242017 A AT506242017 A AT 506242017A AT 520234 B1 AT520234 B1 AT 520234B1
Authority
AT
Austria
Prior art keywords
camera
area
region
projection surface
image data
Prior art date
Application number
ATA50624/2017A
Other languages
English (en)
Other versions
AT520234A1 (de
Inventor
Ulrich Emanuel Andel Mag
Original Assignee
Ulrich Emanuel Andel Mag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ulrich Emanuel Andel Mag filed Critical Ulrich Emanuel Andel Mag
Priority to ATA50624/2017A priority Critical patent/AT520234B1/de
Priority to PCT/EP2018/070388 priority patent/WO2019020782A1/de
Publication of AT520234A1 publication Critical patent/AT520234A1/de
Application granted granted Critical
Publication of AT520234B1 publication Critical patent/AT520234B1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Vorrichtung zur interaktiven Präsentation von visuellen Inhalten umfassend einen Speicher (1) zur Bereitstellung der visuellen Inhalte, eine Projektionsfläche, einen mit dem Speicher (1) verbundenen Projektor (3), eine Kamera (4) zur Erfassung zumindest eines in einem Interaktionsbereich befindlichen Objekts, sowie eine mit dem Speicher (1) und der Kamera (4) verbundene Auswerteeinheit (6) die zur Verarbeitung des durch die Kamera (4) aufgenommenen Bildes des Interaktionsbereichs und zur Erstellung von Bilddaten eingerichtet ist, wobei der Interaktionsbereich zumindest einen ersten Bereich (7) und einen zweiten Bereich (8) aufweist und die Auswerteeinheit (6) dazu ausgebildet ist, die Bilddaten aus dem ersten Bereich (7) und aus dem zweiten Bereich (8) in unterschiedlicher Form auszuwerten, wobei die Projektionsfläche eine zumindest teilweise für sichtbares Licht transparente Fläche oder Scheibe, beispielsweise ein Schaufenster (2) ist, und wobei auf der Projektionsfläche, vorzugsweise auf der dem Projektor (3) zugewandten Seite der Projektionsfläche, eine zumindest teiltransparente holographische Folie (9) vorzugsweise mit einem Transparenzgrad zwischen 90% und 100% aufgebracht ist. Ferner betrifft die Erfindung ein Verfahren zu interaktiven Präsentation von visuellen Inhalten mit einer derartigen Vorrichtung.

Description

Beschreibung
VORRICHTUNG ZUR INTERAKTIVEN PRÄSENTATION VON VISUELLEN INHALTEN
[0001] Die Erfindung betrifft eine Vorrichtung zur interaktiven Präsentation von visuellen Inhalten umfassend einen Speicher zur Bereitstellung der visuellen Inhalte, eine Projektionsfläche, einen mit dem Speicher verbundenen Projektor zum Projizieren der visuellen Inhalte auf die Projektionsfläche, eine Kamera zur Erfassung zumindest eines in einem Interaktionsbereich befindlichen Objekts, vorzugsweise zumindest einer Person, sowie eine mit dem Speicher und der Kamera verbundene Auswerteeinheit die zur Verarbeitung des durch die Kamera aufgenommenen Bildes des Interaktionsbereichs und zur Erstellung von Bilddaten eingerichtet ist.
[0002] Darüber hinaus betrifft die Erfindung ein Verfahren zur interaktiven Präsentation von visuellen Inhalten.
[0003] Dem Stand der Technik sind gattungsgemäß Vorrichtungen zur interaktiven Präsentation von visuellen Inhalten zu entnehmen. Insbesondere sind Vorrichtungen bekannt, welche Mittel zur Erfassung, Projektion und Auswertung enthalten und die Interaktion einer Person mit den dargestellten visuellen Inhalten erlauben. Dabei wird die Bewegung der Person in einem definierten Interaktionsbereich erfasst und ausgewertet wobei der dargestellte Inhalt in Abhängigkeit der Position der Person angepasst wird.
[0004] Derartige Präsentationsvorrichtungen leiden jedoch darunter, dass die Interaktionen des Benutzers im Interaktionsbereich nicht eindeutig erkennbar sind, insbesondere bei der gleichzeitigen Ausführung von Interaktionen.
[0005] Aufgabe der Erfindung ist es unter anderem, die Nachteile des Standes der Technik zu überwinden und eine Vorrichtung zur Präsentation von visuellen Inhalten zu schaffen, die die gleichzeitige Ausführung mehrerer Interaktionsabläufe ermöglicht.
[0006] Diese und weitere Aufgaben werden erfindungsgemäß durch die unabhängigen Patentansprüche gelöst.
[0007] Erfindungsgemäß ist vorgesehen, dass der Interaktionsbereich zumindest einen ersten Bereich und einen zweiten Bereich aufweist und die Auswerteeinheit dazu ausgebildet ist, die Bilddaten aus dem ersten Bereich und aus dem zweiten Bereich in unterschiedlicher Form auszuwerten. Dabei ist die Erfassung und Auswertung nicht auf ein einziges Objekt, beispielsweise eine Person, beschränkt: Es können im Interaktionsbereich beliebig viele Objekte, insbesondere Personen, erfasst werden. Auch im ersten Bereich und zweiten Bereich ist die Auswerteeinheit nicht auf ein einziges Objekt beschränkt, sondern kann grundsätzlich auch mehrere Objekte in diesen Bereichen erfassen.
[0008] Dadurch ergibt sich der Vorteil, dass die Interaktionen in unterschiedlichen Bereichen auf unterschiedliche Art verarbeitet werden können. Beispielsweise kann die Handbewegung einer Person unabhängig von der Position der Person detektiert werden.
[0009] Erfindungsgemäß kann vorgesehen sein, dass die Projektionsfläche eine im Wesentlichen ebene Fläche, beispielsweise ein Arbeitstisch, oder eine unebene Fläche, beispielsweise ein Architekturmodell, ist.
[0010] Erfindungsgemäß ist vorgesehen, dass die Projektionsfläche eine zumindest teilweise für sichtbares Licht transparente Fläche oder Scheibe, beispielsweise ein Schaufenster ist. Beispielsweise kann der visuelle Inhalt direkt auf ein Schaufenster eines Geschäftslokals projiziert werden, und der Benutzer kann mit seinen Interaktionen direkt die auf dem Schaufenster dargestellten Inhalte beeinflussen.
[0011] Erfindungsgemäß kann weiters vorgesehen sein, dass der erste Bereich angrenzend an die Projektionsfläche oder in einem Abstand von vorzugsweise unter 5cm zur Projektionsfläche angeordnet ist. Es wird dadurch ermöglicht, Interaktionen, die im Nahbereich der Projektionsfläche stattfinden, dem ersten Bereich zuzuordnen.
[0012] Beispielsweise kann dadurch eine Touchscreen-ähnliche Funktion realisiert werden, indem Bewegungen, die im ersten Bereich stattfinden von der Auswerteeinheit als Auswahlvorgang interpretiert werden.
[0013] Auf der Projektionsfläche können im ersten Bereich in beliebiger Anzahl, Größe und Position Schaltflächen in Form von Trackingzonen definiert werden. Die Interaktionsmöglichkeiten dieser Trackingzonen sind dabei frei definierbar.
[0014] Erfindungsgemäß kann weiters vorgesehen sein, dass der erste Bereich und der zweite Bereich nicht überlappen. Es wird damit eine definierte Trennung zwischen den beiden Bereichen erreicht. Interaktionen werden können eindeutig lokalisiert werden, was eine möglichst fehlerfreie Verarbeitung der Bilddaten erlaubt.
[0015] Erfindungsgemäß kann auch vorgesehen sein, dass neben dem ersten und zweiten Bereich weitere Bereiche vorgesehen sind. Insbesondere kann vorgesehen sein, dass eine beliebige Anzahl von Bereichen vorgesehen sind, die mittels dreidimensionaler Koordinaten parametrisierbar sind und vorzugsweise nicht überlappen, sodass die Bilddaten aus diesen Bereichen in unterschiedlicher Form ausgewertet werden können.
[0016] Erfindungsgemäß ist vorgesehen, dass auf der Projektionsfläche, vorzugsweise auf der dem Projektor zugewandten Seite der Projektionsfläche, eine zumindest teiltransparente holographische Folie vorzugsweise mit einem Transparenzgrad zwischen 90% und 100% aufgebracht ist. Es wird dadurch eine Darstellung der projizierten visuellen Inhalte auf einer zumindest teilweise transparenten Oberfläche, wie beispielsweise einem Schaufenster, ermöglicht.
[0017] Erfindungsgemäß kann weiters vorgesehen sein, dass der Projektor ausgebildet ist, um an der auf der Projektionsfläche angebrachten holographischen Folie eine dreidimensionale visuelle Darstellung zu generieren. Durch die Verwendung einer holographischen Folie ist eine für die betrachtende Person realitätsnahe Darstellung der visuellen Inhalte möglich. Dennoch ist die Scheibe zumindest teilweise transparent, um den Eindruck eines Schaufensters zu erhalten.
[0018] Erfindungsgemäß kann weiters vorgesehen sein, dass die Kamera eine 3D-Kamera, insbesondere eine Tiefenbildkamera, vorzugsweise eine Time of Flight (TOF)-Kamera, eine streifenlichtoptometrische Kamera, oder eine stereoskopische Kamera ist, wobei die Kamera wenigstens eine Auflösung von 160x120 Pixel und wenigstens eine Bildwiederholrate von 20 Bildern/Sekunde aufweist. Dabei wird zu jedem Bildpunkt eines Bildes auch dessen Entfernung zur Kamera festgestellt.
[0019] Es wird dadurch eine Positionsbestimmung der Person durch Verwendung einer einzelnen Kamera ermöglicht, was den technischen Aufwand der Vorrichtung im Vergleich zu anderen Aufnahmetechniken, insbesondere derer, welche die Methode der Triangulation unter Verwendung von wenigstens zwei Kameras verwenden, reduziert. Ferner wird die zu verarbeitende Datenmenge reduziert und die Qualität der Detektion kann verbessert werden.
[0020] Erfindungsgemäß kann weiters vorgesehen sein, dass die Auswerteeinheit dazu ausgebildet ist, den vom Projektor projizierten visuellen Inhalt in Echtzeit in Reaktion auf die Bilddaten aus dem ersten Bereich, aus dem zweiten Bereich, oder aus beiden Bereichen anzupassen. Dies erlaubt eine verzögerungsfreie Anpassung der Bewegungen der Person an die dargestellten visuellen Inhalte, beispielsweise eine gleichzeitige Veränderung der Darstellung während sich die Person im Interaktionsbereich bewegt.
[0021] Erfindungsgemäß kann vorgesehen sein, dass die Hardwarekomponenten, also insbesondere der Speicher, der Projektor, die Kamera und die Auswerteeinheit in einem einzigen Gehäuse integriert und mit einer zentralen Energieversorgung versehen sind. Dadurch ergibt sich eine einfache Montage der erfindungsgemäßen Vorrichtung.
[0022] Aus dem Stand der Technik sind für gattungsgemäße Vorrichtungen Verfahren zur interaktiven Präsentation von visuellen Inhalten bekannt, bei denen zunächst visueller Inhalt auf eine Projektionsfläche projiziert wird, und danach zumindest ein Objekt, vorzugsweise zumindest eine Person, innerhalb eines Interaktionsbereichs durch eine Kamera erfasst wird und sodann die Auswertung des durch die Kamera aufgenommenen Bildes und eine Erstellung von Bilddaten erfolgt. Derartige Verfahren haben die oben beschriebenen Nachteile.
[0023] Eine Aufgabe der Erfindung besteht somit auch darin, bekannte Verfahren zur interaktiven Präsentation derartiger visueller Inhalte auf einer Präsentationsfläche derart zu verbessern, dass die gleichzeitige Ausführung mehrerer komplexer Interaktionsabläufe ermöglicht wird.
[0024] Diese Aufgabe wird erfindungsgemäß dadurch gelöst, dass der Interaktionsbereich zumindest einen ersten Bereich und zumindest einen zweiten Bereich aufweist, und die Bilddaten aus dem ersten Bereich und aus dem zweiten Bereich in unterschiedlicher Form ausgewertet werden. Dadurch können auch komplexe Bewegungsabläufe, insbesondere mehrere gleichzeitige Bewegungen einer oder mehrerer Person, detektiert werden. Ferner umfasst die Projektionsfläche erfindungsgemäß eine zumindest teiltransparente holographische Folie.
[0025] Erfindungsgemäß kann weiters vorgesehen sein, dass in einem weiteren Verfahrensschritt der projizierte visuelle Inhalt in Abhängigkeit von den ausgewerteten Bilddaten angepasst wird.
[0026] Erfindungsgemäß kann weiters vorgesehen sein, dass der erste Bereich angrenzend an die Projektionsfläche oder in einem Abstand von vorzugsweise unter 5cm zur Projektionsfläche angeordnet ist. Zu diesem Zweck kann erfindungsgemäß vorgesehen sein, dass bei der Erfassung eines Objekts im ersten Interaktionsbereich der Bereich in einem Abstand von vorzugsweise unter 5cm zur Projektionsfläche gesondert vom zweiten Interaktionsbereich ausgewertet wird.
[0027] Erfindungsgemäß kann weiters vorgesehen sein, dass eine Positionsbestimmung des Objekts im Interaktionsbereich aus den Bilddaten durch ein rechnerisches Verfahren, vorzugsweise durch ein Pointcloud-Segmentierungsverfahren oder durch Skeletontracking erfolgt.
[0028] Dadurch wird eine fehlerarme und effiziente Verfolgung von Objekten im Interaktionsraum ermöglicht. Es können auch einzelne Körperteile von im Interaktionsraum befindlichen Personen, beispielsweise Hände, Finger, oder der Kopf unabhängig voneinander erkannt werden.
[0029] Im Vergleich zum Pointcloud-Segmentierungsverfahren ist beim Skeletontracking die Ersterkennung der Benutzer zwar langsamer, jedoch bietet das Verfahren erweiterte Möglichkeiten der Steuerung in unmittelbarer Nähe der Projektionsfläche.
[0030] Erfindungsgemäß kann weiters vorgesehen sein, dass das rechnerische Verfahren in Echtzeit erfolgt sodass eine Verfolgung der Bewegung des Objekts im Interaktionsbereich ermöglicht wird. Erfindungsgemäß kann weiters vorgesehen sein, dass die Bilddaten aus dem ersten Bereich zur Steuerung des visuellen Inhalts und die Bilddaten aus dem zweiten Bereich zur Anpassung des visuellen Inhalts an die Position des Objekts verwendet werden.
[0031] Beispielsweise können die dem ersten Bereich zugeordneten Bewegungsdaten als Auswahlfunktion, jedoch nicht notwendigerweise unter physischer Interaktion mit der Projektionsfläche, interpretiert werden.
[0032] Dadurch kann für den Benutzer das Vorhandensein eines Touchscreens simuliert werden. Die dem zweiten Bereich zugeordneten Bewegungen führen beispielsweise lediglich zu einer Anpassung der Darstellung an die Bewegung. Insbesondere kann eine Anpassung, beispielsweise Drehung, Bewegung oder Skalierung eines projizierten Inhalts erfolgen, wenn sich die Person im Interaktionsbereich bewegt. Dies kann genutzt werden, um ein Schaufenster möglichst realitätsnah zu simulieren.
[0033] Erfindungsgemäß kann vorgesehen sein, dass eine Analyse der Bilddaten durchgeführt wird, um das Benutzerverhalten zu detektieren. Insbesondere kann zwischen der Benutzung durch aktive Benutzer des Interaktionsbereichs und sonstigen Personen, die erfasst werden, unterschieden werden. Durch die Auswerteeinheit kann beispielsweise folgendes Benutzerverhalten von aktiven Benutzern erfasst werden: Wie viele Benutzer waren aktiv und wann fanden diese Interaktion statt, wie lange dauerten die Interaktion in ersten Bereich (Nahbereich) und im zweiten Bereich (Fernbereich), mit welchen Inhalten wurde im Nahbereich interagiert, wie lang war die durchschnittliche Verweildauer. Von den weiteren Personen, die durch das erfindungsgemäße Verfahren erfasst wurden, können beispielsweise folgende Parameter analysiert werden: Wann wurden sie detektiert, wie viele Personen wurden detektiert, und wie lange waren sie im jeweiligen Bereich.
[0034] Weitere erfindungsgemäße Merkmale ergeben sich aus den Patentansprüchen, der Beschreibung der Ausführungsbeispiele, sowie den Figuren.
[0035] Die Erfindung wird nun an Hand eines exemplarischen Ausführungsbeispiels näher erläutert. Es zeigen: [0036] Fig. 1 eine schematische Ansicht eines Ausführungsbeispiels einer erfindungs gemäßen Vorrichtung; [0037] Fig. 2 eine schematische Ansicht des Ausführungsbeispiels aus Fig. 1 von oben; [0038] Figs. 3a - 3b ein schematisches Flussdiagramm einiger Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
[0039] Fig. 1 zeigt eine schematische Ansicht eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung. Fig. 2 zeigt dasselbe Ausführungsbeispiel in einer Darstellung von oben. Dargestellt ist ein Projektor 3 sowie eine Kamera 4, die sich in einem gemeinsamen Gehäuse befinden und jeweils mit einem Speicher 1 und einer Auswerteeinheit 6 verbunden sind. Auswerteeinheit 6 und Speicher 1 sind in diesem Ausführungsbeispiel in Form eines PCs realisiert. In diesem Ausführungsbeispiel sind sämtliche Hardwarekomponenten in einem einzigen Gehäuse angeordnet, sodass nur eine einzige zentrale Energieversorgung erforderlich ist. Der Interaktionsbereich benötigt keine Energieversorgung.
[0040] Beabstandet von dem Projektor 3 und der Kamera 4 ist eine Projektionsfläche in Form eines Schaufensters 2 angeordnet. Der Projektor 3 und die Kamera 4 befinden sich in diesem Ausführungsbeispiel etwas oberhalb des mittleren Bereichs des Schaufensters 2, beispielsweise an einer Decke des Verkaufsraums eines Geschäftslokals.
[0041] In diesem Ausführungsbeispiel ist die Scheibe des Schaufensters 2 in einfach verglaster Form ausgeführt. In anderen Ausführungsbeispielen kann diese jedoch auch Doppel- oder Mehrfachverglasung aufweisen.
[0042] Bei der Kamera 4 handelt es sich um eine 3D-Kamera, nämlich eine Tiefenbildkamera, oder Time of Flight (TOF)-Kamera, eine streifenlichtoptometrische Kamera, oder eine stereoskopische Kamera. Die Kamera ist in bekannter Weise dazu eingerichtet, für jeden Bildpunkt die Entfernung des abgebildeten Objektes zu bestimmen.
[0043] Im vorliegenden Ausführungsbeispiel weist die Kamera 4 eine Auflösung von 160x120 Pixel und eine Bildwiederholrate von 20 Bildern/Sekunde auf.
[0044] Der Speicher 1, der Projektor 3, die Kamera 4, sowie die Auswerteeinheit 6 sind in diesem Ausführungsbeispiel in einem einzigen Gehäuse verbaut und besitzen eine einzige gemeinsame Energieversorgung. In anderen Ausführungsbeispielen kann auch vorgesehen sein, dass Speicher 1 und/oder Auswerteeinheit 6 getrennt von dem Projektor 3 und der Kamera 4 angeordnet sind und mit diesen über eine insbesondere drahtlose Datenverbindung in Verbindung stehen. Speicher 1 und Auswerteeinheit 6 können beispielsweise auf einem Server im Internet realisiert sein.
[0045] Auf der dem Projektor 3 abgewandten Seite des Schaufensters 2 sind zwei dreidimensionale Bereiche vorgesehen, nämlich ein erster Bereich 7 in unmittelbarer Nähe des Schaufensters 2 und ein zweiter Bereich 8 beabstandet zum ersten Bereich 7. Schematisch ist eine Person 5 im zweiten Bereich 8 angedeutet. Die Bereiche 7, 8 sind durch den Aufnahmebereich bzw. Aufnahmewinkel der Kamera 4 bestimmt, mit anderen Worten, Objekte innerhalb der Bereiche 7, 8 befinden sich im Bildbereich der Kamera 4.
[0046] Im vorliegenden Ausführungsbeispiel ist der erste Bereich 7 leicht beabstandet von der dem Projektor 3 abgewandten Seite des Schaufensters 2 angeordnet. Der Abstand beträgt etwa 1 cm. In einem nicht dargestellten, weiteren Ausführungsbeispiel der Erfindung ist der erste Bereich 7 unmittelbar angrenzend an diese Seite angeordnet.
[0047] Der erste Bereich 7 erstreckt sich in diesem Ausführungsbeispiel etwa 5 cm, sodass eine Handbewegung eines Benutzers in diesem ersten Bereich 7 detektierbar ist.
[0048] Der Abstand der ersten Bereichs 7 vom zweiten Bereich 8 beträgt etwa 10cm und kann bis zu 30cm betragen, um sicherzustellen, dass die Handbewegung einer Person unabhängig von der Position der Person erkannt werden kann.
[0049] In diesem Ausführungsbeispiel bleiben die Position sowie die Möglichkeit der Interaktion mit dem ersten Bereich 7 und dem zweiten Bereich 8 zu jedem Zeitpunkt konstant. So wird beispielsweise nicht die Funktionalität des zweiten Bereichs 8 eingeschränkt, wenn im ersten Bereich 7 ein Objekt detektiert wird.
[0050] Die Auswerteeinheit 6 ist dazu ausgebildet, den vom Projektor 3 projizierten visuellen Inhalt in Echtzeit in Reaktion auf die durch die Kamera 4 aufgenommenen Bilddaten aus dem ersten Bereich 7, aus dem zweiten Bereich 8, oder aus beiden Bereichen 7 ,8. anzupassen.
[0051] Auf der dem Projektor 3 zugewandten Seite des Schaufensters 2 ist eine holografische Folie 9 angeordnet. Bei dieser Folie 9 handelt es sich in diesem Ausführungsbeispiel um eine teiltransparente holographische Folie mit einem Transparenzgrad zwischen 90% und 100%.
[0052] In diesem Ausführungsbeispiel ist die Folie 9 zwei Meter breit und zwei Meter hoch. In einem alternativen Ausführungsbeispiel kann diese Folie 9 zwei Meter breit und bis zu 50 Meter lang sein. Mehrere Folien können nahtlos aneinander geklebt werden.
[0053] Die in diesem Ausführungsbeispiel dargestellte holographische Folie 9 ist ferner eine permanent klebende und kratzfeste Folie. In einem weiteren Ausführungsbeispiel kann die Folie 9 auch als nicht-permanent klebende Folie ausgeführt sein.
[0054] Der Projektor 3 projiziert auf diese Folie 9 einen visuellen Inhalt, zum Beispiel ein Bild. Das vom Projektor 3 in Richtung zum Schaufenster 2 ausgesandte Lichtsignal ist in strichlierten Linien angedeutet. In diesem Ausführungsbeispiel hat das vom Projektor 3 ausgegebene Bild eine Auflösung von 1024x768 Bildpunkten. Um die Bildqualität zu erhöhen, können auch Projektoren mit höherer Auflösung eingesetzt werden.
[0055] In diesem Ausführungsbeispiel erfolgt die Erkennung des Benutzers mit Hilfe eines Pointcloud-Segmentierungsverfahrens. Die Stabilisierung der Erkennung über lange Zeiträume erfolgt mit einem Shortest-Distance-Algorithmus. In einem anderen Ausführungsbeispiel kann die Benutzerkennung mit Hilfe von Skeletontracking erfolgen.
[0056] Figs. 3a und 3b zeigen ein schematisches Flussdiagramm einiger Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. Die in Fig. 3a dargestellten Schritte werden in der Kamera 4 und in der Auswerteeinheit 6 vorgenommen. Dabei werden zwei voneinander unabhängig definierte Bereiche verwendet, nämlich der erste Bereich 7 in Form des Touch-Bereichs, und der zweite Bereich 8 in Form des Positions-Bereichs 8. Die User-Interaktion wird von der 3D-Kamera aufgenommen und unter Berücksichtigung der beiden Bereiche erfolgt eine Voxel-Filterung. Dabei bezeichnet ein Voxel ein dreidimensionales Pixel mit x-, y- und y-Koordinate. Dabei können herkömmliche Programmbibliotheken eingesetzt werden. Vorab wurden die Eckpunkte der Projektion definiert und die Bilddaten der 3D-Kamera entsprechend kalibriert, sowie die Kalibrationsdaten als Datei im Speicher 1 abgespeichert. Bei der Voxel-Filterung werden im Fernbereich alle Voxel, die näher als eine minimale Entfernung oder weiter als eine maximale Entfernung sind, herausgefiltert. Im Nahbereich werden alle Voxel, die nicht in dem definierten, zu erkennenden Bereich vor der Scheibe sind, verworfen.
[0057] Nach der Voxel-Filterung erfolgt ein Clustering, das heißt eine Segmentierung der nach der Filterung verbliebenen Voxel in Cluster, und zwar jeweils im Fernbereich (zweiter Bereich 8) und Nahbereich (erster Bereich 7). Das Clustering kann auf Grundlage einer beliebigen Norm erfolgen, beispielsweise euklidisch oder nearest neighbour.
[0058] Danach erfolgt eine Filterung der Cluster nach Parameter, wiederum jeweils im Fernbereich und im Nahbereich. Im Fernbereich werden alle Cluster, die nicht den Parametern entsprechen (größer als Maximalgröße oder kleiner als Minimalgröße einer Person) entfernt. Im Nahbereich werden alle Cluster, die nicht den Parametern entsprechen (größer als Maximalgröße oder kleiner als Minimalgröße der zu erkennenden Elemente) entfernt.
[0059] Schließlich werden die Centroide (x-, y-, z-Koordinaten) der verbliebenen Cluster im Fernbereich und Nahbereich bestimmt und ausgegeben. Ein Centroid im Nahbereich wird als Touch-Eingabe interpretiert; ein Centroid im Fernbereich als erkannte Position einer Person. Im Fernbereich wird gegebenenfalls der aktive User bestimmt, beispielsweise auf Grund der Verweildauer vor der Scheibe (am längsten im Sichtbereich) oder der Position zur Scheibe (am nächsten zur Scheibe).
[0060] Die erkannten Centroid-Daten werden über ein Netzwerkprotokoll wie UDP, TCP oder einen Websocket an die Visualisierungskomponente weitergesendet (Fig. 3b). Die Visualisierungskomponente kann beispielsweise durch das Zusammenwirken von Projektor 3, Auswerteeinheit 6 und Speicher 1 realisiert sein. Die Position der Centroide bestimmt die Transformation der 2D oder 3D Objekte, wobei auf Informationen aus dem Speicher 1 zurückgegriffen wird. Über eine virtuelle Kamera erfolgt ein Rendering der Objekte und schließlich die Ausgabe über den Projektor 3.
BEZUGSZEICHENLISTE 1 Speicher 2 Schaufenster 3 Projektor 4 Kamera 5 Person 6 Auswerteeinheit 7 Erster Bereich 8 Zweiter Bereich 9 Holographische Folie

Claims (16)

  1. Patentansprüche
    1. Vorrichtung zur interaktiven Präsentation von visuellen Inhalten umfassend einen Speicher (1) zur Bereitstellung der visuellen Inhalte, eine Projektionsfläche, einen mit dem Speicher (1) verbundenen Projektor (3) zum Projizieren der visuellen Inhalte auf die Projektionsfläche, eine Kamera (4) zur Erfassung zumindest eines in einem Interaktionsbereich befindlichen Objekts, vorzugsweise zumindest einer Person (5), sowie eine mit dem Speicher (1) und der Kamera (4) verbundene Auswerteeinheit (6) die zur Verarbeitung des durch die Kamera (4) aufgenommenen Bildes des Interaktionsbereichs und zur Erstellung von Bilddaten eingerichtet ist, wobei der Interaktionsbereich zumindest einen ersten Bereich (7) und einen zweiten Bereich (8) aufweist und die Auswerteeinheit (6) dazu ausgebildet ist, die Bilddaten aus dem ersten Bereich (7) und aus dem zweiten Bereich (8) in unterschiedlicher Form auszuwerten, wobei die Projektionsfläche eine zumindest teilweise für sichtbares Licht transparente Fläche oder Scheibe, beispielsweise ein Schaufenster (2) ist, dadurch gekennzeichnet, dass auf der Projektionsfläche, vorzugsweise auf der dem Projektor (3) zugewandten Seite der Projektionsfläche, eine zumindest teiltransparente holographische Folie (9) vorzugsweise mit einem Transparenzgrad zwischen 90% und 100% aufgebracht ist.
  2. 2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der erste Bereich (7) angrenzend an die Projektionsfläche oder in einem Abstand von vorzugsweise unter 5cm zur Projektionsfläche angeordnet ist.
  3. 3. Vorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass der erste Bereich (7) und der zweite Bereich (8) nicht überlappen.
  4. 4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Interaktionsbereich eine beliebige Anzahl von Bereichen umfasst, die vorzugsweise nicht überlappen, und wobei die Auswerteeinheit (6) dazu ausgebildet ist, die Bilddaten aus den Bereichen in unterschiedlicher Form auszuwerten.
  5. 5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Projektor (3) ausgebildet ist, um an der auf der Projektionsfläche angebrachten holographischen Folie (9) aus den vom Speicher (1) bereitgestellten visuellen Inhalten eine dreidimensionale visuelle Darstellung zu generieren.
  6. 6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Kamera (4) eine 3D-Kamera, insbesondere eine Tiefenbildkamera, vorzugsweise eine Time of Flight (TOF)-Kamera, eine streifenlichtoptometrische Kamera, oder eine stereoskopische Kamera ist, wobei die Kamera (4) vorzugsweise wenigstens eine Auflösung von 160x120 Pixel und vorzugsweise wenigstens eine Bildwiederholrate von 20 Bildern/Sekunde aufweist.
  7. 7. Vorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Auswerteeinheit (6) dazu ausgebildet ist, den vom Projektor (3) projizierten visuellen Inhalt in Echtzeit in Reaktion auf die Bilddaten aus dem ersten Bereich (7), aus dem zweiten Bereich (8), oder aus beiden Bereichen (7 ,8) anzupassen.
  8. 8. Vorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der Speicher (1), der Projektor (3), die Kamera (4) und die Auswerteeinheit (6) in einem Gehäuse integriert und mit einer zentralen Energieversorgung versehen sind.
  9. 9. Verfahren zur interaktiven Präsentation von visuellen Inhalten, umfassend die folgenden Schritte: a. Projizieren eines visuellen Inhalts auf eine Projektionsfläche umfassend eine zumindest teiltransparente holographische Folie, b. Erfassung zumindest eines Objekts, vorzugsweise zumindest einer Person (5), innerhalb eines Interaktionsbereichs durch eine Kamera (4), sowie Auswertung des durch die Kamera (4) aufgenommenen Bildes und Erstellung von Bilddaten, dadurch gekennzeichnet, dass der Interaktionsbereich zumindest einen ersten Bereich (7) und einen zweiten Bereich (8) aufweist, und die Bilddaten aus dem ersten Bereich (7) und aus dem zweiten Bereich (8) in unterschiedlicher Form ausgewertet werden.
  10. 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass in einem weiteren Schritt der projizierte visuelle Inhalt in Abhängigkeit von den ausgewerteten Bilddaten angepasst wird.
  11. 11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass der erste Bereich (7) angrenzend an die Projektionsfläche oder in einem Abstand von vorzugsweise unter 5cm zur Projektionsfläche angeordnet ist.
  12. 12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass der erste Bereich (7) und der zweite Bereich (8) nicht überlappen.
  13. 13. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass der Interaktionsbereich eine beliebige Anzahl von Bereichen umfasst, die vorzugsweise nicht überlappen, und wobei die Bilddaten aus den Bereichen in unterschiedlicher Form ausgewertet werden.
  14. 14. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass in Schritt b) eine Positionsbestimmung des Objekts im Interaktionsbereich aus den Bilddaten durch ein rechnerisches Verfahren, vorzugsweise durch ein Pointcloud-Segmentierungsverfahren oder durch Skeletontracking erfolgt.
  15. 15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass das rechnerische Verfahren in Echtzeit erfolgt sodass eine Verfolgung der Bewegung des Objekts im Interaktionsbereich ermöglicht wird.
  16. 16. Verfahren nach einem der Ansprüche 9 bis 15, dadurch gekennzeichnet, dass die Bilddaten aus dem ersten Bereich (7) zur Steuerung des visuellen Inhalts und die Bilddaten aus dem zweiten Bereich (8) zur Anpassung des visuellen Inhalts an die Position des Objekts verwendet werden. Hierzu 3 Blatt Zeichnungen
ATA50624/2017A 2017-07-27 2017-07-27 Vorrichtung zur interaktiven Präsentation von visuellen Inhalten AT520234B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ATA50624/2017A AT520234B1 (de) 2017-07-27 2017-07-27 Vorrichtung zur interaktiven Präsentation von visuellen Inhalten
PCT/EP2018/070388 WO2019020782A1 (de) 2017-07-27 2018-07-27 Vorrichtung zur interaktiven präsentation von visuellen inhalten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50624/2017A AT520234B1 (de) 2017-07-27 2017-07-27 Vorrichtung zur interaktiven Präsentation von visuellen Inhalten

Publications (2)

Publication Number Publication Date
AT520234A1 AT520234A1 (de) 2019-02-15
AT520234B1 true AT520234B1 (de) 2019-05-15

Family

ID=63036079

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50624/2017A AT520234B1 (de) 2017-07-27 2017-07-27 Vorrichtung zur interaktiven Präsentation von visuellen Inhalten

Country Status (2)

Country Link
AT (1) AT520234B1 (de)
WO (1) WO2019020782A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1087327A2 (de) * 1999-09-21 2001-03-28 Seiko Epson Corporation Präsentationssystem mit einer interaktiven Darstellung
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US20120274730A1 (en) * 2011-04-26 2012-11-01 Binu Kaiparambil Shanmukhadas Distributed Recording of a Videoconference in Multiple Formats
CN106469531A (zh) * 2015-08-20 2017-03-01 嘉兴市全程信息科技有限公司 一种橱窗展示系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) * 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1087327A2 (de) * 1999-09-21 2001-03-28 Seiko Epson Corporation Präsentationssystem mit einer interaktiven Darstellung
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US20120274730A1 (en) * 2011-04-26 2012-11-01 Binu Kaiparambil Shanmukhadas Distributed Recording of a Videoconference in Multiple Formats
CN106469531A (zh) * 2015-08-20 2017-03-01 嘉兴市全程信息科技有限公司 一种橱窗展示系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VOGEL, DANIEL et al. "Interactive Public Ambient Displays: Transitioning from Implicit to Explicit, Public to Personal, Interaction with Multiple Users" UIST 2004; 24-27 October 2004; Santa Fe, New Mexico, USA; ACM 1-58113-957-8/04/0010; abgerufen im Internet am 28.02.2018 unter URL:<http://www.dgp.toronto.edu/~ravin/papers/ uist2004_ambient.pdf> *

Also Published As

Publication number Publication date
WO2019020782A1 (de) 2019-01-31
AT520234A1 (de) 2019-02-15

Similar Documents

Publication Publication Date Title
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
DE112015005721T5 (de) Elektives paarweises zuordnen einer in einem virtuellen bereich dargestellten anwendung zu einer physischen anzeige
EP2467833A2 (de) Verfahren zur darstellung von virtueller information in einer realen umgebung
WO2019201652A1 (de) Verfahren zur benutzung einer mehrgliedrigen aktuierten kinematik, vorzugsweise eines roboters, besonders vorzugsweise eines knickarmroboters, durch einen benutzer mittels einer mobilen anzeigevorrichtung
DE102014006732B4 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE112014002804T5 (de) Innenanzeigevorrichtung für Fahrzeuge und Programmprodukt
EP3762857A1 (de) Surroundview-system mit angepasster projektionsfläche
DE69715816T2 (de) Videoanzeigesystem zum Darstellen einer virtuellen dreidimensionalen Bildanzeige
DE102017208343B4 (de) Anzeigesystem für ein Fahrzeug und Fahrzeug
AT520234B1 (de) Vorrichtung zur interaktiven Präsentation von visuellen Inhalten
EP3754544A1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren
DE102010052291B4 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen in einem Fahrzeug
DE112018003790T5 (de) Verfahren und System zur Einschätzung einer Kopfhaltung
DE102015011590B4 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
WO2015024685A1 (de) Verfahren zur darstellung eines in einem volumendatensatz abgebildeten objektes auf einem bildschirm
WO2007048674A1 (de) System und verfahren für ein kamerabasiertes tracking
DE102012010799A1 (de) Verfahren zur räumlichen Visualisierung von virtuellen Objekten
DE102019219244B3 (de) Verfahren zur Darstellung von Teilen eines Bildes auf einer Bildschirmanordnung, Computerprogrammprodukt, Kraftfahrzeuganzeigevorrichtung sowie Kraftfahrzeug
DE102020122969B4 (de) Verfahren zur Erkennung einer Bewegung eines Eingabegegenstands gegenüber einer Anzeigevorrichtung über optische Merkmale, Aufnahmevorrichtung mit Recheneinheit, Anzeigevorrichtung und Kraftfahrzeug
DE102004027289A1 (de) Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument
AT503007B1 (de) Verfahren und anordnung zum abbilden eines gegenstandes
DE102016225082A1 (de) Verfahren und Vorrichtung zum Betreiben einer Datenbrille
DE102014011163A1 (de) Vorrichtung zum Anzeigen eines virtuellen Raums und Kamerabildern

Legal Events

Date Code Title Description
MM01 Lapse because of not paying annual fees

Effective date: 20220727