DE102014104415A1 - Aufmerksamkeitserfassung - Google Patents

Aufmerksamkeitserfassung Download PDF

Info

Publication number
DE102014104415A1
DE102014104415A1 DE102014104415.0A DE102014104415A DE102014104415A1 DE 102014104415 A1 DE102014104415 A1 DE 102014104415A1 DE 102014104415 A DE102014104415 A DE 102014104415A DE 102014104415 A1 DE102014104415 A1 DE 102014104415A1
Authority
DE
Germany
Prior art keywords
gaze
focus
person
detected
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014104415.0A
Other languages
English (en)
Inventor
Bernhard Herbst
Thomas Pilarski
Denis Gastreich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Herbstwerbung GmbH
Original Assignee
Herbstwerbung GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Herbstwerbung GmbH filed Critical Herbstwerbung GmbH
Priority to DE102014104415.0A priority Critical patent/DE102014104415A1/de
Publication of DE102014104415A1 publication Critical patent/DE102014104415A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Aufmerksamkeitserfassung von Personen bezüglich eines Objektes im Raum, wobei die Blickrichtung einer Person erfasst und die räumliche Position eines Objektes erfasst und anschließend in Abhängigkeit dieser Daten dann der Blickfokus auf dem Objekt ermittelt wird.

Description

  • Die Erfindung betrifft ein Verfahren und ein System zur Aufmerksamkeitserfassung von Personen bezüglich eines Objektes im Raum.
  • Mit Hilfe sogenannter Blickerfassungsvorrichtung, auch Eye-Tracking-Systeme genannt, die aus dem Stand der Technik hinreichend bekannt sind, lässt sich die Augenbewegung und somit die Blickbewegung einer oder mehrerer Personen erfassen. Mit Hilfe der erfassten Blickbewegung lässt sich somit im Nachgang analysieren, in welche Richtung die Testperson während der Aufzeichnung geschaut hat bzw. in welche Richtung sie ihren Fokus gelegt hat. Mit Hilfe von Eye-Tracking-Verfahren lassen sich darüber hinaus Eingaben vornehmen oder Maschinen steuern.
  • Grundsätzlich unterscheidet man zwei verschiedene Arten von Eye-Tracking-Systemen: sogenannte Remote-Eye-Tracking-Systeme und Mobile-Eye-Tracking-Systeme. Bei den sogenannten Remote-Eye-Tracking-Systemen wird die Erfassung der Blickbewegungen mit Hilfe von geeigneten Messsensoren realisiert, die berührungslos arbeiten und nicht an der Testperson angeordnet werden. Solche Sensoren können beispielsweise in Computermonitore integriert oder neben dem Monitor angebracht sein und dienen in der Regel dazu, die Blickbewegung in Bezug auf Darstellungen auf dem Monitor zu erfassen. Aufgrund der Tatsache, dass der Monitor unbeweglich ist und die auf dem Monitor dargestellten Informationen immer an gleicher Position dargestellt werden, kann durch die feststehenden Sensoren des Remote-Eye-Tracking-Systems die Blickrichtung in Bezug auf die dargestellten Informationen berechnet werden, so dass ermittelbar wird, wo der Blickfokus der Person auf dem Bildschirm liegt. Hierdurch lässt sich ermitteln, wo die Aufmerksamkeit der Person in Bezug auf die dargestellten Informationen liegt, was beispielsweise in der Wahrnehmungspsychologie Auswertung findet.
  • Bei den sogenannten Mobile-Eye-Tracking-Systemen werden hingegen entsprechende Messsysteme an der Testperson selber angeordnet, beispielsweise mit Hilfe eines Gestells am Kopf. Die Messsensoren sind dann in Richtung der Sehorgane der Testperson ausgerichtet, so dass die Augenbewegung entsprechend erfasst werden kann. Häufig werden bei den Mobile-Eye-Tracking-Systemen Videokameras in Richtung des Blickfeldes der Testperson angeordnet, so dass während der Aufnahme eines Videos des Blickfeldes der Testperson mit Hilfe der Sensoren feststellbar wird, in welche Richtung die Testperson innerhalb des Blickfeldes schaut. Denn aufgrund der Tatsache, dass die Ausrichtung der Kamera in das Blickfeld in Bezug auf die Ausrichtung der Messsensoren zur Erfassung der Augenbewegung fix ist, lässt sich problemlos die Augenbewegung in Bezug auf das Blickfeld der Testperson ermitteln und in das aufgenommene Video des Blickfeldes integrieren.
  • In beiden Fällen erfolgt somit die Aufmerksamkeitserfassung in Bezug auf ein in seiner Ausrichtung, Lage und Position vorgegebenes 2D-Blickfeld, so dass nicht automatisiert feststellbar ist, auf welches konkrete Objekt und wo auf dem konkreten Objekt innerhalb des Blickfeldes der Blickfokus liegt. Eine automatisierte Aufmerksamkeitsauswertung bei einer Mehrzahl von Testpersonen ist somit insbesondere bei physischen 3D-Objekten nicht möglich.
  • Es ist daher Aufgabe der vorliegenden Erfindung ein verbessertes Verfahren und eine verbesserte Vorrichtung anzugeben, mit der die Aufmerksamkeit von Personen bezüglich eines Objektes im Raum, das sich insbesondere im Raum frei bewegen lässt, erfassen lässt, so dass eine automatisierte Auswertung möglich wird.
  • Die Aufgabe wird dem Verfahren gemäß Patentanspruch 1 sowie dem System gemäß Patentanspruch 8 erfindungsgemäß gelöst.
  • Erfindungsgemäß wird somit ein Verfahren zur Aufmerksamkeitserfassung von Personen bezüglich eines Objektes im Raum vorgeschlagen, bei dem zunächst die Blickrichtung zumindest einer Person mittels einer Blickerfassungsvorrichtung erfasst wird. Die Blickrichtung ist dabei diejenige Richtung, in die das Sehorgan der Person ausgerichtet ist und in die das Sehorgan fokussiert und somit seine Aufmerksamkeit lenkt. Die Blickrichtung ist somit diejenige Richtung, in die die betreffende Person innerhalb ihres Blickfeldes schaut. Im physikalischen Sinne ist die Blickrichtung eine gerichtete Gerade im Raum, die aus den optischen Blickachsen gemittelt bzw. angenährt wird. Die Blickachsen verlaufen von der linken bzw. rechten Fovea zum Blickfokus. Das Sehorgan kann dabei ein oder zwei Augen umfassen.
  • Parallel dazu wird mit Hilfe einer Objekterfassungsvorrichtung die Position eines Objektes im Raum erfasst. Ein solches Objekt, das sich frei im Raum bewegen lässt, kann beispielsweise ein Katalog, ein Blatt Papier, ein Tablet, ein Smartphone oder andere technische und nicht-technische Gegenstände sein. Die räumliche Position eines solchen Objektes kann beispielsweise mit Hilfe von bekannten 3D-Scannern, welche berührungslos, beispielsweise mittels LIDAR, oder mittels Kameras das Objekt erfassen und die räumliche Position ermitteln können. Dabei kann auch eine Bewegung des Objektes erfasst werden.
  • Mittels einer Recheneinheit, beispielsweise einer Mikroprozessor gesteuerten Datenverarbeitungsanlage, kann nun der Blickfokus der zumindest einen Person auf dem Objekt ermittelt werden, indem in Abhängigkeit von der erfassten Blickrichtung der Person und der erfassten räumlichen Position des Objektes festgestellt wird, wo sich die Blickrichtung auf dem Objekt fokussiert, so dass auf den Blickfokus auf dem Objekt geschlossen werden kann. Damit kann die Fixation auf dem Objekt ermittelt werden. Die Fokussierung auf dem Objekt bzw. der Blickfokus wird durch den Schnittpunkt der Blickrichtung mit dem Objekt ermittelt. Damit kann auf den Blickfokus geschlossen werden und somit unter Zuhilfenahme der Informationszeit die genauen Fixationsorte auf dem Objekt berechnet werden.
  • Damit wird es möglich, bei sich im Raum frei bewegenden Objekten, beispielsweise physischen Objekten oder auf einem Bildschirm veränderbaren Objekten festzustellen, wo der Blickfokus auf dem Objekt tatsächlich liegt. Damit lässt sich feststellen, wo die Testperson bezüglich des Objektes gerade hinschaut, das heißt welchen Teil des Objektes sie gerade betrachtet.
  • Im Bereich der Aufmerksamkeitsanalyse wird es somit möglich, für beliebige Objekte, wie beispielsweise Kataloge, Briefe, Webseiten und ähnlichem, eine automatisierte Aufmerksamkeitserfassung bezüglich des Objektes durchzuführen, um so eine Vielzahl von Testpersonen eine quantifizierte Aufmerksamkeitsanalyse bezüglich des Objektes durchführen zu können. Bei den aus dem Stand der Technik bekannten Verfahren muss dabei immer noch händisch nachgearbeitet werden, was eine automatisierte Durchführung derartiger umfangreicher Aufmerksamkeitsanalysen schlicht unmöglich macht.
  • Die Blickrichtung kann dabei in Bezug auf ein Körperteil der betreffenden Person ermittelt werden, bspw. in Bezug auf den Kopf der Person. Ausgehend von dem Bezug genommenen Körperteil als Ursprung wird die Blickrichtung als Vektor innerhalb eines lokalen Koordinatensystems betrachtet, dass durch das in Bezug genommene Körperteil definiert wird. Durch die Ermittlung der Position des in Bezug genommenen Körperteils innerhalb des globalen Koordinatensystems des erfassten Objektes, kann die Ausrichtung und Position des Vektors in das globale Koordinatensystem umgerechnet werden, so dass der Schnittpunkt der Blickrichtung mit dem Objekt und somit der Blickfokus ermittelt werden kann. Es ist allerdings auch denkbar, dass die Blickrichtung mittels der Blickerfassungsvorrichtung gleich als Vektor mit Ursprung am Körperteil im globalen Koordinatensystem des erfassten Objektes erfasst wird.
  • Vorteilhafterweise wird die Blickrichtung in Bezug auf das Sehorgan der zumindest einen Person mittels der Blickerfassungsvorrichtung erfasst, so dass die Blickrichtung in Form eines Vektors ihren Ursprung an der Position des Sehorganes hat. So ist es beispielsweise denkbar, dass neben der Erfassung der Blickrichtung auch die Position des Sehorgans, insbesondere eines oder beider Augen, erfasst wird, so dass sich aus der Position des Sehorgans in Verbindung mit der Blickrichtung ein Vektor ergibt. Zusammen mit der Position des Objektes im Raum lässt sich dann der Blickfokus auf dem Objekt selbst anhand dieser Messdaten ermitteln. Denkbar sind allerdings auch andere Körperteile, wie bspw. Nasenrücken oder Kopf.
  • Zweckmäßigerweise kann es sich bei der Blickerfassungsvorrichtung um ein Remote-Eye-Tracking-System oder um ein Mobile-Eye-Tracking-System handeln, mit dem die Blickrichtung der zumindest einen Person erfasst wird.
  • In einer vorteilhaften Ausführungsform werden neben der räumlichen Position des Objektes auch weitere Objektdaten mit Hilfe der Objekterfassungsvorrichtung erfasst, und zwar die räumliche Lage des Objektes, die Ausrichtung des Objektes, die Abmessungen des Objektes, die Form des Objektes, eine Verformung des Objektes und/oder die Oberfläche des Objektes. Mittels der Recheneinheit kann nun der Blickfokus auf dem Objekt weiterhin in Abhängigkeit von einem oder mehreren der weiterhin erfassten Objektdaten des Objekts ermittelt werden.
  • So lässt sich beispielsweise durch die räumliche Lage des Objektes feststellen, ob das Objekt gegenüber dem Betrachter gekippt, geneigt oder verdreht ist, wodurch sich unter Umständen ein anderer Blickfokus auf dem Objekt ergeben könnte. Durch das Erfassen der räumlichen Lage kann so dieser Umstand minimiert werden, wobei somit auf die Ermittlung des Blickfokus auf dem Objekt selber auch dann möglich wird, wenn das Objekt von dem Benutzer in der Hand gehalten wird und dabei im Raum bewegt wird.
  • Auch die Erfassung der Ausrichtung des Objektes oder die Abmessungen des Objektes können dazu beitragen, die Genauigkeit bei der Ermittlung des Blickfokus auf dem Objekt selber zu erhöhen. Besonders vorteilhaft ist es auch, wenn die Form des Objektes oder eine Verformung des Objektes mit Hilfe der Objekterfassungseinrichtung ermittelt wird, so dass beispielsweise bei Objekten aus labilen Materialien, wie beispielsweise Papier, die Ermittlung des Blickfokus auf dem Objekt selber auch dann noch genau möglich ist, wenn das Objekt selber von der Person in den Händen gehalten wird und gegebenenfalls verformt wird.
  • In einer vorteilhaften Ausführungsform wird eine blickfokussierte Oberfläche des aus mehreren Oberflächen bestehenden Objektes in Abhängigkeit von einem erfassten optischen Inhaltes der blickfokussierten Oberfläche mittels der Recheneinheit identifiziert. Ein solches Objekt bestehend aus mehreren Oberflächen kann beispielsweise ein Katalog mit vielen Seiten sein. Denkbar ist aber auch, dass es sich bei dem Objekt um einen Brief mit mehreren losen Seiten handelt, wobei mit Hilfe der Recheneinheit, beispielsweise mit Hilfe eines der Recheneinheit ablaufenden Bildverarbeitungsprogramms, der Inhalt jeder Seite als eigene Oberfläche erkannt wird. Somit lässt sich jede Seite des aus mehreren Seiten beziehungsweise Oberflächen bestehenden Objektes identifizieren, so dass der bezüglich einer Oberfläche beziehungsweise Seite ermittelte Blickfokus dieser entsprechenden Oberfläche zugeordnet werden kann. Daraus lässt sich dann im Nachgang für jede Oberfläche beziehungsweise Seite des Objektes ein entsprechender Blickfokus beziehungsweise Blickfokusverlauf ermitteln, so dass auch Objekte bestehend aus mehreren Seiten oder Oberflächen automatisch analysiert werden können. Ein Objekt mit dynamischem Inhalt kann beispielsweise ein Tablet oder ein Computerbildschirm mit wechselndem Bildschirminhalt sein, dessen Oberfläche mittels geräteseitigem Captaring oder externer Aufnahme aufgezeichnet und somit die Analyse zugänglich gemacht wird.
  • So ist es beispielsweise vorteilhaft, wenn in Abhängigkeit einer Mehrzahl von ermittelten Blickfokussen ein Blickfokusverlauf mittels der Recheneinheit ermittelt wird, der beispielsweise der Augenbewegung bei der Betrachtung des Objektes entsprechend kann. Hierdurch lässt sich feststellen, wo und vor allem wie lange und wie oft die Testperson auf dem Objekt fokussiert hat. Hieraus lässt sich dann beispielsweise ableiten, in welchen Regionen des betrachteten Objektes die Person ihre Aufmerksamkeit gelegt hat.
  • In einer weiteren vorteilhaften Ausführungsform wird der Blickfokus beziehungsweise der Blickfokusverlauf jeweils für eine Mehrzahl von Personen bezüglich ein und desselben Objektes ermittelt, wobei mittels der Recheneinheit dann ein aggregierter Blickfokus beziehungsweise Blickfokusverlauf ermittelt werden kann, indem die von den unterschiedlichen Personen stammenden Blickfokusse beziehungsweise Blickfokusverläufe zusammengefasst werden, bspw. durch statistische Auswertung. So lässt sich automatisiert die Aufmerksamkeit einer Vielzahl von Personen bezüglich eines Objektes zusammenfassen, so dass beispielsweise festgestellt werden kann, in welchen Regionen des zu betrachtenden Objektes im Durchschnitt die meiste Aufmerksamkeit beim Betrachten gelegt wird.
  • In einer vorteilhaften Ausführungsform werden die über Blickfokus und Zeit ermittelten Fixationen, Fixationsorte und die Fixationsdauer auf dem dreidimensionalen Objekt ermittelt, so dass sich statistisch genau ableiten lässt, wie lange eine Testperson ihren Blickfokus auf dem Objekt gerichtet hatte.
  • Die Erfindung wird anhand der beigefügten Figur beispielhaft näher erläutert. Es zeigt:
  • 1 – schematische Darstellung eines Systems zur Aufmerksamkeitserfassung von Personen
  • 1 zeigt schematisch ein System 1, mit dem die Aufmerksamkeit einer Testperson 2 ermittelt werden soll. Hierzu weist das System 1 ein Remote-Eye-Tracking-System 3 auf, das im Ausführungsbeispiel der 1 aus zwei feststehenden Sensoren 3a, 3b gebildet wird. Die Sensoren 3a, 3b des Remote-Eye-Tracking-Systems 3 sind dabei nicht mit der Testperson 2 verbunden oder an dieser angeordnet und arbeiten berührungslos.
  • Alternativ zu dem Remote-Eye-Tracking-System 3 ist es auch denkbar, ein Mobile-Eye-Tracking-System zu verwenden, das in der Regel an den Kopf der Testperson 2 angeordnet wird, um so die Blickrichtung 4 zu erfassen.
  • Mit Hilfe des Remote-Eye-Tracking-Systems 3 und seinen Sensoren 3a, 3b kann nun die Blickrichtung 4 der beiden Augen 5 der Testperson 2 ermittelt werden, die sich in der schematischen Darstellung der 1 in Form von Vektoren darstellen lassen. Dabei kann das System derart eingerichtet sein, dass neben der Erfassung der Blickrichtung 4 auch die Position der Augen 5 als Sehorgan im Raum miterfasst wird, so dass sich ausgehend von der Position der Augen 5 im Raum ein konkret positionierter Vektor als Blickrichtung 4 ermitteln lässt. Ausgangspunkt sowie Richtung im Raum liegen somit als entsprechende Messdaten vor und definieren so die Blickrichtung 4. Die Position der Augen 5 kann bspw. mittels der Objekterfassungsvorrichtung 6 oder einem zusätzlichem, nicht dargestellten Erfassungssystem ermittelt werden.
  • Mit Hilfe einer Objekterfassungsvorrichtung 6 lässt sich darüber hinaus die räumliche Position des Objektes 7, das von der Testperson 2 betrachtet wird, ermitteln. Dabei kann sich während der Erfassung sämtlicher Daten die räumliche Position des Objektes 7 selbstverständlich verändern, indem das Objekt 7 von der Testperson 2 angefasst und bewegt wird. Außerdem lässt sich mit Hilfe der Objekterfassungsvorrichtung 6 neben der räumlichen Position des Objektes 7 auch die Lage des Objektes 7 innerhalb des Raumes sowie auch eine Verformung, eine Ausrichtung, die Abmessungen des Objektes 7 und ähnliches erfassen.
  • Diese Daten werden nun in eine Recheneinheit 8 eingespeist, wobei die Recheneinheit 8 eingerichtet ist, anhand der erfassten Blickrichtung 4 sowie anhand der erfassten räumlichen Position und gegebenenfalls weitere Objektdaten des Objektes 7 den Blickfokus 9 auf dem Objekt 7 zu ermitteln. Der Blickfokus 9 ist dabei derjenige Bereich auf dem Objekt, auf den die Person 2 ihr Sehorgan fokussiert.
  • So kann beispielsweise das System des Weiteren so eingerichtet sein, dass beispielsweise mittels der Objekterfassungsvorrichtung 3 oder mittels der Objekterfassungsvorrichtung 6 oder einem anderen Erfassungssystem der Abstand der Augen 5 ermittelt wird, um so beispielsweise eine automatische Paralax-Korrektur der Blickrichtung 4 durchzuführen, um so die Genauigkeit bei der Ermittlung des Blickfokus 9 zu erhöhen.
  • Mit Hilfe der vorliegenden Erfindung wird es somit möglich, dass der Blickfokus 9 auf dem Objekt 7 auch dann noch korrekt erfasst werden kann, wenn das Objekt 7 im Raum bewegt wird. Darüber hinaus lässt sich mit automatischen Analyseverfahren entsprechende Aufmerksamkeitsbereiche auf dem Objekt 7 ermitteln. Ein manuelles Nacharbeiten der einzelnen Testreihen ist dann nicht mehr notwendig.
  • Bezugszeichenliste
  • 1
    System
    2
    Blickerfassungsvorrichtung
    3a, 3b
    Sensoren der Blickerfassungsvorrichtung
    4
    Blickrichtung
    5
    Sehorgan
    6
    Objekterfassungsvorrichtung
    7
    Objekt
    8
    Recheneinheit
    9
    Blickfokus

Claims (14)

  1. Verfahren zur Aufmerksamkeitserfassung von Personen bezüglich eines Objektes (7) im Raum, mit a) Erfassen der Blickrichtung (4) zumindest einer Person (2) mittels einer Blickerfassungsvorrichtung (3), b) Erfassen der räumlichen Position eines Objektes (7) im Raum mittels einer Objekterfassungsvorrichtung (6) und c) Ermitteln des Blickfokus (9) der zumindest einen Person (2) auf dem Objekt (7) im Raum in Abhängigkeit von der erfassten Blickrichtung (4) der Person (2) und der erfassten räumlichen Position des Objektes (7) mittels einer Recheneinheit (8).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Blickrichtung (4) in Bezug auf das Sehorgan (5) der zumindest einen Person (2) mittels der Blickerfassungsvorrichtung (3) oder mittels der Objekterfassungsvorrichtung (6) erfasst wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Blickrichtung (4) der zumindest einen Person (2) mittels eines Remote-Eye-Tracking-Systems oder mittels eines Mobile-Eye-Tracking-Systems als Blickerfassungsvorrichtung (3) erfasst wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass neben der räumlichen Position des Objektes im Raum weiterhin die räumliche Lage des Objektes, die Ausrichtung des Objektes, die Abmessungen des Objektes, die Form des Objektes, eine Verformung des Objektes und/oder die Oberfläche des Objektes als Objektdaten mittels der Objekterfassungsvorrichtung (6) erfasst werden, wobei der Blickfokus (9) auf dem Objekt (7) weiter in Abhängigkeit von einem oder mehreren der weiterhin erfassten Objektdaten des Objektes mittels der Recheneinheit ermittelt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine blickfokussierte Oberfläche des aus mehreren Oberflächen bestehenden Objektes in Abhängigkeit von einem erfassten optischen Inhaltes der blickfokussierten Oberfläche mittels der Recheneinheit identifiziert und der ermittelte Blickfokus auf der blickfokussierten Oberfläche des Objektes zu der identifizierten Oberfläche zugeordnet wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Blickfokusverlauf der zumindest einen Person auf dem Objekt über die Zeit aus einer Mehrzahl von ermittelten Blickfokussen mittels der Recheneinheit ermittelt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Blickfokus und/oder Blickfokusverlauf von einer Mehrzahl von Personen bezüglich desselben Objektes ermittelt wird, wobei aus der Mehrzahl von Blickfokussen und/oder Blickfokusverläufen der verschiedenen Personen bezüglich desselben Objektes ein aggregierter Blickfokus und/oder Blickfokusverlauf auf dem Objekt mittels der Recheneinheit ermittelt wird.
  8. System (1) zur Aufmerksamkeitserfassung von Personen bezüglich eines Objektes im Raum mit einer Blickerfassungsvorrichtung (3), die zum Erfassen der Blickrichtung (4) zumindest einer Person (2) ausgebildet ist, eine Objekterfassungsvorrichtung (6), die zum Erfassen der räumlichen Position eines Objektes (7) im Raum ausgebildet ist, und mit einer Recheneinheit (8), die zum Ermitteln des Blickfokus (9) der zumindest einen Person (2) auf dem Objekt (7) im Raum in Abhängigkeit von der erfassten Blickrichtung (4) der Peson (2) und der erfassten räumlichen Position des Objektes (7) eingerichtet ist.
  9. System nach Anspruch 8, dadurch gekennzeichnet, dass die Blickerfassungsvorrichtung oder die Objekterfassungsvorrichtung zum Erfassen der Blickrichtung in Bezug auf das Sehorgan der zumindest einen Person ausgebildet ist.
  10. System (1) nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Blickerfassungsvorrichtung ein Remote-Eye-Tracking-System oder ein Mobile-Eye-Tracking-System ist.
  11. System nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Objekterfassungsvorrichtung zum Erfassen weiterhin der räumlichen Lage des Objektes, der Ausrichtung des Objektes, der Abmessung des Objektes, der Form des Objektes, einer Verformung des Objektes und/oder der Oberfläche des Objektes als Objektdaten ausgebildet ist, wobei die Recheneinheit weiterhin zum Ermitteln des Blickfokus auf dem Objekt in Abhängigkeit von einem oder mehreren erfassten Objektdaten des Objektes eingerichtet ist.
  12. System (1) nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass die Recheneinheit zum Identifizieren einer blickfokussierten Oberfläche des aus mehreren Oberflächen bestehenden Objektes in Abhängigkeit von einem erfassten optischen Inhaltes der blickfokussierten Oberfläche und zum Zuordnen des ermittelten Blickfokus auf der blickfokussierten Oberfläche des Objekts zu der identifizierten Oberfläche eingerichtet ist.
  13. System nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass die Recheneinheit zum Ermitteln eines Blickfokusverlaufes der zumindest einen Person auf dem Objekt über die Zeit aus einer Mehrzahl von ermittelten Blickfokussen eingerichtet ist.
  14. System (1) nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass die Recheneinheit eingerichtet ist, in Abhängigkeit von einer Mehrzahl von Blickfokussen und/oder Blickfokusverläufen unterschiedlicher Personen bezüglich desselben Objektes einen aggregierten Blickfokus und/oder Blickfokusverlauf auf dem Objekt zu ermitteln.
DE102014104415.0A 2014-03-28 2014-03-28 Aufmerksamkeitserfassung Withdrawn DE102014104415A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014104415.0A DE102014104415A1 (de) 2014-03-28 2014-03-28 Aufmerksamkeitserfassung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014104415.0A DE102014104415A1 (de) 2014-03-28 2014-03-28 Aufmerksamkeitserfassung

Publications (1)

Publication Number Publication Date
DE102014104415A1 true DE102014104415A1 (de) 2015-10-01

Family

ID=54066524

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014104415.0A Withdrawn DE102014104415A1 (de) 2014-03-28 2014-03-28 Aufmerksamkeitserfassung

Country Status (1)

Country Link
DE (1) DE102014104415A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008129356A2 (en) * 2006-03-13 2008-10-30 Imotions-Emotion Technology A/S Visual attention and emotional response detection and display system
US20090025023A1 (en) * 2007-06-06 2009-01-22 Neurofocus Inc. Multi-market program and commercial response monitoring system using neuro-response measurements
US20120293407A1 (en) * 2011-05-19 2012-11-22 Samsung Electronics Co. Ltd. Head mounted display device and image display control method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008129356A2 (en) * 2006-03-13 2008-10-30 Imotions-Emotion Technology A/S Visual attention and emotional response detection and display system
US20090025023A1 (en) * 2007-06-06 2009-01-22 Neurofocus Inc. Multi-market program and commercial response monitoring system using neuro-response measurements
US20120293407A1 (en) * 2011-05-19 2012-11-22 Samsung Electronics Co. Ltd. Head mounted display device and image display control method therefor

Similar Documents

Publication Publication Date Title
EP3160326B1 (de) Verfahren für eine sehschärfebestimmung
WO2009129916A1 (de) Darstellung von ergebnissen einer vermessung von werkstücken in abhängigkeit der erfassung der geste eines nutzers
DE102007054819A1 (de) Überwachungssystem mit Zustandserfassungsmodul, Verfahren zur Selbstüberwachung eines Beobachters sowie Computerprogramm
DE112014003563T5 (de) Vorrichtung und Verfahren zur Gestenbestimmung, Gestenbedienungsvorrichtung, Programm und Aufzeichnungsmedium
AT505338A1 (de) Verfahren zur wahrnehmungsmessung
DE102011050942A1 (de) Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking
EP3168783A1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
EP3195052B1 (de) Verfahren zur messgenauen bestimmung von zentriertdaten eines probanden zur anpassung einer brille an den probanden und immobiles videozentriersystem
DE102016222202A1 (de) Analyseapparat und analyseverfahren
EP3123278B1 (de) Verfahren und system zum betreiben einer anzeigevorrichtung
EP3730036A1 (de) Bestimmung eines refraktionsfehlers eines auges
DE102014112494A1 (de) Vorrichtung zur Erfassung biometrischer Merkmale eines Gesichts einer Person
EP2849026A1 (de) Daten- und/oder Kommunikationsgerät sowie Verfahren zu dessen Steuerung
DE102013202658A1 (de) Verfahren und Vorrichtung zur Bestimmung der Abmessungen von Gegenständen
DE102014107211A1 (de) Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
DE102017215074A1 (de) Verfahren und Auswahleinheit zum Auswählen eines virtuellen Objekts oder eines Bildparameterwerts
WO2009027307A1 (de) VERFAHREN ZUR AUTOMATISCHEN ERKENNUNG WENIGSTENS DER ART UND/ODER DER LAGE EINER MIT EINER GLIEDMAßE GEBILDETEN GESTE, INSBESONDERE EINER HANDGESTE
DE102014104415A1 (de) Aufmerksamkeitserfassung
DE102019219479A1 (de) System und verfahren zur zyklusdauermessung in wiederholten aktivitätssequenzen
DE102014009699A1 (de) Verfahren zum Betreiben einer Anzeigeeinrichtung und System mit einer Anzeigeeinrichtung
WO2015192997A1 (de) Verfahren zur personenidentifizierung
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
DE102011088492A1 (de) Navigationssystem mit einer verbesserten Kartendarstellung
DE102012108626B4 (de) Anzeigevorrichtung mit einem richtungsabhängigen Sensor
EP1673713A1 (de) Berührungslose biometrische erkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee