DE102017209079A1 - System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal - Google Patents

System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal Download PDF

Info

Publication number
DE102017209079A1
DE102017209079A1 DE102017209079.0A DE102017209079A DE102017209079A1 DE 102017209079 A1 DE102017209079 A1 DE 102017209079A1 DE 102017209079 A DE102017209079 A DE 102017209079A DE 102017209079 A1 DE102017209079 A1 DE 102017209079A1
Authority
DE
Germany
Prior art keywords
information
user
perception
identified objects
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102017209079.0A
Other languages
English (en)
Inventor
Juri Sidorenko
Michael Arens
Norbert Scherer-Negenborn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102017209079.0A priority Critical patent/DE102017209079A1/de
Priority to PCT/EP2018/064290 priority patent/WO2018220076A1/de
Publication of DE102017209079A1 publication Critical patent/DE102017209079A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

System mit folgenden Merkmalen; einer Videoanalyseeinrichtung, die ausgelegt ist, um ein Videosignal zu analysieren, um Objekte in dem Videosignal zu identifizieren; wobei die Videoanalyseeinrichtung ausgelegt ist, um Informationen im Hinblick auf die identifizierten Objekte in einer Datenbank zu hinterlegen; und eine Erfassungseinrichtung, die ausgelegt ist, um eine Wahrnehmung der identifizierten Objekte durch einen Benutzer zu erfassen oder um eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät zu erfassen, und um eine Information über die Wahrnehmung oder über die Wiedergabe abzuspeichern.

Description

  • Technischer Hintergrund
  • Ausführungsbeispiele gemäß der Erfindung betreffen Systeme und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal.
  • Hintergrund der Erfindung
  • In Filmen, Serien und anderen visuellen Medien begegnen dem Zuschauer unterschiedliche Gebrauchsgegenstände wie Mobiltelefone, Möbel, Kleider etc.
  • In Anbetracht dessen besteht ein Bedarf nach einem Konzept, das eine für einen Benutzer individualisierte Bereitstellung von Zusatzinformationen ermöglicht.
  • Zusammenfassung der Erfindung
  • Ein Ausführungsbeispiel gemäß der Erfindung schafft ein System mit einer Videoanalyseeinrichtung, die ausgelegt ist, um ein Videosignal zu analysieren, um Objekte in einem Videosignal zu identifizieren. Ferner ist die Videoanalyseeinrichtung ausgelegt um Informationen im Hinblick auf die identifizierten Objekte in einer Datenbank zu hinterlegen. Die Identifikation kann beispielsweise folgende Informationen bereitstellen: den Typ des Objekts, Zeiten, zu denen das Objekt sichtbar ist, Stimmungsinformation zu den Zeitpunkten, zu denen das Objekt sichtbar ist oder einen Link auf einen Objekt-Kauf-Seite im Internet. Des Weiteren weist das System eine Erfassungseinrichtung auf, die ausgelegt ist, um eine Wahrnehmung der identifizierten Objekte durch einen Benutzer zu erfassen oder um eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät zu erfassen, beziehungsweise eine Wiedergabe gegenüber dem Benutzer zu erfassen. Erfassung kann hierbei beispielsweise eine Erfassung der Dauer der Wahrnehmung und/oder Stimmung bei der Wahrnehmung umfassen. Ferner kann die Erfassung in dem Videosignal oder in mehreren Videosignalen durchgeführt werden. Die Erfassung kann des Weiteren auch eine Gewichtung einschließen, zum Beispiel mit einer Stimmung in dem Film/Videosignal und/oder der Stimmung des Nutzers. Ferner ist die Erfassungseinrichtung ausgelegt, um eine Information über die Wahrnehmung oder über die Wiedergabe abzuspeichern, beispielsweise in einer Datenbank.
  • Das beschriebene Ausführungsbeispiel kann beispielsweise basierend auf der Information über die Wiedergabe bestimmen, wie lange ein Objekt einem Benutzer oder Zuschauer präsentiert wurde und dadurch eine Wahrnehmung des Objekts durch den Benutzer schätzen. Ferner kann das Ausführungsbeispiel auch direkt die Wahrnehmung des Benutzers über die Information über die Wahrnehmung bestimmen und basierend hierauf bestimmen, wie lange ein Zuschauer oder Benutzer ein Objekt wahrnimmt. Das System kann beispielsweise die Information über Wahrnehmung oder Wiedergabe in eine Datenbank abspeichern und somit eine Datenbank über einen Nutzer bereitstellen, in der dokumentiert ist, welche Objekte er wahrgenommen oder vermutlich wahrgenommen hat, basierend auf der Information über die Wahrnehmung oder der Information über die Wiedergabe. Somit können beispielsweise individuelle Datensätze für Benutzer erzeugt werden, um somit Profile für Nutzer bezüglich wahrgenommener Objekte zu erhalten. Diese Wahrnehmungsinformation können hilfreich sein, beispielsweise, um psychologische Information über den Benutzer zu erhalten oder um für den Benutzer individualisierte Zusatzinformation, wie beispielsweise Werbung, bereitzustellen.
  • Diese Ausführungsbeispiel beruht somit auf der Erkenntnis, das durch eine Analyse, welche Ausschnitte eines Videosignals ein Benutzer wahrgenommen hat, beziehungsweise welche Ausschnitte des Videosignals auf ein dem Benutzer zugeordnetem Gerät wiedergegeben worden, in Verbindung mit einer Information über in dem Videosignal enthaltenen Objekte eine aussagekräftige Information darüber gewonnen werden kann, welche Objekte für den Benutzer eine Relevanz haben können, was wiederum die Bereitstellung einer Zusatzinformation, beispielsweise im Hinblick auf diese Objekte, gegenüber dem Benutzer ermöglicht.
  • Gemäß Ausführungsbeispielen ist die Erfassungseinrichtung ausgelegt, um die Information über die Wahrnehmung oder über die Wiedergabe in der Datenbank verknüpft mit der Information über die identifizierten Objekte zu hinterlegen. Das beschriebene Ausführungsbeispiel kann vorteilhaft eine gemeinsame Datenbank nutzen, in der sowohl die identifizierten Objekte, als auch (beispielsweise Benutzer-individuelle) Informationen über die Wahrnehmung oder über die Wiedergabe der identifizierten Objekte hinterlegt sind.
  • Gemäß Ausführungsbeispielen ist die Videoanalyseeinrichtung ausgelegt, um Informationen über Zeiträume des Auftretens der identifizierten Objekte in dem Videosignal bereitzustellen. Ferner ist die Erfassungseinrichtung ausgelegt, um Informationen über Zeiträume der Wahrnehmung oder Wiedergabe der identifizierten Objekte bereitzustellen. Des Weiteren ist das System ausgelegt, um basierend auf der Information über Zeiträume des Auftretens und der Information über Zeiträume der Wahrnehmung oder Wiedergabe Wahrnehmungsdauern der identifizierten Objekte zu bestimmen. Weiterhin ist das System ausgelegt, um die Wahrnehmungsdauern verknüpft mit den hinterlegten Informationen über die identifizierten Objekte in der Datenbank zu hinterlegen. Das beschrieben Ausführungsbeispiel kann mittels der Wahrnehmungsdauern eine Analyse des Beobachters ermöglichen. Insbesondere können Zeiträume des Auftretens von identifizierten Objekten mit Zeiträumen der Wahrnehmung oder Wiedergabe verknüpft werden. Somit kann mittels des Ausführungsbeispiels eine Aussage darüber getroffen werden, ob identifizierte Objekte vom Benutzer wahrgenommen werden oder wahrnehmbar sind. Ferner kann eine Gesamtbetrachtungsdauer oder Wahrnehmungsdauer für individuelle Objekte erhalten werden, um beispielsweise damit zu bestimmen, wie lange ein Benutzer ein bestimmtes Objekt gesehen hat.
  • Gemäß Ausführungsbeispielen ist die Erfassungseinrichtung ausgelegt, um basierend auf einem Pausieren der Wiedergabe die Information über Zeiträume der Wiedergabe anzupassen, in Abhängigkeit davon, ob ein identifiziertes Objekt auf einer Anzeige während der pausierten Wiedergabe sichtbar ist. Das beschriebene Ausführungsbeispiel kann vorteilhaft die Information über Zeiträume und Wiedergabe anpassen basierend auf dem Pausieren der Wiedergabe. Beispielsweise kann während einer pausierten Wiedergabe auf einer Anzeige ein identifiziertes Objekt für eine längere Dauer sichtbar sein, weshalb dieses länger von einem Benutzer betrachtet werden kann. Das beschriebene Ausführungsbeispiel kann mittels dieser Information die Information über den Zeitraum der Wiedergabe anpassen und davon beispielsweise Wahrnehmungsdauern ableiten.
  • Gemäß Ausführungsbeispielen ist das System ausgelegt, um die Wahrnehmungsdauern über Zeiträume des Auftretens der identifizierten Objekte in dem Videosignal und der Information über Zeiträume der Wahrnehmung oder Wiedergabe der identifizierten Objekte in dem Videosignal zu bestimmen.
  • Gemäß Ausführungsbeispielen ist die Erfassungseinrichtung ausgelegt, um eine visuelle Erfassung des Benutzers durchzuführen oder um eine Information über eine visuelle Erfassung des Benutzers zu erhalten, um die Information über die Wahrnehmung der identifizierten Objekte basierend auf der Erfassung bereitzustellen. Die visuelle Erfassung kann beispielsweise über eine Kamera erfolgen, womit festgestellt werden kann, ob ein Benutzer ein Video gerade betrachtet. Mittels der visuellen Erfassung kann das beschrieben Ausführungsbeispiel eine präzise Information über die Wahrnehmung erhalten.
  • Gemäß Ausführungsbeispielen ist die Erfassungseinrichtung ausgelegt, um zu detektieren, ob der Benutzer anwesend ist, und um abhängig von der Anwesenheit des Benutzers die Information über die Wahrnehmung der identifizierten Objekte bereitzustellen. Beispielsweise kann über eine Kamera festgestellt werden, ob ein Nutzer sich gerade vor einem Bildschirm befindet, auf dem das Videosignal wiedergegeben wird. Basierend auf der Anwesenheit kann eine erhöhte Wahrscheinlichkeit zugrunde gelegt werden, dass der Benutzer aktuell wiedergegebene Objekte innerhalb des Videosignals wahrnimmt.
  • Gemäß Ausführungsbeispielen ist die Erfassungseinrichtung ausgelegt, um basierend auf einer Erfassung einer Blickrichtung eines Benutzers eine Wahrnehmung eines identifizierten Objekts zu erkennen, wenn die Blickrichtung des Benutzers auf das identifizierte Objekt fällt oder das identifizierte Objekt in einem Blickfeld des Benutzers ist. Im Allgemeinen kann die Erfassung der Blickrichtung durch ein externes Gerät oder durch die Erfassungseinrichtung erfolgen. Das beschriebene Ausführungsbeispiel kann beispielsweise mittels Verfolgung der Blickrichtung, beispielsweise durch Bestimmung der Orientierung der Pupillen der Augen des Benutzers, feststellen, welche Region des Videosignals bzw. welches Objekt er gerade betrachtet. Des Weiteren kann auch festgestellt werden, ob der Benutzer im Allgemeinen auf einen Bildschirm schaut, auf dem das Videosignal wiedergegeben wird oder er in eine andere Richtung schaut und somit den Bildschirm womöglich nicht wahrnimmt. Basierend auf den Blickrichtungsinformationen, kann das Ausführungsbeispiel eine präzise Information über die Wahrnehmung von identifizierten Objekten bereitstellen.
  • Gemäß Ausführungsbeispielen ist die Erfassungseinrichtung ausgelegt, um basierend auf einer Gesichtserkennung des Benutzers eine Information über einen emotionalen Zustand des Benutzers zu erhalten, wobei die Erfassungseinrichtung den emotionalen Zustand selbst bestimmen kann oder von extern empfangen kann. Ferner ist das System ausgelegt, um die Information über den emotionalen Zustand mit einer Information über ein identifiziertes Objekt einer Datenbank zu verknüpfen, oder um die Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Benutzers zu gewichten. Das beschriebene Ausführungsbeispiel bietet eine gewichtete Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Benutzers oder erlaubt es, die Information über den emotionalen Zustand verknüpft mit einer Information über ein identifiziertes Objekt mit einer Datenbank zu verknüpfen. Somit können emotionale Informationen, beispielsweise Freude oder Trauer, mit den identifizierten Objekten verknüpft werden. Ferner kann die Gesichtserkennung, beispielsweise anhand von Lachfalten im Gesicht eines Benutzers, einen positiven emotionalen Zustand bestimmen oder, beispielsweise durch Erkennung von Tränen, einen möglicherweise negativen emotionalen Zustand bestimmen.
  • Gemäß Ausführungsbeispielen weist das System eine Anzeige auf, wobei das System ausgelegt ist, um in Abhängigkeit einer Positionierung der Anzeige relativ zu dem Benutzer die Information über die Wahrnehmung zu erhalten. Beispielsweise kann ein Laptop-Display Teil des Systems sein. Wenn dieser eingeklappt ist, kann das System, unter Verwendung einer Information, die anzeigt dass das Laptop-Display eingeklappt ist, feststellen, dass eine Wahrnehmung des Videosignals durch einen Benutzer nicht möglich ist.
  • Gemäß Ausführungsbeispielen weist das System einen Lagesensor auf, wobei das System ausgelegt ist, um basierend auf Lageinformationen des Lagesensors zu detektieren, ob eine Anzeige, auf der ein identifiziertes Objekt dargestellt wird, dem Benutzer zugewandt ist. Ferner ist das System ausgelegt, um basierend auf der Detektion die Information über die Wahrnehmung des identifizierten Objekts zu erhalten. Beispielsweise kann ein Anzeigegerät des Systems mit einem Trägheitssensor (Inertia Measurement Unit IMU) ausgestattet sein, der ein Signal zur Verfügung stellt, auf dessen Basis die Lageinformation erzeugt wird. Beispielsweise kann durch die Lageinformation die Orientierung des Bildschirms relativ zu dem Benutzer bestimmt werden, so dass beispielsweise detektiert werden kann, dass die Anzeige von dem Benutzer wahrgenommen wird, wenn die Anzeige nach oben deutet.
  • Gemäß Ausführungsbeispielen ist das System ausgelegt, um basierend auf den identifizierten Objekten visuell ähnliche Objekte in einer weiteren Datenbank zu finden und Verknüpfungen mit Kaufinformationen zu den visuell ähnlichen Objekten bereitzustellen. Das beschriebene Ausführungsbeispiel kann dazu genutzt werden, um individualisierte Werbung für Benutzer zu erzeugen, basierend auf den Objekteinträgen. Einem Benutzer können so identifizierte Objekte, die im vertraut sind, später gezielt zum Kauf angeboten werden.
  • Gemäß Ausführungsbeispielen ist die Videoanalyseeinrichtung ausgelegt, um einen emotionalen Zustand eines Inhalts des Videosignals basierend auf einer Szenenanalyse des Videosignals zu bestimmen und beispielsweise durch einen oder mehrere Zahlenwerte zu beschreiben. Ferner ist das System ausgelegt, um den bestimmten emotionalen Zustand mit den identifizierten Objekten zu verknüpfen und in einer Datenbank zu hinterlegen oder um die Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Inhalts des Videosignals zu gewichten. Das beschriebene Ausführungsbeispiel kann vorteilhaft Emotionen, die mit einer Szene oder einem Objekt verknüpft werden, nutzen, um entsprechende Informationen bereitzustellen. Beispielsweise können Objekte, die mit positiven Emotionen konnotiert sind, später eher genutzt werden, um dafür erfolgreich später zu werben. Alternativ können auch die die Informationen über die Wahrnehmungen in Abhängigkeit von der Information über den emotionalen Zustand gewichtet werden, so dass die Wahrnehmungsinformation des Benutzers entsprechend angepasst wird.
  • Gemäß Ausführungsbeispielen ist die Videoanalyseeinrichtung ausgelegt, um basierend auf einer Gesichtserkennung die Szenenanalyse durchzuführen und den emotionalen Zustand zu bestimmen. Das beschriebene Ausführungsbeispiel kann beispielsweise Gesichter in einem Film analysieren und daraus einen emotionalen Zustand des Inhalts des Videosignals bestimmen. Die so erhaltene Information kann genutzt werden, um beispielsweise die Wahrnehmung der identifizierten Objekte, die in diesem Zusammenhang auftreten, entsprechend zu gewichten.
  • Gemäß Ausführungsbeispielen ist die Videoanalyseeinrichtung ausgelegt, um basierend auf einer Analyse eines Tonsignals, das dem Videosignal zugeordnet ist, die Szenenanalyse durchzuführen und den emotionalen Zustand zu bestimmen. Das beschriebene Ausführungsbeispiel kann beispielsweise anhand von erkannter fröhlicher Musik oder trauriger Musik, eine Information über den emotionalen Zustand des Videosignals bestimmen. Nutzung von Audioinformation im Rahme der Analyse des Tonsignals, ermöglicht ein präzise Bestimmung des emotionalen Zustands.
  • Gemäß Ausführungsbeispielen ist das System ausgelegt, um basierend auf einer Gewichtung des emotionalen Zustands des Benutzers, beziehungsweise von einem oder mehreren Zahlenwerten, und des emotionalen Zustands des Inhalts des Videosignals, beziehungsweise von einem oder mehreren Zahlenwerten, einen gewichteten emotionalen Zustand, zum Beispiel einen Zahlenwert, zu bestimmen. Ferner ist das System ausgelegt, um den gewichteten emotionalen Zustand verknüpft mit den Informationen über die identifizierten Objekte in einer Datenbank zu hinterlegen oder um die Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Inhalts des Videosignals zu gewichten. Das beschriebene Ausführungsbeispiel kann einen emotionalen Zustand des Benutzers und einen emotionalen Zustand des Inhalts des Videosignals kombinieren, um einen kombinierten emotionalen Zustand zu bestimmen. Der gewichtete oder kombinierte emotionale Zustand kann aussagekräftiger oder präziser sein als die individuellen emotionalen Zustandsinformationen, die zur Erzeugung des gewichteten emotionalen Zustands genutzt werden.
  • Gemäß Ausführungsbeispielen ist das System ausgelegt, um separate Informationen über Wahrnehmung und Wiedergabe von identifizierten Objekten für verschiedene Benutzer bereitzustellen. Das beschriebene Ausführungsbeispiel kann verschiedene Datenbanken für verschiedene Benutzer bereitstellen oder Datenbankeinträge für jeweilige Nutzer erzeugen. Somit können nutzerspezifische Profile für die Wahrnehmung von Objekten erstellt werden, worauf basierend im Anschluss eine maßgeschneiderte Werbung für die Objekte für die jeweiligen Benutzer erzeugt werden.
  • Gemäß Ausführungsbeispielen ist das System ausgelegt, um eine Auswahl der identifizierten Objekte durch den Benutzer über ein Eingabegerät zu ermöglichen. Der Benutzer kann beispielsweise auf ein Touchscreen, auf dem das Videosignal wiedergegeben wird, identifizierte Objekte auswählen oder an einem Computerbildschirm mit einer Maus auswählen.
  • Gemäß Ausführungsbeispielen ist das System ausgelegt, um eine Wahrnehmung der identifizierten Objekte durch einen Benutzer, beispielsweise eine Dauer der Wahrnehmung und/oder Stimmung bei der Wahrnehmung, über mehrere Videosignale hinweg, die separat voneinander wiedergegeben werden, zu erfassen, beispielsweise einschließlich gewichten, z.B. mit Stimmung in dem Film und/oder Stimmung des Nutzers, oder um eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät, beziehungsweise eine Wiedergabe gegenüber dem Benutzer, über mehrere Videosignale hinweg, die separat voneinander wiedergegeben werden, zu erfassen. Das beschriebene Ausführungsbeispiel kann beispielsweise aus mehreren Filmen oder Serien, die ein Benutzer betrachtet, Objekte identifizieren bzw. deren Wahrnehmung bestimmen.
  • Ein Ausführungsbeispiel gemäß der Erfindung schafft ein Verfahren mit folgenden Merkmalen, Analysieren eines Videosignals, um Objekte in dem Videosignal zu identifizieren, Hinterlegen von Informationen im Hinblick auf die identifizierten Objekte in einer Datenbank, Erfassen einer Wahrnehmung der identifizierten Objekte durch einen Benutzer, oder Erfassen einer Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät, und Abspeichern der Informationen über die Wahrnehmung oder über die Wiedergabe. Das beschrieben Verfahren kann um alle Merkmale und Funktionalitäten, die hierin in Bezug auf das System beschrieben sind, erweitert werden.
  • Figurenliste
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:
    • 1 zeigt eine schematische Darstellung eines Systems, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 2 zeigt eine schematische Darstellung eines Systems, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
    • 3 ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
  • Detaillierte Beschreibung der Ausführungsbeispiele
  • 1 zeigt eine schematische Darstellung eines Systems 100, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Das System 100 umfasst eine Videoanalyseeinrichtung 110 und eine Erfassungseinrichtung 140.
  • Die Videoanalyseeinrichtung 110 ist ausgelegt, ein Videosignal 112 zu analysieren, um Objekte in dem Videosignal 112 zu identifizieren. Ferner ist die Videoanalyseeinrichtung 110 ausgelegt, um Informationen 114 im Hinblick auf die identifizierten Objekte zu hinterlegen, beispielsweise in einer Datenbank 116. Die Erfassungseinrichtung 140 ist ausgelegt, um eine Wahrnehmung der identifizierten Objekte durch einen Benutzer zu erfassen oder um eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät zu erfassen. Dies kann beispielsweise mittels der Information 142, die eine Erfassung der Wahrnehmung oder Wiedergabe der identifizierten Objekte ermöglicht, durchgeführt werden. Die Information 142 können Videosignal oder Audiosignale sein, womit die Wahrnehmung eines Nutzers bestimmt werden können. Des Weiteren können die Informationen 142 auch direkt Informationen über die Erkennung oder Überwachung eines Nutzers bereitstellen. Ferner ist die Erfassungseinrichtung 140 ausgelegt, um eine Information über die Wahrnehmung oder über die Wiedergabe abzuspeichern, beispielsweise in der Datenbank 116 oder beispielsweise in einer separaten Datenbank 144.
  • Das System 100 kann vorteilhaft identifizierte Objekte in dem Videosignal 112 einer (erkannten oder anhand der Wiedergabeinformation geschätzten) Wahrnehmung durch einen Benutzer zuordnen. Die Wahrnehmung eines Benutzers kann beispielsweise mittels der Information über die Wiedergabe so bestimmt werden, dass wenn ein Objekt in dem wiedergegebenen Videosignal sichtbar ist, das System 100 annimmt, dass der Benutzer das Objekt auch wahrnimmt. Alternativ kann das System 100 aber auch eine spezifizierte Information über die Wahrnehmung bereitstellen, die beispielsweise über eine Erfassung des Benutzers bestimmt wird. Das beschriebene System 100 kann so Informationen über von einem Benutzer wahrgenommene Objekte bereitstellen. Insbesondere können diese Informationen individualisiert für einen Benutzer abgespeichert werden, so dass sie für spätere Auswertung verfügbar ist. Basierend auf der Auswertung können Nutzerbezogene Informationen erhalten werden, um dem Nutzer beispielsweise gezielt Werbung zu präsentieren, die auf den identifizierten Objekten beruht.
  • Das System 100 kann optional um alle Merkmale und Funktionalitäten ergänzt werden, die hierin beschrieben sind, und zwar einzeln oder in Kombination.
  • 2 zeigt eine schematische Darstellung eines Systems 200, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Das System 200 weist eine Videoanalyseeinrichtung 210, eine Erfassungseinrichtung 240 und ein Endgerät 270 auf. Ferner kann das System 200 eine Videosignalausgabeeinrichtung 220 aufweisen.
  • Die Videoanalyseeinrichtung 210 weist eine Videoanalyse für Objekte 210a und eine Videoanalyse für Stimmungen 210b auf. Die Objektanalyseeinheit 210a analysiert das Videosignal 212 hinsichtlich auftretender Objekte, beispielsweise mit Hilfe einer Objektdatenbank 217, die bekannte Objekte beinhaltet, die zu identifizieren sind. Die Objektanalyseeinrichtung 210a der Videoanalyseeinrichtung 210 hinterlegt Informationen 214 im Hinblick auf identifizierte Objekte in der Datenbank 216. Des Weiteren kann der Stimmungsanalysator 210b eine Bildanalyse oder eine Tonanalyse des Videosignals 212 durchführen, um eine Information 213 über den emotionalen Zustand des Inhalts des Videosignals bereitzustellen und in eine Datenbank 215 abzuspeichern. Die Bildanalyse kann beispielsweise basierend auf einer Gesichtserkennung den emotionalen Zustand des Videosignals 212 bestimmen. Ferner kann die Videoanalyseeinrichtung 210b basierend auf einer Tonanalyse, beispielsweise basierend auf einer bestimmten Klangfarbe des Tonsignals, das dem Videosignal zugeordnet ist, einen emotionalen Zustand des Videosignals bestimmen.
  • Das Endgerät 270 kann beispielsweise ein Mobiltelefon, Laptop oder ein Tablet sein. Das Endgerät 270 weist eine Benutzerschnittstelle und/oder Anzeige 272, eine Kamera 274 und einen Positionssensor 276 auf. Ferner kann das Endgerät 270 auch ein Mikrofon aufweisen. Basierend auf einem Signal 274a der Kamera 274 kann das Endgerät eine Bildanalyse 275 durchführen. Die Bildanalyse 275 kann beispielsweise die Anwesenheit eines Benutzers vor einer Anzeige des Endgeräts feststellen, einen emotionalen Zustand eines Benutzers bestimmen und/oder eine Analyse der Blickrichtung des Benutzers aufweisen. Basierend auf einem Signal 276a des Positionssensors 276 kann das Endgerät 270 eine Sichtbarkeitsanalyse der Anzeige 277 durchführen, also feststellen oder abschätzen, ob ein Benutzer den Bildschirm sehen kann. Basierend hierauf kann wiederum von dem System 200 eine Information über die Wahrnehmung gewonnen werden. Die Bildanalyse 275 kann eine Information 275a über die Anwesenheit des Benutzers bereitstellen, eine Information 275b über die Blickrichtung des Benutzers oder über von dem Benutzer betrachtete Objekte bereitstellen, und/oder eine Information 275c über einen emotionalen Zustand des Benutzers bereitstellen. Ferner kann die Sichtbarkeitsanalyse 277 eine Information 277a über die Sichtbarkeit des Bildschirms des Endgeräts 270 bereitstellen.
  • Die Erfassungseinrichtung 240 kann basierend auf den Informationen 216 im Hinblick auf identifizierte Objekte, Information 215 über den emotionalen Zustand des Videosignals, Information 275a über eine Anwesenheit des Benutzers, Information 275b über eine Blickrichtung des Benutzers, Information 275c über den emotionalen Zustand des Benutzers und Information 277a über die Sichtbarkeit der Anzeige, eine Wahrnehmung der identifizierten Objekte durch einen Benutzer erfassen und/oder eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät erfassen. Die Information über die Wahrnehmung oder über die Wiedergabe kann von der Erfassungseinrichtung 240 in der Datenbank 244 abgespeichert werden. Die Informationen 275a, 275b und 277a können in der Erfassungseinrichtung mittels einer Verarbeitungseinheit 241 kombiniert werden, um die Information 242 über Wiedergabe und Wahrnehmung zu erhalten. Ferner kann die Information 275c und 215 in der Verarbeitungseinrichtung 243 genutzt werden, um eine kombinierte emotionale Information 246 zu erhalten. Die Informationen 242 und 246 können in der Verarbeitungseinrichtung 247 kombiniert werden und Objekten, basierend auf den Informationen 216 im Hinblick auf identifizierte Objekte, zugeordnet werden. Hier kann ebenfalls eine Gewichtung abhängig von den emotionalen Informationen 246 durchgeführt werden. Basierend hieraus kann eine gewichtete Information über Wiedergabe und Wahrnehmung der identifizierten Objekte in der Datenbank 244 abgespeichert werden.
  • Ferner kann das System 200 eine Videosignalausgabe 220 aufweisen, um das Videosignal 212 dem Endgerät 270 bereitzustellen. Des Weiteren kann die Videosignalausgabe 220 dazu dienen, um ein gewünschtes Videosignal bereitzustellen oder eine Bereitstellung zu steuern.
  • 3 zeigt ein Flussdiagramm eines Verfahrens 300 gemäß einem Ausführungsbeispiel der Erfindung. Das Verfahren 300 umfasst ein Analysieren 310 eines Videosignals, um Objekte in dem Videosignal zu identifizieren. Des Weiteren umfasst das Verfahren 300 ein Hinterlegen 320 von Informationen im Hinblick auf die identifizierten Objekte in einer Datenbank. Ferner umfasst das Verfahren 300 ein Erfassen 330 einer Wahrnehmung der identifizierten Objekte durch einen Benutzer. Weiterhin umfasst das Verfahren 300 ein Erfassen 340 einer Wiedergabe der identifizierten Objekte, auf einem dem Benutzer zugeordneten Gerät. Des Weiteren umfasst das Verfahren 300 ein Abspeichern 350 einer Information über die Wahrnehmung oder über die Wiedergabe.
  • Weitere Aspekte
  • Im Folgenden werden Aspekte gemäß der Erfindung beschrieben, die für sich genommen, oder in Kombination mit den hierin beschriebenen Vorrichtungen, Systemen und Verfahren eingesetzt werden können, und zwar einzeln oder in Kombination.
  • Gemäß Aspekten der Erfindung soll ein Zuschauer die Möglichkeit haben, die identifizierten Objekte gezielt auszuwählen und zu erwerben. Gemäß einem weiteren Aspekt der Erfindung kann mittels der Objekterkennung in Filmen und Serien eine Nutzung von emotionaler Bindung und einem Gefühl der Vertrautheit zu einem Produkt bestimmt werden. Ferner ist ein Aspekt der Erfindung eine Auswertung der unterbewusst wahrgenommenen Objekte, zur gezielten Werbung.
  • Bewusster Aspekt:
  • Gemäß dem bewussten Aspekt können in einem ersten Schritt Objekte automatisch klassifiziert werden. Dies kann durch zuvor trainierte Erkennungsalgorithmen erfolgen, dabei können beispielsweise „deep learning“-Algorithmen („tiefes-lernen“-Algorithmen) oder Klassifizierungsalgorithmen angewandt werden. Die Algorithmen können trainiert werden, um beispielsweise Mobiltelefone, Möbel etc. (jeden Gebrauchsgegenstand) zu erkennen. Gemäß einem weiteren Aspekt kann nachdem ein Objekt in eine Klasse eingeordnet wurde, in einer Bibliothek nach einem Produkt mit der größten Gemeinsamkeit gesucht werden (Farbe, Oberflächenbeschaffenheit, etc.). Diese Zuordnung kann vorab passieren und bei einer Erweiterung der Bibliothek für die Serien und Filme wiederholt werden. Diese Funktionalität kann zum Beispiel durch die Videoanalyseeinrichtung 110 oder durch die Videoanalyse-Objekte 210a erfolgen.
  • Unterbewusster Aspekt:
  • Gemäß dem unterbewussten Aspekt findet eine personalisierte Zuordnung statt, nachdem alle oder die meisten Gebrauchsgegenstände vorab erkannt und markiert wurden. In der Zuordnung kann die Häufigkeit und Präsenz der Gebrauchsgegenstände bestimmt werden die der Beobachter unterbewusst wahrnimmt. Dies kann beispielsweise durch die Erfassungseinrichtung 140 oder 240 durchgeführt werden. In die Beurteilung kann auch das Stimmungsbild der Szene eingehen, wie beispielsweise durch die Videoanalyse-Stimmung 210b. Diese Informationen können für eine individualisierte Werbung genutzt werden.
  • Gemäß einem Aspekt kann ein Zuschauer ein Produkt, das ihm gefällt, in einer Serie oder einem Film auswählen und in einem Geschäft (online) erwerben. Ein weiterer Aspekt, der in der Erfindung Anwendung findet, ist ein Vertrautheitsgefühl, welches sich ergibt, wenn ein Objekt wiederholt betrachtet wird. Gemäß einem weiteren Aspekt kann eine Kenntnis darüber, welche Objekte von einem Zuschauer gesehen werden (zum Beispiel aus der Datenbank 244), für eine gezielte Werbung genutzt werden. Im weiteren Verlauf können Rückschlüsse auf Kopplungen zwischen einem Objekt und einem emotionalen Zustand geschlossen werden. Mit zusätzlichen Informationen über ein emotionales Stimmungsbild einer Szene (zum Beispiel dadurch dass diese zuvor gekennzeichnet (gelabeled) oder automatisch mit Szenenanalyse, beispielsweise mit der Videoanalyse-Stimmung 210b, bestimmt wurde), kann in viel weiterem Sinne, als bisher bekannt, eine Erstellung von personalisierter Werbung durchgeführt werden.
  • Sind Sequenzen in Filmen oder Serien eher traurig, könnte der Zuschauer auch die Umgebung negativ deuten. Viele Filme und Serien werden auf Medien mit Kameras betrachtet, wie zum Beispiel Laptops, und somit in das erfindungsgemäße System eingebunden werden. Ein Analysieren einer emotionalen Lage über eine Gesichtserkennung (zum Beispiel in der Bildanalyse 275) in Kombination mit allen oder vielen vorkommenden Objekten in einer Szene, kann einen weiteren Vorteil für eine individualisierte Werbung bringen.
  • Aspekte der Erfindung sind ferner:
    • - Automatisches Kennzeichnen (beziehungsweise Labeln) von Objekten in Videomaterial und Abgleich mit einer vorhandenen Datenbank (z.B. Datenbank 217),
    • - Erstellen einer individuellen Datenbank (z.B. Datenbank 216) bezogen auf die wahrgenommenen Objekte
  • Die individuelle Datenbank kann Personendaten enthalten wie Name, Geschlecht, Alter, Wohnort etc. Eine Kerninformation der individuellen Datenbank kann eine statistische Auswertung der gesehenen Objekte mit einem Gewichtungsfaktor sein.
  • Eine statistische Auswertung gemäß der Erfindung kann beispielsweise durch Block 240 erfolgen und kann beispielsweise einen oder mehrere der folgenden Aspekte umfassen:
    • Für die statistische Auswertung kann die Wahrnehmungszeit eines Objekts gestoppt werden. Hierbei kann es hilfreich sein, zu erkennen ob das Video gestoppt ist oder sich die Person vor einem Abspielmedium, beispielsweise Anzeigegerät, befindet.
    • Falls das Wiedergabegerät ein Mobiltelefon ist kann die Lage des Handys im Raum (Rotationswinkel etc. mittels auslesen der IMU Daten 276a) Aufschluss darüber geben ob der Benutzer den Bildschirm (zum Beispiel Anzeige 272) betrachtet.
    • In Kombination mit einer Kamera (zum Beispiel Kamera 274) kann erfasst werden ob eine Person sich gerade vor dem Abspielmedium befindet und ferner auf welches Objekt seine Blicke gerichtet sind.
  • Gemäß Ausführungsbeispielen kann ein Gewichtungsfaktor eine emotionale Kopplung ermitteln.
  • Gemäß Ausführungsbeispielen kann einer einzelnen Szene eine Stimmung zugeordnet werden, beispielsweise durch Videoanalyse-Stimmung 210b. Hierbei können die visuellen Informationen der Szene analysiert werden.
  • Gemäß Ausführungsbeispielen können Emotionen von Personen in Filmen (beispielsweise erkannt über eine automatische Gesichtserkennung) in Kombination mit akustischen Informationen, wie Filmmusik, Aufschluss über die emotionale Lage der Szene geben. Weitere Möglichkeiten für die Szenenanalyse kann zum Beispiel ein Erkennen einer Kuss-Szene sein oder im Allgemeinen Motive oder Aktionen mit bekannten emotionalen Assoziationen.
  • Im Gegensatz zu bisherigen Lösungen bieten Ausführungsbeispiele der Erfindung eine an eine Wahrnehmung des Zuschauers angepasste Identifikation von Objekten in Videosignalen.
  • Ferne kann gemäß Ausführungsbeispielen, mittels einer Kamera (beispielsweise Kamera 274), eine emotionale Lage eines Betrachters analysiert (beispielsweise durch Bildanalyse 275) werden und in den Gewichtungsfaktor mit einfließen.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder eine elektronische Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist. Der Datenträger, das digitale Speichermedium oder das computerlesbare Medium sind typischerweise gegenständlich und/oder nicht-vergänglich bzw. nichtvorübergehend.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die hierin beschriebenen Vorrichtungen können beispielsweise unter Verwendung eines Hardware-Apparats, oder unter Verwendung eines Computers, oder unter Verwendung einer Kombination eines Hardware-Apparats und eines Computers implementiert werden.
  • Die hierin beschriebenen Vorrichtungen, oder jedwede Komponenten der hierin beschriebenen Vorrichtungen können zumindest teilweise in Hardware und/oder in Software (Computerprogramm) implementiert sein.
  • Die hierin beschriebenen Verfahren können beispielsweise unter Verwendung eines Hardware-Apparats, oder unter Verwendung eines Computers, oder unter Verwendung einer Kombination eines Hardware-Apparats und eines Computers implementiert werden.
  • Die hierin beschriebenen Verfahren, oder jedwede Komponenten der hierin beschriebenen Verfahren können zumindest teilweise durch Hardware und/oder durch Software ausgeführt werden.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (21)

  1. System (100; 200) mit folgenden Merkmalen: einer Videoanalyseeinrichtung (110; 210), die ausgelegt ist, um ein Videosignal (112; 212) zu analysieren, um Objekte in dem Videosignal zu identifizieren, wobei die Videoanalyseeinrichtung ausgelegt ist, um Informationen im Hinblick auf die identifizierten Objekte in einer Datenbank (116; 216) zu hinterlegen, und einer Erfassungseinrichtung (140; 240), die ausgelegt ist, um eine Wahrnehmung der identifizierten Objekte durch einen Benutzer zu erfassen oder um eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät zu erfassen, und um eine Information über die Wahrnehmung oder über die Wiedergabe abzuspeichern.
  2. System gemäß Anspruch 1, wobei die Erfassungseinrichtung ausgelegt ist, um die Information über die Wahrnehmung oder über die Wiedergabe in der Datenbank verknüpft mit der Information über die identifizierten Objekte zu hinterlegen.
  3. System gemäß einem der Ansprüche 1 oder 2, wobei die Videoanalyseeinrichtung ausgelegt ist, um Informationen über Zeiträume des Auftretens der identifizierten Objekte in dem Videosignal bereitzustellen, und wobei die Erfassungseinrichtung ausgelegt ist, um Informationen über Zeiträume der Wahrnehmung oder der Wiedergabe der identifizierten Objekte bereitzustellen, und wobei das System ausgelegt ist, um basierend auf der Information über Zeiträume des Auftretens und der Information über Zeiträume der Wahrnehmung oder Wiedergabe, Wahrnehmungsdauern der identifizierten Objekte zu bestimmen, und wobei das System ausgelegt ist, um die Wahrnehmungsdauern verknüpft mit den hinterlegten Informationen über die identifizierten Objekte in der Datenbank zu hinterlegen.
  4. System gemäß Anspruch 3, wobei die Erfassungseinrichtung ausgelegt ist, um basierend auf einem Pausieren der Wiedergabe die Information über Zeiträume der Wiedergabe anzupassen, in Abhängigkeit davon, ob ein identifiziertes Objekt auf einer Anzeige während der pausierten Wiedergabe sichtbar ist.
  5. System gemäß Anspruch 3 oder 4, wobei das System ausgelegt ist, um die Wahrnehmungsdauern basierend auf einer Korrelation der Information über Zeiträume des Auftretens der identifizierten Objekte in dem Videosignal und der Information über Zeiträume der Wahrnehmung oder Wiedergabe der identifizierten Objekte in dem Videosignal zu bestimmen.
  6. System gemäß einem der Ansprüche 1 bis 5, wobei die Erfassungseinrichtung ausgelegt ist, um eine visuelle Erfassung des Benutzers durchzuführen oder um eine Information über eine visuelle Erfassung des Benutzers zu erhalten, um die Information über die Wahrnehmung der identifizierten Objekte basierend auf der Erfassung bereitzustellen.
  7. System gemäß Anspruch 6, wobei die Erfassungseinrichtung ausgelegt ist, um zu detektieren ob der Benutzer anwesend ist, und abhängig von der Anwesenheit des Benutzers die Information über die Wahrnehmung der identifizierten Objekte bereitzustellen.
  8. System gemäß Anspruch 6 oder 7, wobei die Erfassungseinrichtung ausgelegt ist, um basierend auf einer Erfassung einer Blickrichtung des Benutzers eine Wahrnehmung eines identifizierten Objekts zu erkennen, wenn die Blickrichtung des Benutzers auf das identifizierte Objekt fällt oder das identifizierte Objekt in einem Blickfeld des Benutzers ist.
  9. System gemäß einem der Ansprüche 6 bis 8, wobei die Erfassungseinrichtung ausgelegt ist, um basierend auf einer Gesichtserkennung des Benutzers eine Information über einen emotionalen Zustand des Benutzers zu erhalten, und wobei das System ausgelegt ist, um die Information über den emotionalen Zustand mit einer Information über ein identifiziertes Objekt in der Datenbank zu verknüpfen, oder um die Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Benutzers zu gewichten.
  10. System gemäß einem der Ansprüche 1 bis 9, wobei das System eine Anzeige aufweist, und wobei das System ausgelegt ist, um in Abhängigkeit einer Positionierung der Anzeige relativ zu dem Benutzer die Information über die Wahrnehmung zu erhalten.
  11. System gemäß einem der Ansprüche 1 bis 10, wobei das System einen Lagesensor aufweist, und wobei das System ausgelegt ist, um basierend auf Lageinformationen des Lagesensors, zu detektieren ob eine Anzeige, auf der ein identifiziertes Objekt dargestellt wird, dem Benutzer zugewandt ist, und um basierend auf der Detektion die Information über die Wahrnehmung des identifizierten Objekts zu erhalten.
  12. System gemäß einem der Ansprüche 1 bis 11, wobei das System ausgelegt ist, um basierend auf den identifizierten Objekten visuell ähnliche Objekte in einer weiteren Datenbank zu finden, und Verknüpfungen mit Kaufinformation zu den visuell ähnlichen Objekten bereitzustellen.
  13. System gemäß einem der Ansprüche 1 bis 12, wobei die Videoanalyseeinrichtung ausgelegt ist, um einen emotionalen Zustand eines Inhalts des Videosignals basierend auf einer Szenenanalyse des Videosignals zu bestimmen, und wobei das System ausgelegt ist, um den bestimmten emotionalen Zustand mit den identifizierten Objekten zu verknüpfen und in der Datenbank zu hinterlegen, oder um die Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Inhalts des Videosignals zu gewichten.
  14. System gemäß Anspruch 13, wobei die Videoanalyseeinrichtung ausgelegt ist, um basierend auf einer Gesichtserkennung die Szenenanalyse durchzuführen und den emotionalen Zustand zu bestimmen.
  15. System gemäß Anspruch 13 oder 14, wobei die Videoanalyseeinrichtung ausgelegt ist, um basierend auf einer Analyse eines Tonsignals, das dem Videosignal zugeordnet ist, die Szenenanalyse durchzuführen und den emotionalen Zustand zu bestimmen.
  16. System gemäß einem der Ansprüche 13 bis 15, wobei das System ausgelegt ist, um basierend auf einer Gewichtung des emotionalen Zustands des Benutzers und des emotionalen Zustand des Inhalts des Videosignals einen gewichteten emotionalen Zustand zu bestimmen, und wobei das System ausgelegt ist, um den gewichteten emotionalen Zustand verknüpft mit den Informationen über die identifizierten Objekte in der Datenbank zu hinterlegen, oder um die Information über die Wahrnehmung in Abhängigkeit von der Information über den emotionalen Zustand des Inhalts des Videosignals zu gewichten.
  17. System gemäß einem der Ansprüche 1 bis 16,wobei das System ausgelegt ist, um separate Informationen über Wahrnehmung und Wiedergabe von identifizierten Objekten für verschiedene Benutzer bereitzustellen.
  18. System gemäß einem der Ansprüche 1 bis 17, wobei das System ausgelegt ist, um eine Auswahl der identifizierten Objekte durch den Benutzer über ein Eingabegerät zu ermöglichen.
  19. System gemäß einem der Ansprüche 1 bis 18, wobei das System ausgelegt ist, um eine Wahrnehmung der identifizierten Objekte durch einen Benutzer über mehrere Videosignale hinweg, die separat voneinander wiedergegeben werden, zu erfassen oder um eine Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät über mehrere Videosignale hinweg, die separat voneinander wiedergegeben werden, zu erfassen.
  20. Verfahren mit folgenden Merkmalen: Analysieren eines Videosignals, um Objekte in dem Videosignal zu identifizieren; Hinterlegen von Informationen im Hinblick auf die identifizierten Objekte in einer Datenbank; Erfassen einer Wahrnehmung der identifizierten Objekte durch einen Benutzer, oder Erfassen einer Wiedergabe der identifizierten Objekte auf einem dem Benutzer zugeordneten Gerät; und Abspeichern einer Information über die Wahrnehmung oder über die Wiedergabe.
  21. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 20, wenn das Programm auf einem Computer abläuft
DE102017209079.0A 2017-05-30 2017-05-30 System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal Ceased DE102017209079A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017209079.0A DE102017209079A1 (de) 2017-05-30 2017-05-30 System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal
PCT/EP2018/064290 WO2018220076A1 (de) 2017-05-30 2018-05-30 System und verfahren zur erfassung von wahrnehmung oder wiedergabe identifizierter objekte in einem videosignal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017209079.0A DE102017209079A1 (de) 2017-05-30 2017-05-30 System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal

Publications (1)

Publication Number Publication Date
DE102017209079A1 true DE102017209079A1 (de) 2018-12-06

Family

ID=62486591

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017209079.0A Ceased DE102017209079A1 (de) 2017-05-30 2017-05-30 System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal

Country Status (2)

Country Link
DE (1) DE102017209079A1 (de)
WO (1) WO2018220076A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100004977A1 (en) * 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
US20140130076A1 (en) * 2012-11-05 2014-05-08 Immersive Labs, Inc. System and Method of Media Content Selection Using Adaptive Recommendation Engine

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体
US9015084B2 (en) * 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US20150271570A1 (en) * 2014-03-18 2015-09-24 Vixs Systems, Inc. Audio/video system with interest-based ad selection and methods for use therewith
JP6424357B2 (ja) * 2013-10-17 2018-11-21 株式会社夏目綜合研究所 視認対象効果度測定装置
US9282367B2 (en) * 2014-03-18 2016-03-08 Vixs Systems, Inc. Video system with viewer analysis and methods for use therewith

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100004977A1 (en) * 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
US20140130076A1 (en) * 2012-11-05 2014-05-08 Immersive Labs, Inc. System and Method of Media Content Selection Using Adaptive Recommendation Engine

Also Published As

Publication number Publication date
WO2018220076A1 (de) 2018-12-06

Similar Documents

Publication Publication Date Title
US10529109B1 (en) Video stream customization using graphics
CN106605218A (zh) 收集和处理与基于网络的内容的交互过程中的计算机用户数据的方法
KR101618590B1 (ko) 몰입 효과들을 제공하기 위한 방법 및 시스템
DE112011102043T5 (de) Objekterfassungsmetadaten
JP2021525424A (ja) ユーザの注意力を決定するコンピュータ実装システム及び方法
DE102021126448A1 (de) Anzeigen von augmented reality in reaktion auf ein augmented reality-bild
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
AU2012204061A1 (en) Methods and systems for object based data management
WO2015153261A1 (en) Method and system for enhancing interactions between teachers and students
DE102021211765A1 (de) Datenanonymisierung für datenlabel- und entwicklungszwecke
DE102019107064A1 (de) Anzeigeverfahren, elektronische Vorrichtung und Speichermedium damit
DE102017209079A1 (de) System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal
WO2022168185A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168180A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
US11983309B2 (en) Device and method to acquire timing of blink motion performed by a dialogue device
JP2022135476A (ja) 情報処理装置、及びプログラム
Onwuegbusi et al. Data-driven group comparisons of eye fixations to dynamic stimuli
JP7069550B2 (ja) 講義映像分析装置、講義映像分析システム、方法およびプログラム
WO2022168174A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168175A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168179A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168178A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168182A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168176A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022168177A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final