DE102014204530A1 - Verfahren und vorrichtung für subjektive werbeanzeigeneffektivitätsanalyse - Google Patents

Verfahren und vorrichtung für subjektive werbeanzeigeneffektivitätsanalyse Download PDF

Info

Publication number
DE102014204530A1
DE102014204530A1 DE201410204530 DE102014204530A DE102014204530A1 DE 102014204530 A1 DE102014204530 A1 DE 102014204530A1 DE 201410204530 DE201410204530 DE 201410204530 DE 102014204530 A DE102014204530 A DE 102014204530A DE 102014204530 A1 DE102014204530 A1 DE 102014204530A1
Authority
DE
Germany
Prior art keywords
advertisement
user
vehicle
response
advertising
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201410204530
Other languages
English (en)
Inventor
Randal Henry Visintainer
Yimin Liu
Perry Robinson MacNeille
Oleg Yurievitch Gusikhin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102014204530A1 publication Critical patent/DE102014204530A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Ein System beinhaltet einen Prozessor, der konfiguriert ist, um eine Werbeanzeige zu empfangen. Der Prozessor ist auch konfiguriert, um die Werbeanzeige einem Fahrzeuginsassen zu präsentieren. Der Prozessor ist weiter konfiguriert, um eine Insassen-Response während des Verlaufs der Werbeanzeigenpräsentation unter Nutzung einer Fahrzeugkamera visuell aufzuzeichnen. Der Prozessor ist ferner konfiguriert, um die visuell aufgezeichnete Response zu analysieren, um eine Benutzerreaktion auf die Werbeanzeige zu ermessen, und basierend auf der Analyse eine Werbeanzeigenvariablenmetrik mit Bezug auf die präsentierte Werbeanzeige anzugleichen.

Description

  • Die Ausführungsbeispiele betreffen allgemein ein Verfahren und eine Vorrichtung für subjektive Werbeanzeigeneffektivitätsanalyse.
  • Werbung ist vom Fernsehapparat bis zum Verkaufsangestellten im Geschäft eine Form der menschlichen Kommunikation. Menschen sind vor allem gut darin, mit anderen Menschen im direkten Gegenüber zu kommunizieren, jedoch sind im Lauf der Menschheitsgeschichte Technologien entwickelt worden, um den Kommunikationsbedürfnissen von immer technisierteren Gesellschaften gerecht zu werden.
  • Die menschliche Kommunikation ist eine Kombination aus sowohl verbalen als auch nonverbalen Interaktionen. Durch Gesichtsausdrücke, Körpergesten und andere nonverbale Signale kann ein Mensch mit anderen trotzdem effektiv kommunizieren. Dies gilt vor allem bei den Kommunikationen von Emotionen. Studien haben nämlich gezeigt, dass sage und schreibe 93 % der affektiven Kommunikation entweder nonverbal oder paralinguistisch durch Gesichtsausdrücke, Gesten oder den Tonfall stattfindet. Viele Untersuchungsergebnisse und Erfahrungen auf dem Gebiet der Werbung legen auch nahe, dass die visuelle Kommunikation von Emotionen verstärkt werden sollte.
  • Die Werbung hat eine weitaus schwierigere Aufgabe: das Entwickeln einer allgemeinen Menge von allgemeinverständlichen Exemplaren und Paradigmen, die als Unterbau einer vollkommenen Kommunikation dienen, die zum Kommunizieren komplexer Sachverhalte nötig ist. Zu diesem Zweck wird die mündliche Kommunikation vor der Text- oder Text-Sprache-Kommunikation (Text to Speech, TTS) bevorzugt. Eine mit Sprache kombinierte visuelle Kommunikation ist sogar noch besser als Sprache allein, sodass beide Partner eines Gesprächs die Stimme, die Ausdrücke und die Gesten des anderen sehen und hören können. Wenn gute Kommunikation ausschlaggebend ist, wird das direkte Gegenüber immer noch bevorzugt, weswegen Politiker und Hauptgeschäftsführer nach wie vor zu gemeinsamen Meetings reisen und Einzelhändler nach wie vor Vertriebspersonal benötigen.
  • Die europäische Patentanmeldung EP1557810 betrifft allgemein eine Anzeigeanordnung, die eine Bildanzeigeeinrichtung mit zwei oder mehr Mengen von Bildern zur Anzeige beinhaltet; eine Kamera, die zu Positionen gerichtet ist, die die Anzeige betrachtende Benutzer eingenommen haben; einen Gesichtsdetektor zum Detektieren von menschlichen Gesichtern in durch die Kamera erfassten Bildern, wobei der Gesichtsdetektor ausgelegt ist zum Detektieren von Gesichtern in mindestens zwei Gesichtskategorien; und Mittel, als Reaktion auf eine Detektionshäufigkeit von Kategorien von Gesichtern durch den Gesichtsdetektor bezüglich einer oder mehrerer verschiedener Perioden, zum Wählen einer Menge von Bildern zur Anzeige auf der Bildanzeigeeinrichtung zu dieser Tageszeit.
  • Die US-Patentanmeldung 2012/0265616 betrifft allgemein Systeme und Verfahren, die effektiv sind, um Werbeinhalt dynamisch zu wählen. In einem Beispiel können sensorischer Zielinhalt und Identifizierungsinformationen für eine Zielwerbezone empfangen werden. Der sensorische Zielinhalt und die Identifizierungsinformationen können analysiert werden, um Merkmale der Zielwerbezone zu bestimmen. Basierend darauf, dass die Merkmale Bedingungen einer vordefinierten Funktion erfüllen, kann eine Untermenge von Werbeinhalt bestimmt werden. In einigen Ausführungsformen kann an Remote-Computereinrichtungen dynamisches Wählen von Werbeinhalt durchgeführt werden. Andere Ausführungsformen können die Untermenge von Werbeinhalt zum Konsum in der Zielwerbezone rendern.
  • Die US-Patentanmeldung 2012/0243751 betrifft allgemein Gesichtsinformationen, die an einer Person erhoben und genutzt werden, um Gemütsbewegungen zu analysieren. Gesichtsinformationen können genutzt werden, um ein Regelgesicht zu bestimmen, das den Standardausdruck kennzeichnet, den eine Person auf ihrem Gesicht hat. Abweichungen von diesem Regelgesicht können genutzt werden, um Gemütsbewegungen zu bewerten, und weiter genutzt werden, um mentale Zustände zu erschließen. Gesichtsbilder können hinsichtlich verschiedener Ausdrücke, einschließlich Lächeln, Stirnrunzeln und Zwinkern, automatisch ausgewertet werden. Während dieser Regelgesichtsanalyse können Bilddeskriptoren und Bildklassifikatoren genutzt werden.
  • In einem ersten Ausführungsbeispiel beinhaltet ein System einen Prozessor, der konfiguriert ist, um eine Werbeanzeige zu empfangen. Der Prozessor ist auch konfiguriert, um die Werbeanzeige einem Fahrzeuginsassen zu präsentieren. Der Prozessor ist weiter konfiguriert, um eine Insassen-Response während des Verlaufs der Werbeanzeigenpräsentation unter Nutzung einer Fahrzeugkamera visuell aufzuzeichnen. Der Prozessor ist ferner konfiguriert, um die visuell aufgezeichnete Response zu analysieren, um eine Benutzerreaktion auf die Werbeanzeige zu ermessen, und basierend auf der Analyse eine Werbeanzeigenvariablenmetrik mit Bezug auf die präsentierte Werbeanzeige anzugleichen.
  • In einem zweiten Ausführungsbeispiel beinhaltet ein System einen Prozessor, der konfiguriert ist, um eine Werbeanzeige, die eine Gesichtserkennungsübermittlungsanweisung beinhaltet, zu empfangen. Der Prozessor ist auch konfiguriert, um Videos oder Bilder eines Fahrzeuginsassen unter Nutzung einer Fahrzeugkamera zu erfassen, um einen Benutzerausdruckszustand aufzuzeichnen. Der Prozessor ist weiter konfiguriert, um den Benutzerausdruckszustand zu analysieren und, wenn der Benutzerausdruckszustand mit der Gesichtserkennungsübermittlungsanweisung übereinstimmt, die Werbeanzeige zu übermitteln.
  • In einem dritten Ausführungsbeispiel beinhaltet ein computerimplementiertes Verfahren Empfangen einer Werbeanzeige, die eine Gesichtserkennungsübermittlungsanweisung beinhaltet. Das Verfahren beinhaltet auch Erfassen von Videos oder Bildern eines Fahrzeuginsassen unter Nutzung einer Fahrzeugkamera, um einen Benutzerausdruckszustand aufzuzeichnen. Weiter beinhaltet das Verfahren Analysieren des Benutzerausdruckszustands und, wenn der Benutzerausdruckszustand mit der Gesichtserkennungsübermittlungsanweisung übereinstimmt, Übermitteln der Werbeanzeige.
  • 1 zeigt ein veranschaulichendes Fahrzeugcomputersystem;
  • die 2A2D zeigen beispielhafte Gesichtsausdrücke und eine beispielhafte Gesichtsanalyse;
  • 3 zeigt einen veranschaulichenden Prozess zum Analysieren von Gesichtsausdrücken;
  • 4 zeigt ein veranschaulichendes Werbeanzeigenanalysesystem;
  • 5 zeigt einen veranschaulichenden Prozess zur Werbeanzeigendatenerhebung;
  • 6 zeigt einen zweiten veranschaulichenden Prozess zur Werbeanzeigendatenerhebung;
  • 7 zeigt ein veranschaulichendes Beispiel für Gesichtserkennung in einer Rich-Media-Player-Umgebung; und
  • 8 zeigt ein Beispiel für eine Stimmungsprüfung zur Werbeanzeigenbewertung.
  • Wie erforderlich, werden hierin detaillierte Ausführungsformen der vorliegenden Erfindung offenbart; es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich beispielhaft für die Erfindung sind, die in verschiedenen und alternativen Ausbildungen ausgeführt werden kann. Die Figuren sind nicht zwingend maßstabgetreu; einige Merkmale sind eventuell übertrieben oder verkleinert, um Details konkreter Komponenten zu zeigen. Deshalb dürfen spezielle Struktur- und Funktionsdetails, die hierin offenbart werden, nicht als einschränkend ausgelegt werden, sondern lediglich als Darstellungsgrundlage, um dem Fachmann zu lehren, wie von der vorliegenden Erfindung verschieden Gebrauch gemacht werden kann.
  • 1 veranschaulicht eine beispielhafte Blocktopologie für ein fahrzeugbasiertes Computersystem 1 (Vehicle Based Computing System, VCS) für ein Fahrzeug 31. Ein Beispiel für ein solches fahrzeugbasiertes Computersystem 1 ist das von THE FORD MOTOR COMPANY gefertigte SYNC-System. Ein Fahrzeug, in dem ein fahrzeugbasiertes Computersystem aktiviert ist, enthält möglicherweise eine im Fahrzeug befindliche grafische Front-End-Benutzeroberfläche 4. Der Benutzer kann möglicherweise auch mit der Schnittstelle interagieren, falls sie zum Beispiel mit einem berührungsempfindlichen Bildschirm ausgestattet ist. In einem anderen Ausführungsbeispiel erfolgt die Interaktion durch Drücken von Buttons, akustische Sprache und Sprachsynthese.
  • In dem in 1 gezeigten Ausführungsbeispiel 1 steuert ein Prozessor 3 mindestens teilweise den Betrieb des fahrzeugbasierten Computersystems. Der Prozessor, der innerhalb des Fahrzeugs bereitgestellt ist, lässt eine bordseitige Verarbeitung von Befehlen und Routinen zu. Weiter ist der Prozessor sowohl mit einem flüchtigen 5 als auch mit einem nichtflüchtigen Speicher 7 verbunden. In diesem Ausführungsbeispiel ist der flüchtige Speicher ein Random Access Memory (RAM) und der nichtflüchtige Speicher ein Festplattenlaufwerk (Hard Disk Drive, HDD) oder ein Flash-Speicher.
  • Der Prozessor ist auch mit einer Anzahl unterschiedlicher Eingänge ausgestattet, mittels deren der Benutzer über eine Schnittstelle mit dem Prozessor kommunizieren kann. In diesem Ausführungsbeispiel sind ein Mikrofon 29, ein Hilfseingang 25 (für den Eingang 33), ein USB-Eingang 23, ein GPS-Eingang 24 und ein BLUETOOTH-Eingang 15 alle bereitgestellt. Ein Eingangswähler 51 ist ebenfalls bereitgestellt, damit ein Benutzer zwischen verschiedenen Eingängen wechseln kann. Der Eingang sowohl zum Mikrofon als auch zum Hilfsanschluss wird vor der Weiterleitung an den Prozessor von einem Umsetzer 27 von analog in digital umgesetzt. Wenngleich dies nicht gezeigt wird, nutzen zahlreiche der Fahrzeugkomponenten und Hilfskomponenten, die mit dem VCS kommunizieren, möglicherweise ein Fahrzeugnetz (wie unter anderem einen CAN-Bus), um Daten zu und von dem VCS (oder Komponenten davon) weiterzuleiten.
  • Ausgänge des Systems können unter anderem eine Sichtanzeige 4 und einen Lautsprecher 13 oder eine Stereosystemausgabe beinhalten. Der Lautsprecher ist mit einem Verstärker 11 verbunden und empfängt sein Signal vom Prozessor 3 durch einen Digital-Analog-Umsetzer 9. Die Ausgabe kann auch zu einer Remote-BLUETOOTH-Einrichtung wie einem PND 54 oder einer USB-Einrichtung wie einer Fahrzeugnavigationseinrichtung 60 entlang den bidirektionalen Datenströmen mit den Bezugszeichen 19 bzw. 21 erfolgen.
  • In einem Ausführungsbeispiel nutzt das System 1 den BLUETOOTH-Transceiver 15, um mit dem Nomadic Device 53 eines Benutzers (z. B. Mobiltelefon, Smartphone, PDA oder einer beliebigen anderen Einrichtung mit Drahtlos-Remote-Netzkonnektivität) zu kommunizieren 17. Das Nomadic Device kann dann genutzt werden, um mit einem Netz 61 außerhalb des Fahrzeugs 31 zum Beispiel durch Kommunikation 55 mit einem Mobilfunkmast 57 zu kommunizieren 59. In einigen Ausführungsformen ist der Mast 57 möglicherweise ein WiFi-Zugangspunkt.
  • Eine beispielhafte Kommunikation zwischen dem Nomadic Device und dem BLUETOOTH-Transceiver wird durch das Signal 14 dargestellt.
  • Zum Paaren eines Nomadic Device 53 und des BLUETOOTH-Transceivers 15 kann durch einen Button 52 oder eine ähnliche Eingabe angewiesen werden. Folglich wird die CPU dazu angewiesen, dass der bordseitige BLUETOOTH-Transceiver mit einem BLUETOOTH-Transceiver in einem Nomadic Device gepaart wird.
  • Daten können zum Beispiel unter Verwendung eines Datentarifs, von Data over Voice oder von mit einem Nomadic Device 53 assoziierten DTMF-Tönen zwischen der CPU 3 und dem Netz 61 kommuniziert werden. Alternativ ist es eventuell wünschenswert, ein bordseitiges Modem 63 mit einer Antenne 18 darin aufzunehmen, um Daten zwischen der CPU 3 und dem Netz 61 über das Sprachband zu kommunizieren 16. Das Nomadic Device 53 kann dann genutzt werden, um mit einem Netz 61 außerhalb des Fahrzeugs 31 zum Beispiel durch Kommunikation 55 mit einem Mobilfunkmast 57 zu kommunizieren 59. In einigen Ausführungsformen kann das Modem 63 eine Kommunikation 20 mit dem Mast 57 zum Kommunizieren mit dem Netz 61 aufbauen. Als nicht ausschließliches Beispiel ist das Modem 63 möglicherweise ein USB-Funkmodem und die Kommunikation 20 möglicherweise eine Funkkommunikation.
  • In einem Ausführungsbeispiel ist der Prozessor mit einem Betriebssystem ausgestattet, das eine API beinhaltet, um mit einer Modemanwendungssoftware zu kommunizieren. Die Modemanwendungssoftware greift möglicherweise auf ein eingebettetes Modul oder eine eingebettete Firmware im BLUETOOTH-Transceiver zu, um Funkkommunikation mit einem Remote-BLUETOOTH-Transceiver (wie dem, der in einem Nomadic Device vorzufinden ist) durchzuführen. Bluetooth ist eine Untermenge der Protokolle für IEEE 802 PANs (Personal Area Networks). Protokolle für IEEE 802 LANs (Local Area Networks) beinhalten WiFi und weisen eine sich erheblich mit IEEE 802 PANs deckende Funktionalität auf. Beide sind für Drahtloskommunikation innerhalb eines Fahrzeugs geeignet. Ein anderes Kommunikationsmittel, das in diesem Zusammenhang genutzt werden kann, sind optische Freiraumnachrichtenübertragung (wie IrDA) und nicht standardisierte Verbraucher-IR-Protokolle.
  • In einer anderen Ausführungsform beinhaltet ein Nomadic Device 53 ein Modem für Sprachband- oder Breitbanddatenkommunikation. In der Data-over-Voice-Ausführungsform kann eine als Frequenzmultiplexverfahren bekannte Technik implementiert werden, wenn der Besitzer des Nomadic Device über die Einrichtung reden kann, während Daten übertragen werden. Zu anderen Zeiten, zu denen der Besitzer die Einrichtung gerade nicht nutzt, kann bei der Datenübertragung die ganze Bandbreite (in einem Beispiel 300 Hz bis 3,4 kHz) genutzt werden. Während das Frequenzmultiplexverfahren bei der analogen Mobilfunkkommunikation zwischen dem Fahrzeug und dem Internet üblich sein kann und nach wie vor genutzt wird, wurde es weitgehend abgelöst von Mischformen wie Code Domain Multiple Access (CDMA), Time Domain Multiple Access (TDMA), Space-Domain Multiple Access (SDMA) für digitale Mobilfunkkommunikation. Diese sind je mit ITU IMT-2000 (3G) konforme Standards und bieten Datenraten von bis zu 2 Mbit/s für stationäre oder umhergehende Benutzer und 385 Kbit/s für Benutzer in einem sich fortbewegenden Fahrzeug. 3G-Standards werden derzeit abgelöst von IMT-Advanced (4G), der 100 Mbit/s für Benutzer in einem Fahrzeug und 1 Gbit/s für stationäre Benutzer bietet. Falls der Benutzer über einen mit dem Nomadic Device assoziierten Datentarif verfügt, ist es möglich, dass der Datentarif eine Breitbandübertragung zulässt und das System eine viel größere Bandbreite nutzen könnte (was die Datenübertragung beschleunigt). In noch einer anderen Ausführungsform ist das Nomadic Device 53 durch eine Mobilfunkkommunikationseinrichtung (nicht gezeigt) ersetzt, die am Fahrzeug 31 installiert ist. In noch einer anderen Ausführungsform ist das ND 53 möglicherweise eine Einrichtung für ein drahtloses Local Area Network (LAN), die zum Kommunizieren zum Beispiel über (unter anderem) ein 802.11g-Netz (d. h. WiFi) oder ein WiMax-Netz fähig ist.
  • In einer Ausführungsform können ankommende Daten durch das Nomadic Device über Data-over-Voice oder einen Datentarif, durch den bordseitigen BLUETOOTH-Transceiver und in den internen Prozessor 3 des Fahrzeugs übermittelt werden. Im Fall mancher temporärer Daten zum Beispiel können die Daten auf dem HDD oder in einem anderen Speichermedium 7 so lange gespeichert werden, bis die Daten nicht mehr benötigt werden.
  • Zusätzliche Quellen, die über eine Schnittstelle mit dem Fahrzeug kommunizieren können, beinhalten eine persönliche Navigationseinrichtung (Personal Navigation Device) 54 zum Beispiel mit einer USB-Verbindung 56 und/oder einer Antenne 58, eine Fahrzeugnavigationseinrichtung 60 mit einer USB- 62 oder einer anderen Verbindung, eine bordseitige GPS-Einrichtung 24 oder ein Remote-Navigationssystem (nicht gezeigt) mit Konnektivität zu einem Netz 61. USB gehört zu einer Gruppe von Protokollen für serielle Anschlüsse. IEEE 1394 (Firewire), Serienprotokolle der EIA (Electronics Industry Association), IEEE 1284 (Centronics Port), S/PDIF (Sony/Philips Digital Interconnect Format) und USB-IF (USB Implementers Forum) bilden das Rückgrat der seriellen Standards zwischen Einrichtungen. Die meisten Protokolle können entweder für elektrische oder für optische Kommunikation implementiert werden.
  • Weiter könnte die CPU mit verschiedenen anderen Hilfseinrichtungen 65 kommunizieren. Diese Einrichtungen können durch eine drahtlose 67 oder eine drahtgebundene 69 Verbindung verbunden sein. Die Hilfseinrichtung 65 beinhaltet möglicherweise unter anderem Personal Media Player, drahtlose medizinische Geräte, tragbare Computer und dergleichen.
  • Auch oder alternativ könnte die CPU, zum Beispiel unter Nutzung eines Transceivers für WiFi 71, mit einem fahrzeugbasierten Drahtlosrouter 73 verbunden sein. Dadurch könnte die CPU eine Verbindung zu Remote-Netzen in der Reichweite des lokalen Routers 73 herstellen.
  • Zusätzlich dazu, dass beispielhafte Prozesse von einem in einem Fahrzeug befindlichen Fahrzeugcomputersystem ausgeführt werden, werden die beispielhaften Prozesse in manchen Ausführungsformen möglicherweise von einem mit einem Fahrzeugcomputersystem kommunizierenden Computersystem ausgeführt. Ein solches System beinhaltet unter anderem möglicherweise eine drahtlose Einrichtung (z. B. und ohne Einschränkung ein Mobiltelefon) oder ein Remote-Computersystem (z. B. und ohne Einschränkung einen Server), das durch die drahtlose Einrichtung verbunden ist.
  • Gemeinsam werden solche Systeme möglicherweise als fahrzeugassoziierte Computersysteme (Vehicle Associated Computing Systems, VACS) bezeichnet. In manchen Ausführungsformen führen konkrete Komponenten der VACS möglicherweise konkrete Teile eines Prozesses abhängig von der konkreten Implementierung des Systems durch. Beispielhaft und ohne Einschränkung ist es, falls ein Prozess einen Schritt des Sendens oder des Empfangens von Informationen mit einer gepaarten drahtlosen Einrichtung aufweist, wahrscheinlich, dass die drahtlose Einrichtung den Prozess gerade nicht durchführt, weil die drahtlose Einrichtung Informationen mit sich selbst nicht „senden und empfangen“ würde. Der Durchschnittsfachmann versteht, wann es unzweckmäßig ist, ein konkretes VACS auf eine jeweilige Lösung anzuwenden. In allen Lösungen ist vorgesehen, dass mindestens das innerhalb des Fahrzeugs selbst befindliche Fahrzeugcomputersystem (Vehicle Computing System, VCS) zum Durchführen der beispielhaften Prozesse fähig ist.
  • Mensch-Maschine-Schnittstellen nehmen immer mehr die Fähigkeiten von Mensch-Mensch-Schnittstellen an, weitgehend indem Maschinen die Fähigkeiten von Menschen annehmen. Computer können sich als Avatare mit anthropomorphen Stimmen, Gesten und Ausdrücken selbst ausdrücken. Die Ausführungsbeispiele betreffen die Nutzung von maschinellem Sehen, um menschliche Gesichts-/Emotionsausdrücke in einem Fahrzeug zu erkennen und zweckmäßig darauf zu reagieren.
  • Es sind Versuche unternommen worden, bei denen Computern beigebracht werden sollte, menschliche subjektive Emotionsausdrücke zu verstehen und darauf zu achten, wie sich Menschen fühlen, vor allem auf Gebieten der Werbung. Computer haben bereits Reaktionen von Personen auf eine Werbeanzeige aufgezeichnet, etwa ob Personen dabei lächeln, ob Personen dabei die Stirn runzeln, ob sie schockiert und überrascht sind und ob sie überhaupt aufpassen. Gesichts-/Körperausdrücke vermitteln ein facettenreiches Bild einer emotionalen Response, das überaus wertvolle Einblicke in Werbung, Markeneffektivität und die Zufriedenheit mit Produkten/Dienstleistungen liefert.
  • Wenn sich Personen in einem Fahrzeug eine Sendung oder Werbung anhören, ist die Situation ein wenig anders als beim Fernsehen. Die Positionen von Personen werden durch die Geometrie und die Begrenzungen des Fahrzeugs festgelegt und ihr Vorhandensein wird vom Insassenklassifikationssystem bestimmt. Die Insassenblickrichtung verläuft aufgrund der linearen und nach vorne erfolgenden Art des Fahrens die meiste Zeit nach vorne. Um gefährliche visuelle Ablenkungen zu vermeiden, sind Fahrzeugmedien derzeit weitgehend akustisch orientiert. Fahrzeugaufzeichnungseinrichtungen empfangen, oft aufgrund der eingeschränkten Größe, typischerweise Bilder vom Kopf und vom Gesicht und nicht vom ganzen Körper.
  • Mit der Emotionsbestimmung anhand von Bildern kann das Messen der Werbungseffektivität unterstützt werden. Dabei wird eine Strategie zum Identifizieren universeller menschlicher Emotionen genutzt, die durch angeborene und universelle Ausdrücke bestimmbar sind. Zwei Systeme, um dies zu bewerkstelligen, sind gut bekannt. Darwin ging dieses Problem in seinem berühmten Werk „The Expression of the Emotions in Man and Animals” als Erster an, indem er spezielle Emotionen mit Ausdrücken sowohl bei Menschen als auch bei Säugetieren identifizierte, wobei er die Ausdrücke und die emotionalen Verhaltensweisen von Lebewesen über die evolutionären Wege verfolgte. Darwins Emotionen gelten als universell, da sie sowohl bei Menschen als auch bei Tieren beobachtet werden, einschließlich Liebe, Mitgefühl, Hass, Argwohn, Neid, Eifersucht, Geiz, Rachegefühle, Hinterlistigkeit, Zuneigung, Hinterhältigkeit, Schuld, Eitelkeit, Einbildung, Ehrgeiz, Stolz, Bescheidenheit.
  • In jüngerer Zeit hat sich das von Paul Ekman und Kollegen entwickelte Facial Action Coding System (FACS) großer Beliebtheit erfreut. Das FACS-System identifiziert sieben universelle Grundemotionen, die entweder mit automatischer oder mit über Crowdsourcing durchgeführter Erkennung zuverlässig bestimmt werden können; Wut, Ekel, Angst, Freude, Traurigkeit, Überraschung und Neutral. Dabei handelt es sich um die Emotionen des mesolimbischen Systems, die in Kombination und mit geschätzter Intensität identifiziert werden können. Nach weit verbreiteten Annahmen sind sie universell und unwillkürlich. Diverse Gesichtsausdruckerkennungsalgorithmen wurden bisher entwickelt und sind in kommerzieller Software von Quellen wie NVISO, Visual Recognition, Noldus FaceReader usw. implementiert.
  • Die 2A2D zeigen beispielhafte Gesichtsausdrücke und eine beispielhafte Gesichtsanalyse gemäß dem FACS. Die Augenbrauen 201, 211, 221, 231, die Augen 203, 213, 223, 233 und der Mund 205, 215, 225, 235 sollen unterschiedliche Niveaus von emotionalem Inhalt in einem Ausdruck bestimmen.
  • Für jeden Gesichtsausdruck gibt es eine Anzahl möglicher Emotionen, die bestimmt werden können. In diesem veranschaulichenden Beispiel sind die Emotionen Überrascht, Zufrieden, Traurig, Verwirrt, Angeekelt, Wütend und Normal. Andere Emotionen können nach Wunsch auch hinzugefügt werden.
  • Jede Emotion weist auch ein damit assoziiertes Konfidenzniveau auf, das in diesem Beispiel von 0 bis 1 reicht. Wie aus 2A ersichtlich wird, weisen die Augen 203 in einem emotionalen Zustand, in dem die Augenbrauen 201 relativ statisch sind, einen Standardgrad von Geöffnetsein auf, und der Mund ist weitgehend statisch, der höchste projizierte emotionale Zustand 209 ist „normal“. Dies kann einen Regelausdruck darstellen.
  • In 2B haben sich die Augenbrauen 211 verflacht, die Augen 213 haben sich verengt und die Lippen 215 haben sich nach unten gerichtet. Basierend auf diesen Beobachtungen ist der neue emotionale Zustand 219 mit dem höchsten projizierten Konfidenzniveau nun „traurig“, auch wenn verwirrt knapp dahinter liegt.
  • In 2C sind die Augenbrauen 221 nun hochgezogen, die Augen 223 sind weit geöffnet und der Mund 225 ist ebenfalls weit geöffnet. Dieser neue Ausdruck weist die höchste Entsprechung 229 zu „Überraschung“ auf, auch wenn er eine hohe Entsprechung zu „zufrieden“ aufweist.
  • Zum Schluss, in 2D, haben sich die Augenbrauen 231 ein wenig verflacht, die Augen 233 haben sich leicht verengt und der Mund 235 ist nach oben gerichtet. Dieser Ausdruck weist das höchste Niveau einer Entsprechung 239 zu „ zufrieden“ auf.
  • Bei der Anwendung gegenüber einem Fahrer, der während des Fahrens mit einem Computer über ein VCS kommuniziert, um potenziell mit Werbeanzeigen zu interagieren, einen Kauf zu tätigen oder Beurteilungen für irgendwelche Dienstleistungen (z. B. die Zufriedenheit mit Händler-Service) abzugeben, kann die Detektion des subjektiven emotionalen Ausdrucks eine wichtige Rolle spielen. Derzeit ist ein Aspekt, den Benutzer solcher Systeme eventuell bemängeln, dass die Systeme typischerweise nicht gut auf „Gesprächs-“Dialoge reagieren.
  • Ein Vierjähriger versteht eventuell den Satz eines Gesprächs mit Emotionen mit einem höheren Genauigkeitsgrad als ein Computersystem, dessen Entwicklung Millionen von Dollar gekostet hat. Denn diese Systeme werden oft über Schlüsselwörter betrieben und außerdem können die Systeme den Kontext oft wenig oder gar nicht nachvollziehen und verstehen keine Emotionen. Menschen hingegen sprechen eventuell lieber subjektiv mit nonverbalen Emotionsausdrücken, im Gegensatz zu Dialogen, die aus einer Reihe gesprochener, oft objektiver Ausdrücke bestehen. Statt einer expliziten Einstufungsbeurteilung nach Erfahrungen mit Händler-Service sagt ein Fahrzeuginsasse zum Beispiel eventuell „er ist gut“ mit unterschiedlichen Emotionen (Tonfällen) oder setzt eventuell Gesichtsausdrücke auf (strahlendes Lächeln oder neutral), die basierend auf den Gesichtsausdrücken, den Tonfällen oder den Gesten, selbst bei ein und derselben Person, eine völlig unterschiedliche Bedeutung haben könnten.
  • Der Wettbewerb um den Werbeplatz (und das Erhalten von Produkt-/Service-Beurteilungen) im Fahrzeug ist hart geworden. Werbemethoden, die in Printmedien genutzt werden, sind nun zur Online-Werbung übergegangen und werden mittlerweile im Fahrzeug genutzt. Die Ausführungsbeispiele stellen eine sichere Möglichkeit bereit, um den Beeinflussungsprozess von Werbung im Fahrzeug, die Effektivität von Werbeanzeigen im Fahrzeug und die Zufriedenheit mit Produkten/Dienstleistungen nach dem Kauf zu messen, einschließlich subjektiver emotionaler Ausdrücke, und könnten auch Daten in diesem Bereich erheben, um menschliche Emotionsausdrücke besser zu verstehen.
  • Ein beispielhaftes veranschaulichendes Werbungssystem besteht aus einer Frontend-Mensch-Maschine-Schnittstelle, einem Maschinenlernsystem und einem Ausdrucks-(Gesichts-)Erkennungssystem und einem Backend-Steuersystem. Ferner nutzt das System mit Blick auf die Übertragbarkeit und erweitertes Lernen eine cloudbasierte Speicherung und cloudbasiertes Computing. Die Frontend-Mensch-Maschine-Schnittstelle kann mit Fahrern kommunizieren und empfängt die Eingaben sowohl verbal als auch nonverbal basierend auf vielen vorhandenen Optionen (Stimme, Berührung oder Gesichts-/Emotionsausdrücke, Haptik (Kamera, Lenkrad, Sitz und Steuerelemente) usw.). Dieses System wird mit Bezug auf 4 eingehender erörtert.
  • 3 zeigt einen veranschaulichenden Prozess zum Analysieren von Gesichtsausdrücken. In diesem veranschaulichenden Beispiel beginnt der Prozess an irgendeiner Stelle, sobald der Benutzer im Fahrzeug ist 301. Der Benutzer kann in diesem Beispiel ein beliebiger Insasse sein, der im Sichtfeld einer Fahrzeugkamera ist. Durch Gesichtserkennung kann das VCS den/die zu überwachenden Insassen identifizieren, der/die im Sichtfeld einer Kamera ist/sind. Der Prozess scannt 303 jegliche potenziellen identifizierbaren Objekte/Insassen und bestimmt, ob der Benutzer in einer Fahrzeugdatenbank ist 307.
  • Falls der Benutzer in der Datenbank ist, fragt der Prozess Informationen hinsichtlich des Benutzers ab 309. Nach dem Identifizieren des Benutzers kann der bisherige Anzeigenklickverlauf der Person abgerufen und analysiert werden. Das System beginnt durch Nutzung der Gesichts-/Gesten-/Tonfallausdruckerkennungssoftware zu lernen, wie die subjektiven emotionalen Ausdrücke der Benutzer zu interpretieren sind 311.
  • Falls der Benutzer im System neu ist, werden als Ausgangspunkt vorhandene allgemeine Modelle genutzt, und das System wird basierend auf Feedback vom Benutzer mit jeder Nutzung schnell besser und versteht die Bedeutung nonverbaler Ausdrücke mit der Zeit immer besser. Der Maschinenlernprozess basiert auf statistischen Verfahren, die zum Beispiel die Nutzung von Contextual Bandit, Bayes‘schem Lernen oder künstlichen neuronalen Netzen beinhalten. Sobald das System ein Modell zur psychometrischen Abbildung des Benutzers entwickelt hat, kann das System mit einer Kamera eine subjektive emotionale Eingabe (z. B. den Gesichtsausdruck) aufnehmen und einen quantitativen Befehl (z. B. ja oder nein, gut oder schlecht) an das Fahrzeugsteuersystem übermitteln.
  • Die Frontend-Steueranwendung läuft im Fahrzeug und nutzt ein Dialogsystem, das eine Kamera beinhaltet, um: a) mit dem Benutzer zu interagieren und das Feedback für Werbeanzeigen, Transaktionen, Produktbeurteilungen, Service usw. zu beziehen; und b) Feedback und Körperausdrücke von Benutzern aufzuzeichnen. Der cloudbasierte Informationsfilter (Backend-Steuersystem): a) verarbeitet die Eingabedaten, bezieht relevante Benutzerinformationen, b) filtert die Benutzer-Responses und entfernt unnötige Informationen; und c) klassifiziert und indexiert Ausdrücke von Benutzern, fasst die Benutzerfeedbacks in Gruppierungen dynamisch zusammen und führt sie mit Informationen von Benutzern (demografischen Daten, Fahrzeuginformationen) zusammen. Ein Werbetreibender kann zu jeder Zeit Anforderungen übersenden und das System wird relevante Informationseingaben abrufen. Ferner könnte die Maschinenlernsoftware die Verlaufsdaten eines individuellen Fahrers verarbeiten und nonverbale Ausdrücke dieses Fahrers mit der Zeit immer besser erkennen.
  • Falls ein Fahrer zum Beispiel soeben einen Händler-Service-Besuch abgeschlossen hat und zu einem Fahrzeug zurückgekehrt ist, kann das Fahrzeug den Fahrer erkennen und zu einer Beurteilung der Erfahrung auffordern. Der Fahrer kann „gut“ sagen oder einfach strahlend lächeln oder den Daumen hochhalten. Die Beurteilungs-Response würde nonverbal durch eine Kamera innerhalb des Fahrzeugs aufgezeichnet. Die Eingabe würde zunächst durch die Steueranwendung an die Nachrichtencloud gesendet. Ein Nachrichtenfilter wird die Ausdrücke verarbeiten, die emotionalen Ausdrücke erkennen und sie dann mit den Beurteilungsergebnissen (Einstufung) verbinden. Nachdem das Fahrzeug die Ergebnisse nebst den Fahrerinformationen (Fahrzeugidentifizierungsnummer, demografische Informationen) an Werbetreibende oder Dienstleister (z. B. Händler) gesendet hat, könnten die Werbetreibenden dann bestimmen, wie zu reagieren ist.
  • Das System versucht basierend auf beobachteten verbalen und nonverbalen Responses zu ermessen, ob ein Fahrer uninteressiert (zum Beispiel neutraler Ausdruck) oder unzufrieden 313, mäßig interessiert oder zufrieden 315 oder sehr interessiert oder zufrieden ist 317. Falls der Benutzer uninteressiert oder unzufrieden ist, kann der Prozess Fragen stellen oder versuchen, Gründe dafür zu finden, weshalb der Benutzer auf diese Weise reagiert hat 319. Falls der Benutzer zufrieden, interessiert oder sehr interessiert ist, kann der Prozess ähnliche Dienste oder Werbeanzeigen (jetzt oder in Zukunft) empfehlen 321. Die Reaktionen des Benutzers auf verschiedene Dienste und Werbeanzeigen können für künftige Bezugnahmen auch in einer Datenbank gespeichert werden.
  • 4 zeigt ein veranschaulichendes Werbeanzeigenanalysesystem. In diesem veranschaulichenden Beispiel enthält ein VCS-Modul ein Applink-Modul, das mit Anwendungen kommunizieren kann, die auf einem Telefon oder einer anderen mobilen Einrichtung 403 laufen. Dieses Modul kann der mobilen Einrichtung zum Beispiel Werbungsdaten zuführen (falls Werbeanzeigen bereitgestellt werden), sodass konkrete Werbeanzeigen basierend auf beobachteten Benutzervorlieben empfohlen werden können. In diesem Ausführungsbeispiel läuft auf der mobilen Einrichtung zwischen der Anwendung 419 und dem Applink-Modul eine OEM-Schnittstellenanwendung 417.
  • Auch als Teil der VCS bereitgestellt wird ein nonverbale Ausdrücke aufzeichnendes Gerät 413. Dieses zeichnet die visuellen Ausdrücke auf, die durch die Werbung erzeugt werden. In Verbindung mit dieser Aufzeichnung können Anwendungen oder Werbeanzeigen von Anwendungen Daten zur Werbeanzeige senden, sodass das aufzeichnende Gerät Werbeanzeigen bei Kenntnis des Kontextes der Werbeanzeigen bewerten kann. Eine Werbeanzeige für McDonald‘s könnte zum Beispiel unter anderem damit assoziierte Tags wie „Fast Food“ und „Essen“ und „Hamburger“ aufweisen. Wenn der aufgezeichnete Ausdruck Ausdrücke gemessen hat, um eine Response auf die Werbeanzeige zu ermessen, könnte der Prozess bestimmen, dass der Benutzer Werbeanzeigen hinsichtlich dieser Tags gemocht oder nicht gemocht hat. Weitere Werbeanzeigen von anderen Verkäufern weisen möglicherweise nur einige der damit assoziierten Tags auf, sodass Reaktionen eines Benutzers auf spezielle Tags durch wiederholte Beobachtung aussortiert werden können. Eine andere Werbeanzeige könnte zum Beispiel für FIVE GUYS HAMBURGERS sein. Falls damit nur „Essen“ und „Hamburger“ assoziiert waren und der Benutzer auf diese Werbeanzeige positiv und auf die McDonald’s-Anzeige negativ reagiert hat, könnte (unter anderen möglichen Schlussfolgerungen) vermutet werden, dass der Benutzer McDonald’s entweder nicht mag, Fast Food nicht mag oder während der McDonald’s-Präsentation nicht hungrig war. Durch wiederholte Beobachtung und Filterung kann eine umfassende Menge von Benutzervorlieben bestimmt werden.
  • Das VCS 401 in diesem Beispiel beinhaltet auch einen Media Player 415, der zur Werbeanzeigenwiedergabe genutzt werden kann. Eingaben in das VCS stellen auch eine MMS (Mensch-Maschine-Schnittstelle) 407 und Fahrzeugsysteme 409 bereit.
  • Die MMS beinhaltet unter anderem Elemente wie eine Kamera, einen Lautsprecher, Spracherkennungsfunktionen, Lenkradeingaben, ein Armaturenbrett und eine Touchscreen-Anzeige. Die Fahrzeugsysteme beinhalten unter anderem Navigationsfunktionen und -hardware, Fahrerstatusmessungen (wie einen Arbeitsauslastungsschätzer und eine Fahrerzufriedenheitsbewertung), Fahrzeugidentifizierungsinformationen und einen Fahrerverlauf (d. h. ein Fahrerprofil).
  • Durch die mobile Einrichtung kommuniziert das VCS auch mit der Cloud 405. Die Cloud stellt erweiterte Rechenressourcen bereit, die Server 421, Datenmanager 423, Werbungsserver 425 und Lernsoftware 427 beinhalten können. Da es schwierig sein kann, genug Rechenleistung aufzunehmen, um Gesichtsausdrücke in einem Fahrzeug zu analysieren, kann die Cloud zu Gesichtsanalysierungszwecken weitere Rechenressourcen bereitstellen. Bilder von Ausdrücken oder Messungen von Bilddatenpunkten oder andere ausdrucksbezogene Daten können zur weiteren Analyse und Bewertung an die Cloud gesendet werden.
  • 5 zeigt einen veranschaulichenden Prozess zur Werbeanzeigendatenerhebung. In diesem veranschaulichenden Beispiel beginnt der Prozess mit dem Wiedergeben einer Werbeanzeige an einem Fahrzeug 501. Diese Werbeanzeige weist zusätzlich dazu, dass sie einem Benutzer präsentiert wird, möglicherweise damit assoziierte Daten auf, die nützlich sind, um Benutzerreaktionen nicht nur auf die Werbeanzeige, sondern auch auf Werbeanzeigen von einem ähnlichen Typ zu verfolgen. Zeitdaten, Umweltdaten und andere Daten können ebenfalls verfolgt werden, da ein Benutzer zum Beispiel zur Mittagszeit möglicherweise mehr Interesse an gastronomiebasierter Werbung zeigt. Ähnlich ist der Benutzer möglicherweise eher geneigt, ein Drive-in in Anspruch zu nehmen, wenn es gerade regnet.
  • Wenn die Werbeanzeige wiedergegeben wird, läuft die Gesichtserkennungssoftware an und beginnt, Benutzeremotionen aufzuzeichnen und mit Zeitstempeln zu versehen 503. Diese können durch Nutzung der Kamera aufgezeichnet, zum Vergleich mit Werbeanzeigen (sogar bis hin zu Bruchteilen der Werbeanzeige) mit Zeitstempeln versehen und wie in den 2A2D gezeigt bewertet werden. Fahrzeugkontextinformationen können auch vom Fahrzeug BS erhoben werden 505. Diese können Informationen über Fahrzeugzustände (Geschwindigkeit, Ort), Informationen über Benutzer (Anzahl der Fahrgäste, Gewicht, Größe), Umweltinformationen (Wetter, Verkehr) und beliebige andere nützliche Informationen beinhalten.
  • In diesem Beispiel misst das System mindestens eine Anzahl von Insassen 507 und einen Grad der Fahrerablenkung 507. Die Fahrerablenkung kann ein nützlicher Indikator dafür sein, wie viel Aufmerksamkeit ein Fahrer beliebigen Werbeanzeigen wahrscheinlich eigentlich widmet, und kann zum Ausgleichen der Analyse genutzt werden. Falls ein Fahrer zum Beispiel stark abgelenkt ist und dichter Verkehr herrscht, hat eine „wütende“ Response eventuell nichts mit der Werbeanzeige zu tun. Sobald die Werbeanzeige endet 509, kann der Prozess das Spektrum der Gesichtsausdrücke im Zeitverlauf der Werbeanzeige bewerten, Kontextinformationen bewerten und jegliche anderen relevanten Variablen bewerten. Diese Informationen können genutzt werden, um Werbungsdaten zu aktualisieren 513, und die Bewertungen der konkreten Werbeanzeige können zur Aktualisierung auch zu einem Benutzerprofil hinzugefügt werden 515.
  • 6 zeigt einen zweiten veranschaulichenden Prozess zur Werbeanzeigendatenerhebung. In diesem veranschaulichenden Beispiel sind Werbeanzeigen auf bestimmte emotionale Zustände abgestimmt. Es ist zum Beispiel eventuell nicht erwünscht, dass eine Werbeanzeige wiedergegeben wird, wenn ein Benutzer offensichtlich wütend ist, weil der Werbetreibende nicht will, dass sein Produkt im Unterbewusstsein mit Ärger assoziiert wird. Werbetreibende zahlen eventuell sogar einen Aufpreis für die Wiedergabe von Werbeanzeigen dann, wenn ein Benutzer in einem konkreten emotionalen Zustand ist.
  • Bei diesem Prozess beginnt die Gesichtserkennungssoftware, einen emotionalen Zustand basierend auf einem Ausdruck zu detektieren 601. Wie in den 2A2D gezeigt, können Ausdrücke zur Analyse des emotionalen Zustands eines Fahrers bewertet werden. Wenn ein gewünschter emotionaler Zustand erreicht wurde 603, beginnt eine Werbeanzeigenwiedergabe.
  • Bei der Werbeanzeigenwiedergabe beginnt die Gesichtserkennungssoftware erneut, emotionale Zustände des Benutzers aufzuzeichnen und die Responses mit Zeitstempeln zu versehen 605. Dies kann nützlich sein, um zu bestimmen, wie erfolgreich die Werbeanzeige war, als sie während eines konkreten emotionalen Zustands präsentiert wurde. Falls eine Person zum Beispiel in einem „traurigen“ Zustand war und eine Werbeanzeige für ein Lieblingsgericht wiedergegeben wurde, kann die Person, die sich eventuell mit Essen tröstet, von „traurig“ zu „normal“ wechseln. Emotionsbewertungen können zur weiteren Analyse auch mit Benutzerhandlungen kombiniert werden (d. h. falls das Fahrzeug das Restaurant innerhalb der nächsten fünf Minuten aufsucht). Wenn dann bekannt ist, dass sich der Benutzer mit einem konkreten Gericht oder allgemein Essen tröstet, kann es angebracht sein, Gastronomiewerbeanzeigen bereitzustellen, wenn ein Benutzer in einem „traurigen“ Zustand ist.
  • Ähnlich erfolgt eventuell keine Response seitens eines Benutzers, oder der Zustand eines Benutzers wechselt eventuell von einem Zustand mit „niedrigem Niveau“, etwa traurig, zu einem „schlechteren“ Zustand, etwa „wütend“. Falls zwischen einer in einem „traurigen“ Zustand wiedergegebenen Werbeanzeige, die einen Benutzer „wütend“ macht, eine messbare Korrelation besteht, wäre es angebracht, diese Werbeanzeige (oder andere in dieser Art) während eines „traurigen“ Zustands zu meiden.
  • Wie zuvor können ebenfalls Fahrzeugkontextinformationen erhoben werden 607. Diese Informationen beinhalten eventuelle messbare oder meldbare Variablen, die möglicherweise nutzbar sind, um eine Umgebung zu bestimmen, in welcher der Erfolg einer Werbeanzeige ermessen werden kann. Wenngleich es schwierig sein kann, die Response eines Benutzers basierend auf einer gegebenen Variable in einem Szenario, in dem eine Anzahl von Variablen vorhanden ist, festzustellen, kann eine Langzeitanalyse dazu beitragen, die Einzelheiten mit Bezug zu jeder gegebenen Variable zu verfeinern.
  • Auch werden in dieser Ausführungsform eine Anzahl von Insassen und ein Ablenkungsgrad gemessen, wie es der Fall im vorherigen Beispiel war, das in 5 gezeigt wurde.
  • Sobald die Werbeanzeige endet, kann der Prozess erneut die Gesichtserkennung im Verlauf der Zeit, Kontextinformationen und andere geeignete Variablen analysieren, die möglicherweise eine Auswirkung auf eine Reaktion hatten und/oder hinsichtlich einer gegebenen Reaktion bewertet werden können. Wenn eine Variable auf eine Reaktion „eine Auswirkung hat“, kann dies bedeuten, dass diese Variable, unter allgemein beobachteten Umständen, wenn sonst alles neutral ist, tendenziell eine erkannte Auswirkung nach sich zieht (z. B. Zeit = Mittagessenszeit, Auswirkung = positive Response auf Gastronomiewerbeanzeigen im Allgemeinen). Somit ist es unter diesem beobachteten Umstand, basierend auf der visuellen Benutzer-Response auf Werbeanzeigen zur Mittagessenszeit, möglicherweise angebracht, Gastronomiewerbeanzeigen zu übermitteln, wenn eine Zeitvariable gleich „Mittagessenszeit“ (oder Essenszeit oder dem Äquivalent) ist.
  • Ähnlich haben manche Variablen möglicherweise eine Beziehung zu einer gegebenen Reaktion. Falls ein Benutzer zum Beispiel „zufrieden“ ist, neigt er eher dazu, einen „Impulskauf“ zu tätigen. Werbetreibende wissen allgemein, ob ihre Produkte mit „impulsiven Käufen“ in Verbindung gebracht werden, und es ist eventuell wünschenswerter, Werbeanzeigen für „Impulskäufe“ während Benutzerzuständen, die „zufrieden“ entsprechen, laufen zu lassen (in diesem nicht einschränkenden Modell).
  • Auch hier können die Werbeanzeigendaten für jede Werbeanzeige basierend auf den beobachteten Responses aktualisiert werden 615. Diese Daten können dann in ein Benutzerprofil hochgeladen werden 617. Diese Daten können auch in anderen Profilen wie „Gruppenprofilen“ gespeichert werden. Ein „Gruppenprofil“ ist ein Profil, das Gruppen-Responses identifiziert, wenn eine Werbeanzeige wiedergegeben wird, wenn eine Gruppe von Personen anwesend ist. Es kann spezielle Mitglieder, Mitglieder von einem demografischen Typ (z. B. Erwachsene und Kinder) umfassen oder einfach auf eine Gruppe beliebiger anwesender Personen bezogen sein.
  • 7 zeigt ein veranschaulichendes Beispiel für Gesichtserkennung in einer Rich-Media-Player-Umgebung. In diesem veranschaulichenden Beispiel beginnt der Prozess genauso wie mit Bezug auf 6. Ein Gesichtserkennungsprozess läuft an 701, und wenn die richtige Emotion erkannt oder „vermutet“ wird, 703, wird der Werbungsinhalt wiedergegeben.
  • Während die Werbeanzeige wiedergegeben wird, werden von der Gesichtserkennungssoftware emotionale Zustände weiter angesehen und aufgezeichnet 705. Auch in diesem veranschaulichenden Beispiel werden die Zustände mit Zeitstempeln versehen, selbst wenn in einem anderen Modell auch ein durchschnittlicher Zustand während des Verlaufs der Werbeanzeige gemessen werden kann.
  • In diesem Beispiel hat die Werbeanzeige eine Möglichkeit, sich einer Fahrer-Response dynamisch anzupassen 707. Hier werden zahlreiche Zustände gezeigt, obwohl die Werbeanzeige, wie jeweils zweckmäßig, auch weniger oder mehr Zustände verwenden könnte. Ferner können manche Zustände zu Verzweigungszwecken in Gruppen zusammengefasst werden. Das heißt, Zustände, für die bestimmt wurde, dass sie eine ähnliche Response auf ähnliche Typen von Werbeanzeigen hervorrufen, können zur Folge haben, dass ein ähnlicher Werbeanzeigenzweig wiedergegeben wird.
  • Die Verzweigung in diesem Beispiel basiert darauf, dass eine Werbeanzeige einen damit assoziierten dynamischen Inhalt aufweist. Eine Einkaufszentrumwerbeanzeige animiert eventuell allgemein dazu, in einem Einkaufszentrum einkaufen zu gehen. Da ein Einkaufszentrum über zahlreiche Geschäfte und Restaurants verfügt, besteht eventuell eine Möglichkeit, die Werbeanzeige auf einen konkreten Benutzer zuzuschneiden. Falls ein Benutzer zum Beispiel traurig ist, jedoch zufrieden wird, wenn eine gastronomiebasierte Werbeanzeige wiedergegeben wird, kann sich die Einkaufszentrumwerbeanzeige zu einer Gastronomiewerbeanzeige verzweigen, nachdem für das Einkaufszentrum allgemein Werbung gemacht worden ist. Ähnlich kann sich die Einkaufszentrumwerbeanzeige, falls ein Benutzer auf Bekleidungswerbeanzeigen tendenziell positiv reagiert, wenn ein Benutzer zufrieden ist, zu einer Bekleidungswerbeanzeige verzweigen, wenn ein Benutzer zufrieden ist.
  • Im Ausführungsbeispiel werden in nicht einschränkender Weise sieben Werbeanzeigenzweige präsentiert, die sieben emotionalen Zuständen entsprechen. Basierend darauf, ob ein Benutzer überrascht 709, traurig 711, zufrieden 713, wütend 715, verächtlich 717, frustriert 719 oder neutral 721 ist, wird jeweils ein anderer Werbeanzeigenabschnitt wiedergegeben. In diesem Beispiel werden Abschnitte, die den verschiedenen Emotionen 721, 723, 725, 727, 729, 731, 733 entsprechen, wiedergegeben, auch wenn, wie angegeben, beliebig viele Abschnitte in Gruppen zusammengefasst werden können. Ferner oder alternativ können noch andere Abschnitte basierend auf anderen Emotionen nach Bedarf hinzugefügt werden.
  • Schließlich wird ein Endabschnitt wiedergegeben 735, der zum Beispiel dynamischen Inhalt basierend auf einem vorherigen Abschnitt beinhalten kann oder lediglich ein statischer Abschnitt sein kann. Die Werbeanzeige kann dann, wie jeweils zweckmäßig, wiederholt oder beendet werden 737.
  • 8 zeigt ein Beispiel für eine Stimmungsprüfung zur Werbeanzeigenbewertung. In diesem Ausführungsbeispiel wird eine konkrete Werbeanzeige für eine Stimmungsprüfung an ein Fahrzeug gesendet. Falls ein Verkäufer zum Beispiel eine Werbeanzeige entwickelt, deren Anwendung eventuell fraglich ist, möchte der Verkäufer diese Werbeanzeige vor der allgemeinen Verbreitung möglicherweise gegenüber diversen Benutzern und Benutzerzuständen prüfen, um ein Gefühl dafür zu bekommen, wann der Werbeanzeige wahrscheinlich ein Maß an Erfolg zuteil werden wird.
  • Die Werbeanzeige wird an Fahrzeuge gesendet, einschließlich Stimmungsprüfungsanweisungen und einer Zeitverzögerung 801. Die Werbeanzeige wird zu den zweckmäßigen Zeiten im Fahrzeug wiedergegeben. Dies kann mehrere Wiedergaben basierend auf vordefinierten Wiedergabeintervallen beinhalten 803. Auch wird der Prozess basierend auf einer Zeit nach einem voreingestellten Intervall (das zum Ermessen der Reaktion im Verlauf der Zeit genutzt werden kann) eine Stimmungsprüfung durchführen 805.
  • Die Prüfung kann zum Beispiel damit beginnen, dass eine Frage zur Meinung eines Insassen zu einem Produkt gestellt wird 807. Darauf reagierend kann der Fahrer eine Eingabe zu dem Produkt und einer dazugehörigen Meinung vornehmen 809. Ferner können die Kameras im Fahrzeug Bilder aufzeichnen 811 und Zeitstempel vergeben. Diese Bilder und Zeitstempel können analysiert und mit Momenten der präsentierten Werbeanzeigen korreliert werden 813.
  • Weiter können die Bilder hinsichtlich messbarer Emotionen analysiert werden, wenn ein Fahrer spezielle Wörter ausspricht 815. Da Sprache in diesem veranschaulichenden Beispiel Messungen unterliegt, kann der Mund bei der Analyse der Gesichtserkennung ignoriert werden. In einem anderen Beispiel wird der Mund eventuell nur in Fällen berücksichtigt, in denen Spracheingaben nicht gemessen werden.
  • Zeitverzögerungen zwischen dem Stellen von Fragen und ihrer Beantwortung werden als ein Maß einer Vertrautheit mit den Fragen aufgezeichnet 817. Auch Werbeanzeigen und assoziierte messbare Hinweiszeichen werden basierend auf den gemessenen Faktoren und Variablen, wie jeweils zweckmäßig, aufgezeichnet und aktualisiert 819. Weiter kann die Werbeanzeigeneffektivität basierend auf beobachteten Hinweiszeichen aufgezeichnet werden 821.
  • Wenngleich oben beispielhafte Ausführungsformen beschrieben werden, ist nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Ausbildungen der Erfindung beschreiben. Vielmehr sind die in der Patentschrift genutzten Begriffe beschreibende und keine einschränkenden Begriffe, und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Gedanken und vom Schutzbereich der Erfindung abzuweichen. Ferner können die Merkmale verschiedener implementierender Ausführungsformen so kombiniert werden, dass sie weitere Ausführungsformen der Erfindung bilden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1557810 [0005]
  • Zitierte Nicht-Patentliteratur
    • IEEE 802 [0028]
    • IEEE 802 [0028]
    • IEEE 802 [0028]
    • IEEE 1394 [0031]
    • IEEE 1284 [0031]

Claims (7)

  1. System, das Folgendes umfasst: einen Prozessor, der konfiguriert ist, um: eine Werbeanzeige zu empfangen; die Werbeanzeige einem Fahrzeuginsassen zu präsentieren; eine Insassen-Response während des Verlaufs der Werbeanzeigenpräsentation unter Nutzung einer Fahrzeugkamera visuell aufzuzeichnen; die visuell aufgezeichnete Response zu analysieren, um eine Benutzerreaktion auf die Werbeanzeige zu ermessen; und basierend auf der Analyse eine Werbeanzeigenvariablenmetrik mit Bezug auf die präsentierte Werbeanzeige anzugleichen.
  2. System nach Anspruch 1, wobei die Werbeanzeigenpräsentation eine visuelle Präsentation beinhaltet.
  3. System nach Anspruch 1, wobei die Werbeanzeigenpräsentation eine akustische Präsentation beinhaltet.
  4. System nach Anspruch 1, wobei der Prozessor konfiguriert ist, um eine Benutzer-Response über eine Fahrzeugkamera aufzuzeichnen.
  5. System nach Anspruch 1, wobei die Benutzer-Response einen Gesichtsausdruck beinhaltet.
  6. System nach Anspruch 5, wobei die Analyse des Gesichtsausdrucks zu einem bestimmten Benutzeremotionszustand führt.
  7. System nach Anspruch 6, wobei der Benutzeremotionszustand genutzt wird, um ein Benutzerprofil mit einer Benutzer-Response auf die Werbeanzeige basierend auf dem Emotionszustand zu aktualisieren.
DE201410204530 2013-03-15 2014-03-12 Verfahren und vorrichtung für subjektive werbeanzeigeneffektivitätsanalyse Withdrawn DE102014204530A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/834,330 2013-03-15
US13/834,330 US20140278910A1 (en) 2013-03-15 2013-03-15 Method and apparatus for subjective advertisment effectiveness analysis

Publications (1)

Publication Number Publication Date
DE102014204530A1 true DE102014204530A1 (de) 2014-09-18

Family

ID=51419294

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201410204530 Withdrawn DE102014204530A1 (de) 2013-03-15 2014-03-12 Verfahren und vorrichtung für subjektive werbeanzeigeneffektivitätsanalyse

Country Status (3)

Country Link
US (1) US20140278910A1 (de)
CN (1) CN104050587A (de)
DE (1) DE102014204530A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017107086A1 (de) * 2017-04-03 2018-10-04 Advanced Digital Solutions Ltd. Verkaufshilfsmittel für den Einzelhandel
DE102018133453A1 (de) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überwachen eines Insassen eines Fahrzeugs
DE102018133445A1 (de) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überwachen eines Insassen eines Fahrzeugs sowie System zur Analyse der Wahrnehmung von Objekten
DE102020107062A1 (de) 2020-03-14 2021-09-16 Audi Aktiengesellschaft Verfahren zum Betreiben einer Ausgabevorrichtung eines Kraftfahrzeugs, Steuereinrichtung, Kraftfahrzeug, und Servereinrichtung

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150142552A1 (en) * 2013-11-21 2015-05-21 At&T Intellectual Property I, L.P. Sending Information Associated with a Targeted Advertisement to a Mobile Device Based on Viewer Reaction to the Targeted Advertisement
CN105095182B (zh) * 2014-05-22 2018-11-06 华为技术有限公司 一种回复信息推荐方法及装置
US9747573B2 (en) * 2015-03-23 2017-08-29 Avatar Merger Sub II, LLC Emotion recognition for workforce analytics
US9852355B2 (en) * 2015-04-21 2017-12-26 Thales Avionics, Inc. Facial analysis for vehicle entertainment system metrics
WO2017038574A1 (ja) * 2015-08-28 2017-03-09 日本電気株式会社 影響度測定装置および影響度測定方法
CN106910512A (zh) * 2015-12-18 2017-06-30 株式会社理光 语音文件的分析方法、装置及系统
US10701429B2 (en) * 2016-08-16 2020-06-30 Conduent Business Services, Llc Method and system for displaying targeted multimedia items to a ridesharing group
JP6382273B2 (ja) * 2016-09-30 2018-08-29 本田技研工業株式会社 施設満足度算出装置
WO2019024068A1 (en) * 2017-08-04 2019-02-07 Xinova, LLC SYSTEMS AND METHODS FOR DETECTING EMOTION IN VIDEO DATA
JP2019124976A (ja) * 2018-01-11 2019-07-25 トヨタ自動車株式会社 リコメンド装置、リコメンド方法、及びリコメンドプログラム
CN110789635B (zh) * 2018-08-03 2022-08-12 黄学正 智能型移动载具
US20230135254A1 (en) * 2020-07-01 2023-05-04 Gennadii BAKHCHEVAN A system and a method for personalized content presentation
CN113327140B (zh) * 2021-08-02 2021-10-29 深圳小蝉文化传媒股份有限公司 基于大数据分析的视频广告投放效果智能分析管理系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1557810A2 (de) 2004-01-23 2005-07-27 Sony United Kingdom Limited Anzeigevorrichtung

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620026B2 (en) * 2006-10-12 2009-11-17 At&T Intellectual Property I, L.P. Methods, systems, and computer program products for providing advertising and/or information services over mobile ad hoc cooperative networks using electronic billboards and related devices
US8085139B2 (en) * 2007-01-09 2011-12-27 International Business Machines Corporation Biometric vehicular emergency management system
US8082098B2 (en) * 2007-03-16 2011-12-20 Sony Corporation Information supplying system, apparatus mounted in vehicle, information supplying server, program, and information processing method
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法
US20120072936A1 (en) * 2010-09-20 2012-03-22 Microsoft Corporation Automatic Customized Advertisement Generation System
US20120143693A1 (en) * 2010-12-02 2012-06-07 Microsoft Corporation Targeting Advertisements Based on Emotion
CN102129644A (zh) * 2011-03-08 2011-07-20 北京理工大学 一种具有受众特性感知与统计功能的智能广告系统
CN102881239A (zh) * 2011-07-15 2013-01-16 鼎亿数码科技(上海)有限公司 基于图像识别的广告投播系统及方法
CA2775814C (en) * 2012-05-04 2013-09-03 Microsoft Corporation Advertisement presentation based on a current media reaction
US20140039991A1 (en) * 2012-08-03 2014-02-06 Elwha LLC, a limited liabitity corporation of the State of Delaware Dynamic customization of advertising content

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1557810A2 (de) 2004-01-23 2005-07-27 Sony United Kingdom Limited Anzeigevorrichtung

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IEEE 1284
IEEE 1394
IEEE 802

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017107086A1 (de) * 2017-04-03 2018-10-04 Advanced Digital Solutions Ltd. Verkaufshilfsmittel für den Einzelhandel
DE102018133453A1 (de) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überwachen eines Insassen eines Fahrzeugs
DE102018133445A1 (de) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überwachen eines Insassen eines Fahrzeugs sowie System zur Analyse der Wahrnehmung von Objekten
WO2020126375A1 (de) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum überwachen eines insassen eines fahrzeugs sowie system zur analyse der wahrnehmung von objekten
WO2020126376A1 (de) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum überwachen eines insassen eines fahrzeugs
US11810149B2 (en) 2018-12-21 2023-11-07 Volkswagen Aktiengesellschaft Method and device for monitoring a passenger of a vehicle
DE102020107062A1 (de) 2020-03-14 2021-09-16 Audi Aktiengesellschaft Verfahren zum Betreiben einer Ausgabevorrichtung eines Kraftfahrzeugs, Steuereinrichtung, Kraftfahrzeug, und Servereinrichtung

Also Published As

Publication number Publication date
CN104050587A (zh) 2014-09-17
US20140278910A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
DE102014204530A1 (de) Verfahren und vorrichtung für subjektive werbeanzeigeneffektivitätsanalyse
US10796176B2 (en) Personal emotional profile generation for vehicle manipulation
DE102015113664A1 (de) Verfahren und vorrichtung für biometrische werbeanzeigenrückmeldungserfassung und -verwendung
US20060184800A1 (en) Method and apparatus for using age and/or gender recognition techniques to customize a user interface
Martí Parreño et al. Key factors of teenagers' mobile advertising acceptance
US20200145615A1 (en) System and method for providing virtual interpersonal communication
CN105339969B (zh) 链接的广告
Wood et al. Remembering together: The importance of shared emotional memory in event experiences
DE102014100412A1 (de) Verfahren und vorrichtung zur werbungsvorführung
DE102014204227A1 (de) Ad-manager für ein fahrzeug-multimediasystem
DE102013201260A1 (de) Verfahren und vorrichtung zum sammeln von verbraucherinformationen in fahrzeugen
DE202017104849U1 (de) Systeme und Medien zum Darstellen einer Benutzerschnittstelle, die für eine vorhergesagte Benutzeraktivität kundenspezifisch ist
CN108369715A (zh) 基于视频内容特性的交互式评述
US20140278781A1 (en) System and method for conducting surveys inside vehicles
Bucy et al. “Happy warriors” revisited: Hedonic and agonic display repertoires of presidential candidates on the evening news
DE102019100793A1 (de) Synchronisierungssystem für werbung am strassenrand und fahrzeuge
Kreutzer et al. Fields of application of artificial intelligence—customer service, marketing and sales
DE102021102804A1 (de) Nicht-intrusives Datenerfassungssystem im Fahrzeug durch Erfassen von Aktionen von Fahrzeuginsassen
Hudák et al. The impact of advertisement on consumer’s perception
DE112020003033T5 (de) Verfahren und Vorrichtung zum Verbessern einer Geolokalisierungsdatenbank
Wang et al. Driver-to-driver communication on the highway: What drivers want
Comes et al. How to diminish advice discounting with mobile multimedia interventions
Nissen et al. Are You Human? Investigating the Perceptions and Evaluations of Virtual Versus Human Instagram Influencers
Axelsson Travel Selfie: A commodification of the tourist experience and culture?
LU100930B1 (de) Verkaufsunterstützungssystem

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee