JP2013050945A - 人物トラッキング及びインタラクティブ広告 - Google Patents

人物トラッキング及びインタラクティブ広告 Download PDF

Info

Publication number
JP2013050945A
JP2013050945A JP2012146222A JP2012146222A JP2013050945A JP 2013050945 A JP2013050945 A JP 2013050945A JP 2012146222 A JP2012146222 A JP 2012146222A JP 2012146222 A JP2012146222 A JP 2012146222A JP 2013050945 A JP2013050945 A JP 2013050945A
Authority
JP
Japan
Prior art keywords
advertising
person
body posture
station
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012146222A
Other languages
English (en)
Other versions
JP6074177B2 (ja
Inventor
Oliver Krahnstoever Nils
ニルズ・オリヴァー・クランストーヴァー
Peter Henry Tu
ピーター・ヘンリー・トゥ
Ming-Ching Chang
ミン−チン・チャン
Ge Weina
ウェイナ・ジ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2013050945A publication Critical patent/JP2013050945A/ja
Application granted granted Critical
Publication of JP6074177B2 publication Critical patent/JP6074177B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】広告の有効性を良好に評価及び判定する広告システムを提供する。
【解決手段】システムは、ディスプレイを備えた、ディスプレイを通じて潜在顧客に広告コンテンツを提供するように構成された広告ステーションと、この広告ステーションに潜在顧客が接近すると、この潜在顧客の画像を捕捉するように構成された1つ以上のカメラとを含む。本システムは更に、データ処理システムを含み、捕捉された画像を解析することにより、潜在顧客の視線方向及び身体姿勢方向を判定し、判定された視線方向及び身体姿勢方向に基づいて、広告コンテンツにおける潜在顧客の関心度を判定する。
【選択図】図1

Description

本開示は、概して個人のトラッキングに関し、一部の実施例では、ユーザの関心を推測し、インタラクティブ広告のコンテキストにおけるユーザの経験を増進するためのトラッキングデータの使用に関する。
製品及びサービスの広告は、至る所にある。広告掲示板、看板、及びその他の広告媒体が、潜在顧客の注意を惹こうと競い合っている。近年、ユーザの関与を促すインタラクティブ広告ディスプレイが導入されている。広告は普及しているものの、特定の形態の広告の有効性を判定することは、難しいかもしれない。例えば、特定の広告が、宣伝した製品又はサービスの売り上げ又はこれに対する関心を効果的に向上させる結果に繋がるか否かを、広告主(又は広告主に料金を支払っているクライアント)が判定することは難しいかもしれない。このことは、看板又はインタラクティブ広告ディスプレイの場合に、特に当てはまるであろう。製品又はサービスに対する注意を惹くことと、その売り上げを増加させることにおける広告の有効性は、このような広告の価値の決定において重要なので、このようにして提供された広告の有効性を更に良好に評価及び判定する必要がある。
当初の特許を受けようとする発明に相当する態様の一部を、以下に記載する。なお、これらの態様は、あくまでも読者に本開示の主題がとり得る各種実施例のある程度の形態を簡潔に説明するために提示されたものであって、本発明の範囲を限定するものではない。勿論、本発明は、以下に記載しない各種態様も包含し得る。
本開示の主題の一部の実施例は、概して個人のトラッキングに関する。特定の実施例では、トラッキングデータをインタラクティブ広告システムに関連付けて使用する。例えば、一実施例においては、ディスプレイを備えた、このディスプレイを通じて潜在顧客に広告コンテンツを提供するように構成された広告ステーションと、この広告ステーションに潜在顧客が接近すると潜在顧客の画像を捕捉するように構成された1つ以上のカメラを、システムが含む。このシステムは更に、データ処理システムを含み、この処理システムが、プロセッサと、このプロセッサにより実行されるアプリケーション命令を有するメモリとを含むものでよい。このデータ処理システムは、捕捉された画像を解析するためのアプリケーション命令を実行して、潜在顧客の視線方向及び身体姿勢方向を判定し、この判定された視線方向及び身体姿勢方向に基づいて、広告コンテンツにおける潜在顧客の関心度を判定するように構成される。
別の実施例において、方法が、広告コンテンツを表示する広告ステーションを通過する人の視線方向又は身体姿勢方向のうちの少なくとも1つに関するデータを受信するステップと、受信したデータを処理して、広告ステーションによって表示する広告コンテンツにおける人の関心度を推測するステップとを含む。更なる実施例においては、方法が、少なくとも1つのカメラから画像データを受信するステップと、画像データを電子的に処理することにより、人の運動方向とは関係なく、画像データ中に描かれた人の身体姿勢方向及び視線方向を予測するステップとを含む。
更なる実施例において、格納された実行可能命令を有する、1つ以上の非一時的なコンピュータ読取可能媒体を、製品が含む。広告コンテンツを表示する広告ステーションを通過する人の視線方向のデータを受信し、受信した視線方向のデータを解析することにより、広告ステーションによって表示する広告コンテンツにおける人の関心度を推測するように適合される命令を、この実行可能命令が含み得る。
本発明の技術的効果は、ユーザのトラッキングと、このようなトラッキングに基づいて、広告コンテンツにおけるユーザの関心度を判定することの改善を含む。インタラクティブ広告のコンテキストにおいて、トラッキング対象の個人は、制約のない環境で自由に動く可能性がある。しかし、様々なカメラ画像からのトラッキング情報を融合して、例えば各人の位置、移動方向、トラッキング履歴、身体姿勢、及び注視角等、特定の特性を判定することによって、データ処理システム26は、観測結果の間で平滑化及び補間を行うことにより、各個人の瞬間的な身体姿勢及び視線を予測できる。遮蔽に因って観測対象を見失ったり、動いているPTZカメラの動作ぶれに因って安定した顔捕捉ができなくなったりした場合でも、本発明による実施例は尚、「ベストゲス(best guess)」補間及び経時的外挿を用いて、トラッカーを維持できる。また、本発明による実施例により、特定の個人が、現在放映中の広告プログラムに対して大きな注意を払っているか又は関心を持っているか(例えば、現在、インタラクティブ広告ステーションとインタラクションを行っているのか、単に広告ステーションに通りかかっただけなのか、又は広告ステーションへの悪戯で立ち止まっただけなのか)の判定も可能になる。更に、本発明による実施例により、人の集団が集団で広告ステーションとインタラクションを行っているか否か(例えば、現在誰かが仲間と議論しているか(互いに見つめ合っているか)、彼らに参加するよう勧めているか、又は購入の支援について親に相談しているのか?)を、システムが直接推測できる。更に、このような情報に基づいて、広告システムは、関与レベルを最も良い状態で測れるように、そのシナリオ/コンテンツを最適に更新できる。そして、人々の注意に反応することによって、本システムは、強力なインテリジェンス性能を発揮するので、本システムとインタラクションを行おうとする人口が増加し、より多くの人々に本システムとのインタラクションを促すことができる。
本開示の一実施例による、データ処理システムを有する広告ステーションを含む広告システムのブロック図である。 本開示の一実施例による、ネットワークを通じて通信するデータ処理システム及び広告ステーションを含む、広告システムのブロック図である。 本開示の一実施例による、本開示に記載の機能性を提供する、プロセッサベースの装置又はシステムのブロック図である。 本開示の一実施例による、広告ステーションに通りかかった人を示す図である。 本開示の一実施例による、図4の人及び広告ステーションの平面図である。 本開示の一実施例による、広告ステーションが出力するコンテンツをユーザ関心度に基づいて制御するプロセスの概略フローチャートである。 本開示の一実施例による、ユーザトラッキングデータの解析を通じて推測可能な、広告ステーションによって出力する広告コンテンツにおけるユーザ関心度の例を示す図である。 本開示の一実施例による、ユーザトラッキングデータの解析を通じて推測可能な、広告ステーションによって出力する広告コンテンツにおけるユーザ関心度の例を示す図である。 本開示の一実施例による、ユーザトラッキングデータの解析を通じて推測可能な、広告ステーションによって出力する広告コンテンツにおけるユーザ関心度の例を示す図である。 本開示の一実施例による、ユーザトラッキングデータの解析を通じて推測可能な、広告ステーションによって出力する広告コンテンツにおけるユーザ関心度の例を示す図である。
ここで記載する主題の各種態様に関連して、上記の特徴を様々に改良できる。同様に、これらの各種態様に、更なる特徴を盛り込んでもよい。これらの改良及び追加の特徴は、独立的にも、いかなる組み合わせにおいても、存在し得る。例えば、図示の実施例の1つ以上に関連して以下で論じる各種特徴を、本開示に記載のいかなる実施例にも、単独又はいかなる組み合わせにおいても、組み込むことができる。繰り返しになるが、上記の発明の概要はあくまでも、特許請求の範囲を限定することなく、ここで開示する主題のある程度の態様とコンテキストを読者にわかり易く説明することを意図したものである。
全図面を通じて、類似の符号で類似の部分を示した添付図面を参照して下記の詳細な説明を読めば、本技術のこれらの及びその他の特徴、態様、及び利点の理解が深まるであろう。
本開示の主題の1つ以上の特定の実施例を以下に記述する。これらの実施例の説明を簡潔にするために、実際の実装における特徴の全てを本明細書に記述することはない。なお、こうした実際の実装の開発は、いかなるエンジニアリング又は設計のプロジェクトにおいてもそうであるが、それぞれの実装によって異なるであろうシステム的及びビジネス的な制約の順守等の、開発者の個々の目的に合わせて、実装に合わせた選択を多数行う必要がある。更に、こうした開発努力は、煩雑で時間を浪費するものかもしれないが、それでもやはり、本開示の利益を受ける当業者にとっては、設計、製造、及び作製に関する日常的な仕事であろう。本技術の各種実施例の要素を説明する際、単数名詞は、その要素が1つ以上あることを意味することとする。「有する」「含む」及び「備える」といった表現は、包括的であり、列挙した要素以外にも更に要素があり得ることを意味することとする。
本開示の一部の実施例は、身体姿勢及び視線方向等、個人の様子のトラッキングに関する。更に、一部の実施例では、このような情報を用いて、ユーザに提供される広告コンテンツに対するユーザのインタラクション及び関心度を推測する。また、このような情報を用いて、インタラクティブ広告コンテンツに関するユーザの体験を増進する。視線は「注意の焦点」の強力な指標となり、双方向性について有用な情報を提供する。一実施例では、システムは、両方の固定カメラ画像から、及びパン・チルト・ズーム(PTZ)カメラを用いて、個人の身体姿勢及び視線を一緒にトラッキングすることにより、高解像度の高品質画像を得る。人々の身体姿勢及び視線のトラッキングは、固定及びパン・チルト・ズーム(PTZ)カメラの両方からの画像を融合させて動作する、集中型のトラッカーを用いて可能である。但し、別の実施例では、身体姿勢及び視線のうちの1つ又は両方を、単一のカメラのみ(例えば、1つの固定カメラ又は1つのPTZカメラ)の画像データから判定することもできる。
図1に、一実施例によるシステム10を示す。システム10は、付近の人(即ち、潜在顧客)に対して広告を出力する広告ステーション12を含む、広告システムであってよい。図示の広告ステーション12は、潜在顧客に対して広告コンテンツを出力するディスプレイ14及びスピーカ16を含む。一部の実施例において、広告コンテンツ18は、動画と音声の両方からなるマルチメディアコンテンツを含む。但し、例えば、動画のみ、音声のみ、音声有り又は無しの静止画像を含む、いずれの適切な広告コンテンツ18も、広告ステーション12によって出力可能である。
広告ステーション12は、広告ステーション12の様々な構成要素を制御するための、及び広告コンテンツ18を出力するための、コントローラ20を含む。図示の実施例において、広告ステーション12は、ディスプレイ14付近の領域から画像データを捕捉するための、1つ以上のカメラ22を含む。例えば、1つ以上のカメラ22を位置決めして、ディスプレイ14を使用するか又はその付近を通過する潜在顧客の像を捕捉できる。カメラ22は、少なくとも1つの固定カメラ又は少なくとも1つのPTZカメラの一方を含むものでも、両方を含むものでもよい。例えば、一実施例において、カメラ22は、4つの固定カメラ及び4つのPTZカメラを含む。
更に、構造化照明素子24も、図1に概略的に示すように、広告ステーション12に含めることができる。例えば、構造化照明素子24は、動画プロジェクタ、赤外線エミッタ、スポットライト、又はレーザポインタのうちの1つ以上を含む。このような装置を用いて、ユーザのインタラクションを能動的に促進できる。例えば、投影光(レーザ、スポットライト、又はその他何らかの方向付けられた光のいずれの形態であってもよい)を用いて、広告システム12のユーザの注意を特定の場所に向けること(例えば、特定のコンテンツを注視したり、特定のコンテンツとのインタラクションを行ったりすること)や、ユーザを驚かせることができる。加えて、構造化照明素子24を用いて、カメラ22からの画像データの解析の際、理解及び対象認識を促すために、環境に対して追加照明を施すことができる。図1では、カメラ22を広告ステーション12の一部として示し、構造化照明素子24を広告ステーション12から分離して示しているが、システム10のこれら及びその他の構成要素を、別の様式で設けてもよいことは、理解できよう。例えば、ディスプレイ14、1つ以上のカメラ22、及びシステム10のその他の構成要素を、一実施例では、共通のハウジング内に設けてもよいが、これらの構成要素を、別の実施例では、別個のハウジング内に設けてもよい。
更に、データ処理システム26を広告ステーション12に含めることで、(例えば、カメラ22からの)画像データを受信及び処理できる。具体的には、一部の実施例では、画像データを処理することにより、様々なユーザ特性を判定して、カメラ22の有効表示画面内のユーザをトラッキングできる。例えば、データ処理システム26で画像データを解析して、各人の位置、移動方向、トラッキング履歴、身体姿勢方向、及び(例えば、移動方向又は身体姿勢方向に対する)視線方向又は角度を判定できる。加えて、このような特性を使用して、その後、広告ステーション12に対する個人の関心度又は熱中度を推測できる。
図1では、データ処理システム26がコントローラ20に組み込まれているように示しているが、別の実施例では、データ処理システム26が広告ステーション12から分離したものであってもよい。例えば、図2において、システム10は、ネットワーク28を経由して1つ以上の広告ステーション12と接続するデータ処理システム26を含む。このような実施例では、広告ステーション12のカメラ22(又はこのような広告ステーションの周りの領域を監視するその他のカメラ)で、ネットワーク28を経由してデータ処理システム26に画像データを提供できる。その後、以下に論じるように、このデータをデータ処理システム26で処理し、広告コンテンツにおける、撮像された人の所望の特性及び関心度を判定できる。更に、データ処理システム26で、このような解析の結果又は解析に基づく命令を、ネットワーク28を経由して広告ステーション12に出力できる。
コントローラ20及びデータ処理システム26の一方又は両方を、一実施例により、図3に概略的に示すように、プロセッサベースシステム30(例えば、コンピュータ)の形態で設けることができる。このようなプロセッサベースのシステムで、画像データの解析、身体姿勢及び視線方向の判定、広告コンテンツにおけるユーザの関心の判定等、本開示に記載の機能を実施できる。図示のプロセッサベースシステム30は、本明細書に記載の機能の全て又は一部を実行するソフトウェアを含む、様々なソフトウェアを実行するように構成された、パーソナルコンピュータ等の汎用コンピュータであってもよい。或いは、プロセッサベースシステム30は、とりわけシステムの一部として提供された専用ソフトウェア及び/又はハードウェアに基づく、本技術の全て又は一部を実施するように構成された、メインフレームコンピュータ、分散型計算システム、或いは特定用途向けコンピュータ、又はワークステーションを含み得る。更に、プロセッサベースシステム30は、本願で開示の機能の実施を容易にする、単一のプロセッサ又は複数のプロセッサのいずれを含むものでもよい。
一般的に、プロセッサベースシステム30は、システム30の様々なルーチン及び処理機能を実行可能な、中央演算処理装置(CPU)等のマイクロコントローラ又はマイクロプロセッサ32を含み得る。例えば、マイクロプロセッサ32は、特定のプロセスを生じるように構成された、様々なオペレーティングシステム命令、及びソフトウェアルーチンを実行可能である。このルーチンは、メモリ34(例えば、パソコンのランダムアクセスメモリ(RAM))又は1つ以上の大容量格納装置36(例えば、内蔵又は外付けハードドライブ、SSD、光ディスク、磁気格納装置、又はその他いずれかの適切な格納装置)等、1つ以上の非一時的なコンピュータ読取可能媒体を含む製品に格納されたものであっても、備え付けられたものであってもよい。加えて、マイクロプロセッサ32は、コンピュータベースの実装において、本技術の一部として提供されるデータ等、様々なルーチン又はソフトウェアプログラム用の入力として提供されるデータを処理する。
このようなデータの格納又は提供は、メモリ34又は大容量格納装置36によって可能である。或いは、このようなデータを、1つ以上の入力装置38を経由して、マイクロプロセッサ32に提供してもよい。入力装置38は、キーボードやマウス等の手動入力装置を含み得る。加えて、入力装置38は、有線又は無線イーサネット(商標)カード、無線ネットワークアダプタ、或いはローカルエリアネットワーク又はインターネット等の、いずれか適切な通信ネットワーク28を経由する別の装置との通信を容易にするように構成された、その他様々なポート又は装置のいずれか等、ネットワーク装置を含み得る。このようなネットワーク装置を通じて、システム30は、システム30に接近しているか離れているかにかかわらず、別のネットワーク接続された電子システムとデータのやり取り及び通信ができる。ネットワーク28は、スイッチ、ルータ、サーバ又はその他のコンピュータ、ネットワークアダプタ、通信ケーブル等を含む、通信を容易にする各種コンポーネントを含み得る。
1つ以上の格納されたルーチンに従ってデータを処理することによって得られた結果等、マイクロプロセッサ32によって生成された結果を、ディスプレイ40又はプリンタ42等、1つ以上の出力装置を経由してオペレータに報告できる。表示又は印刷された出力に基づいて、オペレータは、入力装置38等を通じて、追加又は代替の処理を要求すること、或いは追加又は代替のデータを提供することができる。プロセッサベースシステム30の各種コンポーネント間の通信は、通常、チップセット、及びシステム30のコンポーネントを電気的に接続する、1つ以上のバス又はインターコネクタを経由して可能である。
広告環境50を概略的に示した図4、及び図5を参照すると、広告システム10、広告ステーション12、及びデータ処理システム26の動作がよくわかるであろう。これらの図解において、人52は、壁54に実装された広告ステーション12を通過している。1つ以上のカメラ22(図1)を環境50に設けて、人52の像を捕捉できる。例えば、1つ以上のカメラ22を、広告ステーション12内に(例えば、ディスプレイ14の周りのフレーム内に)、又は広告ステーション12から歩道を隔てて、又は広告ステーション12から離れた壁54上等に、取り付けることができる。人52が広告ステーション12に通りかかると、人52は方向56に向かって移動する可能性がある。また、人52が方向56に向かって歩くとき、人52の身体姿勢は方向58(図5)の方に向いている一方で、人52の視線方向は、広告ステーション12のディスプレイ14に向かう方向60に向いている(例えば、人はディスプレイ14上の広告コンテンツを注視している)可能性がある。図5に最もわかりやすく示すように、人52が方向56に向かって移動している間、人52の身体62は、方向58の方に向く姿勢で回転する可能性がある。同様に、人52の頭部64は、広告ステーション12によって出力された広告コンテンツを人52が注視できるように、広告ステーション12に向かう方向60に向けられる可能性がある。
一実施例によるインタラクティブ広告の方法を、図6のフローチャート70に概略的に示す。システム10は、カメラ22を経由する等して、ユーザ像を捕捉できる(ブロック72)。こうして捕捉された像を、リアルタイムでの処理、近リアルタイム処理、又は後処理を含む、このような画像の処理が可能な適切な期間だけ格納できる。この方法は更に、ユーザトラッキングデータを受信するステップも含み得る(ブロック74)。このようなトラッキングデータは、視線方向、身体姿勢方向、運動方向、位置等のうちの1つ以上等、これら上述の特性を含み得る。このようなトラッキングデータの受信は、(例えば、データ処理システム26を用いて)捕捉された像を処理して、このような特性を抽出することにより、可能である。但し、別の実施例では、このデータの受信を、何らかの別のシステム又はソースから行ってもよい。視線方向及び身体姿勢方向等の特性を判定する技術の一例を、図7〜10の説明に従って以下に提示する。
ユーザトラッキングデータを受信すると、このデータを処理して、広告ステーション12付近の潜在顧客の、出力広告コンテンツへの関心度を推測する(ブロック76)。例えば、身体姿勢方向及び視線方向の一方又は両方を処理して、広告ステーション12が提供するコンテンツに対するユーザの関心度を推測できる。また、広告システム10で、推測された潜在顧客の関心度に基づいて、広告ステーション12が提供するコンテンツを制御できる(ブロック78)。例えば、広告ステーション12は、ユーザが出力コンテンツに最低限の関心しか示さない場合に、広告コンテンツを更新することにより、新たなユーザに広告ステーション12を注視させるか、又はこれとのインタラクションを開始するように促すことができる。このような更新には、表示コンテンツの特性を変更すること(例えば、色、文字、明度等を変更すること)、表示コンテンツの新たな再生部分を開始すること(例えば、キャラクターが通行人に呼びかけること)、又は(例えば、コントローラ20によって)全く異なるコンテンツを選択することを含み得る。付近のユーザの関心度が高い場合には、広告ステーション12で、コンテンツを変化させて、ユーザの注意を惹いたり、更なるインタラクションを促すことができる。
1人以上のユーザ又は潜在顧客の関心の推測を、判定された特性の解析に基づいて行うことができ、このことは、図7〜10を参照するとよくわかる。例えば、図7に示す実施例では、ユーザ82及びユーザ84が、広告ステーション12に通りかかったところを概略的に示す。本図面において、ユーザ82及び84の移動方向56、身体姿勢方向58、及び視線方向60は、広告ステーション12とほぼ平行である。そのため、この実施例では、ユーザ82及び84は広告ステーション12に向かって歩いておらず、彼らの身体姿勢は広告ステーション12に向いていないので、ユーザ82及び84は、広告ステーション12を見ていない。結果的に、このデータから、広告システム10は、広告ステーション12が提供する広告コンテンツに、ユーザ82及び84は関心がない又は熱中していないと推測できる。
図8において、ユーザ82及び84は、それぞれの身体姿勢58を類似方向に向けて、それぞれの移動方向56に向かって移動している。しかし、彼らの視線方向60は、いずれも広告ステーション12に向いている。視線方向60が与えられると、広告システム10は、広告ステーション12が提供している広告コンテンツを、ユーザ82及び84が少なくとも一瞥しており、図7で示したシナリオよりも高い関心度を呈していると、推測できる。ユーザが広告コンテンツを注視する時間の長さから、更なる推測を引き出すこともできる。例えば、ユーザが閾値時間よりも長い間、広告ステーション12の方向を見ている場合は、関心度が比較的高いと推測できる。
図9のように、ユーザ82及び84は、身体姿勢方向58及び視線方向60を広告ステーション12に向けた状態で、静止位置にある可能性がある。このような状況の像を解析することによって、広告システム10は、ユーザ82及び84が、広告ステーション12に表示されている広告を注視するために立ち止まっていると判定し、ユーザがこれに対してより高い関心を持っていると推測できる。同様に、図10のように、ユーザ82及び84の身体姿勢方向58は、いずれも広告ステーション12に向いており、概ね視線方向60が互いに向き合っている可能性がある。このようなデータから、広告システム10は、ユーザ82及び84が、広告ステーション12が提供する広告コンテンツに関心を持っていることと、視線方向60が概ね反対側のユーザの方に向いているので、ユーザ82及び84が、集団で広告コンテンツとインタラクションを行っているか又はこれについて議論している集団の一員であることも、推測できる。同様に、ユーザと広告ステーション12との接近度及び表示コンテンツによって、広告システムは、ユーザが広告ステーション12のコンテンツとインタラクションを行っていると推測することもできよう。更に、ユーザのその他の関係性及び活動(例えば、集団内の1ユーザが最初に広告ステーションに興味を示し、集団内の他者の注意を出力コンテンツに向けること)を推測するために、位置、運動方向、身体姿勢方向、視線方向等も用い得ることは、理解できよう。
上述のように、広告システム10は、捕捉された画像データから特定のトラッキング特性を判定できる。制約のない環境で、複数の個人の位置、身体姿勢、及び頭部姿勢方向を予測することによって視線方向をトラッキングする一実施例は、以下のように実施される。この実施例では、固定カメラからの人検出を、能動的に制御されたパン・チルト・ズーム(PTZ)から得られた方向顔検出と組み合わせて、連続モンテカルロフィルタリング及びMCMC(マルコフ連鎖モンテカルロ)サンプリングの組み合わせを用いて、運動方向とは無関係に、身体姿勢及び頭部姿勢(視線)方向の両方を予測する。調査における身体姿勢及び視線のトラッキングには、多くの利点がある。これによって、人々の注意の焦点をトラッキングし、バイオメトリクス顔認証用の作動中のカメラの制御を最適化し、対になっている人どうしの間に、より良好なインタラクション評価指標を設けることができる。視線及び顔検出情報を利用できると、混雑した環境でのトラッキングを行うための位置特定及びデータ結合も改善する。この技術は、上述のようなインタラクティブ広告の状況において有益であるだけでなく、その他多くの状況にも広く適用可能である。
主要な乗換駅、スポーツ会場、及び校庭等、制約のない条件下で個人を検出及びトラッキングすることは、多くの用途において重要であろう。その上、概して運動が自由であり、頻繁に遮蔽されることに因り、人の視線及び注意を理解することは、更に難しくなる。また、標準的な調査ビデオにおける顔画像は通常、解像度が低いので、検出率が制限されている。せいぜい視線情報を得るだけだった一部の従来技術とは異なり、本開示の一実施例では、マルチビュー・パン・チルト・ズーム(PTZ)カメラを用いて、リアルタイムで身体姿勢及び頭部の配向両方の、統合的で総体的なトラッキングに取り組んでいる。殆どの場合、頭部姿勢から視線を合理的に求められることが、想到されよう。以下で使用する際に、「頭部姿勢」とは、視線又は視覚的な注意の焦点を指し、これらの用語を同義に使用できる。結合された人トラッカー、姿勢トラッカー、及び視線トラッカーを統合及び同期することで、相互のアップデート及びフィードバックを用いた、確実なトラッキングが可能になる。注視角を判定できれば、注意に関する有力な示唆が得られるので、調査システムにとって有益であろう。特に、事象認識におけるインタラクションモデルの一部として、個人の集団が互いに向き合っているか(例えば、話しているか)、同じ方向を向いているか(例えば、対立が起こりそうになる前に、別の集団を見ているか)、又は(例えば、彼らが無関係であるため、又は彼らが「防御」体勢になっているため)互いに別の方を向いているかを知ることは、重要であろう。
以下に記載の実施例では、マルチビュー人物トラッキングを非同期PTZ視線トラッキングと結合し、姿勢と視線を組み合わせて着実な予測を行える、統合されたフレームワークを提供する。ここでは、結合されたパーティクルフィルタリングトラッカーで、身体姿勢及び視線を一緒に予測する。人物トラッキングを用いてPTZカメラを制御し、顔検出及び視線予測を行うこともできるが、結果として得られる顔検出位置を用いて、トラッキング性能を更に改善できる。このようにして、トラッキング情報を能動的に利用することにより、正面顔画像を捕捉する確率が最も高い状態で、PTZカメラを制御できる。本実施例は、視線方向の指標として個人の歩行方向を用いていた、人が静止している状況では破綻する従来の取り組みを改良したものと考えられる。本願で開示するフレームワークは、汎用であり、その他多くの視覚に基づく用途に適用可能である。例えば、このフレームワークでは、顔検出から視線情報を直接取得するので、特に人が静止している環境において、最適なバイオメトリクス顔認証が可能になるであろう。
一実施例では、固定カメラのネットワークを用いて、或る場所全体にわたって人物トラッキングを実行する。この人トラッカーでは、1つ以上のPTZカメラをターゲットの個人に向けて動かして、クローズアップ画像を得る。集中型のトラッカーを基面(例えば、ターゲットの個人が動く地面を表す平面)上で動かして、人トラッカー及び顔トラッカーからの情報を融合する。顔検出からの視線推測には、大きな演算負荷がかかるので、人トラッカー及び顔トラッカーをリアルタイムで作動させるために、非同期的に動作させてもよい。本システムは、単一又は複数のカメラのいずれかにおいても動作可能である。複数のカメラを設置すると、混雑状態における全体的なトラッキング性能を改善するであろう。この場合の視線トラッキングは、例えばソーシャルインタラクション、アテンションモデル、及び挙動を解析するための、高度な判定の実施においても有用である。
各個人は、状態ベクトルs=[x,v,α,φ,θ]を用いて表すことができ、このとき、xは(X,Y)基面計測ワールド上の位置であり、vは基面上の速度であり、αは基面放線の周りの身体の水平回転方向であり、φは水平注視角であり、θは垂直注視角(水平軸よりも上では正、下では負)である。このシステムには、2種類の観測対象、即ち、zを基準点とし、Rをこの測定の不確実性とする人検出(z、R)と、追加パラメータγ及びρを水平及び垂直注視角とする顔検出(z、R,γ,ρ)がある。各人の頭部及び足元の位置は、画像ベースの人検出から抽出され、アンセンテッド変換(UT)を用いて、それぞれワールド頭部平面(例えば、人の頭部の高さにおいて基面と平行な平面)及び基面に逆投影される。次に、PittPatt製の顔検出器を用いて、PTZ画面中の顔位置及び姿勢を取得する。これらの計測ワールド基準点は、再び逆投影により得られる。顔姿勢は、顔の特徴を照合することによって得られる。個人の注視角は、画像空間における顔のパン角及びローテート角をワールドスペースにマッピングすることによって得られる。最後に、ワールド注視角は、nw=nimg-Tを用いて画像ローカル顔法線nimgをワールド座標にマッピングすることによって得られる。このとき、Rは投影P=[R|t]の回転マトリクスである。観測対象注視角(γ,ρ)は、この法線ベクトルから直接得られる。顔の幅及び長さを用いて、顔位置の信頼水準共分散を予測する。共分散は、再び画像から頭部平面へのUTを用い、その後基面へのダウンプロジェクションを行うことによって、画像から基面に投影される。
人の注視角を位置及び速度とは無関係に予測し、身体姿勢を無視していた従来の取り組みとは対照的に、本実施例では、運動方向、身体姿勢、及び視線の間の関係性を正確にモデリングする。第一に、この実施例では、身体姿勢を運動方向と厳密に結び付けてはいない。人は、特に待っているときや、集団内で立っているとき、前後左右に移動する可能性がある(とはいえ、人は、加速すると横方向に動く可能性が減り、更に高速では、前方運動のみが想定される)。第二に、頭部姿勢は運動方向に結びつけられていないものの、身体姿勢に対して頭部がとり得る姿勢には、比較的厳しい制限がある。このモデルの下では、身体姿勢が注視角及び速度に緩く結合されているだけなので、身体姿勢の予測が自明ではない(即ち、これは間接的にしか観測されない)。全ての状態予測は、連続モンテカルロフィルタを用いて実施できる。測定結果を経時トラッキングと結び付ける方法の場合、連続モンテカルロフィルタでは、(i)動的モデル(ii)本発明によるシステムの観測モデルが、下記のように定められる。
動的モデル:上記の記載に従って、状態ベクトルはs=[x,v,α,φ,θ]であり、状態予測モデルは以下のように分解される:
p(st+1|st)=p(qt+1|qt)p(αt+1|vt+1,αt)・・・(1)
p(φt+1|φt,αt+1)p(θt+1|θt
ここで、略称のq=(x,v)=(x,y,vx,vy)である。位置及び速度については、標準的な線形動的モデル
p(qt+1|qt)=N(qt+1−Ftt,Qt)・・・(2)
を用いる。Nは正規分布を表し、Ftはxt+1=xt+vtΔtに対応する標準等速状態予測器であり、Qtは標準システム動特性である。数式(1)の第2項は、現在の速度ベクトルを考慮した身体姿勢の伝播を記述している。本発明により、以下のモデルを仮定する。
・・・(3)
f=0.8は人が前方に歩く確率(0.5m/s<v<2m/sの中速)であり、Pb=0.15は後方に歩く確率(中速)であり、Po=0.05は、実験的経験則に基づく、運動方向関係性に対して任意の姿勢を許容する背景確率である。νt+1を用いて、速度ベクトルvt+1の方向を表し、σναを用いて、運動ベクトルと身体姿勢との間の偏差の、予測される分布を表す。前項N(αt+1−αt,σα)は、ひいては経時的な身体姿勢の変化を限定する、システムのノイズ成分を表す。姿勢における変化は全て、定常姿勢モデルからの偏差に起因する。
数式(1)の第3項は、現在の身体姿勢を考慮した水平注視角の伝播を記述している。我々は、以下のモデルを仮定する。
・・・(4)
ここで、
及びPg=0.6で重み付けされた2つの項は、αt+1±π/3の範囲内の任意の値を許容するが身体姿勢の周りの分布を好む傾向がある、身体姿勢(αt+1)に対する注視角(φt+1)の分布を定義する。最後に、数式(1)は、傾斜角の伝播
を記述しており、第1項は人が水平方向を好む傾向があることをモデリングしており、第2項はシステムノイズを表している。なお、上記全ての数式において、角度差に関して注意が必要である。
時間とともにパーティクルを前方に伝播させるために、先の重み付けされたサンプルの集合
を前提として、状態遷移密度の数式(1)からのサンプリングが必要である。位置、速度、及び垂直頭部姿勢についてのサンプリングは、容易である。速度、身体姿勢、及び水平頭部姿勢の間の緩い結合は、遷移密度の数式(3)及び数式(4)の、自明でない集合によって表される。これらの遷移密度からサンプルを生成するために、本発明の実施例では、2つのマルコフ連鎖モンテカルロ(MCMC)を実行する。数式(3)で実証されるように、本発明の実施例では、以下のように、メトロポリス抽出法を用いて、新しいサンプルを取得する。
・開始:パーティクルiの
を設定する。
・プロポーザルステップ:ジャンプ分布
からのサンプリングを行うことによって、新しいサンプル
を提示する。
・アクセプタンス・ステップ:
を設定する。r≧1の場合、新しいサンプルを受け取る。そうでない場合には、確率rと一緒に、これを受け取る。受け取られない場合には、
を設定する。
・繰り返し:k=Nステップが完了するまで。
通常、実行されるのは、少ない固定数のステップ(N=20)のみである。上記のサンプリングは、数式(4)の水平頭部角について繰り返される。いずれの場合も、ジャンプ分布は、分散の比、即ち身体姿勢の
を除き、システムノイズ分布と等しくなるように設定される。
及び
も同様に定義される。上記のMCMCサンプリングによって、予測されるシステムノイズ分布、及び緩い相対姿勢制約の両方に付随するパーティクルのみを生成できる。本発明者は、1000個のパーティクルで十分であることを見いだした。
観測モデル:その重み
及び経時的な前方伝播に従ってパーティクル分布
をサンプリングした後(上述のようにMCMCを用いる)、新しいサンプル
を得る。サンプルの重み付けは、次に記載される観測対象尤度モデルに従って行われる。人検出の場合は、観測対象を(zt+1,Rt+1)で表し、尤度モデルは、
p(zt+1|st+1)=N(zt+1−xt+1|Rt+1)・・・(5)
となる。
顔検出(zt+1,Rt+1,γt+1,ρt+1)の場合、観測対象尤度モデルは
p(zt+1,γt+1,ρt+1|st+1)=N(zt+1−xt+1|Rt+1)・・・(6)
N(λ((γt+1,ρt+1),(φt+1,θt+1)),σλ)
となり、λ(.)は、それぞれ視線ベクトル(φt+1,θt+1)で表される単位円上の位置と観測された顔方向(γt+1,ρt+1)との間の大圏距離(角度で表す)である。
値σλは、顔方向測定に起因する不確実性である。全体的に、トラッキング状態更新プロセスは、下記のアルゴリズムに要約されるように動作する:
データ結合:今までのところ、観測対象が既にトラックに割り当てられていると仮定している。このセクションでは、トラックを割り当てるための観測をどのように行うかを詳述する。複数の人々のトラッキングを可能にするためには、観測結果を、経時的にトラックに割り当てられなければならない。本システムでは、観測結果が、複数のカメラ画像から非同期的に生じる。観測結果は、(時間的に異なる可能性のある)投影マトリクスを考慮して、共通のワールド基準フレーム内に投影され、観測結果が、得られた順に集中型のトラッカーによってコンシュームされる。各時間ステップにおいて、(人又は顔)検出の集合
が、トラック
に割り当てられなければならない。ここでは、ムンカーズ(Munkres)アルゴリズムを用いてトラックkにとって最適な観測対象lの1対1割り当てを決定するために、距離測定
を構築する。トラックに割り当てられない観測結果は、新しいターゲットとして確認可能で、これを用いて、新規候補トラックを生じることができる。自身に割り当てられた検出が得られないトラックは、時間と共に前方に伝播するので、重み更新を受けない。
顔検出を使用すると、付加的な位置情報源をもたらされるので、トラッキングを改善できる。結果、顔検出が人どうしの遮蔽の影響を受けにくい、混雑した環境で、これが特に有用であることがわかっている。別の利点は、視線情報が追加成分を検出−トラック間割り当て距離測定に導入することであり、これは配向された顔を人物トラックに割り当てるために有効に作用する。
人検出では、メトリックを下記のターゲットゲートから演算する。
ここで、
は観測対象lの位置共分散であり、
は時間tにおけるトラックkのi番目のパーティクルの位置である。すると、以下のように距離測定が行われる。
顔検出では、上記の式を角度距離用の追加項によってオーグメントする。
ここで、
及び
は全てのパーティクル注視角の一次球体モーメントから計算され(角度平均)、σλはこのモーメントからの標準偏差、
は観測対象lにおける水平及び垂直視線観測角度である。PTZカメラのみが顔検出を提供し、固定カメラのみが人検出を提供するので、全人検出又は全顔検出のいずれかとのデータ結合が実行されるが、群衆の視線が混ざり合うことはない。
ここでは、本発明の一部の特徴のみを記述及び図示したが、当業者には多くの修飾及び改変が想到されよう。したがって、添付の特許請求の範囲は、こうした修飾及び改変も全て、本発明の概念において網羅しているものと理解されたい。

Claims (25)

  1. ディスプレイを含み、該ディスプレイを通じて潜在顧客に広告コンテンツを提供するように構成された、広告ステーションと、
    前記潜在顧客が前記広告ステーションに接近すると前記潜在顧客の画像を捕捉するように構成された1つ以上のカメラと、
    プロセッサ及び該プロセッサにより実行されるアプリケーション命令を有するメモリを含むデータ処理システムであって、前記捕捉された画像を解析するためのアプリケーション命令を実行して、前記潜在顧客の視線方向及び身体姿勢方向を判定し、該判定された視線方向及び身体姿勢方向に基づいて前記広告コンテンツにおける前記潜在顧客の関心度を判定するように構成される、データ処理システムと、
    を備えたシステム。
  2. 前記広告ステーションが、前記判定された潜在顧客の関心度に基づいてコンテンツを選択するためのコントローラを含む、請求項1に記載のシステム。
  3. 構造化照明素子を含み、コントローラが、前期判定された潜在顧客の関心度に基づいて該構造化照明素子を制御する、請求項1に記載のシステム。
  4. 前記広告ステーションが、前記潜在顧客にインタラクティブ広告コンテンツを提供するように構成されている、請求項1に記載のシステム。
  5. 前記広告ステーションが、データ処理システムを含む、請求項1に記載のシステム。
  6. 広告コンテンツを表示している広告ステーションを通過する人の視線方向又は身体姿勢方向のうちの少なくとも1つに関するデータを受信するステップと、
    前記受信したデータを処理して、前記広告ステーションによって表示した広告コンテンツにおける前記人の関心度を推測するステップと、
    を含む方法。
  7. 前記広告ステーションを通過する人の前記推測された関心度に基づいて、前記広告コンテンツを自動的に更新する広告ステーションを含む、請求項6に記載の方法。
  8. 前記広告コンテンツを更新するステップが、前記広告ステーションによって表示する様々な広告コンテンツを選択するステップを含む、請求項7に記載の方法。
  9. 前記視線方向又は身体姿勢方向のうちの少なくとも1つに関するデータを受信するステップが、視線方向に関するデータを受信するステップを含み、前記受信データを処理して人の関心度を推測するステップが、少なくとも1人の人が閾値時間よりも長く広告ステーションを見たことを検出するステップを含む、請求項6に記載の方法。
  10. 前記視線方向又は身体姿勢方向のうちの少なくとも1つに関するデータを受信するステップが、視線方向及び身体姿勢方向の両方に関するデータを受信するステップを含み、前記受信データを処理するステップが、視線方向及び身体姿勢方向に関する前記受信データを処理して、前記広告コンテンツにおける前記人の関心度を推測するステップを含む、請求項6に記載の方法。
  11. 前記視線方向及び身体姿勢方向に関する受信データを処理するステップが、人の集団が集合的に前記広告ステーションとインタラクションを行っていることを判定するステップを含む、請求項10に記載の方法。
  12. 前記視線方向及び身体姿勢方向に関する受信データを処理するステップが、少なくとも2人の人が前記広告ステーションについて会話していることを判定するステップを含む、請求項11に記載の方法。
  13. 前記視線方向及び身体姿勢方向に関する受信データを処理するステップが、複数人が前記広告ステーションとインタラクションを行っているか否かを判定するステップを含む、請求項10に記載の方法。
  14. 構造化光源から或る領域に光のビームを投影することにより、少なくとも1人が、該領域を注視して、該領域内に表示されたコンテンツとインタラクションを行うように誘導するステップを含む、請求項6に記載の方法。
  15. 少なくとも1つのカメラから画像データを受信するステップと、
    前記画像データを電子的に処理して、人の運動方向とは関係なく、前記画像データ中に描かれた人の身体姿勢方向及び視線方向を予測するステップと、
    を含む方法。
  16. 前記少なくとも1つのカメラから画像データを受信するステップが、単一の固定カメラだけで画像データを受信するステップを含み、前記画像データを電子的に処理するステップが、前記単一の固定カメラのみからの画像データを電子的に処理するステップを含む、請求項15に記載の方法。
  17. 前記少なくとも1つのカメラから画像データを受信するステップが、複数のカメラから画像データを受信するステップを含み、前記画像データを電子的に処理するステップが、前記複数のカメラのうちの少なくとも2つのカメラの各々からの画像データを電子的に処理するステップを含む、請求項15に記載の方法。
  18. 制約のない環境で少なくとも1つの固定カメラ及び少なくとも1つのパン・チルト・ズームカメラを用いて画像データを捕捉するステップを含む、請求項17に記載の方法。
  19. 少なくとも1つの固定カメラからのデータに基づいて人をトラッキングするステップと、前記人のトラッキングに基づいて少なくとも1つのパン・チルト・ズームカメラを制御することにより、前記人に更に接近した画像を捕捉して視線方向の予測を容易にするステップとを含む、請求項18に記載の方法。
  20. 前記少なくとも1つのパン・チルト・ズームカメラの制御の結果得られる顔検出位置を用いて、前記少なくとも1つの固定カメラを用いるトラッキングの性能を改善するステップを含む、請求項19に記載の方法。
  21. 前記複数のカメラから画像データを受信するステップが、広告ステーションに隣接する領域の画像データを受信するステップを含む、請求項17に記載の方法。
  22. 前記画像データを処理して身体姿勢方向及び視線方向を予測するステップが、連続モンテカルロフィルタを用いるステップを含む、請求項15に記載の方法。
  23. 実行可能命令が格納された、1つ以上の非一時的なコンピュータ読取可能媒体を含み、該実行可能命令が、
    広告コンテンツを表示している広告ステーションを通過する人の視線方向に関するデータを受信するように適合される命令と、
    前記視線方向に関する受信データを解析して、前記広告ステーションによって表示した広告コンテンツにおける前記人の関心度を推測するように適合される命令とを含む、製品。
  24. 前記1つ以上の非一時的なコンピュータ読取可能媒体が、前記格納された実行可能命令を少なくとも集合的に有する複数の非一時的なコンピュータ読取可能媒体を含む、請求項23に記載の製品。
  25. 前記1つ以上の非一時的なコンピュータ読取可能媒体が、コンピュータの格納媒体又はランダムアクセスメモリを含む、請求項23に記載の製品。
JP2012146222A 2011-08-30 2012-06-29 人物トラッキング及びインタラクティブ広告 Active JP6074177B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/221,896 2011-08-30
US13/221,896 US20130054377A1 (en) 2011-08-30 2011-08-30 Person tracking and interactive advertising

Publications (2)

Publication Number Publication Date
JP2013050945A true JP2013050945A (ja) 2013-03-14
JP6074177B2 JP6074177B2 (ja) 2017-02-01

Family

ID=46704376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012146222A Active JP6074177B2 (ja) 2011-08-30 2012-06-29 人物トラッキング及びインタラクティブ広告

Country Status (6)

Country Link
US (2) US20130054377A1 (ja)
JP (1) JP6074177B2 (ja)
KR (1) KR101983337B1 (ja)
CN (1) CN102982753B (ja)
DE (1) DE102012105754A1 (ja)
GB (1) GB2494235B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064513A (ja) * 2013-09-26 2015-04-09 カシオ計算機株式会社 表示装置、コンテンツ表示方法及びプログラム
JP2015066625A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 注目対象推定システムならびにロボットおよび制御プログラム
JP2016122272A (ja) * 2014-12-24 2016-07-07 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
JP2017021530A (ja) * 2015-07-09 2017-01-26 富士通株式会社 関心度判定装置、関心度判定方法および関心度判定プログラム
JP2017513387A (ja) * 2014-03-26 2017-05-25 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法
JP2017092509A (ja) * 2015-08-31 2017-05-25 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation テレプレゼンス・ロボットに用いる制御シグナルを発生させるための方法、テレプレゼンス・システムおよびコンピュータ・プログラム
JP2018142285A (ja) * 2017-02-28 2018-09-13 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2019164635A (ja) * 2018-03-20 2019-09-26 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP2020021497A (ja) * 2019-09-18 2020-02-06 デジタル・アドバタイジング・コンソーシアム株式会社 プログラム、情報処理方法及び情報処理装置

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138505A1 (en) * 2011-11-30 2013-05-30 General Electric Company Analytics-to-content interface for interactive advertising
US20130138499A1 (en) * 2011-11-30 2013-05-30 General Electric Company Usage measurent techniques and systems for interactive advertising
US20130166372A1 (en) * 2011-12-23 2013-06-27 International Business Machines Corporation Utilizing real-time metrics to normalize an advertisement based on consumer reaction
WO2013171905A1 (ja) * 2012-05-18 2013-11-21 株式会社日立製作所 自律移動装置、制御装置および自律移動方法
US20140379487A1 (en) * 2012-07-09 2014-12-25 Jenny Q. Ta Social network system and method
US9881058B1 (en) * 2013-03-14 2018-01-30 Google Inc. Methods, systems, and media for displaying information related to displayed content upon detection of user attention
CN109597939A (zh) * 2013-04-26 2019-04-09 瑞典爱立信有限公司 检测注视用户以在显示器上提供个性化内容
US20140372209A1 (en) * 2013-06-14 2014-12-18 International Business Machines Corporation Real-time advertisement based on common point of attraction of different viewers
CN103440307B (zh) * 2013-08-23 2017-05-24 北京智谷睿拓技术服务有限公司 媒体信息提供方法及装置
US20150058127A1 (en) * 2013-08-26 2015-02-26 International Business Machines Corporation Directional vehicular advertisements
CN105432071B (zh) 2013-09-12 2019-04-23 英特尔公司 用于提供增强现实视图的技术
CN103760968B (zh) * 2013-11-29 2015-05-13 理光软件研究所(北京)有限公司 数字标牌显示内容选择方法和装置
US20150235538A1 (en) * 2014-02-14 2015-08-20 GM Global Technology Operations LLC Methods and systems for processing attention data from a vehicle
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
KR102279681B1 (ko) * 2014-05-26 2021-07-20 에스케이플래닛 주식회사 동공인식을 이용한 광고 제공 장치 및 방법
WO2015190093A1 (ja) * 2014-06-10 2015-12-17 株式会社ソシオネクスト 半導体集積回路およびそれを備えた表示装置並びに制御方法
US9819610B1 (en) * 2014-08-21 2017-11-14 Amazon Technologies, Inc. Routers with personalized quality of service
US20160110791A1 (en) * 2014-10-15 2016-04-21 Toshiba Global Commerce Solutions Holdings Corporation Method, computer program product, and system for providing a sensor-based environment
CN104834896A (zh) * 2015-04-03 2015-08-12 惠州Tcl移动通信有限公司 一种信息采集方法及其终端
US20160371726A1 (en) * 2015-06-22 2016-12-22 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and computer program product
US20170045935A1 (en) * 2015-08-13 2017-02-16 International Business Machines Corporation Displaying content based on viewing direction
JP6885668B2 (ja) * 2015-09-24 2021-06-16 カシオ計算機株式会社 投影システム
DE102015015695A1 (de) * 2015-12-04 2017-06-08 Audi Ag Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
CN105405362A (zh) * 2015-12-09 2016-03-16 四川长虹电器股份有限公司 广告观赏计数系统及方法
EP3182361A1 (en) * 2015-12-16 2017-06-21 Crambo, S.a. System and method to provide interactive advertising
US20170337027A1 (en) * 2016-05-17 2017-11-23 Google Inc. Dynamic content management of a vehicle display
GB201613138D0 (en) * 2016-07-29 2016-09-14 Unifai Holdings Ltd Computer vision systems
JP2018036444A (ja) * 2016-08-31 2018-03-08 アイシン精機株式会社 表示制御装置
CN106384564A (zh) * 2016-11-24 2017-02-08 深圳市佳都实业发展有限公司 一种具备防倾倒功能的广告机
CN107274211A (zh) * 2017-05-25 2017-10-20 深圳天瞳科技有限公司 一种广告播放装置及方法
CN107330721A (zh) * 2017-06-20 2017-11-07 广东欧珀移动通信有限公司 信息输出方法及相关产品
US10572745B2 (en) * 2017-11-11 2020-02-25 Bendix Commercial Vehicle Systems Llc System and methods of monitoring driver behavior for vehicular fleet management in a fleet of vehicles using driver-facing imaging device
US11188944B2 (en) 2017-12-04 2021-11-30 At&T Intellectual Property I, L.P. Apparatus and methods for adaptive signage
JP2020086741A (ja) * 2018-11-21 2020-06-04 日本電気株式会社 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
US20200311392A1 (en) * 2019-03-27 2020-10-01 Agt Global Media Gmbh Determination of audience attention
CN110097824A (zh) * 2019-05-05 2019-08-06 郑州升达经贸管理学院 一种工商管理教学用智能宣传板
GB2584400A (en) * 2019-05-08 2020-12-09 Thirdeye Labs Ltd Processing captured images
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
KR102434535B1 (ko) * 2019-10-18 2022-08-22 주식회사 메이아이 인터랙션 검출 방법 및 그 장치
CN111192541A (zh) * 2019-12-17 2020-05-22 太仓秦风广告传媒有限公司 一种根据用户兴趣投放推送信息的电子广告牌及工作方法
US11403936B2 (en) 2020-06-12 2022-08-02 Smith Micro Software, Inc. Hygienic device interaction in retail environments
US20230135254A1 (en) 2020-07-01 2023-05-04 Gennadii BAKHCHEVAN A system and a method for personalized content presentation
WO2022222051A1 (zh) * 2021-04-20 2022-10-27 京东方科技集团股份有限公司 一种客群分析的方法、装置、系统及存储介质
TWI771009B (zh) * 2021-05-19 2022-07-11 明基電通股份有限公司 電子看板及其控制方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163600A (ja) * 1998-11-18 2000-06-16 Sintec Co Ltd 顔の撮影/認識方法とその装置
JP2003271084A (ja) * 2002-03-15 2003-09-25 Omron Corp 情報提供装置および情報提供方法
JP2006338529A (ja) * 2005-06-03 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 会話構造推定方法
JP2007286995A (ja) * 2006-04-19 2007-11-01 Hitachi Ltd 注目度計測装置及び注目度計測システム
JP2008519357A (ja) * 2004-11-05 2008-06-05 本田技研工業株式会社 データ駆動確率伝播を伴う人間の姿勢推定
JP2009116510A (ja) * 2007-11-05 2009-05-28 Fujitsu Ltd 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置
US20100161409A1 (en) * 2008-12-23 2010-06-24 Samsung Electronics Co., Ltd. Apparatus for providing content according to user's interest in content and method for providing content according to user's interest in content
JP2011027977A (ja) * 2009-07-24 2011-02-10 Sanyo Electric Co Ltd 表示システム
JP2011081443A (ja) * 2009-10-02 2011-04-21 Ricoh Co Ltd 通信装置、及び方法並びにプログラム
JP2011123465A (ja) * 2009-11-13 2011-06-23 Seiko Epson Corp 光走査型プロジェクター

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US6437819B1 (en) * 1999-06-25 2002-08-20 Rohan Christopher Loveland Automated video person tracking system
US20030126013A1 (en) * 2001-12-28 2003-07-03 Shand Mark Alexander Viewer-targeted display system and method
US7921036B1 (en) * 2002-04-30 2011-04-05 Videomining Corporation Method and system for dynamically targeting content based on automatic demographics and behavior analysis
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
KR101251944B1 (ko) * 2005-08-04 2013-04-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 물건에 관심을 가지는 사람을 감시하기 위한 장치 및 방법
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US20090265244A1 (en) * 2006-07-28 2009-10-22 Marmour David M Methods and apparatus for surveillance and targeted advertising
WO2008014826A1 (en) * 2006-08-03 2008-02-07 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US20090138415A1 (en) * 2007-11-02 2009-05-28 James Justin Lancaster Automated research systems and methods for researching systems
US20080243614A1 (en) * 2007-03-30 2008-10-02 General Electric Company Adaptive advertising and marketing system and method
US8447100B2 (en) * 2007-10-10 2013-05-21 Samsung Electronics Co., Ltd. Detecting apparatus of human component and method thereof
US20090158309A1 (en) * 2007-12-12 2009-06-18 Hankyu Moon Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization
CN101593530A (zh) * 2008-05-27 2009-12-02 高文龙 媒体播放的控制方法
US20090296989A1 (en) * 2008-06-03 2009-12-03 Siemens Corporate Research, Inc. Method for Automatic Detection and Tracking of Multiple Objects
JP5602155B2 (ja) * 2009-12-14 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置および入力方法
US9047256B2 (en) * 2009-12-30 2015-06-02 Iheartmedia Management Services, Inc. System and method for monitoring audience in response to signage
US20130030875A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for site abnormality recording and notification

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163600A (ja) * 1998-11-18 2000-06-16 Sintec Co Ltd 顔の撮影/認識方法とその装置
JP2003271084A (ja) * 2002-03-15 2003-09-25 Omron Corp 情報提供装置および情報提供方法
JP2008519357A (ja) * 2004-11-05 2008-06-05 本田技研工業株式会社 データ駆動確率伝播を伴う人間の姿勢推定
JP2006338529A (ja) * 2005-06-03 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 会話構造推定方法
JP2007286995A (ja) * 2006-04-19 2007-11-01 Hitachi Ltd 注目度計測装置及び注目度計測システム
JP2009116510A (ja) * 2007-11-05 2009-05-28 Fujitsu Ltd 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置
US20100161409A1 (en) * 2008-12-23 2010-06-24 Samsung Electronics Co., Ltd. Apparatus for providing content according to user's interest in content and method for providing content according to user's interest in content
JP2011027977A (ja) * 2009-07-24 2011-02-10 Sanyo Electric Co Ltd 表示システム
JP2011081443A (ja) * 2009-10-02 2011-04-21 Ricoh Co Ltd 通信装置、及び方法並びにプログラム
JP2011123465A (ja) * 2009-11-13 2011-06-23 Seiko Epson Corp 光走査型プロジェクター

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064513A (ja) * 2013-09-26 2015-04-09 カシオ計算機株式会社 表示装置、コンテンツ表示方法及びプログラム
JP2015066625A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 注目対象推定システムならびにロボットおよび制御プログラム
US10587977B2 (en) 2014-03-26 2020-03-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for audio rendering employing a geometric distance definition
JP2017513387A (ja) * 2014-03-26 2017-05-25 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法
US11632641B2 (en) 2014-03-26 2023-04-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for audio rendering employing a geometric distance definition
JP2016122272A (ja) * 2014-12-24 2016-07-07 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
JP2017021530A (ja) * 2015-07-09 2017-01-26 富士通株式会社 関心度判定装置、関心度判定方法および関心度判定プログラム
JP2017092509A (ja) * 2015-08-31 2017-05-25 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation テレプレゼンス・ロボットに用いる制御シグナルを発生させるための方法、テレプレゼンス・システムおよびコンピュータ・プログラム
US10464211B2 (en) 2015-08-31 2019-11-05 International Business Machines Corporation Generating control signal for tele-presence robot
JP2018142285A (ja) * 2017-02-28 2018-09-13 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2019164635A (ja) * 2018-03-20 2019-09-26 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP2020021497A (ja) * 2019-09-18 2020-02-06 デジタル・アドバタイジング・コンソーシアム株式会社 プログラム、情報処理方法及び情報処理装置
JP7159135B2 (ja) 2019-09-18 2022-10-24 デジタル・アドバタイジング・コンソーシアム株式会社 プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
CN102982753A (zh) 2013-03-20
JP6074177B2 (ja) 2017-02-01
GB201211505D0 (en) 2012-08-08
GB2494235A (en) 2013-03-06
KR101983337B1 (ko) 2019-05-28
US20190311661A1 (en) 2019-10-10
CN102982753B (zh) 2017-10-17
GB2494235B (en) 2017-08-30
DE102012105754A1 (de) 2013-02-28
KR20130027414A (ko) 2013-03-15
US20130054377A1 (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP6074177B2 (ja) 人物トラッキング及びインタラクティブ広告
JP6267861B2 (ja) 対話型広告のための使用測定技法およびシステム
JP4794453B2 (ja) インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム
WO2018059408A1 (zh) 跨线计数方法和神经网络训练方法、装置和电子设备
CN102253712B (zh) 用于共享信息的识别系统
US20180024631A1 (en) Interactive Display System with Eye Tracking to Display Content According to Subject&#39;s Interest
JP5643543B2 (ja) 情報提示システム及びその制御方法、プログラム
US20090217315A1 (en) Method and system for audience measurement and targeting media
US20130335635A1 (en) Video Analysis Based on Sparse Registration and Multiple Domain Tracking
US9049348B1 (en) Video analytics for simulating the motion tracking functionality of a surveillance camera
US11694419B2 (en) Image analysis and gaze redirection using characteristics of the eye
JP2016218821A (ja) 販売情報利用装置、販売情報利用方法、およびプログラム
Gandrud et al. Predicting destination using head orientation and gaze direction during locomotion in vr
US20130063593A1 (en) Monitoring device, method thereof
JP2017028402A (ja) 映像評価装置、及びプログラム
Rasool et al. Real-time haptic interaction with RGBD video streams
Illahi et al. Real-time gaze prediction in virtual reality
US20210385426A1 (en) A calibration method for a recording device and a method for an automatic setup of a multi-camera system
KR101907794B1 (ko) 360도 영상 전송 장치 및 방법
US20130138505A1 (en) Analytics-to-content interface for interactive advertising
US20200250708A1 (en) Method and system for providing recommended digital content item to electronic device
KR20220039872A (ko) 스마트 양방향 광고 제공 장치
US20130138493A1 (en) Episodic approaches for interactive advertising
US20230319426A1 (en) Traveling in time and space continuum
JP7350993B2 (ja) 拡張現実対話を定量化するためのシステム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170106

R150 Certificate of patent or registration of utility model

Ref document number: 6074177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250