JP2005251170A - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JP2005251170A
JP2005251170A JP2005015698A JP2005015698A JP2005251170A JP 2005251170 A JP2005251170 A JP 2005251170A JP 2005015698 A JP2005015698 A JP 2005015698A JP 2005015698 A JP2005015698 A JP 2005015698A JP 2005251170 A JP2005251170 A JP 2005251170A
Authority
JP
Japan
Prior art keywords
face
image
detected
camera
stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005015698A
Other languages
English (en)
Other versions
JP4702877B2 (ja
Inventor
Andrew R Kilner
アンドリュー ロジャー キルナー
Victoria S Jennings
ヴィクトリア ソフィア ジェニングス
Sebastian A Paszkowicz
セバスチャン アレクサンダー パスコヴィッツ
Robert Mark Stephan Porter
ポーター ロバート マーク ステファン
Ratna Rambaruth
ラテュナ ランバルス
Clive H Gillard
ヘンリー クライブ ジラード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0401492A external-priority patent/GB2410360A/en
Priority claimed from GB0412037A external-priority patent/GB2414616A/en
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Publication of JP2005251170A publication Critical patent/JP2005251170A/ja
Application granted granted Critical
Publication of JP4702877B2 publication Critical patent/JP4702877B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】電子看板において、広告マテリアルを表示している表示画面を見るユーザの顔検出と、他の位置のカメラによって検出された同じユーザとを関連づけることによる技術の向上を提供する。
【解決手段】
表示システムは、画面を見るユーザの位置に向けられた第1のカメラを有する画像表示装置と、他の個々の位置に向けられた1つ以上の更なるカメラと、カメラによって撮像された画像内において人間の顔を検出する顔検出器と、第1のカメラと、更なるカメラのうちの少なくとも1つとによって撮像された画像内に出現する顔を検出する検出器とを備える。
【選択図】 図6

Description

本発明は表示システムに関する。
店舗やこの他の公共の場所で、広告マテリアル等を表示するために電子表示装置が広く用いられている。このような構成は、「電子看板(digital signage:デジタルサイネージ)」等とも呼ばれる。
一般的な装置では、テレビジョンモニタと、ビデオプレーヤ(例えば、VHSカセットテーププレーヤ)とによって、テレビジョンモニタの近くに陳列されている商品について、買い物客の購入意欲を高めるマテリアルを再生する。例えば、ソニー(商標)NSP100(商標)デジタル再生装置等の高度な装置も提案されている。この装置は、ネットワークに接続可能な再生装置(playout device)であり、デジタルネットワークを介してビデオ(オプションとしてオーディオ)マテリアルと再生スケジュール(playout schedule)とを受信し、この再生スケジュールに基づいて、ビデオ及びオーディオマテリアルを表示装置に再生する。
これらの装置により、例えば、ユーザがカセットテープを選択したり、所望のマテリアルをNSP100再生装置にロードしたりすることによって、ユーザは、マテリアルの再生をある程度制御できるが、現在広告を見ている人毎に最適となるようにマテリアルを表示することは容易ではない。
国際特許公開公報WO01/45004号及び米国特許第5966696号には、広告を見ている人の検出に基づいて、マテリアルの再生を変更する電子看板(デジタルサイネージ)装置が開示されている。米国特許第5966696号では、近傍検出器(proximity detectors)を用いて、表示画面を見ている人を検出し、これにより、表示画面をアイドルモードからアクティブモードに切り換えている。国際特許公開公報WO01/45004号には、表示画面の前にいる人のある特性を検出し、その表示画面に再生するマテリアルを制御する技術が開示されている。
本発明に係る表示システムは、画面を見るユーザの位置に向けられた第1のカメラを有する画像表示装置と、他の個々の位置に向けられた1つ以上の更なるカメラと、カメラによって撮像された画像内において人間の顔を検出する顔検出器と、第1のカメラと、更なるカメラのうちの少なくとも1つとによって撮像された画像内に出現する顔を検出する検出器とを備える。
本発明は、例えば、電子看板(デジタルサイネージ)の分野において、例えば、広告マテリアルを表示している表示画面を見るユーザの顔検出と、他の位置のカメラによって検出された同じユーザとを関連付けることによる技術の向上を提供する。この他の位置は、例えば、店舗の会計コーナであってもよく、又はある種の商品(例えば、表示された広告マテリアルに関連する商品)が販売のために陳列されている場所であってもよい。この構成により、消費者による商品の購買行動に対する広告マテリアルの効果を広告マテリアルの発信元に効果的にフィードバックすることができる。
本発明のこの他の側面及び特徴は、添付の特許請求の範囲において定義されている。
図1は、本発明に基づく表示装置(display arrangement)の構成を示すブロック図である。この表示装置は、販売のために陳列されている商品と共に、店(店舗)の棚の上の所定の位置に取り付けられている。表示装置100は、カメラ110と、グラフィックスカード120と、プラズマディスプレイ画面(勿論、他の種類の表示装置を用いてもよい)230と、オーディオ発生器140と、顔検出/認識モジュール150と、統計解析モジュール160と、ネットワークインタフェース170と、コミュニケーションバス180と、データストレージ装置190と、ローカルメモリ192と、プロセッサ194とを備える。この表示装置100は、通信ネットワーク196を介して、このような装置のネットワークに接続される。制御コンピュータ600は、通信ネットワーク196を介して表示装置100と通信する。
カメラ110は、プラズマディスプレイ画面130の取付台に一体化され、表示画面を見ている人間の顔の画像を捕捉するために用いられる。捕捉されたビデオ画像は、人間の顔を検出し、及び顔認識評価(facial recognition analyses)を行うために解析される。カメラ110は、販売されている製品又は利用可能なサービスの広告画像を含む宣伝用のプレゼンテーションから顧客の注意を逸らさないように、及び表示されたマテリアルに対する顧客の自然な反応を妨げないように、例えばプラズマディスプレイ画面130の筐体内に目立たないように取り付けられている。
プラズマディスプレイ画面130は、グラフィックスカード120によって駆動され、データストレージ装置190に保存されている選択可能な販売促進用の表示シーケンスから選択された表示情報を表示する。プロセッサ194は、ソニー(商標)NSP100(商標)プロセッサであり(又はこれに基づいて動作し)、通信ネットワーク196を介した表示シーケンスのダウンロードを制御する。基本的なNSP100プロセッサは、通常、「プッシュ」モードで動作し、すなわちサーバからプッシュされたコンテンツを受信し、このコンテンツを表示する。ここで、プロセッサ194は、「プル」モードで動作することもでき、このモードでは、プロセッサ194は、例えば、画面を見ている人の特徴に応じて、表示すべき適切なコンテンツを要求し又はダウンロードする。
制御コンピュータ600は、ローカル表示装置を構成することができ、この特別な表示装置により、特定のプラズマディスプレイ画面130で利用可能な表示シーケンスの選択可能な範囲を決定する。
グラフィックスカード120は、保存されたMPEGフォーマットの表示マテリアルをプラズマディスプレイ画面130に表示させるMPEG(又はNSP100で用いられている専用のフォーマット)復号ユニットを備える。
オーディオ発生器140は、グラフィックスカード120と協働し、販売促進用表示シーケンスのための音響効果を生成する。音響効果は、各用途の要求に応じて、MPEGビデオシーケンスによって再生してもよく、独自に再生してもよい。
顔検出/認識モジュール150は、カメラ110(及び関連する表示画面)の前の所定の空間的範囲内に現れる人間の顔の存在を識別する顔検出ソフトウェアと、顔認識ソフトウェアとを備える。顔認識ソフトウェアは、同じカメラ又は他のカメラ位置において以前に検出された個々の顔又は検出された顔のデータベース内に保存されている個々の顔を認識する。顔検出アルゴリズムは、人間の顔である可能性がある形状の視野を解析し、検出されたオブジェクトの特徴と、メモリに保存されているテンプレートの顔の特徴との一致を検出する。また、顔のようなオブジェクトが実際に人間の顔に対応するか否かを判定するために、瞬きや口の動きのような顔の運動を用いることもできる。
1組の特徴顔パラメータ(characteristic facial parameters)は、画素の色の黒レベル(darkness level)を分析することによって算出される。目、眉、頬骨、鼻のような顔の特徴は、隣接する画像領域に亘る黒レベルの急激な変化を検出することによって特定できる。肌の色合いと髪の色の検出には、画素の色ヒストグラムを用いることができる。検出された顔上には、顔の骨格を表現するための複数のアンカポイント(anchor points)を定義することができる。アンカポイントは、黒レベルの変化に基づいて判定される。アンカポイントは、例えば、口の端、眉線上の点、頬骨、及び鼻柱と鼻の頭に対応する点を含む。各アンカポイントを結ぶことによって、三角形の網が形成され、各三角形の角度は、顔パラメータの特徴の組として用いられ、これに基づいて、検出された同様の顔を照合し、したがって顔認識評価を行うことができる。
変形例として、顔を認識する所謂固有顔法を用いることもできる。固有顔法では、局所的な顔の特徴ではなく、顔全体が調べられる。ここでは、まず、検出された顔のデータベースを分析し、合成顔(composite face)を定義し、新たに検出された各顔の全体を合成顔と比較する。そして、検出された顔と合成顔との間の差異を示す数値をその顔の固有のパラメータデータとして用いる。
以下、図12〜図17を用いて、顔検出、顔追跡及び類似性検出の特定の実施例について説明する。なお、以下に説明する類似性検出技術は、ここでの目的に十分な技術である。換言すれば、ここでは、(有益ではあるが)異なるカメラにおいて、誰の顔が検出されたかを知る必要はなく、異なるカメラにおいて、同じ(可能性が高い)顔を検出できれば十分である。
当業者には明らかであるが、顔検出技術及びこれに類する技術は、絶対的な結論を導き出すものではなく、画像領域が顔を表す確率又は2つのカメラからの画像の組が同じ顔を含んでいる確率等を導き出すものである。この確率を閾値と比較することにより、一見明瞭な「YES」又は「NO」の結論が導き出されるが、この推論は、統計的な根拠に基づいているに過ぎない。
統計解析モジュール160は、カメラ110によってローカルで検出された個々の顔の数、性別データ、年齢カテゴリデータ、プラズマディスプレイ画面130の前の所定の空間的範囲内に各検出された顔が存在した時間(すなわち、インショット時間(in-shot time))を含む人間の顔に関する累積的な統計情報を維持する。顔検出/認識モジュール150は、各人の顔のインショット時間と滞在時間(dwell time)の両方を検出することができる。滞在時間とは、検出された人間の顔がプラズマディスプレイ画面130を直接見ていた(すなわち、プラズマディスプレイ画面130の方を向いていた)時間を表す。また、累積的な滞在時間を記録してもよい。累積的な滞在時間とは、所定の期間内に検出された全ての顔又は検出された所定のカテゴリの顔(例えば、男性の顔又は子供の顔)が特定のカメラに関連している表示画面に向けられた状態で滞在していた時間の合計を表す。これに代えて、所定の顔ID又は所定の顔カテゴリに関して、ネットワークの別の場所における複数の異なる表示画面/カメラの前の総滞在時間を表す累積的な滞在時間を算出してもよい。ローカルメモリ192は、制御コンピュータ600による包括的な統計的解析のためのデータをダウンロードする前に、限られた量のローカルな統計情報に対するローカルデータ処理及びストレージを行うために用いることができる。
なお、プラズマディスプレイ画面以外の表示技術を用いてもよい。また、店舗内ネットワーク(store-wide network)のコンテキストにおいては、当業者は、表示端末装置において、どの演算処理を行うか、及び1又は複数の中央サーバにおいて、どの演算処理を行うかを選択できる。実際、処理の性質によっては、表示端末装置と中央サーバの両方で実行できる処理もある。例えば、どのコンテンツを表示すべきかを決定するための幾つかの統計的な処理は、端末装置において、速やかにローカルで実行することが望ましい。同じ情報に関するより詳細な分析、例えば、画面内のマーケティング広告スペースにどのようなデータを含ませるかといった分析は、サーバで行ってもよい。
特定の位置において、カメラ及び関連する顔検出器によって捕捉された情報を表示するグラフィカルユーザインタフェース(GUI)を図2に示す。GUI200は、最近検出された顔のグリッド210を含む。検出された人間の顔の代表キースタンプ画像は、右のグリッド、すなわち位置212に現れ、時間が経過するとともに、左に、すなわち、位置214、続いて位置216に移動する。この特定の構成において、代表キースタンプは、各画像フレームの画素データの色ヒストグラムを分析し、平均色ヒストグラムを判定し、平均色ヒストグラムにコンテンツが最も近いシーケンスからの画像を代表キースタンプとして選択することによって、所定の画像シーケンスから作成される。
グリッド列のヘッディングによって示されるように位置212に示される画像は、2分前に捕捉された画像であり、位置214に示される画像は、4分前に捕捉された画像であり、位置216に示される画像は、6分前に捕捉された画像である。グリッドの各行は、所定のカメラ110によって提供される画像を表す。GUIパネル220は、最も最近に捕捉された幾つかの顔を表示するために用いられる。このGUIパネルに表示される顔の数は、それぞれ1つ、2つ及び4つの画像に対応する、表示画面上の適切なボタン222、224、226をクリックすることによって、ユーザにより選択可能である。また、GUI200は、最近捕捉された顔のGUIパネル220に表示されている代表キースタンプ画像のうち、ユーザによって選択された1つの代表キースタンプ画像に関連する顔統計パネル230を有している。統計情報に関連する代表キースタンプ画像238は、顔統計パネル230内にも表示される。この例示的な構成においては、表示される統計情報は、顔ID232と、この実施例では7秒である所定のカメラによって検出された顔の累積的な滞在時間234と、3秒であるインショット時間236とである。累積的な滞在時間は、この場合、検出された全ての顔(如何なるカテゴリに属する顔であってもよい。)がプラズマディスプレイ画面130の方に向けられていた時間の合計を表す。
図3は、顔検出/認識モジュール150によって検出された顔カテゴリに基づいて、表示すべき画像の組をどのように選択するかを説明するフローチャートである。
捕捉された画像シーケンスは、ステージ310において、顔検出/認識モジュール150によって、ローカルで分析される。この分析の少なくとも一部は、検出された顔に関連する画像の捕捉が完了する前に実行してもよい。
ステージ320においては、検出された人間の顔の所定の特性に基づいて、捕捉された画像シーケンス(又はシーケンス内の1つ顔)にローカル顔IDが割り当てられる。
次に、ステージ330において、統計解析モジュール160は、顔検出/認識モジュール150が導き出した情報に基づいて、検出された顔の性別カテゴリ(すなわち、男性/女性)を判定し、ステージ340において、検出された顔は、例えば、子供、青年、労働年齢の大人、定年年齢以上の大人等、所定の又は可変の年齢カテゴリの1つに対応付けられる。多くの場合、年齢カテゴリは、販売する商品のマーケティング要求に応じて決定される。年齢カテゴリは、顔検出/認識モジュール150において、肌の色合い/テクスチャ、髪の色、顔の特徴の相対的比率等を分析することによって判定してもよい。
ステージ350において、ローカル顔IDに関連する性別カテゴリと年齢カテゴリ及び現在の日時、インショット時間及び滞在時間を含む追加的な情報は、客プロファイルとして統合され、この情報は、ステージ360において、ローカルメモリ192に(オプションとしてリモートのメモリに)保存される。
変形例においては、例えば、人種、感情表現に関する特定の物理的特性及びカテゴリ等の追加的な情報を用いて客プロファイルを確立又は補強してもよい。
次に、ステージ350において判定された客プロファイルに基づいて、ステージ370において、ローカルに保存された複数の販売促進用のシーケンスから、プラズマディスプレイ画面130上に表示する1つのシーケンスが選択される。
ステージ380において、選択された販売促進用表示シーケンスと、これに付随する全ての音声データがローカルのデータストレージ装置190から読み出され、グラフィックスカード120及びオーディオ発生器140によって復号され、プラズマディスプレイ画面130を介して、これらのデータに基づく情報が買い物客に提供される。
選択された広告シーケンスが最初から最後まで表示されると、ステージ390において、カメラ110及び顔検出/認識モジュール150は、同じ人間の顔がまだショット内に存在するか否かを検出する。同じ人間の顔が既にショット内に存在せず、ショット内に他の顔も検出されなければ、ステージ392において、アイドルタイマ(idle timer)がトリガされ、個々の人間の顔の検出の間に経過する時間が監視される。一方、ステージ320において割り当てられたIDと同じ顔IDを有する人間の顔が、ステージ390においてショット内にまだあると判定された場合、処理は、ステージ394に進み、同じ商品に関する拡張された広告シーケンスが初期の広告シーケンスとして表示され、又は客プロファイルに適合する新たに選択された販売促進用のシーケンスがプラズマディスプレイ画面130に表示される。
図4は、検出された顔の年齢、性別及び表情カテゴリに基づいて、特定の画像の組をどのように選択し、表示するかを説明するフローチャートである。
ステージ410において、店舗のオーディオ/ビデオ販売フロアに設置されているプラズマディスプレイ画面130に関連しているカメラ110によって顔が検出される。
ステージ420において、顔検出/認識モジュール150は、検出された顔が子供の顔であるか否かを判定し、検出された顔が子供の顔であれば、子供用のアニメのデジタルビデオディスク(DVD)用の販売促進映像を提供する。一方、ステージ420において、検出された顔が子供の顔ではないと判定された場合、処理は、ステージ430に進み、顔検出/認識モジュール150は、検出された顔が65歳より高い年齢のグループに属する可能性が高いか否かを判定する。検出された顔が65歳以上に分類された場合、オーディオ発生器140は、ステージ432において、音量を通常より大きく設定し、次に、ステージ434において、古い映画のビデオの販売促進用の映像をプラズマディスプレイ画面130に表示させる。
ステージ430において、検出された顔が65歳以下の人間の顔であると判定された場合、ステージ440において、検出された顔が男性の顔であるか女性の顔であるかが判定される。顔が男性の顔であると判定された場合、処理は、ステージ450に進み、サイエンスフィクションのDVDの販売促進用の映像がプラズマディスプレイ画面130に表示される。サイエンスフィクションの販売促進用の映像を表示している間、(ステージ452において)カメラ110は、この男性の顔の監視を継続し、販売促進用のマテリアルを表示している間、その表情が退屈を表しているか否か、又はその男性が既に表示画面から顔を背けているか否かを判定する。退屈又は画面から顔を背けていることが検出されない場合、その買い物客に対し、サイエンスフィクションのDVDの販売促進用のデータの表示が継続される。一方、退屈している顔が検出され、又は顔がディスプレイから所定の角度以上背けられていることが検出された場合、処理は、ステージ454に進み、表示画面に異なる販売促進用の映像、この場合、アクション/冒険映画のDVDの販売促進用の映像を提供し、顧客の注意を取り戻し、累積的な滞在時間を増加させる。
ステージ440において、検出された顔が女性の顔であると判定された場合、ステージ460において、プラズマディスプレイ画面130に時代劇のDVD販売促進用のシーケンスが表示される。サイエンスフィクションの販売促進用の映像を表示している間、(ステージ462において)カメラ110は、この女性の顔の監視を継続し、販売促進用のマテリアルを表示している間、その表情が退屈を表しているか否か、又はその女性が既に表示画面から顔を背けているか否かを判定する。退屈又は画面から顔を背けていることが検出されない場合、その買い物客に対し、時代劇のDVDの販売促進用のデータの表示が継続される。一方、退屈している顔が検出され、又は顔がディスプレイから所定の角度以上背けられていることが検出された場合、処理は、ステージ464に進み、表示画面に異なる販売促進用の映像、この場合、プラズマディスプレイ画面130には、時代劇のDVDの販売促進用の映像に代えて、恋愛コメディのDVDの販売促進用の映像が表示される。
図4のフローチャートは、商品の販売促進に関連しているが、例えば金融サービス等のサービスのための広告をプラズマディスプレイ画面130上に表示してもよいことは明らかである。更に、個々の買い物客の検出された特性に基づいて、宣伝用の表示を選択するのではなく、統計解析モジュール160からのデータを用いて、所定の期間に亘る特定の年齢又は性別カテゴリに属する顔の検出の周期を判定し、異なるカテゴリで検出された顔の相対的な出現頻度に基づいて、販売促進用のシーケンスを選択してもよい。これに代えて、検出された顔の履歴データベースを用いて、所定の曜日の所定の日時に店舗内にいる可能性が最も高い買い物客のカテゴリを判定し、これに応じて表示する販売促進用のシーケンスを選択してもよい。
図5は、顔検出/認識モジュール150の出力に基づくアイドルモードとアクティブモードとの間の遷移について、図1の表示装置をどのように制御するかを説明するフローチャートである。
プラズマディスプレイ画面130は、初期的には、節電状態である非アクティブモード(アイドルモード)にあるが、このモードでもカメラ110及び顔検出/認識モジュール150は、パワーオン状態にあり、完全に動作することができる。ステージの510において、顔検出/認識モジュール150は、カメラ1によって人間の顔の存在を検出し、ステージ520において、統計解析モジュール160は、人間の顔が最初に検出された時刻のログを記録する。
ステージ530において、プロセッサ194は、プラズマディスプレイ画面130に制御信号を送り、アクティブモードを開始し、このアクティブモードでは、画面に所定の電力が供給され、宣伝用の画像/音声のシーケンスの再生が開始される。
ステージ540において、統計解析モジュール160は、カメラ1に関するローカルの人数(head count)カウントをインクリメントする。顔検出/認識モジュール150は、ローカルの人数カウントをインクリメントする前に、最近検出された顔を再確認し、現在検出されている顔が、同じカメラによって、最近ログに記録された顔と同じであるか否かを判定し、現在検出されている顔が最近検出された顔と同じである場合、ローカルの人数カウントは、インクリメントされない。このような相互確認を行う時間ウィンドウ(time window)は、この具体例では2時間であるが、この期間は、オペレータが制御コンピュータ600を介して任意に設定することができる。
ステージ550においは、カメラ1によって捕捉された人間の顔の画像のサブセットは、後の表示及び/又は分析のために、メモリ192又はデータストレージ装置190に保存される。画像は、利用可能な記憶容量に基づいて設定された所定の周期及び品質で捕捉される。
ステージ560において、顔検出/認識モジュール150は、人間の顔がまだショット内にあるか否かを判定する。顔がまだショット内にあると判定された場合、ステージ562において画像捕捉が継続される。一方、人間の顔がショット内にない場合、ショットのタイマが停止され、ステージ570において、捕捉された画像シーケンスが顔検出/認識モジュール150によって分析され、カメラ1によって特定された人間の顔の総滞在時間が算出される。総滞在時間とは、顔がカメラ、したがって表示画面の方を直接(所定の公差範囲内の角度で)向いていた時間の合計である。
ステージ570においては、現在検出されている顔の滞在時間を含むように(全ての顔カテゴリの買い物客についての)累積的な滞在時間がインクリメントされる。ステージ580において、これまで検出されていた人間の顔が既にカメラのショット内になく、他の人間の顔もショット内にないと判定された場合、アイドル時間カウンタによるカウントが開始される。アイドル時間カウンタが動作している間、この具体例では5分間に設定されている最大アイドル時間が経過したか否かが判定される。この間、表示画面は、アクティブモードを維持するが、表示画面には動的な映像ではなく、静的な画像が表示される。顔検出/認識モジュール150によって更なる人間の顔が検出されないままアイドル時間が最大アイドル時間を超えると、プロセッサ194は、節電のため、ステージ592において、プラズマディスプレイ画面130を非アクティブモードにパワーダウンする。P11この構成では、アイドル時間カウンタは、人間の顔がショット内にないと判定すると直ちにカウントを開始するが、(例えば、図3を用いて説明した)変形例においては、アイドル時間カウンタは、所定の販売促進用のシーケンスが終わった時点で、人間の顔がショット内にないと判定した場合にのみカウントを開始するようにしてもよい。
図6は、ネットワーク接続された複数の機器を制御する制御コンピュータ600の構成を示している。制御コンピュータ600は、店舗内に配設されているそれぞれのローカルの表示装置からダウンロードされた統計情報を照合及び分析する。なお、統計的解析は、個々の顔検出/認識モジュール150及び統計解析モジュール160を用いて、個々の表示装置において、少なくとも部分的にローカルに実行される(又は実行することができる)。
この特定の構成においては、制御コンピュータ600は、個々のカメラからの統計情報を照合し、検出された顔の履歴データベースを保存し、複数の位置において検出された人間の顔の総合的な統計的解析を実行するために設けられている。変形例においては、制御コンピュータ600を必要とせず、例えば、「グリッド」型コンピュータシステムを用いて、分散的に総合的な分析を実行する。
制御コンピュータ600は、包括的人数及び人数統計解析器612、顔相関モジュール614、客経路追跡モジュール(customer path-tracking module)616及び購入/広告相関器618を含む統計解析ユニット610と、統計データベース620と、ディスプレイシーケンスレポジトリ630と、ローカルディスプレイ構成モジュール640と、入力装置650と、例えばリモートストレージ装置へのアクセスを提供する機能を含むネットワークインタフェース660とを備える。
購入/広告相関器618は、顧客のロイヤルティカードから情報を読み出し、そこに記録されている情報を検出するカードリーダ(図示せず)にリンクさせてもよい。カードリーダは、店舗の会計コーナに配設してもよい。
制御コンピュータ600は、通信ネットワーク196を介して、ローカルディスプレイ画面と関連するカメラとに関連付けて保存されている統計情報をダウンロードし、これらの統計情報を照合及び分析した後、統計データベース620にこの情報を保存する。統計データベース620は、表示画面に関連するメモリ192にローカルに保存されている統計より長い期間のデータ(この実施例では、1年間の統計情報)を保存する。制御コンピュータ600においては、各検出された顔に関する代表キースタンプ画像及び特徴的な画像パラメータの組もメモリに保存される。ディスプレイシーケンスレポジトリ630は、個々のプラズマディスプレイ画面についての選択的なダウンロードのために、複数の異なるプロモーション用表示シーケンスを保存する。ローカルディスプレイ構成モジュール640は、ソフトウェアプログラムの制御の下で自動的に、又は制御コンピュータ600のオペレータが入力装置650を用いて手動で各ローカルディスプレイの構成を可能にする。
統計解析ユニット610において、包括的人数及び人数統計解析器612は、各ローカルの表示装置からの人数統計を照合し、これにより、各表示装置に注目した買い物客の人数を比較できる(以下の図8の説明参照)。各表示装置に関連するこの人数は、店舗内のプラズマディスプレイ画面130の位置や、実際に表示された販売促進用のシーケンスに依存する。また、包括的人数及び人数統計解析器612においては、例えば、所定の年齢カテゴリ又は性別カテゴリにおいて検出された顔の総数等の他の人数統計も照合される。
顔相関モジュール614は、個々のローカルの表示装置からのローカル顔IDに関するデータを照合し、顔検出/認識モジュール150によって判定された特徴的な顔パラメータを比較し、異なるカメラの間で検出された所定の顔の一致を判定する。これにより、一致が検出された場合、2つ以上のカメラにおいて、所定の顔について、ローカル顔IDにグローバル顔ID(global face ID)が関連付けられ及び割り当てられる。このグローバル顔IDについて、各異なるカメラにおける検出時間と滞在時間が照合され、これにより、店舗内における所定の買い物客の行動が追跡され、及び各表示画面を見るために費やされた時間が算出される。客経路追跡モジュール616は、この情報を用いて、所定の曜日、所定の時刻、所定の季節、或いは、例えば、主要なスポーツイベントの期間、雨の日の午後、夏の日の等特定の購入「環境」において、店舗内で所定の組の買い物客が移動する可能性が最も高い経路を判定する(以下の図9の説明参照)。
購入/広告相関器618は、プラズマディスプレイ画面130において宣伝される商品の購入と、プラズマディスプレイ画面130における視聴イベントとをリンクさせる。購買情報は、会計時に読み取られる商品バーコードから得られる。会計コーナに設置されているカメラは、商品を購入している買い物客の顔を検出し、この買い物客の顔と、関連するプラズマディスプレイ画面130において最近検出された顔とを照合する。商品を購入した買い物客の顔と、関連する販売促進用のシーケンスが実際に表示されていたプラズマディスプレイ画面130において検出された顔とが一致した場合、その買い物客の滞在時間と共に、広告と購買の間の相関情報が登録される。また、商品棚に向けられたカメラからの情報を用いて、関連するプラズマディスプレイ画面を見ていると検出された顔IDを有する買い物客が、宣伝された商品を実際に購入したか否かを判定してもよい。
また、購入/広告相関器618は、顧客ロイヤルティカード(customer loyalty card)の情報を分析することもできる。顧客ロイヤルティカードは、特定の個人の購入プロファイル及び/又は統計的な組分けに関する情報を保存するために用いられる。ロイヤルティカードに保存される顧客に関する情報の詳細は、店舗内のカメラからの顔検出/認識情報及び買い物客が実際に購入した、宣伝された商品に関する情報に関連付けられる。これにより、個々の買い物客の購買行動に対する広告の影響を効果的に評価することができる。このように、会計からの情報(例えば、購入された商品のバーコード、買い物客の顔の特徴、及び顧客ロイヤルティカードデータのうちの少なくとも1つを含む。)と、ローカルディスプレイ画面において検出された顔とを相関させることにより、販売促進用の映像の効果を客観的に評価できる。
店舗レイアウトと、この店舗レイアウトにおける複数の表示装置の位置とを表すGUIを図7に示す。領域710は、商品が陳列されている棚を表し、表示画面及びこれに関連するカメラを含む個々の表示装置の位置は、例えば、アイコン722、724、726等のカメラアイコンによって示されている。このGUIには、陳列棚に対する、及び店舗の入口/出口740に対する各表示画面の位置が明確に示されている。
プラズマディスプレイ画面に組み込まれているカメラ以外にも店舗の会計コーナ(又は、店舗内の他の位置)には、他のカメラ(図示せず)が設置されている。これらの会計用カメラは、買い物客の顔を検出し、この買い物客が、プラズマディスプレイ画面の1つに関して、以前に、販売促進用のシーケンスを見ていることが検出されているか否かを判定するために、商品を購入する買い物客に向けられる。更に、幾つかのカメラは、買い物客ではなく商品に向けてもよく、これにより、棚から商品を手に取るユーザの振る舞いを監視でき、及び、この情報を他のカメラからの顔検出/認識データに関連付けることができる。
図8は、図7の店舗及び表示装置のレイアウトにおける包括的な人数統計の概要を示している。図8に示すように、店舗の入口/出口740の付近に設置されているカメラ722では、最も多い2750人の買い物客の顔が捕捉され、店舗内の1つの角に設置されているカメラ730では、最も少ない285人の買い物客の顔が捕捉されている。
ユーザは、例えば、コンピュータマウス等の入力装置を用いてカメラのアイコンを選択することによって、GUIに表示されている各カメラに関連しているローカルの統計にアクセスできる。各カメラには、ローカルの人数と滞在時間を含むローカルの統計情報を表示するためのプルダウンメニューが関連付けられている。特定の陳列領域においては、人数及び滞在時間(買い物客による又は他の累積的滞在時間)は、対応する位置で販売されている商品及び表示装置に表示されている宣伝のメディアの両方の関数となる。このGUIでは、この位置マップ上に、カラーコードを用いて、集客の程度を表すことができ、例えば、赤を用いて、人が多い「ホットスポット」を示し、青を用いて「コールドスポット」(買い物客が比較的少ない場所)を示すことができる。
図9は、図7の店舗マップ内の別の場所に位置する異なるカメラによる、同じ人間の顔の検出と認識に基づいて判定された、買い物客が移動する可能性が最も高い経路(カメラ順)を示している。最も可能性が高い経路は、客経路追跡モジュール616において、異なるカメラ位置における所定のグローバル顔IDの検出時間を関連付け、複数の異なるグローバル顔IDについて、この分析を繰り返すことによって算出される。
詳しくは、図9に示す具体例では、買い物客が移動する可能性が最も高い経路は、店舗入口の左側のカメラ722からカメラ724、続いて店舗の奥の壁に設置されているカメラ732、続いて店舗の右側に設置されているカメラ734、728、続いてカメラ736、そして、カメラ738から店舗のフロントを通過して、出口740に向かう経路である。この場合、最も可能性が高い経路は、店舗の(入口から見て)一番右手の壁に陳列されている商品を避けている。一日のうちの異なる時間帯毎に、又は異なる年齢カテゴリ、性別カテゴリ等に対応して検出された顔のサブセット毎に最も可能性が高い経路を求めてもよい。これにより、小売業者は、異なる買い物客のグループ及びこれらの買い物客が最も足を運びやすい特定の商品陳列領域に関する有益な情報を得ることができる。この情報を用いて、導出された買い物客の振る舞いに応じて、戦略的に商品を陳列することができる。
図10は、図6の制御コンピュータ600において、ネットワーク接続された複数の機器からの包括的な統計情報をどのように分析するかを示すフローチャートである。
ステージ1100において、制御コンピュータ600は、店舗内の異なる位置に取り付けられた複数台、すなわちN台のカメラにおいてそれぞれ検出された顔に関するローカルに保存された統計情報をネットワークからダウンロードする。ここでダウンロードされる情報としては、例えば、ローカル顔IDと、各ローカル顔IDに関する最初の検出日時と、特定のカメラ前における各顔IDの滞在時間と、異なる時刻において異なるカメラで検出された顔の相互相関のために用いられる一組の顔照合パラメータと、商品の販売をプラズマディスプレイ画面130に表示させた販売促進用のシーケンスに関連付けるために用いられる、所定のローカル顔IDを有する買い物客に対して表示された商品の商品IDとが含まれる。
ステージ1200において、(図8に示すように)個々のカメラのローカルの人数統計を用いて、包括的な人数統計を更新する。ステージ1300において、異なるローカル顔IDに関連している顔照合パラメータの相関を調べ、同じ顔が2つ以上のカメラで検出されているか否かを判定する。ステージ1400において、少なくとも2つの異なるカメラにおいて、同じ顔が検出され、認識されているか否かを判定し、同じ顔が検出及び認識されている場合、ステージ1410において、この顔にグローバル顔IDを割り当てる。
次に、処理は、ステージ1420に進み、ここで、各カメラにおいて顔が最初に検出された時間及び個々のプラズマディスプレイ画面130における滞在時間を用いて、店舗内の別の場所に設置されているカメラ間における所定のグローバル顔IDを有する買い物客の経路を追跡する。ステージ1430において、この特定の買い物客に関する、対応する顔が検出された全てのカメラ位置における滞在時間を含む累積的な滞在時間が算出される。
ステージ1400において、ローカル顔IDが2つ以上のカメラにおいて検出された顔に対応すると判定された場合、処理演算の更なるシーケンスが実行される。詳しくは、ステージ1450において、顔が検出されたカメラの1つが店舗の会計コーナに向けられているカメラであるか否かが判定され、このカメラが会計コーナに向けられている場合、ステージ1460において、グローバル顔IDは、そのグローバル顔IDに対応する顔が検出された1つ以上の表示画面に表示された商品広告IDに関連付けられる。ステージ1470において、会計コーナで買い物客が購入し、商品バーコードによって特定された商品は、商品広告IDに関連付けられ、そして、ステージ1480において、買い物客が表示画面の前で関連する販売促進広告を見ていた滞在時間と共に、購入された商品と、買い物客が見た広告との間の相関情報が統計データベース620に登録される。
ここに開示した構成により、広告の有効性を判定することができる。この有効性の指標を用いて、表示装置に広告を表示する際の適切なコストを算出することができる。このような電子看板(デジタルサイネージ)方式は、店舗(ショップ)環境のみではなく、(例えば、)娯楽施設又は鉄道/バス停等、広告の表示に適した如何なる場所にも応用できる。更に、この技術は、広告のみではなく、表示される情報の分布の有効性の監視及びカスタマイズに広く応用できる。例えば、この技術は、博物館、学校、待合所等に適用してもよい。
図11は、図7〜図9に示すネットワーク接続された表示装置からの包括的な統計の累積的な履歴を表示するGUIを示している。GUIは、日時グリッド2100を含み、日時グリッド2100の5つの各列は、所定の日付を表し、5つの各行は、1時間毎の期間を表している。グリッド内の黒い正方形は、対応する日時に関連する、捕捉された顔の代表キースタンプ画像である。グリッドによって表示される期間は、GUIのカレンダーパネル2200を用いて選択できる。ウィンドウ2300には、日時グリッド2100内の所定の正方形に関連している統計情報が表示される。
この具体例では、グリッド2100内の左上のボックスが選択されており、このため、1月25日の午前9時から午前10時までの統計情報が表示されている。表示される統計情報は、その期間に全てのカメラで検出された顔の総数、男性の顔と女性の顔の割合、平均滞在時間、平均インショット時間等を含む。
図12〜図15cの図面を用いた説明は、国際特許出願番号PCT/GB2003/005186号に開示された技術を要約するものである。ここに説明した技術的特徴の更なる詳細については、この特許文献に開示されている。PCT/GB2003/005186に開示されている特徴は、以下の説明において特に言及しなくても、(少なくともオプションとして)本発明に基づく検出構成の特徴に共通するとみなされる。
ここでは、まず、顔検出技術について説明する。
次に、連続した画像のグループにおいて検出された顔又は顔位置を関連付ける顔「追跡」技術について説明する。
そして、最後に、顔「類似」技術について説明する。この技術は、同じカメラ又は異なる各カメラからの2つの個別に追跡された顔を関連付ける技術である。
この実施例における顔検出技術は、2つのフェーズから構成される。図12は、トレーニングフェーズを示し、図13は、検出フェーズを示している。ここに説明する手法(及び上述した他の手法)は、適切なソフトウェアが実行される汎用コンピュータ装置によって実現してもよい。このようなコンピュータ装置は、例えば、処理ユニットを備え、処理ユニットは、中央演算処理装置(CPU)と、ランダムアクセスメモリ(RAM)等のメモリと、ディスクドライブ等の不揮発性記憶装置と、他の通常の構成要素とを備える。コンピュータ装置は、ローカルエリアネットワーク又はインターネット(或いは両方)のようなネットワークに接続してもよい。コンピュータ装置は、更に、キーボードと、マウス又は他のユーザ入力デバイスと、表示画面とを備える。このソフトウェアは、記録媒体(例えば、光ディスク)及び伝送媒体(例えば、ネットワーク接続、インターネット接続又はこれらの両方)によって提供してもよい。当業者には、汎用コンピュータ装置がここで記載していない多くの他の従来の部品を含むことは、明らかである。
以前に提案された顔検出方法と異なり、この方法は、全体としてではなく顔の一部のモデリングに基づいている。顔の一部は、顔の特徴(所謂「選択サンプリング(selective sampling)」)の推定位置上の中心のブロック、又は顔の通常間隔でサンプリング(所謂「標準サンプリング(regular sampling)」)されたブロックである。ここでは、主に、経験的検定で良い結果が得られた標準サンプリングについて説明する。
トレーニング段階では、解析処理を、顔を含むことが知られている一組の画像に、及び(オプションとして)顔を含まないことが知られている画像(「顔でない画像(nonface images)」)の別のセットに適用する。この処理は、顔の異なる向き(例えば、正面、左向き、右向き)を表す顔データの複数のトレーニングセットに対して繰り返し実行することができる。解析処理は、検定画像を後で(検出段階で)比較することができる顔及び顔でない特徴の数学的モデルを構築する。
したがって、数学的モデル(図12のトレーニング処理10310)を構築するための基本的な手順は次の通りである。
1.同じ目位置を有するように正規化された顔の画像のセット10300の各顔を、小さいブロックに一様にサンプリングする。
2.各ブロックの属性を算出する。
3.属性を、異なる値の処理しやすい数に量子化する。
4.次に、量子化属性を、そのブロック位置に関して1つの量子化値を生成するために組み合わせる。
5.そして、1つの量子化値を、エントリとしてヒストグラム、例えば図5に示すヒストグラムに記録する。全てのトレーニング画像の全てのブロック位置に関する累積されたヒストグラム情報10320は、顔の特徴の数学的モデルの基礎を形成する。
上述のステップを多数の検定顔画像について繰り返すことによって、1つのそのようなヒストグラムを、各可能なブロック位置に対して作成する。そこで、8×8ブロックの配列を用いる方式では、64個のヒストグラムを準備する。処理の後半部において、検定する量子化属性を、ヒストグラムのデータと比較する。データをモデル化するために全部のヒストグラムを用いるという事実は、例えばガウス分布又は他の分布を後でパラメータ化するか否かと仮定する必要はないことを意味する。データ記憶空間(必要ならば)を節約するために、同じヒストグラムが異なるブロック位置に対して再生利用できるように、類似しているヒストグラムを併合することができる。
検出段階で、検定画像10350を顔検出器10340で処理するために、検定画像10340内の連続したウィンドウを、以下のように処理する。
6.ウィンドウを、一連のブロックのように一様にサンプリングし、そして、各ブロックに関する属性を算出して、上述のステップ1〜4のように量子化する。
7.各ブロック位置の量子化属性値の対応する「確率(probability)」を、対応するヒストグラムから調べる。すなわち、各ブロック位置のそれぞれの量子化属性を生成し、そのブロック位置に関して予め生成されたヒストグラム(複数のトレーニングセットが異なる顔の向きを表している場合は、複数のヒストグラム)と比較する。ヒストグラムが「確率」データを高める方法については後述する。
8.得られる全ての確率を互いに乗算して、ウィンドウを「顔」又は「顔でない」に分類するために、閾値と比較する最終の確率を形成する。「顔」又は「顔でない」の検出結果は絶対検出よりもむしろ確率ベースの方法であることは、言うまでもない。顔を含んでいない画像を間違って「顔」として検出(所謂誤検出(false positive))してしまうことがある。また、顔を含んでいる画像を間違って「顔でない」として検出(所謂見逃し検出(false negative))してしまうこともある。あらゆる顔検出システムの目標は、誤検出の割合及び見逃し検出の割合を減らすことであるが、現在の技術では、これらの割合をゼロに減らすことは、不可能ではないとしても困難である。
上述のように、トレーニング段階において、一組の「顔でない」画像は、「顔でない」ヒストグラムの対応するセットを生成するために用いることができる。そして、顔の検出を達成するために、顔でないヒストグラムから生成される「確率」を、個々の閾値と比較し、検定ウィンドウが顔を含むためには、確率が閾値以下でなければならない。代わりに、顔でない確率に対する顔確率の比を、閾値と比較することができる。
元のトレーニングセットを例えば位置、方向、大きさ、アスペクト比、背景の風景、照明の明るさ及び周波数成分(frequency content)の変化等の「合成変化(synthetic variations)」10330で処理することによって、特別な(extra)トレーニングデータを生成することができる。
顔追跡
顔追跡アルゴリズムについて説明する。追跡アルゴリズムは、画像シーケンスにおいて顔検出性能を向上させることを意図している。
追跡アルゴリズムの初期の目標は、画像シーケンスの全てのフレームにおける全ての顔を検出することである。しかしながら、時々、シーケンス内の顔が検出できないことが認められる。これらの環境で、追跡アルゴリズムは、見逃した顔検出全体で補間するように補佐することができる。
最終的に、顔追跡の目標は、画像シーケンスにおいて同じシーンに属しているフレームの各セットから有効なメタデータを出力できることである。このメタデータには、以下のものが含まれる。
・顔の数。
・各顔の「顔写真(Mugshot)」(個人の顔の画像を表す口語的な言葉、警察にファイルされている写真を照会する用語からきている)。
・各顔が最初に出現するフレーム番号。
・各顔が最後に出現するフレーム番号。
・各顔の識別(前のシーンで見られた顔に一致するか、顔のデータベースに一致したもの)
追跡アルゴリズムは、顔検出アルゴリズムの結果を用い、画像シーケンスの各フレーム上で、その開始位置として独立して実行される。顔検出アルゴリズムは時々顔を逃がす(検出しない)こともあるので、見逃した顔を内挿する(interpolating)方法は有効である。このために、顔の次の位置を予測するためにカルマンフィルタ(Kalman filter)を用い、顔追跡を助けるために、肌色マッチングアルゴリズム(skin color matching algorithm)を用いた。更に、顔検出アルゴリズムが頻繁に誤った採用の原因となるので、また、これらを排除する方法は有効である。
このアルゴリズムを、図14に示す。
このアルゴリズムについては以下に詳細に説明するが、要約すると、入力ビデオデータ10545(画像シーケンスを表す)がこの出願で説明される種類の検出器10540及び肌色マッチング検出器10550に供給される。顔検出器10540は、各画像内で1つ以上の顔を検出することを試みる。顔が検出されると、カルマンフィルタ10560が起動され、その顔の位置を追跡する。カルマンフィルタ10560は、画像シーケンスにおける次の画像内で同じ顔の予測される位置を生成する。目の位置比較器10570、10580は、顔検出器10540が次の画像内のその位置(或いは、その位置からある閾値距離の範囲内)で顔を検出したかを、検出する。顔が検出された場合、その検出された顔位置は、カルマンフィルタを更新するために用いられ、処理が続けられる。
顔が予測された位置で、或いは近くで検出されない場合、肌色マッチング回路10550を用いる。肌色マッチング回路10550は、厳密でない顔検出技術であり、その検出の閾値は顔検出器10540よりも低く設定され、顔検出器10540がその位置で顔があると検出することができないときでさえ、顔を検出する(顔があるとみなす)ことができる。肌色マッチング回路10550によって「顔」が検出されると、その位置がカルマンフィルタ10560に更新された位置として供給され、処理が続けられる。
顔検出器10450又は肌色マッチング回路10550によって一致が検出されないときは、カルマンフィルタを更新するために予測された位置を用いる。
これらの結果の全ては、判定基準(下記参照)に対する対象である。したがって、例えば、1つの正しい検出に基づきシーケンスを通して追跡される顔、及び予測の残り又は肌色検出の残りは、破棄する。
独立したカルマンフィルタは、追跡アルゴリズムにおいて各顔を追跡するために用いられる。
なお、追跡処理は、必ずしもビデオシーケンスを時間的に順方向に追跡する必要はない。画像データにアクセス可能であれば(すなわち、処理が実時間ではなく、又は画像データが時間的に継続する用途のためにバッファリングされている場合)、追跡処理を時間的に逆方向に行うこともできる。又は、第1の顔が検出された場合(多くの場合ビデオシーケンスの途中で検出される)、追跡処理は、時間的に順方向及び逆方向の両方について開始してもよい。更なる任意の処理として、追跡処理は、ビデオシーケンス全体に亘って、時間的に順方向及び逆方向の両方について実行し、これらの追跡の結果を組み合わせて(例えば)許容基準に適合する追跡された顔が、追跡が実行された何れの方向についても有効な結果として含ませてもよい。
追跡アルゴリズムの利点
顔追跡法は、以下のような3つの主な利点を有する。
・顔検出結果が得られないフレームにおいて、カルマンフィルタリング及び肌色追跡を用いることにより、見逃された顔を埋める(fill in)ことができる。これにより、画像シーケンス間に亘って、真の許容率を高めることができる。
・顔を連続的に追跡することにより、顔のリンクを提供できる。アルゴリズムは、将来のフレームにおいて検出された顔が同じ個人の顔であるか、他の個人の顔であるかを自動的に知ることができる。したがって、このアルゴリズムから、シーン内の顔の数やこれらの顔が存在するフレームに関する情報を含むシーンメタデータを容易に作成することができ、各顔の代表的な顔写真を作成することもできる。
・顔の誤検出は、画像間で連続することは希であるため、顔の誤検出率を低くすることができる。
図15a〜図15cは、ビデオシーケンスに適用される顔追跡を説明する図である。
具体的には、図15aは、連続するビデオ画像(例えば、フィールド又はフレーム)10810から構成されるビデオシーン10800を図式的に示している。
この具体例では、画像10810は、1又は複数の顔を含んでいる。詳しくは、このシーン内の全ての画像10810は、画像10810の図式的表現内における左上に示す顔Aを含んでいる。更に、一部の画像10810は、画像10810の図式的表現内における右下に示す顔Bを含んでいる。
この図15aに示すシーンに顔追跡処理を適用したとする。顔Aは、当然、シーン全体に亘って追跡される。1つの画像10820においては、直接検出によっては顔は追跡されていないが、上述した色マッチング法及びカルマンフィルタリング法により、「見逃された(missing)」画像10820の前後の両側について、検出が連続していることを示唆する。図15bは、検出された、各画像内に顔Aが存在する可能性を示し、図15cは、顔Bに関する対応する確率を示している。顔Aに対する追跡と、顔Bに対する追跡とを区別するために、各追跡には、(少なくともこのシステム内における他の追跡に関して)固有の識別番号が与えられる。
上述のシステム及びPCT/GB2003/005186に開示されたシステムでは、顔検出及び追跡において、顔が長期間に亘ってカメラから背けられた場合、又はシーンから短期間消えた場合、個人の追跡が終了する。顔がシーンに戻ると、その顔は、再び検出されるが、この場合、新たな追跡が開始され、この新たな追跡には、以前とは異なる識別(ID)番号が与えられる。
以下、所謂「顔類似(face similarity)」又は「顔照合(face matching)」技術について説明する。
顔類似の目的は、上述のような状況における、個人の同一性を維持するすることであり、これにより、(同じ個人に関連する)先の顔追跡と、後の顔追跡、又は異なるカメラによる個々の追跡を互いにリンクさせることができる。この構成においては、少なくとも原理的に、各個人には、固有のID番号が割り当てられる。個人がシーンに戻るとアルゴリズムは、顔照合技術を用いて、同じ識別番号を再び割り当てるよう試みる。
顔類似法では、新たに検出した個人の複数の顔「スタンプ」(追跡された顔を代表するよう選択された画像)と、以前に検出した個人又は他の場所で検出した個人とを比較する。なお、顔スタンプは、正方形である必要はない。システムの顔検出及び追跡コンポーネントから、1人の個人に属する複数の顔スタンプが得られる。上述のように、顔追跡処理では、検出された顔を一時的にリンクし、その個人がシーンから消えるか、カメラから長時間顔を背けない限り、ビデオフレームのシーケンス中において、これらの顔の同一性を維持する。したがって、このような追跡処理内の顔検出は、同じ個人に属するものと考えられ、その追跡処理内の顔スタンプは、1人の特定の個人の顔スタンプの「組」として用いることができる。
各顔スタンプの組においては、固定された数の顔スタンプが維持される。以下、追跡処理から顔スタンプを選択する手法を説明する。次に、2つの顔スタンプセットの「類似性測定値」について説明する。続いて、顔検出と追跡システム内において、類似法をどのように用いるかを説明する。まず、図16を用いて、総合的な追跡システムのコンテキストにおける顔類似技術(face similarity techniques)について説明する。
図16は、上述した顔検出及び追跡システムの技術的コンテキストに顔類似機能を追加したシステムを示している。この図面には、上述のシステム及びPCT/GB2003/005186に開示された処理の概要も示されている。
第1のステージ12300において、所謂「関心領域」ロジックは、画像内において、顔検出を行うべき領域を導出する。これらの関心領域において、顔検出12310が行われ、顔位置が検出される。次に、顔追跡12320が行われ、追跡された顔位置及びIDが生成される。そして、顔類似処理12330において、顔スタンプの組が照合される。
顔スタンプの組のためのスタンプの選択
顔スタンプの組を生成及び維持するために、追跡処理において一時的にリンクされた複数の顔スタンプから所定数(n)のスタンプが選択される。選択の基準は、以下の通りである。
1.スタンプは、色追跡又はカルマン追跡からではなく、顔検出から直接生成されている必要がある。更に、スタンプは、「正面」の顔トレーニングセットから生成されたヒストグラムデータを用いて検出された場合にのみ選択される。
2.一旦、(例えば、顔追跡を構成する画像の時間順に)最初のn個のスタンプが集められると、既存の顔スタンプの組と、(時間順の)追跡から得られる新たな各スタンプとの類似性(以下参照)が測定される。追跡された各顔スタンプと、スタンプの組内の残りのスタンプとの類似性も測定され、保存される。新たに得られた顔スタンプが顔スタンプの組の既存の要素より類似性が低い場合、その既存の要素は、無視され、新たな顔スタンプが顔スタンプの組に含まれる。このようにしてスタンプを選択することにより、選択処理の終わりには、顔スタンプの組内に、入手可能な最大限の変化が含まれる。これにより、顔スタンプの組は、特定の個人をより明確に代表するようになる。
1つ顔スタンプの組について集められたスタンプがn個より少ない場合、この組は、多くの変化を含んでおらず、したがって、個人のを明確に代表するものではない可能性が高いため、この顔スタンプの組は、類似性評価には使用されない。
この技術は、顔類似アルゴリズムだけではなく、如何なる目的の如何なる用途の代表ピクチャスタンプの組の選択にも応用できる。
例えば、この技術は、所謂顔登録(face logging)にも応用できる。例えば、カメラの前を通り過ぎたことが検出され、登録された個人を表現する必要がある場合がある。この場合、幾つかのピクチャがスタンプを用いるとよい。これらのピクチャスタンプは、できるだけ多くの変化が含まれるように、互いに可能な限り異なるものであることが理想的である。これにより、人間のユーザ又は自動顔認識アルゴリズムがその個人を認識できる機会が広がる。
類似性測定値
2つの顔追跡結果が同じ個人を表しているか否かを判定するためにこれらを比較する際に用いる、新たに遭遇した個人の顔スタンプの組(セットB)と、以前に遭遇した個人の顔スタンプ(セットA)との間の類似性の基準は、セットAの顔スタンプからセットBの顔のスタンプがどれ程良好に再構築できるかに基づいて定められる。セットAの顔スタンプからセットBの顔スタンプが良好に再構築できる場合、セットAとセットBの両方の顔スタンプは、同じ個人のものである可能性が高いと考えられ、したがって、新たに遭遇した個人は、以前、検出された個人と同一人物であると判定できる。
この手法は、上述した構成にも適用でき、すなわち、特定の顔追跡結果を表す顔スタンプの組として用いる顔画像の選択にも適用できる。この場合、新たに遭遇した各候補顔スタンプと、その組内の既存のスタンプとの間の類似性、及び既存の組内の各スタンプ間の類似性は、後述するように、セットBからのスタンプと、セットAからのスタンプとの間の類似性と同様に判定できる。
セットB内のスタンプは、ブロックベースの手法によって、セットAのスタンプから再構築される。この処理図を図17に示す。
図17には、4つの顔スタンプ12000、12010、12020、12030を含む顔スタンプセットAが示されている(勿論、4個という個数は、図面を明瞭にするために選択しただけであり、実用段階では、当業者はこの個数を任意に選択することができる)。顔スタンプセットBからのスタンプ12040は、セットAの4つのスタンプと比較される。
顔スタンプ12040内の重複しない各ブロック2050は、顔スタンプセットAのスタンプから選択されたブロックによって置換される。ブロックは、セットAの如何なるスタンプから、及びスタンプの元のブロック位置の近隣又は検索ウィンドウ12100内の如何なる位置からも選択することができる。平均自乗誤差(mean squared error:MSE)が最も小さくなるこれらの位置内のブロックが選択され、これにより、動きが推定法を用いて、再構築されているブロックが置換される(ここで好適に用いられる動き推定法は、演算負荷が軽く、且つ、明るさの変化がある場合、平均自乗誤差が最も小さくなる推定法である)。なお、ブロックは、正方形である必要はない。この実施例では、ブロック12060は、スタンプ12000からの近接するブロックによって置換され、ブロック12070は、顔スタンプ12010からのブロックによって置換され、ブロック12080は、顔スタンプ12020からのブロックによって置換される。
顔スタンプを再構築する場合、各ブロックは、基準顔スタンプ(reference face stamp)内の対応する近隣のブロックによって置換することができる。オプションとして、この近隣のブロックに加えて、最良のブロック(best block)は、反転された基準顔スタンプ内の対応する近隣から選択してもよい。人間の顔は、略対称性を有しているため、このような処理を行うことができる。このようにして、顔スタンプの組内に存在するより多くの変化を利用できる。
用いられる各顔スタンプは、64×64のサイズを有し、これは、8×8のサイズのブロックに分割される。類似性測定のために用いられる顔スタンプは、システムの顔検出コンポーネントによって出力される顔スタンプより厳密にクロッピングされる。これは、類似性測定処理において、できるだけ多くの背景を除外するためである。
画像をクロッピングするために、例えば、高さ50画素、幅45画素等、縮小されたサイズが選択される(又は予め定められる)(ほとんどの顔が正方形でないことに対応する)。次に、このサイズの中心領域に対応する画素のグループがリサイズされ、これにより、選択された領域は、再び64×64ブロックに対応するようになる。この処理は、簡単な補間処理を含む。中央の非正方形領域をリサイジングして正方形のブロックに対応させることにより、リサイジングされた顔は、多少引き延ばされて見えることがある。
クロッピング領域(例えば、50×45画素領域)は、予め定めてもよく、又は各インスタンス内の検出された顔の属性に応じて選択してもよい。何れの場合も、64×64ブロックへのリサイジングは、顔スタンプがクロッピングされているか否かにかかわらず、同じ64×64サイズで顔スタンプが比較されることを意味する。
一旦、全体のスタンプがこのようにして再構築されると、再構築されたスタンプとセットBからのスタンプの間で平均自乗誤差が計算される。この平均自乗誤差が低い程、この顔スタンプと、顔スタンプセットAの間の類似度が高いと判定できる。
2つの顔スタンプの組を比較する場合、顔スタンプセットBの各スタンプを同様に再構築し、2つの顔スタンプの組の間の類似性測定値として、結合された平均自乗誤差を用いる。
このように、このアルゴリズムは、照合すべき各個人について、複数の顔スタンプが利用可能であるという事実に基づいている。更に、このアルゴリズムは、照合すべき顔の不正確な登録に対するロバスト性を有する。
上述のシステムにおいては、類似性測定値を生成するために、既存の顔スタンプの組から新たに集められた顔スタンプの組が再構築される。他の顔スタンプの組から(AからB)顔スタンプの組を再構築することによって得られる類似性測定値は、通常、先の組から顔スタンプの組を再構築する場合(BからA)と異なる結果を示す。したがって、幾つかの状況では、既存の顔スタンプの組を新たな顔スタンプの組から再構築した場合、例えば、非常に短い追跡から既存の顔スタンプの組を集めた場合等、逆の処理を行った場合に比べて、より高い類似性測定値が導き出されることもある。したがって、同様の顔の間の併合が成功する可能性を高めるために、2つの類似性測定値を結合(例えば、平均化)してもよい。
更に可能な変形例を説明する。顔スタンプを再構築する場合、各ブロックは、基準顔スタンプからの同じサイズ、形状及び向きを有するブロックによって置換される。しかしながら、2つの顔スタンプにおいて、サブジェクトのサイズと向きが異なる場合、再構築される顔スタンプのブロックが同じサイズ、形状及び向きのブロックに対応しないため、これらの顔スタンプは、互いから良好に再構築されない。この問題は、基準顔スタンプのブロックのサイズ、形状及び向きを任意に変更できるようにすることによって解決できる。すなわち、最良のブロックは、高次の幾何学変換推定(例えば、回転、ズーム等)を用いることによって、基準顔スタンプから選択される。これに代えて、基本的な手法によって顔がスタンプを再構築する前に基準顔スタンプの全体を回転及びリサイズしてもよい。
明るさの変化に対する類似性測定値のロバスト性を高めるために、平均輝度が0となり、分散が1となるように、各顔スタンプを正規化してもよい。
オブジェクト追跡システム内の顔類似コンポーネントの使用
オブジェクト追跡により、個人がシーンから姿を消さない限り、ビデオフレームのシーケンス中において、その個人の同一性が維持される。顔類似コンポーネントの目的は、個人が一時的にシーンから消え、又はカメラから顔を背け、或いは異なるカメラによってシーンが捕捉された場合においても個人の同一が維持されるように追跡をリンクさせることである。
顔検出及びオブジェクト追跡システムの動作の間、新たな追跡が開始されるたびに、新たな顔スタンプの組の収集が開始される。新たな顔スタンプの組には、固有の(すなわち、以前に追跡された組とは異なる)IDが与えられる。新たな顔スタンプの組の各スタンプが得られると、先に集められた顔スタンプの組に対する類似性測定値(S)が算出される。以下に示すように、この類似性測定値を用いて、反復的な手法によって、先に集められた顔スタンプの組に対する、新たな顔スタンプの組の既存の要素に関する結合された類似性測定値(S−1)が更新される。
=0.9*−1+0.1*
ここで、上付き文字jは、先に集められた顔スタンプの組jとの比較を表している。
ここで、以前に遭遇した顔スタンプの組に対する新たな顔スタンプの組の類似性がある閾値(T)を超え、新たな顔スタンプの組内の要素の数が少なくともn(上述の説明参照)個であった場合、新たな顔スタンプの組には、前の顔スタンプの組と同じ所定のIDが与えられる。次に、2つの顔スタンプの組を併合し、上述したような、同じ類似性比較法を用いて、これら2つの組に含まれる変化と同じ量の変化を可能な限り含む1つの顔スタンプの組を生成する。
新たな顔スタンプの組は、n個の顔スタンプが集められる前に追跡が終了した場合、破棄される。
2つ以上の保存された顔スタンプの組について、新たな顔スタンプの組の類似性測定値が閾値Tを超えている場合、これは、現在の個人が、先の2人の個人に良好に一致すると考えられる。この場合、現在の個人を先の2人の個人の何れかに一致させるために、更に厳格な類似性閾値(すなわち、更に低い差分値)が必要となる。
類似性基準に加えて、他の評価基準を用いて、2つの顔スタンプの組を併合すべきか否かを決定することもできる。この評価基準は、同じ個人に属する2つの顔スタンプの組が同じ時間に重複しないという知識に基づいている。すなわち、数フレーム以上に亘るピクチャ内に(すなわち、単一のカメラの前に)同時に現れた2つの顔スタンプの組が互いに一致するとみなされることはない。但し、これらの2つの顔スタンプが異なるカメラからのピクチャにおいて同時に一致した場合、照合の問題は僅かに複雑となり、ユーザは、カメラの位置を考慮してシステムを設定する必要がある。例えば、2つのカメラが同じ又は一部が重複する位置に向けられている場合(すなわち、両方のカメラに1人の個人が撮像される可能性がある場合)、一致が許容される。一方、2つのカメラが物理的に1人の個人を同時に撮像することがあり得ない場合、同時検出による一致は許容されない。これは、共存マトリクス(co-existence matrix)を用いて、1又は複数のピクチャ内に同時に存在した全ての顔スタンプの組に関する記録を維持することによって実現される。共存マトリクスは、2つの顔スタンプの組のあらゆる組合せが共存したことがある複数のフレームを保存する。このフレームの数が少なくない、例えば10フレーム以上である場合(幾つかのフレームに亘って、追跡が顔に定まらないまま削除されることがあることを考慮している。)2つの顔スタンプの組を同じIDに併合することは許可されない。ID1〜ID5が付された5人の人(追跡結果)に関する共存マトリクスの具体例を以下に示す。この具体例では、説明を明瞭にするために、1つカメラだけを考慮しているが、(上述のように)この技術は、複数のカメラに拡張可能である。
Figure 2005251170
マトリクスは、以下の事実を示している。
・ID1は、合計234フレームに出現している(但し、これらは連続していない場合もある)。ID1は、ID2又はID3と同時にショット内に現れたことは一度もなく、したがって、これらの個人は、将来、併合される可能性がある。ID1は、87フレームに亘ってID4と共存しており、したがって、この個人と併合されることはない。また、ID1は、5フレームに亘ってID5と共存している。このフレーム数は、閾値フレーム数より少なく、したがって、これらの2つIDは、併合される可能性を残している。
・ID1は、合計54フレームに出現している(但し、これらは連続していない場合もある)。ID2は、ID3のみと共存しており、したがって、この個人と併合されることはない。また、ID2は、良好に一致すれば、ID1、ID4、ID5の何れかと将来併合される可能性がある。
・ID1は、合計43フレームに出現している(但し、これらは連続していない場合もある)。ID3は、ID2のみと共存しており、したがって、この個人と併合されることはない。また、ID2は、良好に一致すれば、ID1、ID4、ID5の何れかと将来併合される可能性がある。
・ID4は、合計102フレームに出現している(但し、これらは連続していない場合もある)。ID4は、ID2又はID3と同時にショット内に現れたことは一度もなく、したがって、これらの個人は、将来、併合される可能性がある。ID4は、87フレームに亘ってID1と共存しており、したがって、この個人と併合されることはない。また、ID4は、5フレームに亘ってID5と共存している。このフレーム数は、閾値フレーム数より少なく、したがって、これらの2つIDは、併合される可能性を残している。
・ID5は、合計5フレームに出現している(但し、これらは連続していない場合もある)。ID5は、全てのフレームについて、ID1及びID4と共存したが、このフレーム数は閾値フレーム数より少ないので、ID5は、ID1及びID4の何れか一方と併合される可能性がある。また、ID5は、ID2及びID3と共存していないので、ID2又はID3と併合される可能性がある。
顔類似測定値が高いために2つのIDが併合されると、共存マトリクスは、これらの併合された2つのIDの共存情報を結合することによって更新される。この更新は、単に、2つのIDに対応する行の数値を加算し、続いて、2つのIDに対応する列の数値を加算することによって行われる。
例えば、ID5をID1に併合すると、上述した共存マトリクスは、以下のようになる。
Figure 2005251170
次に、ID1がID2に併合されると、この共存マトリクスは、以下のようになる。
Figure 2005251170
なお、以下の点に注意する必要がある。
・ID1は、他の更なる既存の人とも併合することはできない。
・この具体例では、2つのIDが併合された後は、小さい方のID番号を維持するとの規約がある。
・IDがピクチャ内に存在している間は、IDを併合することは許可されない。
顔スタンプの組を生成及び併合するための類似性検出処理において、顔スタンプは、通常、他の顔スタンプから複数回再構築する必要がある。これは、動きが推定法を用いて、各ブロックを何回か照合する必要があることを意味する。幾つかの動き推定法では、最初のステップとして、用いられる基準顔スタンプの如何にかかわらず、照合する必要があるブロックに関するある情報を計算する。動き推定は、何回か実行する必要があるため、この情報は、顔スタンプとともに保存してもよく、これにより、ブロックを照合するたびにこの情報を算出する必要がなくなり、処理時間が短縮される。
上述したIDは(照合処理の後に)、上述した「グローバル顔ID」の基礎として用いることができる。
ここでは、特定の実施例について説明したが、本発明は、これに限定されるわけではなく、本発明の範囲内で多くの変更及び追加を行うことができることは明らかである。例えば、本発明の範囲から逸脱することなく、特許請求の範囲に示す従属請求項の様々な組合せを独立請求項の特徴に加えることができる。
本発明に基づく表示装置を示す図である。 特定の位置において、カメラ及び関連する顔検出器によって捕捉された情報を表示するグラフィカルユーザインタフェースを示す図である。 顔検出器によって検出された顔カテゴリに基づいて、表示すべき画像の組を選択する処理を説明するフローチャートである。 検出された顔の年齢、性別及び表情カテゴリに基づいて、特定の画像の組を表示する処理を説明するフローチャートである。 顔検出器の出力に基づいて、アイドルモードとアクティブモードとの間の遷移について、図1の表示装置をどのように制御するかを説明するフローチャートである。 ネットワーク接続された複数の機器を制御する制御コンピュータの構成を示す図である。 店舗レイアウトと、この店舗レイアウトにおける複数の表示装置の位置とを示す図である。 図7の店舗及び表示装置のレイアウトにおける包括的な人数統計の概要を示す図である。 図7の店舗マップ内の別の場所に位置する異なるカメラによる、同じ人間の顔の検出と認識に基づいて判定された、買い物客が移動する可能性が最も高い経路を示す図である。 図6の制御コンピュータにおいて、ネットワーク接続された複数の機器からの包括的な統計情報をどのように分析するかを示すフローチャートである。 図8に示すネットワーク接続された表示装置からの包括的な統計の累積的な履歴を表示するGUIを示す図である。 トレーニング処理を説明する図である。 検出処理を説明する図である。 顔検出アルゴリズムを説明する図である。 図15a〜cは、ビデオシーンに適用される顔追跡を説明する図である。 顔検出及び追跡システムの構成を示す図である。 類似性検出技術を説明する図である。

Claims (15)

  1. 画面を見るユーザの位置に向けられた第1のカメラを有する画像表示装置と、
    他の個々の位置に向けられた1つ以上の更なるカメラと、
    上記カメラによって撮像された画像内において人間の顔を検出する顔検出器と、
    上記第1のカメラと、上記更なるカメラのうちの少なくとも1つとによって撮像された画像内に出現する顔を検出する検出器とを備える表示システム。
  2. 当該表示システムは、1つ以上の更なる画像表示装置を備え、上記更なるカメラのうちの少なくとも1つは、該更なる画像表示装置を見るユーザの位置に向けられていることを特徴とする請求項1記載の表示システム。
  3. 上記更なるカメラのうちの少なくとも1つは、買い物客が販売中の商品を選択する位置に向けられ、上記画像表示装置に表示される少なくとも1つの画像は、該販売中の商品に関する画像であることを特徴とする請求項1記載の表示システム。
  4. 上記更なるカメラのうちの少なくとも1つは、店舗の会計コーナに向けられ、上記画像表示装置に表示される少なくとも1つの画像は、該店舗において販売されている商品又はサービスに関連する画像であることを特徴とする請求項1記載の表示システム。
  5. 上記会計コーナにおいて検出された買い物客の顔が、上記画像表示装置を見るユーザとしても検出されているか否かを判定するロジックを更に備える請求項4記載の表示システム。
  6. 上記買い物客によって購入された商品又はサービスが、該買い物客が表示画面において見た画像に関連する商品又はサービスを含むか否かを判定するロジックを更に備える請求項5記載の表示システム。
  7. 各カメラにおいて検出された顔の数を示すデータを生成するロジックを更に備える請求項1記載の表示システム。
  8. 上記顔検出器は、検出された各顔について、該顔が上記表示画面に向けられた時間を示す滞在時間を検出することを特徴とする請求項1記載の表示システム。
  9. 各カメラにおいて検出された顔の累積的な滞在時間を示すデータを生成するロジックを更に備える請求項8記載の表示システム。
  10. 2つ以上のカメラにおけるユーザの顔の検出の順序を検出するロジックを更に備える請求項1記載の表示システム。
  11. ユーザによって携帯され、少なくともユーザ識別子を保存する携帯型ストレージ装置と、上記ユーザ識別子と、検出された顔とを相関させるデータを保存するメモリとを更に備える請求項1記載の表示システム。
  12. 表示装置を見るユーザの画像を撮像するステップと、1つ以上の他の個々の位置におけるユーザの画像を撮像するステップと、上記撮像された画像内において人間の顔を検出するステップと、上記表示装置及び更なるカメラのうちの少なくとも1つによって撮像された画像内に出現する顔を検出するステップとを有する表示方法。
  13. 請求項12記載の表示方法のステップを実行するプログラムコードを有するコンピュータソフトウェアを提供する提供媒体。
  14. 当該提供媒体は、伝送媒体であることを特徴とする請求項13記載の提供媒体。
  15. 当該提供媒体は、ストレージ媒体であることを特徴とする請求項13記載の提供媒体。
JP2005015698A 2004-01-23 2005-01-24 表示装置 Expired - Fee Related JP4702877B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB0401492.4 2004-01-23
GB0401492A GB2410360A (en) 2004-01-23 2004-01-23 Display
GB0412037A GB2414616A (en) 2004-05-28 2004-05-28 Comparing test image with a set of reference images
GB0412037.4 2004-05-28

Publications (2)

Publication Number Publication Date
JP2005251170A true JP2005251170A (ja) 2005-09-15
JP4702877B2 JP4702877B2 (ja) 2011-06-15

Family

ID=34712718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005015698A Expired - Fee Related JP4702877B2 (ja) 2004-01-23 2005-01-24 表示装置

Country Status (3)

Country Link
US (1) US7643658B2 (ja)
EP (1) EP1566788A3 (ja)
JP (1) JP4702877B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217458A (ja) * 2007-03-05 2008-09-18 Yahoo Japan Corp 広告提供装置
JP2010102235A (ja) * 2008-10-27 2010-05-06 V-Sync Co Ltd 電子広告システム
WO2010053192A1 (ja) * 2008-11-10 2010-05-14 日本電気株式会社 行動分析装置及び行動分析方法並びに記録媒体
JP2010113693A (ja) * 2008-11-10 2010-05-20 Nec Software Kyushu Ltd 顔画像抽出装置・方法及び電子広告装置並びにプログラム
JP2010146282A (ja) * 2008-12-18 2010-07-01 Yamaha Motor Co Ltd 広告効果測定装置
JP2010160780A (ja) * 2008-12-09 2010-07-22 Yahoo Japan Corp サイネージと連携する情報処理システム及び方法
JP2011123349A (ja) * 2009-12-11 2011-06-23 Mitsubishi Electric Corp 情報表示処理装置
JP2012185714A (ja) * 2011-03-07 2012-09-27 Toshiba It Service Kk 電子看板システム及び電子看板システムのコンテンツ配信方法
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
RU2493613C2 (ru) * 2008-08-22 2013-09-20 Сони Корпорейшн Устройство воспроизведения изображений и способ управления
JP2014529789A (ja) * 2011-08-19 2014-11-13 クアルコム,インコーポレイテッド 製品およびサービスの双方向式販売促進のためのシステムおよび方法
US9031862B2 (en) 2010-09-30 2015-05-12 Nec Solution Innovators, Ltd. Advertisement delivery target identifying apparatus, advertisement delivery apparatus, advertisement delivery target identifying method, advertisement delivery method, program, and recording medium
JP2020057329A (ja) * 2018-10-04 2020-04-09 大日本印刷株式会社 ガイドシステム
WO2022168515A1 (ja) * 2021-02-05 2022-08-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、並びにプログラム
US11734720B2 (en) 2016-07-05 2023-08-22 Sony Corporation Information processing system, recording medium, and information processing method
WO2023170949A1 (ja) * 2022-03-11 2023-09-14 シャープNecディスプレイソリューションズ株式会社 情報処理装置、情報処理方法
WO2023209951A1 (ja) * 2022-04-28 2023-11-02 シャープNecディスプレイソリューションズ株式会社 コンテンツの効果算出方法、効果算出システム

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343351B1 (en) 1999-08-31 2008-03-11 American Express Travel Related Services Company, Inc. Methods and apparatus for conducting electronic transactions
US7953671B2 (en) 1999-08-31 2011-05-31 American Express Travel Related Services Company, Inc. Methods and apparatus for conducting electronic transactions
US7889052B2 (en) 2001-07-10 2011-02-15 Xatra Fund Mx, Llc Authorizing payment subsequent to RF transactions
US7725427B2 (en) 2001-05-25 2010-05-25 Fred Bishop Recurrent billing maintenance with radio frequency payment devices
US7249112B2 (en) 2002-07-09 2007-07-24 American Express Travel Related Services Company, Inc. System and method for assigning a funding source for a radio frequency identification device
US8001054B1 (en) 2001-07-10 2011-08-16 American Express Travel Related Services Company, Inc. System and method for generating an unpredictable number using a seeded algorithm
US9454752B2 (en) 2001-07-10 2016-09-27 Chartoleaux Kg Limited Liability Company Reload protocol at a transaction processing entity
US8284025B2 (en) 2001-07-10 2012-10-09 Xatra Fund Mx, Llc Method and system for auditory recognition biometrics on a FOB
US8548927B2 (en) 2001-07-10 2013-10-01 Xatra Fund Mx, Llc Biometric registration for facilitating an RF transaction
US20040236699A1 (en) 2001-07-10 2004-11-25 American Express Travel Related Services Company, Inc. Method and system for hand geometry recognition biometrics on a fob
US7735725B1 (en) 2001-07-10 2010-06-15 Fred Bishop Processing an RF transaction using a routing number
US7303120B2 (en) 2001-07-10 2007-12-04 American Express Travel Related Services Company, Inc. System for biometric security using a FOB
US9024719B1 (en) 2001-07-10 2015-05-05 Xatra Fund Mx, Llc RF transaction system and method for storing user personal data
US7360689B2 (en) 2001-07-10 2008-04-22 American Express Travel Related Services Company, Inc. Method and system for proffering multiple biometrics for use with a FOB
US9031880B2 (en) 2001-07-10 2015-05-12 Iii Holdings 1, Llc Systems and methods for non-traditional payment using biometric data
US8294552B2 (en) 2001-07-10 2012-10-23 Xatra Fund Mx, Llc Facial scan biometrics on a payment device
US7668750B2 (en) 2001-07-10 2010-02-23 David S Bonalle Securing RF transactions using a transactions counter
US7705732B2 (en) 2001-07-10 2010-04-27 Fred Bishop Authenticating an RF transaction using a transaction counter
US6805287B2 (en) 2002-09-12 2004-10-19 American Express Travel Related Services Company, Inc. System and method for converting a stored value card to a credit card
US7318550B2 (en) 2004-07-01 2008-01-15 American Express Travel Related Services Company, Inc. Biometric safeguard method for use with a smartcard
US20060000895A1 (en) * 2004-07-01 2006-01-05 American Express Travel Related Services Company, Inc. Method and system for facial recognition biometrics on a smartcard
CN101015206A (zh) * 2004-09-09 2007-08-08 日本先锋公司 出现对象估计装置和方法、以及计算机程序
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
US7783135B2 (en) * 2005-05-09 2010-08-24 Like.Com System and method for providing objectified image renderings using recognition information from images
US8218080B2 (en) * 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
US8848057B2 (en) * 2005-12-05 2014-09-30 Samsung Electronics Co., Ltd. Home security applications for television with digital video cameras
US20070219866A1 (en) * 2006-03-17 2007-09-20 Robert Wolf Passive Shopper Identification Systems Utilized to Optimize Advertising
JP4241763B2 (ja) * 2006-05-29 2009-03-18 株式会社東芝 人物認識装置及びその方法
US10614294B1 (en) * 2006-06-16 2020-04-07 Videomining Corporation Method and system for measuring viewership of people for displayed object
CN101473262A (zh) * 2006-06-16 2009-07-01 皇家飞利浦电子股份有限公司 多视图显示设备
US7987111B1 (en) * 2006-10-30 2011-07-26 Videomining Corporation Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis
FR2909202B1 (fr) * 2006-11-23 2009-02-13 Inc 01 Soc Par Actions Simplif Procede d'analyse de la disposition de produits dans un lineaire de magasin.
US20120239458A9 (en) * 2007-05-18 2012-09-20 Global Rainmakers, Inc. Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer
US9129307B2 (en) * 2007-05-23 2015-09-08 International Business Machines Corporation Fee-based distribution of media based on device proximity
US8914897B2 (en) * 2007-05-23 2014-12-16 International Business Machines Corporation Controlling access to digital images based on device proximity
DE102007033391A1 (de) 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
US9479274B2 (en) 2007-08-24 2016-10-25 Invention Science Fund I, Llc System individualizing a content presentation
US9647780B2 (en) * 2007-08-24 2017-05-09 Invention Science Fund I, Llc Individualizing a content presentation
US20110238361A1 (en) * 2007-09-28 2011-09-29 Kazuya Ueki Tallying system, tallying apparatus and tallying method
JP5453717B2 (ja) * 2008-01-10 2014-03-26 株式会社ニコン 情報表示装置
EP2131306A1 (en) * 2008-06-02 2009-12-09 THOMSON Licensing Device and method for tracking objects in a video, system and method for audience measurement
JP5217922B2 (ja) * 2008-11-10 2013-06-19 日本電気株式会社 電子広告システム、電子広告配信装置、及びプログラム
US11367083B1 (en) * 2008-11-20 2022-06-21 Videomining Corporation Method and system for evaluating content for digital displays by measuring viewer responses by demographic segments
JP5347549B2 (ja) * 2009-02-13 2013-11-20 ソニー株式会社 情報処理装置および情報処理方法
TW201033908A (en) * 2009-03-12 2010-09-16 Micro Star Int Co Ltd System and method for counting people flow
ITPO20090006A1 (it) * 2009-06-12 2010-12-13 Tei Alessandro Apparato e sistema gestibile in remoto per mostrare inserzioni pubblicitarie pay per view capace di rilevarne il numero degli spettatori e metodo per il pagamento della pubblicità sulla base del numero e del target dei contatti presenti.
JP5568929B2 (ja) 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
JP2011065278A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 電子機器、画像検索方法およびコンテンツ再生プログラム
CN102033727A (zh) * 2009-09-29 2011-04-27 鸿富锦精密工业(深圳)有限公司 电子设备界面控制系统及方法
US20110093324A1 (en) 2009-10-19 2011-04-21 Visa U.S.A. Inc. Systems and Methods to Provide Intelligent Analytics to Cardholders and Merchants
JP5433377B2 (ja) * 2009-10-29 2014-03-05 楽天株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP4768846B2 (ja) * 2009-11-06 2011-09-07 株式会社東芝 電子機器及び画像表示方法
US9875719B2 (en) * 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150297A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150276A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150296A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150299A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211738A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150298A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150295A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8712110B2 (en) * 2009-12-23 2014-04-29 The Invention Science Fund I, LC Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110206245A1 (en) * 2009-12-23 2011-08-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US10356465B2 (en) * 2010-01-06 2019-07-16 Sony Corporation Video system demonstration
US9471926B2 (en) 2010-04-23 2016-10-18 Visa U.S.A. Inc. Systems and methods to provide offers to travelers
JP5190560B2 (ja) * 2010-05-28 2013-04-24 楽天株式会社 コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムが記録された記録媒体
US8498455B2 (en) 2010-06-03 2013-07-30 Microsoft Corporation Scalable face image retrieval
US9760905B2 (en) 2010-08-02 2017-09-12 Visa International Service Association Systems and methods to optimize media presentations using a camera
JP5753966B2 (ja) * 2010-08-05 2015-07-22 パナソニックIpマネジメント株式会社 顔画像登録装置および方法
US8351662B2 (en) 2010-09-16 2013-01-08 Seiko Epson Corporation System and method for face verification using video sequence
US8682388B2 (en) 2010-12-31 2014-03-25 Motorola Mobility Llc Mobile device and method for proximity detection verification
CA2828123C (en) * 2011-02-23 2019-06-18 Ayuda Media Systems Inc. Pay per look billing method and system for out-of-home advertisement
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8860787B1 (en) 2011-05-11 2014-10-14 Google Inc. Method and apparatus for telepresence sharing
US20130035979A1 (en) * 2011-08-01 2013-02-07 Arbitron, Inc. Cross-platform audience measurement with privacy protection
US10223707B2 (en) 2011-08-19 2019-03-05 Visa International Service Association Systems and methods to communicate offer options via messaging in real time with processing of payment transaction
US9020833B2 (en) 2011-08-23 2015-04-28 Aic Innovations Group, Inc. Method and apparatus for social network updates by activity recognition
US8942994B2 (en) * 2012-02-09 2015-01-27 Aic Innovations Group, Inc. Method and apparatus for encouraging consumption of a product
JP6123140B2 (ja) * 2011-09-13 2017-05-10 インテル・コーポレーション デジタル広告システム
EP2810233A4 (en) * 2012-01-30 2015-09-02 Nokia Technologies Oy METHOD, DEVICE AND COMPUTER PROGRAM FOR PROMOTING THE DEVICE
US9146624B2 (en) 2012-02-08 2015-09-29 Google Technology Holdings LLC Method for managing screen orientation of a portable electronic device
US8862764B1 (en) 2012-03-16 2014-10-14 Google Inc. Method and Apparatus for providing Media Information to Mobile Devices
CN102663354B (zh) * 2012-03-26 2014-02-19 腾讯科技(深圳)有限公司 人脸标定方法和系统
US9092675B2 (en) 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8660307B2 (en) 2012-03-29 2014-02-25 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8761442B2 (en) 2012-03-29 2014-06-24 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9275285B2 (en) 2012-03-29 2016-03-01 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
US20140039950A1 (en) * 2012-08-03 2014-02-06 International Business Machines Corporation Automatically detecting lost sales
EP2696321A1 (de) * 2012-08-07 2014-02-12 Playsys GmbH Verfahren und Vorrichtung zum Anzeigen von Werbespots
WO2014060488A1 (en) 2012-10-18 2014-04-24 Dimension Media It Limited A media system with a server and distributed player devices at different geographical locations
US9158970B2 (en) 2012-11-16 2015-10-13 Canon Kabushiki Kaisha Devices, systems, and methods for visual-attribute refinement
US10360627B2 (en) 2012-12-13 2019-07-23 Visa International Service Association Systems and methods to provide account features via web based user interfaces
KR102011407B1 (ko) * 2013-02-26 2019-10-21 주식회사 케이티 광고 대상 정보 수집 방법,광고 표시 방법,이를 이용하는 장치 및 광고 서버
MX352267B (es) * 2013-05-31 2017-11-16 Intercontinental Great Brands Llc Método y aparato para exhibición de productos.
JP6351243B2 (ja) * 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
US20170177927A1 (en) * 2014-02-17 2017-06-22 Nec Solution Innovators, Ltd. Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, and program recording medium
US10055670B2 (en) * 2014-03-14 2018-08-21 Omron Corporation Image recognition device, image sensor, and image recognition method using feature
US9251427B1 (en) 2014-08-12 2016-02-02 Microsoft Technology Licensing, Llc False face representation identification
US11042887B2 (en) * 2014-08-29 2021-06-22 Shopper Scientist Llc Product exposure analysis in a shopping environment
US9892325B2 (en) * 2014-09-11 2018-02-13 Iomniscient Pty Ltd Image management system
JP5907362B1 (ja) * 2014-10-08 2016-04-26 パナソニックIpマネジメント株式会社 活動状況分析装置、活動状況分析システムおよび活動状況分析方法
CN105721739B (zh) * 2014-12-04 2020-04-10 富泰华工业(深圳)有限公司 屏幕影像画面防抖系统及方法
WO2016119897A1 (en) * 2015-01-30 2016-08-04 Longsand Limited Tracking a person in a physical space
US9986289B2 (en) 2015-03-02 2018-05-29 The Nielsen Company (Us), Llc Methods and apparatus to count people
US10235690B2 (en) * 2015-03-11 2019-03-19 Admobilize Llc. Method and system for dynamically adjusting displayed content based on analysis of viewer attributes
US20160292713A1 (en) * 2015-03-31 2016-10-06 Yahoo! Inc. Measuring user engagement with smart billboards
US9996749B2 (en) 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
US9704020B2 (en) * 2015-06-16 2017-07-11 Microsoft Technology Licensing, Llc Automatic recognition of entities in media-captured events
US11049119B2 (en) * 2015-06-19 2021-06-29 Wild Blue Technologies. Inc. Apparatus and method for dispensing a product in response to detection of a selected facial expression
US10497014B2 (en) * 2016-04-22 2019-12-03 Inreality Limited Retail store digital shelf for recommending products utilizing facial recognition in a peer to peer network
JP6742837B2 (ja) * 2016-06-30 2020-08-19 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10657718B1 (en) 2016-10-31 2020-05-19 Wells Fargo Bank, N.A. Facial expression tracking during augmented and virtual reality sessions
CA3041842A1 (en) * 2016-11-04 2018-05-11 Walmart Apollo, Llc Systems and methods of controlling the distribution of products in retail shopping facilities
US20190019211A1 (en) * 2017-07-12 2019-01-17 International Business Machines Corporation Detecting promotion exposure through voice recognition and location data
US11188944B2 (en) * 2017-12-04 2021-11-30 At&T Intellectual Property I, L.P. Apparatus and methods for adaptive signage
US10915796B2 (en) * 2018-10-30 2021-02-09 Disney Enterprises, Inc. ID association and indoor localization via passive phased-array and computer vision motion correlation
CN111242986B (zh) * 2020-01-07 2023-11-24 阿波罗智能技术(北京)有限公司 跨相机的障碍物跟踪方法、装置、设备、系统及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331544A (en) * 1992-04-23 1994-07-19 A. C. Nielsen Company Market research method and system for collecting retail store and shopper market research data
US6111517A (en) * 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6263088B1 (en) * 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US5966696A (en) * 1998-04-14 1999-10-12 Infovation System for tracking consumer exposure and for exposing consumers to different advertisements
US6246995B1 (en) * 1998-05-29 2001-06-12 Ncr Corporation Product activity data collection system
US6404900B1 (en) * 1998-06-22 2002-06-11 Sharp Laboratories Of America, Inc. Method for robust human face tracking in presence of multiple persons
US6502076B1 (en) * 1999-06-01 2002-12-31 Ncr Corporation System and methods for determining and displaying product promotions
US20020075332A1 (en) * 1999-09-22 2002-06-20 Bradley Earl Geilfuss Systems and methods for interactive product placement
WO2001045004A1 (en) * 1999-12-17 2001-06-21 Promo Vu Interactive promotional information communicating system
TW482985B (en) * 2000-01-03 2002-04-11 Amova Company Automatic media and advertising system
US6647269B2 (en) * 2000-08-07 2003-11-11 Telcontar Method and system for analyzing advertisements delivered to a mobile unit
US6795808B1 (en) * 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
US20020072952A1 (en) * 2000-12-07 2002-06-13 International Business Machines Corporation Visual and audible consumer reaction collection
US20020107729A1 (en) * 2001-02-06 2002-08-08 Catalina Marketing International, Inc. Method and system for timing promotions based on a prior receipt of promotions
US20020178447A1 (en) * 2001-04-03 2002-11-28 Plotnick Michael A. Behavioral targeted advertising
WO2002095600A1 (en) * 2001-05-24 2002-11-28 Electronic Advertising Solutions Innovators, Inc. Dba Easi, Inc. System and method for managing in-theater display advertisements
US6793128B2 (en) * 2001-06-18 2004-09-21 Hewlett-Packard Development Company, L.P. Face photo storage system
US20030018522A1 (en) * 2001-07-20 2003-01-23 Psc Scanning, Inc. Biometric system and method for identifying a customer upon entering a retail establishment
US7194109B2 (en) * 2001-08-30 2007-03-20 Hitachi Kokusai Electric, Inc. Method and system for delivering monitored image signal of subject to be monitored
US7174029B2 (en) * 2001-11-02 2007-02-06 Agostinelli John A Method and apparatus for automatic selection and presentation of information
US7594855B2 (en) * 2002-03-29 2009-09-29 Futurelogic, Inc. Method and apparatus for gaming promotional printer
US7666078B2 (en) * 2002-05-07 2010-02-23 Future Logic, Inc. Financial transaction printer with promotional printing capabilities
US8099325B2 (en) * 2002-05-01 2012-01-17 Saytam Computer Services Limited System and method for selective transmission of multimedia based on subscriber behavioral model
US7283650B1 (en) * 2002-11-27 2007-10-16 Video Mining Corporation Method and system for printing of automatically captured facial images augmented with promotional content
GB2395779A (en) 2002-11-29 2004-06-02 Sony Uk Ltd Face detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217458A (ja) * 2007-03-05 2008-09-18 Yahoo Japan Corp 広告提供装置
RU2493613C2 (ru) * 2008-08-22 2013-09-20 Сони Корпорейшн Устройство воспроизведения изображений и способ управления
JP2010102235A (ja) * 2008-10-27 2010-05-06 V-Sync Co Ltd 電子広告システム
WO2010053192A1 (ja) * 2008-11-10 2010-05-14 日本電気株式会社 行動分析装置及び行動分析方法並びに記録媒体
JP2010113691A (ja) * 2008-11-10 2010-05-20 Nec Corp 行動分析装置及び行動分析方法並びにプログラム
JP2010113693A (ja) * 2008-11-10 2010-05-20 Nec Software Kyushu Ltd 顔画像抽出装置・方法及び電子広告装置並びにプログラム
JP2010160780A (ja) * 2008-12-09 2010-07-22 Yahoo Japan Corp サイネージと連携する情報処理システム及び方法
JP2010146282A (ja) * 2008-12-18 2010-07-01 Yamaha Motor Co Ltd 広告効果測定装置
JP2011123349A (ja) * 2009-12-11 2011-06-23 Mitsubishi Electric Corp 情報表示処理装置
US9031862B2 (en) 2010-09-30 2015-05-12 Nec Solution Innovators, Ltd. Advertisement delivery target identifying apparatus, advertisement delivery apparatus, advertisement delivery target identifying method, advertisement delivery method, program, and recording medium
JP2012185714A (ja) * 2011-03-07 2012-09-27 Toshiba It Service Kk 電子看板システム及び電子看板システムのコンテンツ配信方法
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
JP2014529789A (ja) * 2011-08-19 2014-11-13 クアルコム,インコーポレイテッド 製品およびサービスの双方向式販売促進のためのシステムおよび方法
US11734720B2 (en) 2016-07-05 2023-08-22 Sony Corporation Information processing system, recording medium, and information processing method
JP2020057329A (ja) * 2018-10-04 2020-04-09 大日本印刷株式会社 ガイドシステム
WO2022168515A1 (ja) * 2021-02-05 2022-08-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2023170949A1 (ja) * 2022-03-11 2023-09-14 シャープNecディスプレイソリューションズ株式会社 情報処理装置、情報処理方法
WO2023209951A1 (ja) * 2022-04-28 2023-11-02 シャープNecディスプレイソリューションズ株式会社 コンテンツの効果算出方法、効果算出システム

Also Published As

Publication number Publication date
EP1566788A3 (en) 2017-11-22
US7643658B2 (en) 2010-01-05
US20050197923A1 (en) 2005-09-08
EP1566788A2 (en) 2005-08-24
JP4702877B2 (ja) 2011-06-15

Similar Documents

Publication Publication Date Title
JP4702877B2 (ja) 表示装置
JP4666304B2 (ja) 表示装置
AU2017330571B2 (en) Machine learning models for identifying objects depicted in image or video data
US6873710B1 (en) Method and apparatus for tuning content of information presented to an audience
JP4794453B2 (ja) インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム
JP6267861B2 (ja) 対話型広告のための使用測定技法およびシステム
JP5217922B2 (ja) 電子広告システム、電子広告配信装置、及びプログラム
US10380603B2 (en) Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
CN103760968B (zh) 数字标牌显示内容选择方法和装置
JP5224360B2 (ja) 電子広告装置、電子広告方法及びプログラム
US20120140069A1 (en) Systems and methods for gathering viewership statistics and providing viewer-driven mass media content
US20120265606A1 (en) System and method for obtaining consumer information
JP4991440B2 (ja) 商品販売装置、商品販売管理システム、商品販売管理方法およびプログラム
US20110292232A1 (en) Image retrieval
CN113766330A (zh) 基于视频生成推荐信息的方法和装置
US11537639B2 (en) Re-identification of physical objects in an image background via creation and storage of temporary data objects that link an object to a background
JP2011070629A5 (ja)
JP2013195725A (ja) 画像表示システム
EP2905678A1 (en) Method and system for displaying content to a user
US9767564B2 (en) Monitoring of object impressions and viewing patterns
JP5962383B2 (ja) 画像表示システムおよび画像処理装置
JP5685958B2 (ja) 画像表示システム
US20220269890A1 (en) Method and system for visual analysis and assessment of customer interaction at a scene
US20240135411A1 (en) Display control device, display control method, and program
GB2410360A (en) Display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071206

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080418

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110304

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees