JP2014238735A - 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理システム、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP2014238735A JP2014238735A JP2013121280A JP2013121280A JP2014238735A JP 2014238735 A JP2014238735 A JP 2014238735A JP 2013121280 A JP2013121280 A JP 2013121280A JP 2013121280 A JP2013121280 A JP 2013121280A JP 2014238735 A JP2014238735 A JP 2014238735A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- person
- feature amount
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 121
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims description 80
- 238000005259 measurement Methods 0.000 claims description 28
- 230000000694 effects Effects 0.000 abstract description 41
- 238000001514 detection method Methods 0.000 description 87
- 238000003384 imaging method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】広告による広告効果を測定すること。
【解決手段】情報処理装置は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部と、前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部と、前記第1取得部が取得した前記第1画像に関する情報と前記第2取得部が取得した前記第2画像に関する情報との類似度を判定する類似判定部と、を備える。
【選択図】図2
【解決手段】情報処理装置は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部と、前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部と、前記第1取得部が取得した前記第1画像に関する情報と前記第2取得部が取得した前記第2画像に関する情報との類似度を判定する類似判定部と、を備える。
【選択図】図2
Description
本発明は、情報処理装置、情報処理システム、情報処理方法および情報処理プログラムに関する。
看板やデジタルサイネージなどの広告媒体による広告に対して、広告媒体の前に居る人の何割が広告を視聴していたかを表す広告視聴率を測定するものがある。例えば、特許文献1に記載の技術は、広告効果測定サーバが広告媒体の前方を撮影する撮影部によって撮影された画像から検出された人の顔に基づいて視聴人数を計測する視聴人数計算部と、撮影部によって撮影された画像から検出された人の形に基づいて周辺人数を計算する周辺人数計算部と、視聴人数計算部が計測した視聴人数と、周辺人数計測部が計測した周辺人数と、に基づいて、広告視聴率を計算する視聴率計算部を備えるものである。
しかしながら、特許文献1に記載の技術を用いても店舗前などに配置された広告媒体による広告を閲覧した後に実際に当該店舗に入店した人数など、当該広告による広告効果を測定できないという欠点があった。
本発明は上記の点に鑑みてなされたものであり、広告による広告効果を測定することができる情報処理装置、情報処理システム、情報処理方法および情報処理プログラムを提供することを課題とする。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の第1の態様は、情報処理装置であって、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部と、前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部と、前記第1取得部が取得した前記第1画像に関する情報と前記第2取得部が取得した前記第2画像に関する情報との類似度を判定する類似判定部と、を備えることを特徴とする情報処理装置である。
(2)また、本発明の第2の態様は、端末装置と情報処理装置とを備える情報処理システムであって、前記端末装置は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を生成する第1計測部と、前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を生成する第2計測部と、を備え、前記情報処理装置は、前記第1計測部が生成した前記第1画像に関する情報と前記第2計測部が生成した前記第2画像に関する情報との類似度を判定する類似判定部と、を備えることを特徴とする情報処理システムである。
(3)また、本発明の第3の態様は、情報処理装置における情報処理方法であって、前記情報処理装置が広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1過程と、前記情報処理装置が前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2過程と、前記情報処理装置が前記第1過程において取得した前記第1画像に関する情報と前記第2過程において取得した前記第2画像に関する情報との類似度を判定する類似判定部と、を有することを特徴とする情報処理方法である。
(4)また、本発明の第4の態様は、情報処理装置のコンピュータに、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1ステップと、前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2ステップと、前記第1ステップにおいて取得した前記第1画像に関する情報と前記第2ステップにおいて取得した前記第2画像に関する情報との類似度を判定する類似判定部と、を実行させるための情報処理プログラムである。
本発明によれば、広告による広告効果を測定することができる。
(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。
図1は、本発明の第1の実施形態に係る効果計測システムS1の構成の一例を示す概略図である。
効果計測システムS1は、当該店舗領域TAの情報処理システムS2と閲覧領域VAの閲覧システムS3とを含む。ここで、店舗領域TAは、例えば、店舗などの建物の領域である。また、閲覧領域VAは、店舗前において閲覧することが可能な位置に配置された広告媒体DPにより広告を掲示し当該広告を閲覧可能な店舗前の領域である。閲覧システムS3において、広告媒体DPは、店舗前の壁面Wに設置され、店舗前を通行する人H1、H2、H3などに広告を掲示する。広告媒体DPが掲示する広告は、例えば、店舗の特定の商品や特売商品などの情報、キャンペーン情報、セールなどの期間の情報を含む店舗に関する情報である。
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。
図1は、本発明の第1の実施形態に係る効果計測システムS1の構成の一例を示す概略図である。
効果計測システムS1は、当該店舗領域TAの情報処理システムS2と閲覧領域VAの閲覧システムS3とを含む。ここで、店舗領域TAは、例えば、店舗などの建物の領域である。また、閲覧領域VAは、店舗前において閲覧することが可能な位置に配置された広告媒体DPにより広告を掲示し当該広告を閲覧可能な店舗前の領域である。閲覧システムS3において、広告媒体DPは、店舗前の壁面Wに設置され、店舗前を通行する人H1、H2、H3などに広告を掲示する。広告媒体DPが掲示する広告は、例えば、店舗の特定の商品や特売商品などの情報、キャンペーン情報、セールなどの期間の情報を含む店舗に関する情報である。
情報処理システムS2は、第1計測装置1と、第2計測装置2と、情報処理装置3と、を含む。第1計測装置1は、例えば、広告媒体DPが掲示する広告を閲覧可能な閲覧領域VAにおいて、当該広告を閲覧している人を撮影する。例えば、広告媒体DPは、店舗前を通行する人に対して広告を掲示する。第1計測装置1は、閲覧領域VAに存在する店舗前を通行する人H1、H2を撮影する。
例えば、店舗前を通行する人H1は、広告を閲覧した後に方向DR1に進み、店舗の入口GT1から店舗に入店する。また、店舗前を通行する人H2は、広告を閲覧した後に方向DR2に進み、店舗に入店することなく店舗前から立ち去る。店舗前を通行する人H3は、方向DR3に進み、入口GT1から店舗に入店する。このとき、店舗前を通行する人H3は、広告媒体DPが掲示する広告を閲覧せずに店舗に入店する。
第2計測装置2は、店舗領域TAにおける入口や特定の商品の前などの広告に関する場所に存在する人を撮影する。
例えば、店舗前を通行する人H1は、広告を閲覧した後に方向DR1に進み、店舗の入口GT1から店舗に入店する。また、店舗前を通行する人H2は、広告を閲覧した後に方向DR2に進み、店舗に入店することなく店舗前から立ち去る。店舗前を通行する人H3は、方向DR3に進み、入口GT1から店舗に入店する。このとき、店舗前を通行する人H3は、広告媒体DPが掲示する広告を閲覧せずに店舗に入店する。
第2計測装置2は、店舗領域TAにおける入口や特定の商品の前などの広告に関する場所に存在する人を撮影する。
情報処理装置3は、第1計測装置1と第2計測装置2とが撮影した画像をそれぞれ含む第1画像に関する情報と第2画像に関する情報との類似度を計算する。そして、情報処理装置3は、当該類似度から広告媒体DPが掲示した広告を閲覧して所定領域に存在する人数を計算し、当該計算結果に基づいて広告効果を計測する。
図2は、第1の実施形態に係る情報処理システムS2の構成の一例を示す概略ブロック図である。
情報処理システムS2は、上述のように第1計測装置1と、第2計測装置2と、情報処理装置3と、を含む。
第1計測装置1は、第1撮像部11と、第1画像記憶部12と、を含む。第2計測装置2は、第2撮像部21と、第2画像記憶部22と、を含む。情報処理装置3は、第1検出部31と、第1特徴量算出部31Aと、第1記憶部32と、第2検出部33と、第2特徴量算出部33Aと、第2記憶部34と、マッチング部35と、効果計算部36と、効果記憶部37と、を含む。第1計測装置1と情報処理装置3とは、有線または無線で接続され、通信を行う。また、第2計測装置2と情報処理装置3とは、有線または無線で接続され、通信を行う。
情報処理システムS2は、上述のように第1計測装置1と、第2計測装置2と、情報処理装置3と、を含む。
第1計測装置1は、第1撮像部11と、第1画像記憶部12と、を含む。第2計測装置2は、第2撮像部21と、第2画像記憶部22と、を含む。情報処理装置3は、第1検出部31と、第1特徴量算出部31Aと、第1記憶部32と、第2検出部33と、第2特徴量算出部33Aと、第2記憶部34と、マッチング部35と、効果計算部36と、効果記憶部37と、を含む。第1計測装置1と情報処理装置3とは、有線または無線で接続され、通信を行う。また、第2計測装置2と情報処理装置3とは、有線または無線で接続され、通信を行う。
第1撮像部11は、例えば、CCD(Charge Coupled Device:シーシーディー)センサーやCMOS(Complementary Metal Oxide Semiconductor:シーモス)センサーなどの撮像素子(図示せず)と、撮像レンズ(図示せず)と、を備える。第1撮像部11は、広告媒体DPが掲示する広告を閲覧可能な閲覧領域VAにおいて、当該閲覧領域に存在している人の顔領域の画像と衣服領域の画像とを含む人物画像を、撮影可能な位置に設置される。そして、第1撮像部11は、当該人物画像を、撮像レンズを介して撮像素子上に結像させることで第1画像に関する情報を逐次生成する。第1撮像部11は、生成した第1画像に関する情報を、当該第1画像に関する情報を生成した時間と対応付けて第1画像記憶部12に記憶させる。
第1画像記憶部12は、第1画像に関する情報を記憶する。
第1画像記憶部12は、第1画像に関する情報を記憶する。
第2撮像部21は、例えば、CCDセンサーやCMOSセンサーなどの撮像素子(図示せず)と、撮像レンズ(図示せず)と、を備える。第2撮像部21は、前述した広告に関する予め定められた場所、すなわち特定の商品前や店舗の入口付近を撮影可能な位置に設置される。以下、これらの場所を所定領域と称する。第2撮像部21は、店舗内の所定領域に存在する人の顔領域の画像と衣服領域の画像とを含む人物画像を、撮像レンズを介して撮像素子上に結像させることで第2画像に関する情報を逐次生成する。第2撮像部21は、生成した第2画像に関する情報を、当該第2画像に関する情報を生成した時間と対応付けて第2画像記憶部22に記憶させる。
第2画像記憶部22は、第2画像に関する情報を記憶する。
第2画像記憶部22は、第2画像に関する情報を記憶する。
情報処理装置3は、CPU(Central Processing Unit:中央演算処理装置)、各種データの一時記憶などに用いられるRAM(Random Acccess Memory:ラム)、およびマスクROM(Read Only Memory:ロム)やフラッシュメモリー、FeRAM(Ferroelectric Randam Access Memory:強誘電体メモリ)などの不揮発性メモリー(いずれも図示せず)を備える。また、情報処理装置3は、第1検出部31と、第1特徴量算出部31Aと、第1記憶部32と、第2検出部33と、第2特徴量算出部33Aと、第2記憶部34と、マッチング部35と、効果計算部36と、効果記憶部37と、を制御する制御装置および画像を処理するプロセッサなどを備える。
第1検出部31は、第1画像記憶部12から第1画像に関する情報を読み出し、当該第1画像に関する情報に含まれる第1画像から、例えば、Haar−Like特徴量などを利用した顔領域検出手段を用いて顔領域を検出し、当該顔領域を所定時間以上、検出した場合に顔領域の画像を、顔を含むように矩形に切り出し、第1顔領域画像を生成する。
また、第1検出部31は、生成した第1顔領域画像に対応する第1画像に関する情報に含まれる人物画像から衣服領域の画像を切り出して第1衣服領域画像を生成する。第1衣服領域画像は、横幅が第1顔領域画像の横幅と略同じ幅で、かつ、縦幅が第1顔領域画像に対する所定のサイズ、例えば第1顔領域画像の3倍、4倍などの幅となり、第1顔領域画像の下端が第1衣服領域画像の上端となるように切り出される。
また、第1検出部31は、生成した第1顔領域画像に対応する第1画像に関する情報に含まれる人物画像から衣服領域の画像を切り出して第1衣服領域画像を生成する。第1衣服領域画像は、横幅が第1顔領域画像の横幅と略同じ幅で、かつ、縦幅が第1顔領域画像に対する所定のサイズ、例えば第1顔領域画像の3倍、4倍などの幅となり、第1顔領域画像の下端が第1衣服領域画像の上端となるように切り出される。
第1特徴量算出部31Aは、まず、第1顔領域画像における特徴量を第1顔領域特徴量として計算する。次いで、第1特徴量算出部31Aは、第1衣服領域画像における特徴量を第1衣服領域特徴量として計算する。そして、第1特徴量算出部31Aは、計算した第1顔領域特徴量と第1衣服領域特徴量とを第1記憶部32に記憶させる。
より詳細に、第1特徴量算出部31Aの動作を説明する。
第1特徴量算出部31Aは、例えば、カラーヒストグラム特徴量と、画像中の頻出色を頻度順に並び替えたMCSH(Major−Color Spectrum Histogram:エムシーエスエイチ)特徴量と、局所特徴量と、の3種類の特徴量を用いて第1顔領域画像における特徴量を第1顔領域特徴量として計算する。ここで、局所特徴量とは、SURF(Speed−Up Robust Features:サーフ)特徴量、SIFT(Scale−Invariant Feature Transform:シフト)特徴量、HOG(Histograms of Oriented Gradients:ホッグ)特徴量などの特徴量である。
また、第1特徴量算出部31Aは、例えば、カラーヒストグラム特徴量とMCSH特徴量と局所特徴量との3種類の特徴量を用いて第1衣服領域画像における特徴量を第1衣服領域特徴量として計算する。そして、第1特徴量算出部31Aは、計算した第1顔領域特徴量と第1衣服領域特徴量とを第1記憶部32に記憶させる。
第1記憶部32は、第1画像特徴量情報として第1顔領域特徴量と第1衣服領域特徴量とを記憶する。
第1特徴量算出部31Aは、例えば、カラーヒストグラム特徴量と、画像中の頻出色を頻度順に並び替えたMCSH(Major−Color Spectrum Histogram:エムシーエスエイチ)特徴量と、局所特徴量と、の3種類の特徴量を用いて第1顔領域画像における特徴量を第1顔領域特徴量として計算する。ここで、局所特徴量とは、SURF(Speed−Up Robust Features:サーフ)特徴量、SIFT(Scale−Invariant Feature Transform:シフト)特徴量、HOG(Histograms of Oriented Gradients:ホッグ)特徴量などの特徴量である。
また、第1特徴量算出部31Aは、例えば、カラーヒストグラム特徴量とMCSH特徴量と局所特徴量との3種類の特徴量を用いて第1衣服領域画像における特徴量を第1衣服領域特徴量として計算する。そして、第1特徴量算出部31Aは、計算した第1顔領域特徴量と第1衣服領域特徴量とを第1記憶部32に記憶させる。
第1記憶部32は、第1画像特徴量情報として第1顔領域特徴量と第1衣服領域特徴量とを記憶する。
第2検出部33は、第2画像記憶部22から第2画像に関する情報を読み出し、当該第2画像に関する情報から、例えば、HOG特徴量などを利用した人物領域検出手段を用いて人物領域を検出する。第2検出部33は、検出した人物領域が店舗内の所定領域に存在するか否かを判定する。具体的には、第2検出部33は、検出した人物領域が所定の判定ラインを通過したか否かを判定し、所定の判定ラインを通過した場合に店舗内の所定領域に存在すると判定する。例えば、第2検出部33は、店舗の入口付近の所定の判定ラインを、検出した人物領域が通過したか否かを判定する。そして、第2検出部33は、当該人物領域が所定の判定ラインを通過した場合、店舗に入店したと判定する。
第2検出部33は、検出した人物領域が店舗内の所定領域に存在すると判定した場合、当該人物領域から例えば、Haar−Like特徴量などを利用した顔領域検出手段を用いて顔領域を検出し、当該顔領域の画像を、顔を含むように矩形に切り出し、第2顔領域画像を生成する。
また、第2検出部33は、生成した第2顔領域画像に対応する第2画像に関する情報に含まれる人物画像から衣服領域の画像を切り出して第2衣服領域画像を生成する。第2衣服領域画像は、横幅が第2顔領域画像の横幅と略同じ幅で、かつ、縦幅が第2顔領域画像に対する所定のサイズ、例えば第2顔領域画像の3倍、4倍などの幅となり、第2顔領域画像の下端が第2衣服領域画像の上端となるように切り出される。
また、第2検出部33は、生成した第2顔領域画像に対応する第2画像に関する情報に含まれる人物画像から衣服領域の画像を切り出して第2衣服領域画像を生成する。第2衣服領域画像は、横幅が第2顔領域画像の横幅と略同じ幅で、かつ、縦幅が第2顔領域画像に対する所定のサイズ、例えば第2顔領域画像の3倍、4倍などの幅となり、第2顔領域画像の下端が第2衣服領域画像の上端となるように切り出される。
第2特徴量算出部33Aは、まず、第2顔領域画像における特徴量を第2顔領域特徴量として計算する。次いで、第2特徴量算出部33Aは、第2衣服領域画像における特徴量を第2衣服領域特徴量として計算する。そして、第2特徴量算出部33Aは、計算した第2顔領域特徴量と第2衣服領域特徴量とを第2記憶部34に記憶させる。
より詳細に、第2特徴量算出部33Aの動作を説明する。
第2特徴量算出部33Aは、例えば、カラーヒストグラム特徴量とMCSH特徴量と局所特徴量との3種類の特徴量を用いて第2顔領域画像における特徴量を第2顔領域特徴量として計算する。
また、第2特徴量算出部33Aは、例えば、カラーヒストグラム特徴量、MCSH特徴量、局所特徴量などの特徴量を用いて第2衣服領域画像における特徴量を第2衣服領域特徴量として計算する。そして、第2特徴量算出部33Aは、計算した第2顔領域特徴量と第2衣服領域特徴量とを第2記憶部34に記憶させる。
第2記憶部34は、第2画像特徴量として第2顔領域特徴量と第2衣服領域特徴量とを記憶する。
第2特徴量算出部33Aは、例えば、カラーヒストグラム特徴量とMCSH特徴量と局所特徴量との3種類の特徴量を用いて第2顔領域画像における特徴量を第2顔領域特徴量として計算する。
また、第2特徴量算出部33Aは、例えば、カラーヒストグラム特徴量、MCSH特徴量、局所特徴量などの特徴量を用いて第2衣服領域画像における特徴量を第2衣服領域特徴量として計算する。そして、第2特徴量算出部33Aは、計算した第2顔領域特徴量と第2衣服領域特徴量とを第2記憶部34に記憶させる。
第2記憶部34は、第2画像特徴量として第2顔領域特徴量と第2衣服領域特徴量とを記憶する。
マッチング部35は、第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量とに基づいて、衣服領域画像における類似度を特徴量ごとに計算する。または、マッチング部35は、第1顔領域画像における各特徴量と第2顔領域画像における各特徴量とに基づいて、顔領域画像における類似度を特徴量ごとに計算する。そして、マッチング部35は、特徴量ごとに計算した衣服領域画像における類似度、または特徴量ごとに計算した顔領域画像における類似度のいずれか一方に基づいて、後述する第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像との類似度を表すスコア(Score)を計算する。そして、マッチング部35は、計算したスコアに基づいて、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが同一の人物による人物画像か否かを判定する。
より詳細にマッチング部35の動作を説明する。
マッチング部35は、第1記憶部32および第2記憶部34からある期間の第1所定時間における第1画像特徴量情報と、当該第1所定時間より後の期間の第2所定時間における第2画像特徴量情報とを、マッチング処理を行う対象とする特徴量(対象特徴量)としてそれぞれ読み出す。
マッチング部35は、対象特徴量として読み出した第1画像特徴量情報に含まれる第1衣服領域特徴量と対象特徴量として読み出した第2画像特徴量情報に含まれる第2衣服領域特徴量とのそれぞれに含まれる第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量との間のカラーヒストグラム間の距離を、衣服領域画像のカラーヒストグラム距離として算出する。ここで、マッチング部35は、例えば、ユーグリッド距離、分散、χ二乗距離、交差、Bhattachatyya距離、EMD(Earth Mover’s Distance:イーエムディー)などの指標を用いて当該衣服領域画像のカラーヒストグラム距離を算出する。
マッチング部35は、算出した衣服領域画像のカラーヒストグラム距離を、第1衣服領域画像と第2衣服領域画像とにおけるカラーヒストグラム類似度として算出する。
マッチング部35は、第1記憶部32および第2記憶部34からある期間の第1所定時間における第1画像特徴量情報と、当該第1所定時間より後の期間の第2所定時間における第2画像特徴量情報とを、マッチング処理を行う対象とする特徴量(対象特徴量)としてそれぞれ読み出す。
マッチング部35は、対象特徴量として読み出した第1画像特徴量情報に含まれる第1衣服領域特徴量と対象特徴量として読み出した第2画像特徴量情報に含まれる第2衣服領域特徴量とのそれぞれに含まれる第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量との間のカラーヒストグラム間の距離を、衣服領域画像のカラーヒストグラム距離として算出する。ここで、マッチング部35は、例えば、ユーグリッド距離、分散、χ二乗距離、交差、Bhattachatyya距離、EMD(Earth Mover’s Distance:イーエムディー)などの指標を用いて当該衣服領域画像のカラーヒストグラム距離を算出する。
マッチング部35は、算出した衣服領域画像のカラーヒストグラム距離を、第1衣服領域画像と第2衣服領域画像とにおけるカラーヒストグラム類似度として算出する。
また、マッチング部35は、第1画像特徴量情報に含まれる第1衣服領域特徴量と第2画像特徴量情報に含まれる第2衣服領域特徴量とのそれぞれに含まれる第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量との間のヒストグラム間の距離を、衣服領域画像のMCSH距離として算出する。マッチング部35は、例えば、衣服領域画像のカラーヒストグラム距離と同様の指標を用いて衣服領域画像のMCSH距離を算出する。
マッチング部35は、算出した衣服領域画像のMCSH距離を、第1衣服領域画像と第2衣服領域画像とにおけるMCSH類似度として算出する。
マッチング部35は、算出した衣服領域画像のMCSH距離を、第1衣服領域画像と第2衣服領域画像とにおけるMCSH類似度として算出する。
また、マッチング部35は、第1画像特徴量情報に含まれる第1衣服領域特徴量と第2画像特徴量情報に含まれる第2衣服領域特徴量とのそれぞれに含まれる第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから、局所特徴量における第1衣服領域特徴量の特徴点の特徴量ベクトルと第2衣服領域特徴量の特徴点の特徴量ベクトルとの間の特徴量ベクトル間の距離が最小となる特徴点同士を対応付ける。そして、マッチング部35は、対応付けた当該特徴点同士の距離が所定距離以下となる特徴点点数を、第1衣服領域画像と第2衣服領域画像とにおける局所特徴量類似度として算出する。
また、マッチング部35は、衣服領域画像におけるカラーヒストグラム類似度、MCSH類似度、局所特徴量類似度と同様に、顔領域画像におけるカラーヒストグラム類似度、MCSH類似度、局所特徴量類似度を算出する。
具体的には、マッチング部35は、対象特徴量として読み出した第1画像特徴量情報に含まれる第1顔領域特徴量と対象特徴量として読み出した第2画像特徴量情報に含まれる第2顔領域特徴量とのそれぞれに含まれる第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量との間のカラーヒストグラム間の距離を、顔領域画像のカラーヒストグラム距離として算出する。ここで、マッチング部35は、例えば、ユーグリッド距離、分散、χ二乗距離、交差、Bhattachatyya距離、EMDなどの指標を用いて当該顔領域画像のカラーヒストグラム距離を算出する。
マッチング部35は、算出した顔領域画像のカラーヒストグラム距離を、第1顔領域画像と第2顔領域画像とにおけるカラーヒストグラム類似度として算出する。
具体的には、マッチング部35は、対象特徴量として読み出した第1画像特徴量情報に含まれる第1顔領域特徴量と対象特徴量として読み出した第2画像特徴量情報に含まれる第2顔領域特徴量とのそれぞれに含まれる第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量との間のカラーヒストグラム間の距離を、顔領域画像のカラーヒストグラム距離として算出する。ここで、マッチング部35は、例えば、ユーグリッド距離、分散、χ二乗距離、交差、Bhattachatyya距離、EMDなどの指標を用いて当該顔領域画像のカラーヒストグラム距離を算出する。
マッチング部35は、算出した顔領域画像のカラーヒストグラム距離を、第1顔領域画像と第2顔領域画像とにおけるカラーヒストグラム類似度として算出する。
また、マッチング部35は、第1画像特徴量情報に含まれる第1顔領域特徴量と第2画像特徴量情報に含まれる第2顔領域特徴量とのそれぞれに含まれる第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量との間のヒストグラム間の距離を、顔領域画像のMCSH距離として算出する。マッチング部35は、例えば、顔領域画像のカラーヒストグラム距離と同様の指標を用いて顔領域画像のMCSH距離を算出する。
マッチング部35は、算出した顔領域画像のMCSH距離を、第1顔領域画像と第2顔領域画像とにおけるMCSH類似度として算出する。
マッチング部35は、算出した顔領域画像のMCSH距離を、第1顔領域画像と第2顔領域画像とにおけるMCSH類似度として算出する。
また、マッチング部35は、第1画像特徴量情報に含まれる第1顔領域特徴量と第2画像特徴量情報に含まれる第2顔領域特徴量とのそれぞれに含まれる第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから、局所特徴量における第1顔領域特徴量の特徴点の特徴量ベクトルと第2顔領域特徴量の特徴点の特徴量ベクトルとの間の特徴量ベクトル間の距離が最小となる特徴点同士を対応付ける。そして、マッチング部35は、対応付けた当該特徴点同士の距離が所定距離以下となる特徴点点数を、第1顔領域画像と第2顔領域画像とにおける局所特徴量類似度として算出する。
次いで、マッチング部35は、算出した衣服領域画像のカラーヒストグラム類似度と衣服領域画像のMCSH類似度と衣服領域画像の局所特徴量類似度とに基づいて、衣服領域画像におけるスコアを計算し、当該スコアが閾値より大きいか否かを判定する。
また、マッチング部35は、算出した顔領域画像のカラーヒストグラム類似度と顔領域画像のMCSH類似度と顔領域画像の局所特徴量類似度とに基づいて、顔領域画像におけるスコアを計算し、当該スコアが閾値より大きいか否かを判定する。
また、マッチング部35は、算出した顔領域画像のカラーヒストグラム類似度と顔領域画像のMCSH類似度と顔領域画像の局所特徴量類似度とに基づいて、顔領域画像におけるスコアを計算し、当該スコアが閾値より大きいか否かを判定する。
ここで、マッチング部35が、衣服領域画像のスコア、および顔領域画像のスコアを例えば、以下の式でそれぞれ計算する。
SCR=(a_m)×(S_m)+(a_h)×(S_h)+(a_f)×(S_f)
ここで、スコア(SCR)は、第1画像に関する情報と第2画像に関する情報との間の画像間の類似度を表す。また、S_mは、MSCH類似度を表し、S_hは、カラーヒストグラム類似度を表し、S_fは、局所特徴量類似度を表す。また、a_mは、MCSH類似度に対する重み係数であり、a_hは、カラーヒストグラム類似度に対する重み係数であり、a_fは、局所特徴量類似度に対する重み係数である。
SCR=(a_m)×(S_m)+(a_h)×(S_h)+(a_f)×(S_f)
ここで、スコア(SCR)は、第1画像に関する情報と第2画像に関する情報との間の画像間の類似度を表す。また、S_mは、MSCH類似度を表し、S_hは、カラーヒストグラム類似度を表し、S_fは、局所特徴量類似度を表す。また、a_mは、MCSH類似度に対する重み係数であり、a_hは、カラーヒストグラム類似度に対する重み係数であり、a_fは、局所特徴量類似度に対する重み係数である。
そして、マッチング部35は、計算した衣服領域画像のスコアが閾値より大きい場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とにおける衣服領域画像が同一の人物による人物画像であると判定する。一方、マッチング部35は、計算したスコアが閾値以下である場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが異なる人物(別人)による人物画像であると判定する。
また、マッチング部35は、計算した顔領域画像のスコアが閾値より大きい場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とにおける顔領域画像が同一の人物による人物画像であると判定する。一方、マッチング部35は、計算したスコアが閾値以下である場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが異なる人物(別人)による人物画像であると判定する。
また、マッチング部35は、計算した顔領域画像のスコアが閾値より大きい場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とにおける顔領域画像が同一の人物による人物画像であると判定する。一方、マッチング部35は、計算したスコアが閾値以下である場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが異なる人物(別人)による人物画像であると判定する。
そして、マッチング部35は、衣服領域画像または顔領域画像の一方により同一の人物による人物画像(同一人物画像)であると判定した場合、当該同一の人物による人物画像であることを表す判定結果を効果計算部36に出力する。また、マッチング部35は、対象特徴量とした第1画像に関する情報に含まれる人物画像の数と対象特徴量とした第2画像に関する情報に含まれる人物画像の数とを、対象画像数として効果計算部36に出力する。
効果計算部36は、マッチング部35から入力された顔領域画像または衣服領域画像の一方において同一の人物による人物画像であると判定された判定結果、および対象画像数に基づいて、広告媒体に掲示された広告の効果を計算する。具体的には、効果計算部36は、マッチング部35が対象特徴量とした第1画像に関する情報に含まれる人物画像の数を、広告媒体に掲示された広告を閲覧した閲覧人数として計算する。また、効果計算部36は、マッチング部35が対象特徴量とした第2画像に関する情報に含まれる人物画像の数を、判定領域に存在する存在人数として計算する。
効果計算部36は、マッチング部35から入力された顔領域画像または衣服領域画像の一方において同一の人物による人物画像であると判定された判定結果に基づいて、同一の人物による人物画像であると判定された画像数を閲覧存在人数として計算する。
そして、効果計算部36は、閲覧人数、存在人数、閲覧存在人数に基づいて、閲覧人数から閲覧存在人数を減算することで、広告媒体を閲覧したが入店しなかった人数を閲覧非存在人数をとして計算する。
そして、効果計算部36は、閲覧人数、存在人数、閲覧存在人数に基づいて、閲覧人数から閲覧存在人数を減算することで、広告媒体を閲覧したが入店しなかった人数を閲覧非存在人数をとして計算する。
また、効果計算部36は、閲覧存在人数を、閲覧人数で除算することで、閲覧存在率を計算する。この閲覧存在率は、広告媒体が掲示する広告を閲覧した人数に対する、当該広告を閲覧した後に判定領域に移動した人数の割合である。当該閲覧存在率は、広告媒体が掲示する広告に対する効果を表す指標の一つである。
そして、効果計算部36は、広告媒体が掲示していた広告を識別する識別番号と、計算した閲覧存在率と、閲覧人数と、存在人数と、閲覧存在人数と、閲覧非存在人数と、を対応付けて効果記憶部37に記憶させる。
効果記憶部37は、広告媒体が掲示していた広告を識別する識別番号と、閲覧存在率と、閲覧人数と、存在人数と、閲覧存在人数と、閲覧非存在人数と、を対応付けて記憶する。
効果記憶部37は、広告媒体が掲示していた広告を識別する識別番号と、閲覧存在率と、閲覧人数と、存在人数と、閲覧存在人数と、閲覧非存在人数と、を対応付けて記憶する。
図3は、第1の実施形態に係る第1検出部31が生成する第1画像に関する情報に含まれる顔領域の画像と衣服領域の画像との一例を示す概略図である。
第1画像に関する情報G2において、第1検出部31は、顔領域GA21を検出する。第1検出部31は、所定時間以上、顔領域G21を検出した場合に当該顔領域G21を所定サイズ、例えば、顔を含むように矩形に切り出して第1顔領域画像G21を生成する。そして、第1検出部31は、所定時間以上、顔領域GA21が検出された場合、第1画像に関する情報に含まれる人物画像から第1衣服領域画像G22を生成する。この第1衣服猟奇画像G22は、横幅が所定の幅(例えば、第1顔領域画像G21の横幅と同じ幅)で、かつ、縦幅が第1顔領域画像G21に対する所定のサイズ、例えば2倍の幅となり、第1顔領域画像の下端が第1衣服領域画像の上端となるように切り出しされる。
第1画像に関する情報G2において、第1検出部31は、顔領域GA21を検出する。第1検出部31は、所定時間以上、顔領域G21を検出した場合に当該顔領域G21を所定サイズ、例えば、顔を含むように矩形に切り出して第1顔領域画像G21を生成する。そして、第1検出部31は、所定時間以上、顔領域GA21が検出された場合、第1画像に関する情報に含まれる人物画像から第1衣服領域画像G22を生成する。この第1衣服猟奇画像G22は、横幅が所定の幅(例えば、第1顔領域画像G21の横幅と同じ幅)で、かつ、縦幅が第1顔領域画像G21に対する所定のサイズ、例えば2倍の幅となり、第1顔領域画像の下端が第1衣服領域画像の上端となるように切り出しされる。
図4は、第1の実施形態に係る第2検出部33が生成する第2画像に関する情報に含まれる顔領域の画像と衣服領域の画像との一例を示す概略図である。
第2画像に関する情報G1において、第2検出部33は、顔領域と衣服領域とを含む人物領域GA1を例えば、HOG特徴量を利用した人物領域検出手段を用いて検出する。そして、第2検出部33は、当該人物領域GA1の底辺が所定の判定ラインJLを通過したか否かを判定し、所定の判定ラインJLを通過した場合に店舗内の所定領域に存在すると判定する。
第2画像に関する情報G1において、第2検出部33は、顔領域と衣服領域とを含む人物領域GA1を例えば、HOG特徴量を利用した人物領域検出手段を用いて検出する。そして、第2検出部33は、当該人物領域GA1の底辺が所定の判定ラインJLを通過したか否かを判定し、所定の判定ラインJLを通過した場合に店舗内の所定領域に存在すると判定する。
そして、第2検出部33は、店舗内の所定領域に存在すると判定された人物領域GA1の人物画像から顔領域の画像を、例えば、顔を含むように矩形に切り出し、第2顔領域画像G12を生成する。そして、第2検出部33は、当該人物画像から衣服領域の画像を、横幅が所定の幅(例えば、第2顔領域画像G12の横幅と同じ幅)で、かつ、縦幅が第2顔領域画像G12に対する所定のサイズ(例えば2倍の幅)で第2顔領域画像の下端が第2衣服領域画像の上端となるように当該第2顔領域画像の下部の衣服領域画像を切り出して第2衣服領域画像G13を生成する。
図5は、第1の実施形態に係るマッチング部35のマッチング処理の一例を示す概略図である。
図5において、マッチング部35は、第1所定時間における第1画像特徴量情報および第2所定時間における第2画像特徴量情報を、マッチング処理を行う対象とする特徴量(対象特徴量)としてそれぞれ読み出す。マッチング部35は、対象特徴量として読み出した第1画像特徴量情報と対象特徴量として読み出した第2画像特徴量情報との類似度を判定する。具体的には、マッチング部35は、第1画像に関する情報に含まれる第1衣服領域画像G42に対する第1衣服領域特徴量と第2画像に関する情報に含まれる第2衣服領域画像G32に対する第2衣服領域特徴量とから、衣服領域画像の特徴量ごとの類似度を計算する。
図5において、マッチング部35は、第1所定時間における第1画像特徴量情報および第2所定時間における第2画像特徴量情報を、マッチング処理を行う対象とする特徴量(対象特徴量)としてそれぞれ読み出す。マッチング部35は、対象特徴量として読み出した第1画像特徴量情報と対象特徴量として読み出した第2画像特徴量情報との類似度を判定する。具体的には、マッチング部35は、第1画像に関する情報に含まれる第1衣服領域画像G42に対する第1衣服領域特徴量と第2画像に関する情報に含まれる第2衣服領域画像G32に対する第2衣服領域特徴量とから、衣服領域画像の特徴量ごとの類似度を計算する。
また、マッチング部35は、第1画像特徴量情報に含まれる第1顔領域画像G41に対する第1顔領域特徴量と第2画像特徴量情報に含まれる第2顔領域画像G31に対する第2顔領域特徴量とから、顔領域画像の特徴量ごとの類似度を計算する。
そして、マッチング部35は、衣服領域画像の特徴量ごとの類似度または顔領域画像の特徴量ごとの類似度のうち少なくともいずれか一方に基づいて、第1画像に関する情報と第2画像に関する情報とのスコアを計算し、当該スコアが閾値より大きいか否かを判定する。
そして、マッチング部35は、衣服領域画像の特徴量ごとの類似度または顔領域画像の特徴量ごとの類似度のうち少なくともいずれか一方に基づいて、第1画像に関する情報と第2画像に関する情報とのスコアを計算し、当該スコアが閾値より大きいか否かを判定する。
すなわち、図5において、マッチング部35は、顔領域画像のスコアまたは衣服領域画像のスコアが閾値より大きいか否かを判定し、顔領域画像のスコアまたは衣服領域画像のスコアのうちのいずれか一方が閾値より大きい場合に第1画像に関する情報と第2画像に関する情報との人物画像が同一の人物による人物画像であると判定する。この場合、顔領域画像のスコアおよび衣服領域画像のスコアのそれぞれがそれぞれの閾値より大きく、マッチング部35は、顔領域画像のスコアと衣服領域画像のスコアとのどちらを用いても同一の人物による人物画像であると判定する。
なお、顔領域画像のスコアと衣服領域画像のスコアとの両方を用いて第1画像に関する情報と第2画像に関する情報との人物画像が同一の人物による人物画像であるか否かを判定する場合であっても、マッチング部35は、どちらか一方で判定する場合と同様に、同一の人物による人物画像であると判定する。マッチング部35は、衣服領域画像のスコアおよび顔領域画像のスコアを両方用いて同一の人物による人物画像か否かを判定することで、類似する衣服を着衣する人、例えばスーツなどを着衣する人が多い場所であっても、精度よくマッチング処理を行うことができる。
図6は、第1の実施形態に係るマッチング部35のマッチング処理の一例を示す概略図である。
図6においても、図5と同様にマッチング部35が同一の人物による人物画像か否かを判定するが説明を省略する。
なお、図6において、第1衣服領域画像G62と第2衣服領域画像G52とは衣服領域画像のスコアが閾値より大きいため、マッチング部35は同一の人物による人物画像であると判定する。しかし、マッチング部35は、第1顔領域画像G61と第2顔領域画像G51との顔領域画像のスコアが閾値以下であるため、異なる人物による人物画像であると判定する。
図6においても、図5と同様にマッチング部35が同一の人物による人物画像か否かを判定するが説明を省略する。
なお、図6において、第1衣服領域画像G62と第2衣服領域画像G52とは衣服領域画像のスコアが閾値より大きいため、マッチング部35は同一の人物による人物画像であると判定する。しかし、マッチング部35は、第1顔領域画像G61と第2顔領域画像G51との顔領域画像のスコアが閾値以下であるため、異なる人物による人物画像であると判定する。
図7は、第1の実施形態に係るマッチング部35のマッチング処理の一例を示す概略図である。
図7においても、図5と同様にマッチング部35が同一の人物による人物画像か否かを判定するが説明を省略する。
また、図7における衣服領域画像G82、G72は、無地かつモノトーンの衣服など、第1特徴量算出部31Aおよび第2特徴量算出部33Aにより算出される特徴量ごとの特徴点が少ないが、本実施形態では、複数の特徴量から類似度を計算し、当該類似度からスコアを計算することで、それぞれの特徴量を補完することができる。図7の場合も、マッチング部35は、顔領域画像のスコアおよび衣服領域画像のスコアのそれぞれがそれぞれの閾値より大きく、マッチング部35は、顔領域画像のスコアと衣服領域画像のスコアとのどちらを用いても同一の人物による人物画像であると判定する。
図7においても、図5と同様にマッチング部35が同一の人物による人物画像か否かを判定するが説明を省略する。
また、図7における衣服領域画像G82、G72は、無地かつモノトーンの衣服など、第1特徴量算出部31Aおよび第2特徴量算出部33Aにより算出される特徴量ごとの特徴点が少ないが、本実施形態では、複数の特徴量から類似度を計算し、当該類似度からスコアを計算することで、それぞれの特徴量を補完することができる。図7の場合も、マッチング部35は、顔領域画像のスコアおよび衣服領域画像のスコアのそれぞれがそれぞれの閾値より大きく、マッチング部35は、顔領域画像のスコアと衣服領域画像のスコアとのどちらを用いても同一の人物による人物画像であると判定する。
図8は、第1の実施形態に係るマッチング部35のマッチング処理の一例を示す概略図である。
図8において、第1撮像部11は、人物画像を含まない背景画像を、撮像レンズを介して撮像素子上に結像させることで第1背景画像GB1を含む第1背景画像情報を生成する。第1検出部31は、第1背景画像情報と背景画像を含む第1画像に関する情報との差分を求め、背景画像を含まない第1画像に関する情報を生成する。この背景画像を含まない第1画像に関する情報には、第1顔領域画像と第1衣服領域画像とが含まれる。また、第2撮像部21は、人物画像を含まない背景画像を、撮像レンズを介して撮像素子上に結像させることで第2背景画像GB3を含む第2背景画像情報を生成する。第2検出部33は、第2背景画像情報と背景画像を含む第2画像に関する情報との差分を求め、背景画像を含まない第2画像に関する情報を生成する。この背景画像を含まない第2画像に関する情報には、第2顔領域画像と第2衣服領域画像とが含まれる。
図8において、第1撮像部11は、人物画像を含まない背景画像を、撮像レンズを介して撮像素子上に結像させることで第1背景画像GB1を含む第1背景画像情報を生成する。第1検出部31は、第1背景画像情報と背景画像を含む第1画像に関する情報との差分を求め、背景画像を含まない第1画像に関する情報を生成する。この背景画像を含まない第1画像に関する情報には、第1顔領域画像と第1衣服領域画像とが含まれる。また、第2撮像部21は、人物画像を含まない背景画像を、撮像レンズを介して撮像素子上に結像させることで第2背景画像GB3を含む第2背景画像情報を生成する。第2検出部33は、第2背景画像情報と背景画像を含む第2画像に関する情報との差分を求め、背景画像を含まない第2画像に関する情報を生成する。この背景画像を含まない第2画像に関する情報には、第2顔領域画像と第2衣服領域画像とが含まれる。
第1検出部31および第2検出部33は、背景画像を含まない第1画像に関する情報と背景画像を含まない第2画像に関する情報とから、第1顔領域画像と第2顔領域画像と第1衣服領域画像と第2衣服領域画像とをそれぞれ生成する。そして、第1特徴量算出部31Aおよび第2特徴量算出部33Aは、第1顔領域画像と第2顔領域画像と第1衣服領域画像と第2衣服領域画像とのそれぞれに対して、上述の特徴量を計算し、図5と同様に類似度、スコアを計算し、同一の人物による人物画像か否かを判定する。
これにより、情報処理装置3は、顔領域画像および衣服領域画像以外の背景画像(ノイズ)を除去でき、マッチング部35におけるマッチング処理のマッチング精度を向上させることができる。
これにより、情報処理装置3は、顔領域画像および衣服領域画像以外の背景画像(ノイズ)を除去でき、マッチング部35におけるマッチング処理のマッチング精度を向上させることができる。
なお、第1検出部31または第2検出部33のうち、いずれか一方のみが、背景画像を含む第1画像に関する情報および背景画像を含む第2画像に関する情報に対して、背景画像を含まない第1画像に関する情報または背景画像を含まない第2画像に関する情報を生成してもよいし、背景画像を含む第1画像に関する情報および背景画像を含む第2画像に関する情報とそれぞれの背景画像情報との差分を求めずに、第1検出部31および第2検出部33がそのまま背景画像を含む第1画像に関する情報および背景画像を含む第2画像に関する情報とから顔領域画像と衣服領域画像とを生成してもよい。
図9は、第1の実施形態に係る情報処理装置3の衣服領域画像のマッチング処理の一例を示すフローチャートである。
ステップST101において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2衣服領域画像を取得する。
ステップST102において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST101において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2衣服領域画像を取得する。
ステップST102において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST102Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量とに基づいて、類似度をそれぞれ計算する。
ステップST103において、マッチング部35は、第1衣服領域画像と第2衣服領域画像とにおける各特徴量の類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST104に進む。
ステップST103において、マッチング部35は、第1衣服領域画像と第2衣服領域画像とにおける各特徴量の類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST104に進む。
一方、ステップST103において、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST107において別人による人物画像であると判定し、衣服領域画像の類似度判定処理を終了する。
ステップST104において、マッチング部35は、計算した各類似度に基づいて衣服領域画像のスコアを計算する。具体的には、マッチング部35は、衣服領域画像のカラーヒストグラム類似度と衣服領域画像のMCSH類似度と衣服領域画像の局所特徴量類似度とから、衣服領域画像のスコアを計算する。
ステップST105において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Yより大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Yより大きい場合、ステップST106に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、スコアが任意の閾値Y以下である場合、ステップST107に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、衣服領域画像の類似度判定処理を終了する。
なお、任意の閾値X1、X2、X3、Yは、それぞれ異なる値の閾値である。
ステップST105において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Yより大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Yより大きい場合、ステップST106に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、スコアが任意の閾値Y以下である場合、ステップST107に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、衣服領域画像の類似度判定処理を終了する。
なお、任意の閾値X1、X2、X3、Yは、それぞれ異なる値の閾値である。
図10は、第1の実施形態に係る情報処理装置3の顔領域画像のマッチング処理の一例を示すフローチャートである。
ステップST201において、第1検出部31は、第1画像に関する情報に含まれる第1顔領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2顔領域画像を取得する。
ステップST202において、第1特徴量算出部31Aは、第1顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。また、第2特徴量算出部33Aは、第2顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST203において、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1顔領域画像における各特徴量と第2顔領域画像における各特徴量に基づいて、類似度をそれぞれ計算する。
ステップST201において、第1検出部31は、第1画像に関する情報に含まれる第1顔領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2顔領域画像を取得する。
ステップST202において、第1特徴量算出部31Aは、第1顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。また、第2特徴量算出部33Aは、第2顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST203において、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1顔領域画像における各特徴量と第2顔領域画像における各特徴量に基づいて、類似度をそれぞれ計算する。
ステップST203Aにおいて、マッチング部35は、第1顔領域画像と第2顔領域画像とにおける各特徴量の類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST203Bに進む。
一方、ステップST203Aにおいて、マッチング部35は、第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST206において別人による人物画像であると判定し、顔領域画像の類似度判定処理を終了する。
ステップST203Bにおいて、マッチング部35は、計算した顔領域画像の各類似度に基づいて、顔領域画像のスコアを計算する。具体的には、マッチング部35は、顔領域画像のカラーヒストグラム類似度と顔領域画像のMCSH類似度と顔領域画像の局所特徴量類似度とからスコアを計算する。
ステップST204において、マッチング部35は、計算した顔領域画像のスコアが任意の閾値Yより大きいか否かを判定する。顔領域画像のスコアが任意の閾値Yより大きい場合、ステップST205において同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、顔領域画像のスコアが任意の閾値Y以下である場合、ステップST206において別人による人物画像であると判定し、類似度判定処理を終了する。
なお、任意の閾値X1、X2、X3、Yは、それぞれ異なる値の閾値である。また、図9における任意の閾値X1、X2、X3、Yと図10における任意の閾値X1、X2、X3、Yとは、異なる値の閾値であるが、同じ値の閾値であってもよい。
ステップST204において、マッチング部35は、計算した顔領域画像のスコアが任意の閾値Yより大きいか否かを判定する。顔領域画像のスコアが任意の閾値Yより大きい場合、ステップST205において同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、顔領域画像のスコアが任意の閾値Y以下である場合、ステップST206において別人による人物画像であると判定し、類似度判定処理を終了する。
なお、任意の閾値X1、X2、X3、Yは、それぞれ異なる値の閾値である。また、図9における任意の閾値X1、X2、X3、Yと図10における任意の閾値X1、X2、X3、Yとは、異なる値の閾値であるが、同じ値の閾値であってもよい。
このように、本実施形態によれば、情報処理装置3は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部(第1検出部31)と、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部(第2検出部33)と、第1取得部(第1検出部31)が取得した第1画像に関する情報と第2取得部(第2検出部33)が取得した第2画像に関する情報との類似度を判定する類似判定部(マッチング部35)と、を備える。
これにより、広告媒体に掲示された広告を閲覧したときに撮影された人の画像と広告に関連する場所、例えば、店舗への入店、広告媒体に掲示された商品の前などで撮影された人の画像との類似度から、これら二つの画像内に映る人が同一人物であるか否かを判定することができ、広告による広告効果を測定することができる。
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
第2の実施形態では、衣服領域のマッチング処理の後に顔領域のマッチング処理を行う場合について説明する。
第2の実施形態に係る情報処理システムは、図2に示した第1の実施形態に係る情報処理システムS2と同様であり、同一の符号を付け、各機能部において異なる部分を中心に説明する。
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
第2の実施形態では、衣服領域のマッチング処理の後に顔領域のマッチング処理を行う場合について説明する。
第2の実施形態に係る情報処理システムは、図2に示した第1の実施形態に係る情報処理システムS2と同様であり、同一の符号を付け、各機能部において異なる部分を中心に説明する。
マッチング部35は、第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量とに基づいて、衣服領域画像における類似度を特徴量ごとに計算する。また、マッチング部35は、第1顔領域画像における各特徴量と第2顔領域画像における各特徴量とに基づいて、顔領域画像における類似度を特徴量ごとに計算する。そして、マッチング部35は、特徴量ごとに計算した衣服領域画像における類似度、および、特徴量ごとに計算した顔領域画像における類似度の両方に基づいて、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像との類似度を表す衣服領域画像のスコアおよび顔領域画像のスコアを計算する。そして、マッチング部35は、計算した衣服領域画像のスコアと顔領域画像のスコアとの両方に基づいて、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが同一の人物による人物画像か否かをそれぞれ判定する。
マッチング部35は、衣服領域画像および顔領域画像の両方において同一の人物による人物画像(同一人物画像)であると判定した場合、当該同一の人物による人物画像であることを表す判定結果を効果計算部36に出力する。一方、衣服領域画像または顔領域画像のうちいずれか一方において別人による人物画像であると判定した場合、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが別人による人物画像であると判定する。
そして、マッチング部35は、対象特徴量とした第1画像に関する情報に含まれる人物画像の数と対象特徴量とした第2画像に関する情報に含まれる人物画像の数とを、対象画像数として効果計算部36に出力する。
そして、マッチング部35は、対象特徴量とした第1画像に関する情報に含まれる人物画像の数と対象特徴量とした第2画像に関する情報に含まれる人物画像の数とを、対象画像数として効果計算部36に出力する。
効果計算部36は、顔領域画像と衣服領域画像とが第1画像に関する情報と第2画像に関する情報とで共に同一の人物による人物画像であると判定された判定結果に基づいて、閲覧存在人数を計算する。
図11は、第2の実施形態に係る情報処理装置3の顔領域画像および衣服領域画像のマッチング処理の一例を示すフローチャートである。
ステップST301において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2衣服領域画像を取得する。
ステップST302において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST302Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST301において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2衣服領域画像を取得する。
ステップST302において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST302Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST303において、マッチング部35は、第1衣服領域画像と第2衣服領域画像とのそれぞれの類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST304に進む。
一方、ステップST303において、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST311において別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST304において、マッチング部35は、衣服領域画像のカラーヒストグラム類似度と衣服領域画像のMCSH類似度と衣服領域画像の局所特徴量類似度とから、衣服領域画像のスコアを計算する。
ステップST305において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Y1より大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Y1より大きい場合、ステップST306に進む。一方、衣服領域画像のスコアが任意の閾値Y1以下である場合、ステップST311に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST305において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Y1より大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Y1より大きい場合、ステップST306に進む。一方、衣服領域画像のスコアが任意の閾値Y1以下である場合、ステップST311に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST306において、第1検出部31は、第1画像に関する情報に含まれる第1顔領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2顔領域画像を取得する。
ステップST307において、第1特徴量算出部31Aは、第1顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST307において、第1特徴量算出部31Aは、第1顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST308Aにおいて、マッチング部35は、第1顔領域画像と第2顔領域画像とにおける各特徴量の類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST308Bに進む。
一方、ステップST308Aにおいて、マッチング部35は、第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST311において別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST308Bにおいて、マッチング部35は、計算した顔領域画像の各特徴量の類似度に基づいて顔領域画像のスコアを計算する。具体的には、マッチング部35は、顔領域画像のカラーヒストグラム類似度と顔領域画像のMCSH類似度と顔領域画像の局所特徴量類似度とから、顔領域画像のスコアを計算する。
ステップST309において、マッチング部35は、計算した顔領域画像のスコアが任意の閾値Y2より大きいか否かを判定する。顔領域画像のスコアが任意の閾値Y2より大きい場合、ステップST310において同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、顔領域画像のスコアが任意の閾値Y2以下である場合、ステップST311において別人による人物画像であると判定し、類似度判定処理を終了する。
なお、ステップST303における任意の閾値X1、X2、X3のそれぞれは異なる値の閾値である。また、ステップST308Aにおける任意の閾値X1、X2、X3のそれぞれは異なる値の閾値である。また、ステップST303における任意の閾値X1、X2、X3とステップST308Aにおける任意の閾値X1、X2、X3とは、それぞれ異なる値の閾値である。
なお、ステップST303における任意の閾値X1、X2、X3のそれぞれは、図9のステップST103における任意の閾値X1、X2、X3のそれぞれと同じ値の閾値であってもよい。また、ステップST308Aにおける任意の閾値X1、X2、X3のそれぞれは、図10のステップST203Aにおける任意の閾値X1、X2、X3のそれぞれと同じ値の閾値であってもよい。
なお、ステップST305における任意の閾値Y1とステップST309における任意の閾値Y2とは、異なる値の閾値である。また、ステップST305における任意の閾値Y1は、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。また、ステップST309における任意の閾値Y2は、図10のステップST204における任意の閾値Yと同じ値の閾値であってもよい。
なお、ステップST303における任意の閾値X1、X2、X3のそれぞれは、図9のステップST103における任意の閾値X1、X2、X3のそれぞれと同じ値の閾値であってもよい。また、ステップST308Aにおける任意の閾値X1、X2、X3のそれぞれは、図10のステップST203Aにおける任意の閾値X1、X2、X3のそれぞれと同じ値の閾値であってもよい。
なお、ステップST305における任意の閾値Y1とステップST309における任意の閾値Y2とは、異なる値の閾値である。また、ステップST305における任意の閾値Y1は、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。また、ステップST309における任意の閾値Y2は、図10のステップST204における任意の閾値Yと同じ値の閾値であってもよい。
このように、本実施形態によれば、情報処理装置3は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部(第1検出部31)と、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部(第2検出部33)と、第1取得部(第1検出部31)が取得した第1画像に関する情報と第2取得部(第2検出部33)が取得した第2画像に関する情報との類似度を判定する類似判定部(マッチング部35)と、を備える。
これにより、広告媒体に掲示された広告を閲覧したときに撮影された人の画像と広告に関連する場所、例えば、店舗への入店、広告媒体に掲示された商品の前などで撮影された人の画像との類似度から、これら二つの画像内に映る人が同一人物であるか否かを判定することができ、広告による広告効果を測定することができる。
(第3の実施形態)
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
第3の実施形態では、顔領域のマッチング処理の後に衣服領域のマッチング処理を行う場合について説明する。
第3の実施形態に係る情報処理システムは、第2の実施形態に係る情報処理システムと同様であるので説明は省略する。
以下、図面を参照しながら本発明の第3の実施形態について詳しく説明する。
第3の実施形態では、顔領域のマッチング処理の後に衣服領域のマッチング処理を行う場合について説明する。
第3の実施形態に係る情報処理システムは、第2の実施形態に係る情報処理システムと同様であるので説明は省略する。
図12は、第3の実施形態に係る情報処理装置3の顔領域画像および衣服領域画像のマッチング処理の一例を示すフローチャートである。
ステップST401において、第1検出部31は、第1画像に関する情報に含まれる第1顔領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2顔領域画像を取得する。
ステップST402において、第1特徴量算出部31Aは、第1顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST401において、第1検出部31は、第1画像に関する情報に含まれる第1顔領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2顔領域画像を取得する。
ステップST402において、第1特徴量算出部31Aは、第1顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2顔領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST403において、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1顔領域画像における各特徴量と第2顔領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST403Aにおいて、マッチング部35は、第1顔領域画像と第2顔領域画像とにおける各特徴量の類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量とから計算したMCAH類似度が任意の閾値X2より大きい場合、かつ、第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST403Bに進む。
一方、ステップST403Aにおいて、マッチング部35は、第1顔領域画像のカラーヒストグラム特徴量と第2顔領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1顔領域画像のMCSH特徴量と第2顔領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1顔領域画像の局所特徴量と第2顔領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST411において別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST403Bにおいて、マッチング部35は、計算した顔領域画像の各特徴量の類似度に基づいて、スコアを計算する。具体的には、マッチング部35は、顔領域画像のカラーヒストグラム類似度と顔領域画像のMCSH類似度と顔領域画像の局所特徴量類似度とから、顔領域画像のスコアを計算する。
ステップST404において、マッチング部35は、計算した顔領域画像のスコアが任意の閾値Y1より大きいか否かを判定する。顔領域画像のスコアが任意の閾値Y1より大きい場合、ステップST405に進む。一方、顔領域画像のスコアが任意の閾値Y1以下である場合、ステップST411において別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST404において、マッチング部35は、計算した顔領域画像のスコアが任意の閾値Y1より大きいか否かを判定する。顔領域画像のスコアが任意の閾値Y1より大きい場合、ステップST405に進む。一方、顔領域画像のスコアが任意の閾値Y1以下である場合、ステップST411において別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST405において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる第2衣服領域画像を取得する。
ステップST406において、第1検出部31は、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2検出部33は、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST406Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST406において、第1検出部31は、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2検出部33は、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST406Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST407において、マッチング部35は、第1衣服領域画像と第2衣服領域画像とのそれぞれの類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST408に進む。
一方、ステップST407において、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST411において、別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST408において、マッチング部35は、衣服領域画像のカラーヒストグラム類似度と衣服領域画像のMCSH類似度と衣服領域画像の局所特徴量類似度とから、衣服領域画像のスコアを計算する。
ステップST409において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Y2より大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Y2以下である場合、ステップST411に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、類似度判定処理を終了する。一方、衣服領域画像のスコアが任意の閾値Y2より大きい場合、ステップST410に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。
ステップST409において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Y2より大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Y2以下である場合、ステップST411に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、類似度判定処理を終了する。一方、衣服領域画像のスコアが任意の閾値Y2より大きい場合、ステップST410に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。
なお、ステップST403Aにおける任意の閾値X1、X2、X3のそれぞれは異なる値の閾値である。また、ステップST407における任意の閾値X1、X2、X3のそれぞれは異なる値の閾値である。また、ステップST403Aにおける任意の閾値X1、X2、X3とステップST407における任意の閾値X1、X2、X3とは、それぞれ異なる値の閾値である。
なお、ステップST403Aにおける任意の閾値X1、X2、X3のそれぞれは、図11のステップST308Aにおける任意の閾値X1、X2、X3のそれぞれと、図10のステップST203Aにおける任意の閾値X1、X2、X3のそれぞれと、同じ値の閾値であってもよい。また、ステップST407における任意の閾値X1、X2、X3のそれぞれは、図9のステップST103における任意の閾値X1、X2、X3のそれぞれと、図11のステップST303における任意の閾値X1、X2、X3のそれぞれと、同じ値の閾値であってもよい。
なお、ステップST403Aにおける任意の閾値X1、X2、X3のそれぞれは、図11のステップST308Aにおける任意の閾値X1、X2、X3のそれぞれと、図10のステップST203Aにおける任意の閾値X1、X2、X3のそれぞれと、同じ値の閾値であってもよい。また、ステップST407における任意の閾値X1、X2、X3のそれぞれは、図9のステップST103における任意の閾値X1、X2、X3のそれぞれと、図11のステップST303における任意の閾値X1、X2、X3のそれぞれと、同じ値の閾値であってもよい。
なお、ステップST404における任意の閾値Y1とステップST409における任意の閾値Y2とは、異なる値の閾値である。
なお、ステップST404における任意の閾値Y1は、図11のステップST309における任意の閾値Y2、図10のステップST204における任意の閾値Yと同じ値の閾値であってもよい。また、ステップST409における任意の閾値Y2は、図11のステップST305における任意の閾値Y1、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。
なお、ステップST404における任意の閾値Y1は、図11のステップST309における任意の閾値Y2、図10のステップST204における任意の閾値Yと同じ値の閾値であってもよい。また、ステップST409における任意の閾値Y2は、図11のステップST305における任意の閾値Y1、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。
このように、本実施形態によれば、情報処理装置3は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部(第1検出部31)と、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部(第2検出部33)と、第1取得部(第1検出部31)が取得した第1画像に関する情報と第2取得部(第2検出部33)が取得した第2画像に関する情報との類似度を判定する類似判定部(マッチング部35)と、を備える。
これにより、広告媒体に掲示された広告を閲覧したときに撮影された人の画像と広告に関連する場所、例えば、店舗への入店、広告媒体に掲示された商品の前などで撮影された人の画像との類似度から、これら二つの画像内に映る人が同一人物であるか否かを判定することができ、広告による広告効果を測定することができる。
(第4の実施形態)
以下、図面を参照しながら本発明の第4の実施形態について詳しく説明する。
第4の実施形態では、第1画像取得時間と第2画像取得時間との時間差分を利用したマッチング処理を行う場合について説明する。
第4の実施形態に係る情報処理システムは、図2に示した第1の実施形態に係る情報処理システムS2と同様であり、同一の符号を付け、各機能部において異なる部分を中心に説明する。
以下、図面を参照しながら本発明の第4の実施形態について詳しく説明する。
第4の実施形態では、第1画像取得時間と第2画像取得時間との時間差分を利用したマッチング処理を行う場合について説明する。
第4の実施形態に係る情報処理システムは、図2に示した第1の実施形態に係る情報処理システムS2と同様であり、同一の符号を付け、各機能部において異なる部分を中心に説明する。
第1検出部31は、第1画像記憶部12から第1画像に関する情報とともに第1計測装置1が第1画像に関する情報を生成したときの時間を読み出し、第1顔領域画像と第1衣服領域顔像を生成する。第1検出部31は、生成した第1顔領域画像と第1衣服領域画像と第1画像取得時間とを第1特徴量算出部31Aに出力する。
第1特徴量算出部31Aは、第1顔領域特徴量または第1衣服領域特徴量のうち少なくとも一方を計算する。そして、第1特徴量算出部31Aは、計算した第1顔領域特徴量または第1衣服領域特徴量と第1画像取得時間とを対応付けて第1記憶部32に記憶させる。
第1特徴量算出部31Aは、第1顔領域特徴量または第1衣服領域特徴量のうち少なくとも一方を計算する。そして、第1特徴量算出部31Aは、計算した第1顔領域特徴量または第1衣服領域特徴量と第1画像取得時間とを対応付けて第1記憶部32に記憶させる。
第2検出部33は、第2画像記憶部22から第2画像に関する情報とともに第2計測装置2が第2画像に関する情報を生成したときの時間を読み出し、第2顔領域画像と第2衣服領域顔像を生成する。第2検出部33は、生成した第2顔領域画像と第2衣服領域画像と第2画像取得時間とを第2特徴量算出部33Aに出力する。
第2特徴量算出部33Aは、第2顔領域特徴量または第2衣服領域特徴量のうち少なくとも一方を計算する。そして、第2特徴量算出部33Aは、計算した第2顔領域特徴量または第2衣服領域特徴量と第1画像取得時間とを対応付けて第2記憶部34に記憶させる。
第2特徴量算出部33Aは、第2顔領域特徴量または第2衣服領域特徴量のうち少なくとも一方を計算する。そして、第2特徴量算出部33Aは、計算した第2顔領域特徴量または第2衣服領域特徴量と第1画像取得時間とを対応付けて第2記憶部34に記憶させる。
マッチング部35は、第1画像取得時間と当該第1画像取得時間より後の第2画像取得時間とに基づいて、第2画像取得時間から第1画像取得時間を減算した時間差を計算する。そして、マッチング部35は、計算した時間差が時間の閾値未満であるか否かを判定する。時間差が時間の閾値未満である場合、顔領域画像の類似度または衣領域画像の類似度を計算し、当該類似度に基づいて、第1画像に関する情報に含まれる人物画像と第2画像に関する情報に含まれる人物画像とが同一の人物による人物画像か否かを判定する。一方、時間差が時間の閾値以上である場合、別人による人物画像であると判定し、類似度判定処理を終了する。
図13は、第4の実施形態に係る情報処理装置3の衣服領域画像のマッチング処理の一例を示すフローチャートである。
ステップST501において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像および第1画像取得時間を取得する。また、第2検出部33は、当該第1画像取得時間より後の第2画像に関する情報に含まれる第2衣服領域画像および第2画像取得時間を取得する。
ステップST502において、マッチング部35は、第2画像取得時間から第1画像取得時間を減算した時間差が時間の閾値t未満であるか否かを判定する。減算した時間が閾値t未満である場合、ステップST504に進む。一方、減算した時間が閾値t以上である場合、ステップST503に進み、別人による人物画像であると判定する。
ステップST501において、第1検出部31は、第1画像に関する情報に含まれる第1衣服領域画像および第1画像取得時間を取得する。また、第2検出部33は、当該第1画像取得時間より後の第2画像に関する情報に含まれる第2衣服領域画像および第2画像取得時間を取得する。
ステップST502において、マッチング部35は、第2画像取得時間から第1画像取得時間を減算した時間差が時間の閾値t未満であるか否かを判定する。減算した時間が閾値t未満である場合、ステップST504に進む。一方、減算した時間が閾値t以上である場合、ステップST503に進み、別人による人物画像であると判定する。
ステップST504において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST504Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST504Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST505において、マッチング部35は、第1衣服領域画像と第2衣服領域画像との類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST506に進む。
一方、ステップST505において、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST503に進み、別人による人物画像と判定し、類似度判定処理を終了する。
ステップST506において、マッチング部35は、計算した衣服領域画像の各特徴量の類似度に基づいて、スコアを計算する。具体的には、マッチング部35は、衣服領域画像のカラーヒストグラム類似度と衣服領域画像のMCSH類似度と衣服領域画像の局所特徴量類似度とから、衣服領域画像のスコアを計算する。
ステップST507において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Yより大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Yより大きい場合、ステップST508に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、衣服領域画像のスコアが任意の閾値Y以下である場合、ステップST503に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST507において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Yより大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Yより大きい場合、ステップST508に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、衣服領域画像のスコアが任意の閾値Y以下である場合、ステップST503に進み、第1衣服領域画像と第2衣服領域画像とが別人による人物画像であると判定し、類似度判定処理を終了する。
なお、ステップST505における任意の閾値X1、X2、X3のそれぞれは異なる値の閾値である。また、ステップST505における任意の閾値X1、X2、X3のそれぞれは、図12のステップST407における任意の閾値X1、X2、X3のそれぞれ、図9のステップST103における任意の閾値X1、X2、X3のそれぞれ、図11のステップST303における任意の閾値X1、X2、X3のそれぞれと、同じ値の閾値であってもよい。
なお、ステップST507の任意の閾値Yは、図12のステップST409における任意の閾値Y2、図11のステップST305における任意の閾値Y1、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。
なお、ステップST507の任意の閾値Yは、図12のステップST409における任意の閾値Y2、図11のステップST305における任意の閾値Y1、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。
なお、本実施形態において、第1衣服領域画像と第2衣服領域画像とにおける各特徴量の類似度を計算して同一の人物による人物画像か否かを判定したが、第1の実施形態のように第1顔領域画像と第2顔領域画像とにおける各特徴量の類似度を計算して同一の人物による人物画像か否かを判定してもよいし、第2の実施形態および第3の実施形態のように第1顔領域画像および第2顔領域画像と、第1衣服領域画像および第2衣服領域画像と、からそれぞれ各特徴量の類似度を計算して同一の人物による人物画像か否かを判定してもよい。
このように、本実施形態によれば、情報処理装置3は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部(第1検出部31)と、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部(第2検出部33)と、第1取得部(第1検出部31)が取得した第1画像に関する情報と第2取得部(第2検出部33)が取得した第2画像に関する情報との類似度を判定する類似判定部(マッチング部35)と、を備える。
これにより、広告媒体に掲示された広告を閲覧したときに撮影された人の画像と広告に関連する場所、例えば、店舗への入店、広告媒体に掲示された商品の前などで撮影された人の画像との類似度から、これら二つの画像内に映る人が同一人物であるか否かを判定することができ、広告による広告効果を測定することができる。また、時間差分を用いることにより、マッチング精度が向上でき、計算コストを減少させることができる。
(第5の実施形態)
以下、図面を参照しながら本発明の第5の実施形態について詳しく説明する。
第5の実施形態では、顔カテゴリーを用いてマッチング処理を行う場合について説明する。
第5の実施形態に係る情報処理システムは、図2に示した第1の実施形態に係る情報処理システムS2と同様であり、同一の符号を付け、各機能部において異なる部分を中心に説明する。
以下、図面を参照しながら本発明の第5の実施形態について詳しく説明する。
第5の実施形態では、顔カテゴリーを用いてマッチング処理を行う場合について説明する。
第5の実施形態に係る情報処理システムは、図2に示した第1の実施形態に係る情報処理システムS2と同様であり、同一の符号を付け、各機能部において異なる部分を中心に説明する。
第1特徴量算出部31Aは、第1顔領域画像における顔カテゴリーを、例えば、特開2012−203592号公報、特開2010−218060号公報などに記載の手段を用いて算出する。顔カテゴリーとは、例えば、メガネの有無、性別、年齢、地域、髭の有無、髪の長さなど顔を分類するカテゴリーである。そして、第1特徴量算出部31Aは、第1顔領域画像と第1衣服領域画像とのうち一方における各特徴量を計算し、計算した各特徴量と顔カテゴリーとを対応付けて第1記憶部32に記憶させる。
第2特徴量算出部33Aは、第2顔領域画像における顔カテゴリーを、例えば、特開2012−203592号公報、特開2010−218060号公報などに記載の手段を用いて算出する。そして、第2特徴量算出部33Aは、第2顔領域画像と第2衣服領域画像とのうち一方における各特徴量を計算し、計算した各特徴量と顔カテゴリーとを対応付けて第2記憶部34に記憶させる。
マッチング部35は、第1記憶部32および第2記憶部34から第1画像特徴量情報に対応付けられた顔カテゴリーを表す情報および第2画像特徴量に対応付けられた顔カテゴリーを表す情報を読み出し、当該顔カテゴリーが同一であるか否かを判定する。マッチング部35は、顔カテゴリーが同一であると判定した場合に、顔領域画像の各特徴量の類似度と衣服領域画像の各特徴量の類似度とのうち一方を計算する。そして、マッチング部35は、計算した顔領域画像の類似度と衣服領域画像の類似度とのうち一方に基づいて、スコアを計算する。
効果計算部36は、閲覧人数、存在人数、閲覧存在人数を顔カテゴリーごとに計算する。また、効果計算部36は、顔カテゴリーごとに計算した閲覧人数、存在人数、閲覧存在人数に基づいて、顔カテゴリーごとの閲覧非存在人数を計算する。そして、効果計算部36は、顔カテゴリーごとの閲覧存在率を計算し、効果記憶部37に記憶させる。
なお、本実施形態において、効果計算部36は、顔カテゴリーごとではなく、第1の実施形態から第4の実施形態のように、広告効果を計算してもよい。
なお、本実施形態において、効果計算部36は、顔カテゴリーごとではなく、第1の実施形態から第4の実施形態のように、広告効果を計算してもよい。
図14は、第5の実施形態に係る情報処理装置3の顔カテゴリーを利用した顔領域画像および衣服領域画像のマッチング処理の一例を示すフローチャートである。
ステップST601において、第1検出部31は、第1画像に関する情報に含まれる人物画像として第1顔領域画像および第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる人物画像として第2顔領域画像および第2衣服領域画像を取得する。
ステップST602において、第1特徴量算出部31Aは、第1顔領域画像の顔カテゴリーを、例えば、特開2012−203592号公報、特開2010−218060号公報などに記載の手段などを用いて計算する。また、第2特徴量算出部33Aは、第2顔領域画像の顔カテゴリーを、例えば、特開2012−203592号公報、特開2010−218060号公報などに記載の手段などを用いて計算する。
ステップST601において、第1検出部31は、第1画像に関する情報に含まれる人物画像として第1顔領域画像および第1衣服領域画像を取得する。また、第2検出部33は、第2画像に関する情報に含まれる人物画像として第2顔領域画像および第2衣服領域画像を取得する。
ステップST602において、第1特徴量算出部31Aは、第1顔領域画像の顔カテゴリーを、例えば、特開2012−203592号公報、特開2010−218060号公報などに記載の手段などを用いて計算する。また、第2特徴量算出部33Aは、第2顔領域画像の顔カテゴリーを、例えば、特開2012−203592号公報、特開2010−218060号公報などに記載の手段などを用いて計算する。
ステップST603において、マッチング部35は、第1顔領域画像の顔カテゴリーと第2顔領域画像の顔カテゴリーとが同一であるか否かを判定する。顔カテゴリーが同一でない場合、ステップST604において別人による人物画像であると判定し、類似度判定処理を終了する。一方、顔カテゴリーが同一である場合、ステップST605に進む。
ステップST605において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST605Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST605において、第1特徴量算出部31Aは、第1衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。第2特徴量算出部33Aは、第2衣服領域画像におけるカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のそれぞれの特徴量を計算する。
ステップST605Aにおいて、マッチング部35は、第1特徴量算出部31Aおよび第2特徴量算出部33Aが計算した第1衣服領域画像における各特徴量と第2衣服領域画像における各特徴量との類似度をそれぞれ計算する。
ステップST606において、マッチング部35は、第1衣服領域画像と第2衣服領域画像との類似度が任意の閾値より大きいか否かを判定する。具体的には、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1より大きい場合、かつ、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2より大きい場合、かつ、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3より大きい場合、ステップST607に進む。
一方、ステップST606において、マッチング部35は、第1衣服領域画像のカラーヒストグラム特徴量と第2衣服領域画像のカラーヒストグラム特徴量とから計算したカラーヒストグラム類似度が任意の閾値X1以下である場合、または、第1衣服領域画像のMCSH特徴量と第2衣服領域画像のMCSH特徴量とから計算したMCSH類似度が任意の閾値X2以下である場合、または、第1衣服領域画像の局所特徴量と第2衣服領域画像の局所特徴量とから計算した局所特徴量類似度が任意の閾値X3以下である場合、ステップST604に進み、別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST607において、マッチング部35は、計算したカラーヒストグラム類似度とMCSH類似度と衣服領域画像の局所特徴量類似度とから、衣服領域画像のスコアを計算する。
ステップST608において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Yより大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Yより大きい場合、ステップST609に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、衣服領域画像のスコアが任意の閾値Y以下である場合、ステップST604に進み、別人による人物画像であると判定し、類似度判定処理を終了する。
ステップST608において、マッチング部35は、計算した衣服領域画像のスコアが任意の閾値Yより大きいか否かを判定する。衣服領域画像のスコアが任意の閾値Yより大きい場合、ステップST609に進み、同一の人物による人物画像であると判定し、類似度判定処理を終了する。一方、衣服領域画像のスコアが任意の閾値Y以下である場合、ステップST604に進み、別人による人物画像であると判定し、類似度判定処理を終了する。
なお、ステップST606における任意の閾値X1、X2、X3のそれぞれは異なる値の閾値である。また、ステップST606における任意の閾値X1、X2、X3のそれぞれは、図13のステップST505における任意の閾値X1、X2、X3のそれぞれ、図12のステップST407における任意の閾値X1、X2、X3のそれぞれ、図11のステップST303における任意の閾値X1、X2、X3のそれぞれ、図9のステップST103における任意の閾値X1、X2、X3のそれぞれと、同じ値の閾値であってもよい。
なお、ステップST608の任意の閾値Yは、図13のステップST507における任意の閾値Y、図12のステップST409における任意の閾値Y2、図11のステップST305における任意の閾値Y1、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。
なお、ステップST608の任意の閾値Yは、図13のステップST507における任意の閾値Y、図12のステップST409における任意の閾値Y2、図11のステップST305における任意の閾値Y1、図9のステップST105における任意の閾値Yと同じ値の閾値であってもよい。
なお、本実施形態において、ステップST602において顔カテゴリーを計算した後に第1衣服領域画像と第2衣服領域画像とにおける各特徴量の類似度を計算して同一の人物による人物画像か否かを判定したが、第1の実施形態のように第1顔領域画像と第2顔領域画像とにおける各特徴量の類似度を計算して同一の人物による人物画像か否かを判定してもよいし、第2の実施形態および第3の実施形態のように第1顔領域画像および第2顔領域画像と、第1衣服領域画像および第2衣服領域画像と、からそれぞれ各特徴量の類似度を計算して同一の人物による人物画像か否かを判定してもよい。
このように、本実施形態によれば、情報処理装置3は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部(第1検出部31)と、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部(第2検出部33)と、第1取得部(第1検出部31)が取得した第1画像に関する情報と第2取得部(第2検出部33)が取得した第2画像に関する情報との類似度を判定する類似判定部(マッチング部35)と、を備える。
これにより、広告媒体に掲示された広告を閲覧したときに撮影された人の画像と広告に関連する場所、例えば、店舗への入店、広告媒体に掲示された商品の前などで撮影された人の画像との類似度から、これら二つの画像内に映る人が同一人物であるか否かを判定することができ、広告による広告効果を測定することができる。また、顔カテゴリーを利用することで、マッチング精度を向上させることができ、計算コストを減少させることができる。また、年齢、性別などの顔カテゴリーごとに広告効果を測定でき、マーケティングなどに利用することができる。
なお、上述した各実施形態において、顔領域画像と衣服領域画像との切り出しを情報処理装置3で行うと説明したが、第1計測装置1および第2計測装置2において、顔領域画像と衣服領域画像との切り出しを行ってもよい。また、第5の実施形態に係る顔カテゴリーの判定処理と第4の実施形態に係る画像取得時間差分の閾値判定処理とを組み合わせて同一の人物による人物画像か否かを判定してもよい。
なお、上述した各実施形態において、第1撮像部11は、人物画像を含まない背景画像を、撮像レンズを介して撮像素子上に結像させることで第1背景画像情報を生成し、当該第1背景画像情報を第1画像記憶部12に記憶させてもよい。当該第1背景画像情報は、時間ごと、天気ごとに撮影してもよい。第1画像に関する情報に背景画像が含まれる場合、第1検出部31は、第1画像に関する情報と予め取得した背景画像を表す第1背景画像情報との差分を算出し、背景画像を含まない第1画像に関する情報を生成すればよく、当該第1画像に関する情報から第1顔領域画像と、第1衣服領域画像と、を生成すればよい。
また、上述した各実施形態において、第2撮像部21は、人物画像を含まない背景画像を、撮像レンズを介して撮像素子上に結像させることで第2背景画像情報を生成し、当該第2背景画像情報を第2画像記憶部22に記憶させてもよい。当該第2背景画像情報は、時間ごと、天気ごとに撮影してもよい。第2画像に関する情報に背景画像が含まれる場合、第2検出部33は、第2画像に関する情報と予め取得した背景画像を表す第2背景画像情報との差分を算出し、背景画像を含まない第2画像に関する情報を生成すればよく、当該第2画像に関する情報から第2顔領域画像と、第2衣服領域画像と、を生成すればよい。
また、上述した各実施形態において、第1検出部31は、顔を含むように矩形に切り出す代わりに、顎と額とを含むサイズで顔領域の画像を矩形に切り出し、第1顔領域画像を生成してもよい。また、第1検出部31は、第1衣服領域画像を第1顔領域画像の一部、例えば、下端などを含むように第1衣服領域画像を生成してもよい。
また、上述した各実施形態において、第2検出部33は、顔を含むように矩形に切り出す代わりに、顎と額とを含むサイズで顔領域の画像を矩形に切り出し、第2顔領域画像を生成してもよい。また、第2検出部33は、第2衣服領域画像を第2顔領域画像の一部、例えば、下端などを含むように第2衣服領域画像を生成してもよい。
また、上述した各実施形態において、第2検出部33は、顔を含むように矩形に切り出す代わりに、顎と額とを含むサイズで顔領域の画像を矩形に切り出し、第2顔領域画像を生成してもよい。また、第2検出部33は、第2衣服領域画像を第2顔領域画像の一部、例えば、下端などを含むように第2衣服領域画像を生成してもよい。
また、上述した各実施形態において、第1特徴量算出部31Aは、第1顔領域特徴量としてカラーヒストグラム特徴量とMCSH特徴量と局所特徴量とをそれぞれ計算すると説明したが、カラーヒストグラム特徴量、MCSH特徴量、局所特徴量のうち、少なくとも一種類の特徴量を第1顔領域特徴量として計算してもよい。また、第1特徴量算出部31Aは、第1衣服領域特徴量としてカラーヒストグラム特徴量とMCSH特徴量と局所特徴量とをそれぞれ計算すると説明したが、カラーヒストグラム特徴量、MCSH特徴量、局所特徴量のうち、少なくとも一種類の特徴量を第1衣服領域特徴量として計算してもよい。
また、上述した各実施形態において、第2特徴量算出部33Aは、第2顔領域特徴量としてカラーヒストグラム特徴量とMCSH特徴量と局所特徴量とをそれぞれ計算すると説明したがカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のうち、少なくとも一種類の特徴量を第2顔領域特徴量として計算してもよい。また、第2特徴量算出部33Aは、第2衣服領域特徴量としてカラーヒストグラム特徴量とMCSH特徴量と局所特徴量とをそれぞれ計算すると説明したがカラーヒストグラム特徴量、MCSH特徴量、局所特徴量のうち、少なくとも一種類の特徴量を第2衣服領域特徴量として計算してもよい。
また、上述した各実施形態において、顔領域画像または衣服領域画像の特徴量が一種類の特徴量で算出される場合、スコアを上述の式を用いずにマッチング部35が計算した類似度をそのままスコアとして計算してもよく、顔領域画像または衣服領域画像の特徴量が二種類の特徴量で算出される場合、上述の式において該当する特徴量の類似度にゼロを代入すればよく、顔領域画像または衣服領域画像の特徴量が四種類以上の特徴量から算出される場合、該当する特徴量に対する重み係数に特徴量の類似度を乗算する項を上述の式に追加すればよい。
また、上述した各実施形態において、第2撮像部21が撮影する範囲が予めわかっているとき、第2検出部33は、人物領域が店舗内の所定領域に存在するか否かを判定せずに、全ての人物領域が店舗内の所定領域に存在するとして以降の処理を行えばよい。この場合、第2検出部33は、HOG特徴量などを利用した人物領域検出手段を利用して人物領域を検出し、所定時間以上、人物領域が検出された場合、例えば、Haar−Like特徴量などを利用した顔領域検出手段を用いて顔領域を検出し、当該顔領域の画像を顔を含むように矩形に切り出し、第2顔領域画像を生成すればよい。
また、上述した各実施形態において、マッチング部35における第1所定時間と第2所定時間は、同一の時間であってもよいし、異なる時間であってもよく、第1計測装置1の設置位置と第2計測装置2設置位置との間の距離に応じて算出される時間に応じて第1所定時間と第2所定時間とを定めてもよいし、ある広告が広告媒体に掲示された時刻から別の広告に変わった時刻までの時間を第1所定時間とし、当該ある広告が広告媒体に掲示された時刻から当該別の広告に変わった時刻から所定時間後までの時間を第2所定時間としてもよい。
なお、上述した各実施形態における情報処理装置3の一部、または全部をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、情報処理装置3に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。
また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における情報処理装置3の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。情報処理装置3の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
(1)広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部と、広告に関連する予め定められた場所に存在する人物を撮影する第2画像に関する情報を取得する第2取得部と、第1取得部が取得した第1画像に関する情報と第2取得部が取得した第2画像に関する情報との類似度を判定する類似判定部と、を備えることを特徴とする情報処理装置。
(2)類似判定部は、第1画像に関する情報の特徴量と第2画像に関する情報の特徴量とに基づいて類似度を判定することを特徴とする(1)に記載の情報処理装置。
(3)第1画像に関する情報と第2画像に関する情報とには、互いに異なる場所で撮影された顔領域の画像または衣服領域の画像の少なくとも一方が人物画像として含まれ、類似判定部は、第1画像に関する情報に含まれる人物画像と、第2画像に関する情報に含まれる人物画像との類似度を判定することを特徴とする(1)または(2)に記載の情報処理装置。
(4)第1画像に関する情報と第2画像に関する情報とには、互いに異なる場所で撮影された顔領域の画像および衣服領域の画像が人物画像としてそれぞれ含まれ、第1画像に関する情報および第2画像に関する情報のそれぞれに含まれる衣服領域画像は、顔領域画像と同じ幅であることを特徴とする(1)から(3)のいずれか一項に記載の情報処理装置。
(5)第1画像に関する情報と第2画像に関する情報とには、それぞれ人物画像とが含まれ、第1取得部は、予め人物画像を含まない第1背景画像情報を取得し、第2取得部は、予め人物画像を含まない第2背景画像情報を取得し、類似判定部は、第1画像に関する情報と第1背景画像情報との差分である第1差分情報と、第2画像に関する情報と第2背景画像情報との差分である第2差分情報と、を生成し、生成した第1差分情報と第2差分情報との類似度を判定することを特徴とする(1)から(4)のいずれか一項に記載の情報処理装置。
(6)第1画像に関する情報と第2画像に関する情報とには、人物画像と、人物画像が撮影された時間情報がそれぞれ含まれ、類似判定部は、第1画像に関する情報に含まれる人物画像が撮影された時間情報と第2画像に関する情報に含まれる人物画像が撮影された時間情報との時間差分を算出し、当該時間差分が所定時間以下である場合、類似度を判定することを特徴とする(1)から(5)のいずれか一項に記載の情報処理装置。
(7)類似判定部は、類似度を判定するとき、第1画像に関する情報に含まれる人物画像をカテゴリー情報に基づいてカテゴリーに分類することで第1分類情報を生成し、第2画像に関する情報に含まれる人物画像をカテゴリー情報に基づいてカテゴリーに分類することで第2分類情報を生成し、第1分類情報と第2分類情報とが同一のカテゴリーである第1画像に関する情報と第2画像に関する情報との類似度を判定することを特徴とする(1)から(6)のいずれか一項に記載の情報処理装置。
(8)端末装置と情報処理装置とを備える情報処理システムであって、端末装置は、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を生成する第1計測部と、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を生成する第2計測部と、を備え、情報処理装置は、第1計測部が生成した第1画像に関する情報と第2計測部が生成した第2画像に関する情報との類似度を判定する類似判定部と、を備えることを特徴とする情報処理システム。
(9)類似判定部は、第1画像に関する情報の特徴量と第2画像に関する情報の特徴量とに基づいて類似度を判定することを特徴とする(8)に記載の情報処理システム。
(10)第1画像に関する情報と第2画像に関する情報とには、互いに異なる場所で撮影された顔領域画像または衣服領域画像の少なくとも一方が人物画像として含まれ、類似判定部は、第1画像に関する情報に含まれる人物画像と、第2画像に関する情報に含まれる人物画像との類似度を判定することを特徴とする(8)または(9)に記載の情報処理システム。
(11)第1画像に関する情報と第2画像に関する情報とには、互いに異なる場所で撮影された顔領域画像および衣服領域画像が人物画像としてそれぞれ含まれ、第1画像に関する情報および第2画像に関する情報のそれぞれに含まれる衣服領域画像は、顔領域画像と同じ幅であることを特徴とする(8)から(10)のいずれか一項に記載の情報処理システム。
(12)第1画像に関する情報と第2画像に関する情報とには、それぞれ人物画像が含まれ、第1計測部は、予め人物画像を含まない第1背景画像情報を生成し、第2計測部は、予め人物画像を含まない第2背景画像情報を生成し、類似判定部は、第1画像に関する情報と第1背景画像情報との差分である第1差分情報と、第2画像に関する情報と第2背景画像情報との差分である第2差分情報と、を生成し、生成した第1差分情報と第2差分情報との類似度を判定することを特徴とする(8)から(11)のいずれか一項に記載の情報処理システム。
(13)第1画像に関する情報と第2画像に関する情報とには、人物画像と、人物画像が撮影された時間情報がそれぞれ含まれ、類似判定部は、第1画像に関する情報に含まれる人物画像が撮影された時間情報と第2画像に関する情報に含まれる人物画像が撮影された時間情報との時間差分を算出し、当該時間差分が所定時間以下である場合、類似度を判定することを特徴とする(8)から(12)のいずれか一項に記載の情報処理システム。
(14)類似判定部は、類似度を判定するとき、第1画像に関する情報に含まれる人物画像をカテゴリー情報に基づいてカテゴリーに分類することで第1分類情報を生成し、第2画像に関する情報に含まれる人物画像をカテゴリー情報に基づいてカテゴリーに分類することで第2分類情報を生成し、第1分類情報と第2分類情報とが同一のカテゴリーである第1画像に関する情報と第2画像に関する情報との類似度を判定することを特徴とする(8)から(13)のいずれか一項に記載の情報処理システム。
(15)情報処理装置における情報処理方法であって、情報処理装置が広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1過程と、情報処理装置が広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2過程と、情報処理装置が第1過程において取得した第1画像に関する情報と第2過程において取得した第2画像に関する情報との類似度を判定する類似判定部と、を有することを特徴とする情報処理方法。
(16)情報処理装置のコンピュータに、広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1ステップと、広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2ステップと、第1ステップにおいて取得した第1画像に関する情報と第2ステップにおいて取得した第2画像に関する情報との類似度を判定する類似判定部と、を実行させるための情報処理プログラム。
S1・・・効果計測システム、S2・・・情報処理システム、S3・・・閲覧システム、1・・・第1計測装置、11・・・第1撮像部、12・・・第1画像記憶部、2・・・第2計測装置、21・・・第2撮像部、22・・・第2画像記憶部、3・・・情報処理装置、31・・・第1検出部、31A・・・第1特徴量算出部、32・・・第1記憶部、33・・・第2検出部、33A・・・第3特徴量算出部、34・・・第2記憶部、35・・・マッチング部、36・・・効果計算部、37・・・効果記憶部
Claims (16)
- 広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1取得部と、
前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2取得部と、
前記第1取得部が取得した前記第1画像に関する情報と前記第2取得部が取得した前記第2画像に関する情報との類似度を判定する類似判定部と、
を備えることを特徴とする情報処理装置。 - 前記類似判定部は、前記第1画像に関する情報の特徴量と前記第2画像に関する情報の特徴量とに基づいて類似度を判定すること
を特徴とする請求項1に記載の情報処理装置。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、互いに異なる場所で撮影された顔領域の画像または衣服領域の画像の少なくとも一方が人物画像として含まれ、
前記類似判定部は、前記第1画像に関する情報に含まれる人物画像と、前記第2画像に関する情報に含まれる人物画像との類似度を判定すること
を特徴とする請求項1または請求項2に記載の情報処理装置。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、互いに異なる場所で撮影された顔領域の画像および衣服領域の画像が人物画像としてそれぞれ含まれ、
前記第1画像に関する情報および前記第2画像に関する情報のそれぞれに含まれる前記衣服領域の画像は、前記顔領域の画像と同じ幅であること
を特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、それぞれ人物画像が含まれ、
前記第1取得部は、予め人物画像を含まない第1背景画像情報を取得し、
前記第2取得部は、予め人物画像を含まない第2背景画像情報を取得し、
前記類似判定部は、前記第1画像に関する情報と前記第1背景画像情報との差分である第1差分情報と、前記第2画像に関する情報と前記第2背景画像情報との差分である第2差分情報と、を生成し、生成した前記第1差分情報と前記第2差分情報との類似度を判定すること
を特徴とする請求項1から請求項4のいずれか一項に記載の情報処理装置。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、人物画像と、前記人物画像が撮影された時間情報がそれぞれ含まれ、
前記類似判定部は、前記第1画像に関する情報に含まれる前記人物画像が撮影された時間情報と前記第2画像に関する情報に含まれる前記人物画像が撮影された時間情報との時間差分を算出し、当該時間差分が所定時間以下である場合、類似度を判定すること
を特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置。 - 前記類似判定部は、前記類似度を判定するとき、前記第1画像に関する情報に含まれる人物画像をカテゴリー情報に基づいてカテゴリーに分類することで第1分類情報を生成し、前記第2画像に関する情報に含まれる人物画像を前記カテゴリー情報に基づいて前記カテゴリーに分類することで第2分類情報を生成し、前記第1分類情報と前記第2分類情報とが同一の前記カテゴリーである前記第1画像に関する情報と前記第2画像に関する情報との類似度を判定すること
を特徴とする請求項1から請求項6のいずれか一項に記載の情報処理装置。 - 端末装置と情報処理装置とを備える情報処理システムであって、
前記端末装置は、
広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を生成する第1計測部と、
前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を生成する第2計測部と、
を備え、
前記情報処理装置は、
前記第1計測部が生成した前記第1画像に関する情報と前記第2計測部が生成した前記第2画像に関する情報との類似度を判定する類似判定部と、
を備えることを特徴とする情報処理システム。 - 前記類似判定部は、前記第1画像に関する情報の特徴量と前記第2画像に関する情報の特徴量とに基づいて類似度を判定すること
を特徴とする請求項8に記載の情報処理システム。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、互いに異なる場所で撮影された顔領域の画像または衣服領域の画像の少なくとも一方が人物画像として含まれ、
前記類似判定部は、前記第1画像に関する情報に含まれる人物画像と、前記第2画像に関する情報に含まれる人物画像との類似度を判定すること
を特徴とする請求項8または請求項9に記載の情報処理システム。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、互いに異なる場所で撮影された顔領域の画像および衣服領域の画像が人物画像としてそれぞれ含まれ、
前記第1画像に関する情報および前記第2画像に関する情報のそれぞれに含まれる前記衣服領域の画像は、前記顔領域の画像と同じ幅であること
を特徴とする請求項8から請求項10のいずれか一項に記載の情報処理システム。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、それぞれ人物画像が含まれ、
前記第1計測部は、予め人物画像を含まない第1背景画像情報を生成し、
前記第2計測部は、予め人物画像を含まない第2背景画像情報を生成し、
前記類似判定部は、前記第1画像に関する情報と前記第1背景画像情報との差分である第1差分情報と、前記第2画像に関する情報と前記第2背景画像情報との差分である第2差分情報と、を生成し、生成した前記第1差分情報と前記第2差分情報との類似度を判定すること
を特徴とする請求項8から請求項11のいずれか一項に記載の情報処理システム。 - 前記第1画像に関する情報と前記第2画像に関する情報とには、人物画像と、前記人物画像が撮影された時間情報がそれぞれ含まれ、
前記類似判定部は、前記第1画像に関する情報に含まれる前記人物画像が撮影された時間情報と前記第2画像に関する情報に含まれる前記人物画像が撮影された時間情報との時間差分を算出し、当該時間差分が所定時間以下である場合、類似度を判定すること
を特徴とする請求項8から請求項12のいずれか一項に記載の情報処理システム。 - 前記類似判定部は、前記類似度を判定するとき、前記第1画像に関する情報に含まれる人物画像をカテゴリー情報に基づいてカテゴリーに分類することで第1分類情報を生成し、前記第2画像に関する情報に含まれる人物画像を前記カテゴリー情報に基づいて前記カテゴリーに分類することで第2分類情報を生成し、前記第1分類情報と前記第2分類情報とが同一の前記カテゴリーである前記第1画像に関する情報と前記第2画像に関する情報との類似度を判定すること
を特徴とする請求項8から請求項13のいずれか一項に記載の情報処理システム。 - 情報処理装置における情報処理方法であって、
前記情報処理装置が広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1過程と、
前記情報処理装置が前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2過程と、
前記情報処理装置が前記第1過程において取得した前記第1画像に関する情報と前記第2過程において取得した前記第2画像に関する情報との類似度を判定する類似判定部と、
を有することを特徴とする情報処理方法。 - 情報処理装置のコンピュータに、
広告媒体に掲示された広告を閲覧した人物を撮影した第1画像に関する情報を取得する第1ステップと、
前記広告に関連する予め定められた場所に存在する人物を撮影した第2画像に関する情報を取得する第2ステップと、
前記第1ステップにおいて取得した前記第1画像に関する情報と前記第2ステップにおいて取得した前記第2画像に関する情報との類似度を判定する類似判定部と、
を実行させるための情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013121280A JP2014238735A (ja) | 2013-06-07 | 2013-06-07 | 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013121280A JP2014238735A (ja) | 2013-06-07 | 2013-06-07 | 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014238735A true JP2014238735A (ja) | 2014-12-18 |
Family
ID=52135841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013121280A Pending JP2014238735A (ja) | 2013-06-07 | 2013-06-07 | 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014238735A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106665A (ja) * | 2016-12-22 | 2018-07-05 | クックパッド株式会社 | 端末装置、販売支援システム、及び販売方法 |
-
2013
- 2013-06-07 JP JP2013121280A patent/JP2014238735A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018106665A (ja) * | 2016-12-22 | 2018-07-05 | クックパッド株式会社 | 端末装置、販売支援システム、及び販売方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107909443B (zh) | 信息推送方法、装置及系统 | |
JP5224360B2 (ja) | 電子広告装置、電子広告方法及びプログラム | |
JP6148948B2 (ja) | 情報処理システム、情報処理方法および情報処理プログラム | |
CN109961472B (zh) | 3d热力图生成的方法、系统、存储介质及电子设备 | |
JP6075190B2 (ja) | 画像処理方法及び装置 | |
JP2014170314A (ja) | 情報処理システム、情報処理方法およびプログラム | |
WO2016139964A1 (ja) | 注目領域抽出装置および注目領域抽出方法 | |
Pham et al. | Efficient image splicing detection algorithm based on markov features | |
KR20200050091A (ko) | 바코드를 판독하는 방법 및 전자 장치 | |
CN103336938A (zh) | 一种基于一维条形码图像的识别方法 | |
JP5635716B1 (ja) | 広告効果測定システム、広告効果測定端末及び広告効果測定端末用プログラム、並びに、広告効果測定方法 | |
US20200026921A1 (en) | System, portable terminal device, server, program, and method for viewing confirmation | |
JP6325902B2 (ja) | 寸法計測方法、カメラ付き電子機器、および、カメラ付き電子機器用プログラム | |
US11281908B2 (en) | System, server, program, and method for confirming acquisition of target object | |
KR100777922B1 (ko) | 영상인식을 이용한 개인인증 및 전자서명 시스템 및 그방법 | |
US10915772B2 (en) | Apparatus and method for registering face pose for face recognition | |
JP7110738B2 (ja) | 情報処理装置、プログラム及び情報処理システム | |
JP2014238735A (ja) | 情報処理装置、情報処理システム、情報処理方法および情報処理プログラム | |
Yan et al. | Video quality assessment based on motion structure partition similarity of spatiotemporal slice images | |
JP2024026415A (ja) | 情報処理装置及び方法並びにプログラム | |
US20230360098A1 (en) | Methods and systems for providing information about a location with image analysis | |
JP6171660B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
JP2016045742A (ja) | 情報処理装置およびプログラム | |
WO2015194232A1 (ja) | 広告効果測定システム、広告効果測定端末及び広告効果測定端末用プログラム、並びに、広告効果測定方法 | |
CN114387648A (zh) | 异常图像检测方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150518 |