JP2017130061A - 画像処理システム、画像処理方法およびプログラム - Google Patents
画像処理システム、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2017130061A JP2017130061A JP2016009137A JP2016009137A JP2017130061A JP 2017130061 A JP2017130061 A JP 2017130061A JP 2016009137 A JP2016009137 A JP 2016009137A JP 2016009137 A JP2016009137 A JP 2016009137A JP 2017130061 A JP2017130061 A JP 2017130061A
- Authority
- JP
- Japan
- Prior art keywords
- image
- group
- unit
- condition
- store
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】撮像装置からの画像に基づく人物のグループの特定の精度を高める。【解決手段】画像処理システムは、第1領域を撮像して得られる第1画像および第1領域とは異なる第2領域を撮像して得られる第2画像のそれぞれから人物を検出する検出部313と、検出部313によって第1画像から検出された人物を第1条件にしたがいグループに分けると共に、検出部によって第2画像から検出された人物を第2条件にしたがいグループに分けるグループ化部314と、第1画像に係るグループと第2画像に係るグループとを比較する比較部315と、比較部315における比較結果に基づいてグループを再構成する再構成部322と、を備える。【選択図】図2
Description
本発明は、画像処理システム、画像処理方法およびプログラムに関する。
近年、ネットワークカメラの映像を用いて人物のグループ特定を行うシステムが提案されている。例えば特許文献1に記載のシステムでは、飲食店や小売店の入口に設置したネットワークカメラ(以下、入口カメラと称す)の映像を画像処理をすることで、人物のグループ特定を実現している。特許文献1に記載のシステムは、まず入口カメラの映像を時系列で1枚ずつの画像フレームに分割する。次にシステムは、1枚の画像フレームごとに人物か否かを識別し、複数の画像フレームから移動する人物を追跡し、映像中の複数の人物を特定する。特定された人物の映像から人物の年齢および性別が特定される。この方法によって特定された複数の人物は、同時刻に入店した場合に1つのグループとして判断される。更に、POSレジスタ(販売実績を管理する機器)の売上データとして記録された購買品の数や、店員がハンディターミナルに入力した人数との比較により、グループ特定の精度を向上させる。グループ特定の結果は、例えば顧客満足度や売上および利益の向上を図る改善策を考える上で有益な情報となる。
特許文献1に記載の技術では、同一グループに所属する全ての人物は入口カメラの映像に同時に映り込むことを前提としている。この前提に基づき、特許文献1に記載のシステムは人物が映り込んだ時刻情報を利用してグループを特定している。しかしながら、同一グループに所属する全ての人物が一度に入店しない状況や、同時に複数のグループが入店した状況では、時刻情報を利用したグループ特定の精度は低下しうる。
あるいはまた、特許文献1に記載の技術では、入口カメラの映像の全ての画像フレームで人物の顔が鮮明に映り込むことを前提としている。この前提に基づき、特許文献1に記載のシステムは顔認識技術を利用してグループを特定している。しかしながら、映像中の人物が他の人物の影に隠れている状況や、下や横を向き顔が正面から撮影できない状況では、顔認識技術を利用したグループ特定の精度は低下しうる。
これらの状況の少なくともひとつが発生した場合はグループの特定に失敗する蓋然性が高く、システム全体でのグループ特定の精度が低下しうる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、撮像装置からの画像に基づく人物のグループの特定の精度を高めることができる技術の提供にある。
本発明のある態様は画像処理システムに関する。この画像処理システムは、第1領域を撮像して得られる第1画像および第1領域とは異なる第2領域を撮像して得られる第2画像のそれぞれから人物を検出する検出部と、検出部によって第1画像から検出された人物を第1条件にしたがいグループに分けると共に、検出部によって第2画像から検出された人物を第2条件にしたがいグループに分けるグループ化部と、第1画像に係るグループと第2画像に係るグループとを比較する比較部と、比較部における比較結果に基づいてグループを再構成する再構成部と、を備える。
本発明によれば、撮像装置からの画像に基づく人物のグループの特定の精度を高めることができる。
以下、図面を参照して本発明の実施の形態を説明する。ただし、本発明の実施の形態は以下の実施の形態に限定されるものではない。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
実施の形態に係る画像処理システムは、飲食店や小売店などの店舗に設置された撮像装置、例えば入口カメラ、店舗内に設置されたカメラ(以下、店内カメラと称す)、店舗の精算場所に設置されたカメラ、の映像を画像処理し、人物のグループの特定を行う。これにより、店舗の複数箇所に設置されたカメラの映像の処理結果を組み合わせることで、グループ特定の精度を向上させることができる。また、その精度の向上によって、より多様なマーケティング分析が可能となる。
図1は、ネットワークカメラの店内配置の一例を示す図である。図1は小売店101の平面図である。ここでは、全ての来店客が通過する入口109と、会計カウンタ110と、が1つずつある小売店101が想定される。小売店101には4台のネットワークカメラが設置されている。入口カメラ102は、入口109の付近に設置され、入口109から入店する来店客103の挙動を撮影することができる。入口カメラ102(第1撮像装置)は入口109(第1領域)を過不足なく撮像して入口画像(第1画像)を生成する。入口カメラ102の画角は来店客103の顔が明確に確認できるように設定される。入口カメラ102の撮影領域111は入口109を含む。なお、来店客103が入口カメラ102に向かう向きとは異なる向きを向く等の不都合な状況も発生し得る。主な来店客103の挙動は、入口カメラ102に向かって店外から店内に入店する、もしくは入口カメラ102に背を向け店内から店外に退店するもので、来店客103はおおむね一定速度で移動する。なお、入口カメラ102に加えてまたはその代わりに、退店する来店客を映すために入口カメラ102とは逆向きに向けられたカメラが入口109付近に設置されてもよい。
店内カメラ104、105は、店内112の様々な場所に設置され、陳列棚113の間を移動する来店客106の挙動を撮影することができる。店内カメラ104、105のそれぞれ(第2撮像装置)は店内112の領域(第2領域)を撮像して店内画像(第2画像)を生成する。店内カメラ104、105のそれぞれの画角は、来店客106の挙動の全体像が確認できるように設定される。なお、来店客106が陳列棚113の影に隠れる等の不都合な状況も発生し得る。主な来店客106の挙動は、店内112を移動する、もしくは立ち止まるもので、来店客106の移動方向や移動速度は様々である。
小売店101の精算場所である会計カウンタ110に設置されたカメラ(以下、レジカメラと称す)107は、会計カウンタ110の背面に設置され、会計時に店員が精算装置、例えばPOSレジスタを操作している最中に、来店客108の挙動を正面から撮影することができる。レジカメラ107は会計カウンタ110を撮像してカウンタ画像を生成する。レジカメラ107の画角は、会計カウンタ110を過不足なく映し来店客108の顔が明確に確認できるように設定される。なお、来店客108がレジカメラ107に向かう向きとは異なる向きを向く等の不都合な状況も発生し得る。主な来店客108の挙動は、会計カウンタ110に向かって近付く、会計のために立ち止まる、もしくは会計カウンタ110から立ち去るもので、来店客108は一定速度で移動するか、所定位置で静止する。
(第1の実施の形態)
図2は、第1の実施の形態に係る画像処理システム204のシステム構成図である。画像処理システム204は入口カメラ102と店内カメラ104、105、とに有線または無線により接続される。入口カメラ102は類似した特性を有するカメラ群であってもよい。店内カメラ104、105は、入口カメラ102とは異なる特性を有するカメラ群であってもよい。画像処理システム204は、入口カメラ102からの入口画像および店内カメラ104、105からの店内画像を入力とし、画像処理と人物のグループ特定とを行い、顧客属性とグループ情報とを持つ顧客データを生成し、顧客データ保持部331に格納する。画像処理システム204は、カメラ制御部311と、録画映像保持部312と、映像解析部321と、年齢性別条件保持部325と、行動条件保持部326と、顧客データ保持部331と、を備える。
図2は、第1の実施の形態に係る画像処理システム204のシステム構成図である。画像処理システム204は入口カメラ102と店内カメラ104、105、とに有線または無線により接続される。入口カメラ102は類似した特性を有するカメラ群であってもよい。店内カメラ104、105は、入口カメラ102とは異なる特性を有するカメラ群であってもよい。画像処理システム204は、入口カメラ102からの入口画像および店内カメラ104、105からの店内画像を入力とし、画像処理と人物のグループ特定とを行い、顧客属性とグループ情報とを持つ顧客データを生成し、顧客データ保持部331に格納する。画像処理システム204は、カメラ制御部311と、録画映像保持部312と、映像解析部321と、年齢性別条件保持部325と、行動条件保持部326と、顧客データ保持部331と、を備える。
カメラ制御部311は、入口カメラ102および店内カメラ104、105と接続され、それらのカメラを制御する。カメラ制御部311は、入口カメラ102からの映像および店内カメラ104、105からの映像を録画映像保持部312に格納する。
映像解析部321は、録画映像保持部312に保持される入口カメラ102からの映像および店内カメラ104、105からの映像を解析し、小売店101に来店した人物のグループを特定する。映像解析部321は、検出部313と、グループ化部314と、比較部315と、再構成部322と、算出部323と、更新部324と、を含む。
検出部313は、入口カメラ102からの映像および店内カメラ104、105からの映像を録画映像保持部312からカメラ制御部311を経由して取得する。検出部313は、取得された映像に含まれる入口画像および店内画像のそれぞれから、パターンマッチング等公知の人物検知技術を使用して人物を検出する。検出部313は、入口画像および店内画像のそれぞれから検出された人物の特徴量、例えば、顔特徴量を抽出する。検出部313は、入口画像および店内画像のそれぞれから検出された人物の年齢や性別などの属性を推定する。
グループ化部314は、検出部313によって入口画像から検出された人物を第1条件にしたがい仮グループに分ける。グループ化部314は、検出部313によって店内画像から検出された人物を第2条件にしたがい仮グループに分ける。より一般的にはグループ化部314は入口カメラ102、店内カメラ104、105などのカメラごとに人物の仮グループを推定する。ここで、第1条件と第2条件とは異なる。第1条件は小売店101の入口109に応じた条件であり、例えば人物の属性に関する条件である。第2条件は小売店101の店内112に応じた条件であり、例えば人物の移動方向や移動速度などの動きに関する条件である。より具体的には、グループ化部314は、グループ化のための年齢性別条件を保持する年齢性別条件保持部325を参照して、入口画像から検出された人物を仮グループに分ける。グループ化部314は、グループ化のための行動条件を保持する行動条件保持部326を参照して、店内画像から検出された人物を仮グループに分ける。
算出部323は、入口画像に係る仮グループの第1確度を入口に応じた第1計算式で算出する。算出部323は、店内画像に係る仮グループの第2確度を店内の領域に応じた第2計算式であって第1計算式とは異なる第2計算式で算出する。
比較部315は、入口画像に係る仮グループと店内画像に係る仮グループとを比較する。比較部315は、算出部323によって算出された第1確度および第2確度を比較に使用する。算出部323は、入口画像に係る仮グループのうち比較的高い第1確度を有する仮グループに含まれる人物の顔特徴量と、店内画像に係る仮グループのうち同程度に高い第2確度を有する仮グループに含まれる人物の顔特徴量とを比較する。顔特徴量の比較により、人物が同一であるか否かが判定される。
再構成部322は、比較部315における比較結果に基づいてグループを再構成する。再構成部322は、比較部315における顔特徴量の比較の結果を参照する。再構成部322は、該比較の結果、入口画像に係る仮グループに含まれる人物と店内画像に係る仮グループに含まれる人物とが同一人物であると判定される場合は、それらの仮グループを統合(merge)する。再構成部322は、統合されたグループを確定されたグループとして出力する。再構成部322は、確定されたグループに属する人物を除いて上記の確度算出および顔特徴量比較、グループ再構成を繰り返す。
更新部324は、年齢性別条件保持部325および行動条件保持部326を更新する。映像解析部321は、顧客属性とグループ情報とを持つ顧客データを生成し、顧客データ保持部331に格納する。顧客属性は、顔特徴量、年齢性別、顧客データ保持部331と比較して得られた来店頻度、最新来店日等の情報を持つデータである。
図3は、図2に示される画像処理システム204の各機能を実現するためのハードウエア構成を示すブロック図である。CPU201は、RAM202をワークメモリとして、ROM203や記憶部209に格納されたプログラムを実行し、システムバス208を介して、後述する構成を制御する。記憶部209は、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリなどであり、OSや、後述する画像処理を実現するプログラムを格納する。
汎用インタフェイス205は、例えばUSBなどのシリアルバスインタフェイスであり、マウスやキーボードなどの操作部211などが接続される。ビデオインタフェイス206は、HDMI(登録商標)やDisplayPort(商標)などのビデオインタフェイスであり、モニタ212が接続される。
ネットワークインタフェイス207は、有線または無線のネットワーク213と接続するためのインタフェイスである。ユーザ操作は、ネットワークインタフェイス207を介して行われてもよい。また、画像処理システム204が実行する各種処理のプログラムはネットワーク213上のサーバ装置から供給されてもよい。
入口カメラ102や店内カメラ104、105等であってもよいカメラ220は、汎用インタフェイス205を介して、コンピュータ機器である画像処理システム204に接続される。あるいは、カメラ220は、ネットワーク213およびネットワークインタフェイス207を介して画像処理システム204に接続されてもよい。
図4(a)〜(c)は、入口カメラ102の特性を説明するための図である。図4(a)、(b)はいずれも、入口カメラ102による撮像の結果得られる入口画像を示しており、これらの入口画像から年齢性別条件を利用したグループ推定が行われる。図4(a)はある時点での第1画像フレーム401を、図4(b)は図4(a)から数秒経過後の第2画像フレーム411を示している。図4(a)、(b)中のa1、a2、a3はグループA、b1、b2はグループBに属する人物を表している。
入口カメラ102は、全ての来店客が通過する入口109を過不足なく映し来店客の顔が明確に確認できるように設置されているため、入口カメラ102からの入口画像は顔認識から得られる顧客属性を利用したグループ推定に都合が良い。そのため、入口画像には年齢性別条件を利用したグループ推定の手法が適用される。
入口カメラ102の第1画像フレーム401には、一定速度で同一方向に移動する3人の来店客402が映り込んでいるが、入口109の外にいる2人の来店客403はまだ映り込んでいない。一定時間後の入口カメラ102の第2画像フレーム411には、先ほど外にいた2人の来店客412が映り込んでいるが、3人の来店客413は入口カメラ102の撮影領域を通過して映り込んでいない。
図4(c)は、映像の画像フレームと映り込んでいる人物との関係を時系列で示した模式図である。各画像フレーム間隔は1秒間とされている。一般に、小売店や飲食店では、1つのグループの人物はほぼ同時に入店する傾向がある。グループBは、第1画像フレーム401に全ての人物が映り込んでいるため、映像解析部321は1つの第1画像フレーム401を画像解析することでグループの推定が可能である。しかし、グループAのようにグループの人物が入店する時間に数秒間のずれが生じた場合、同じ画像フレームに映り込まない可能性がある。そのため、映像解析部321は、一定期間、例えば5秒間の画像フレームをまとめて画像フレーム群511〜514とし、各画像フレーム群を画像解析の対象と見なして処理を行う。画像フレーム群512、513にグループAの全ての人物が含まれるため、これらの画像フレーム群512、513を使用した場合にグループAの推定が可能となる。
入口カメラ102でのグループ推定の流れを説明する。図5は、図2の年齢性別条件保持部325の一例を示すデータ構造図である。年齢性別条件保持部325は、グループ属性と、該グループ属性が割り当てられる年齢・性別基準と、を対応付けて保持する。検出部313により、画像フレームに映る人物と、該人物の年齢・性別と、が取得される。このようにして取得された複数の人物の年齢・性別が年齢性別条件保持部325に保持される年齢・性別基準を満たす場合、該複数の人物は対応するグループ属性を有する仮グループに属すると決定される。図5では、グループ属性として家族連れ、カップル、友達、一人客(非グループ)の4種類の例が挙げられる。
検出部313による検出処理の結果、a1、a2、a3、b1、b2がそれぞれ、30代の男性、30代の女性、10歳未満の男性、20代の男性、20代の女性であると検出された場合を考える。図4(c)の画像フレーム群511〜514の全てについて、映り込む人物の組み合わせを列挙すると、{a1}、{a1,a2,a3,b1,b2}、{a1,b1,b2}、{a2,a3}、{a2,a3,b1,b2}の5つの組み合わせとなる。これらの組み合わせの中から比較的多く現れる組み合わせとして{a2,a3}と{b1,b2}とが抽出される。{a2,a3}の組み合わせは30代女性と10歳未満の男性、{b1,b2}の組み合わせは20代の男性と20代の女性であり、{b1,b2}の組み合わせがグループ属性「カップル」の年齢性別基準を満たす。この{b1,b2}をカップルと推定して仮グループとし、この人物2人をはじめに列挙した5つの組み合わせから除外すると、残りの組み合わせは{a1}、{a1,a2,a3}、{a2,a3}の3つの組み合わせである。{a1}と{a2,a3}とは該当するグループ属性がなく、{a1,a2,a3}はグループ属性「家族連れ」に該当する。この{a1,a2,a3}を家族連れと推定して仮グループとすると、全ての人物を仮グループに分けることができる。
上記のように推定された仮グループについて、算出部323は、グループ属性に応じた第1計算式によってグループらしさを示すグループ確度(第1確度)を計算し、仮グループに付与する。例えばファミリー向けの品揃えの店舗であれば、第1計算式において家族連れのグループに重みづけを行うことで、グループ特定の精度の向上を図ることができる。重みづけは手動で設定されてもよく、またはグループの来店頻度による自動のフィードバックで設定されてもよい。第1計算式は、グループ属性が家族連れであれば両親の年齢差が小さいほど点数が高くなるよう、また子供と両親との年齢差が20〜30歳に近いほど点数が高くなるように定義される。第1計算式は、グループ属性がカップルであれば10〜20歳でありかつ年齢差が小さいほど点数が高くなるように定義される。第1計算式は、グループ属性が友達であれば年齢差が小さいほど点数が高くなるように定義される。更新部324は精度向上のために、グループ化部314におけるグループ推定の結果を、年齢性別条件保持部325に保持される年齢性別条件のパラメータにフィードバックする。
図6(a)〜(d)は、店内カメラ104、105の特性を説明するための図である。図6(a)、(b)はいずれも、店内カメラ104による撮像の結果得られる店内画像を示しており、これらの店内画像から行動条件を利用したグループ推定が行われる。図6(a)はある時点での画像フレームに映り込んだ人物全員を1つのグループと推定した失敗例を、図6(b)は行動条件を利用して2つのグループと推定した成功例を示している。図中のa1、a2、a3はグループA、b1、b2はグループBに属する人物を表している。
店内カメラ104は、様々な方向へ様々な速度で移動する人物の全体像を明確に確認できるように設置されているため、店内カメラ104からの店内画像は公知の動体追尾技術から得られる動線を利用したグループ推定に都合が良い。そのため、店内画像には行動条件を利用したグループ推定の手法が適用される。
店内カメラ104からの店内画像の失敗例に係る映像解析結果701では、グループ分けを示す破線702によって示される通り、映り込んだ人物全員が1つのグループに属すると推定されている。これは、映像中の1つの画像フレームに映り込んだ人物全員を1つのグループに属すると仮定したためである。
店内カメラ104からの店内画像の成功例に係る映像解析結果711では、グループ分けを示す破線712、713によって示される通り、グループA、グループBの2つのグループとして推定されている。これは、グループ化部314が、映像中の複数の画像フレームを比較することで全ての人物の移動方向や移動速度714、715、人物間の距離716、717を算出し、類似する行動をしている複数の人物を1つのグループに属すると仮定したためである。
図6(c)、(d)は、類似性の高い行動を表す模式図である。図6(c)は人物a1、a2のそれぞれの移動方向と速度とを示す。人物a1のベクトルv1と人物a2のベクトルv2との類似度Sが大きいほど行動の類似性が高いと判定される。類似度Sは、ベクトルv1とベクトルv2とから計算されるコサイン類似度cosを使用して定義される。コサイン類似度cosは、v1とv2との内積を、v1のノルムとv2のノルムとの積で除算したものとして定義され、−1から1までの値を取る。類似度Sは以下の式で表される。
図6(d)は2人の人物間の距離Dを示す。人物a1と人物a2との間の相対距離Dが近いほど、行動の類似性が高いと判定される。グループ化部314は、これらの評価尺度を仮グループの人物全てに行い、平均値をもって仮グループでの評価尺度とする。
店内カメラ104、105でのグループ推定の流れを説明する。図7は、図2の行動条件保持部326の一例を示すデータ構造図である。行動条件保持部326は、グループ属性と、該グループ属性が割り当てられる行動基準と、を対応付けて保持する。グループ化部314による複数の画像フレームの解析により、画像フレームに写る人物の移動方向、速度および人物間の距離が取得される。このようにして取得された複数の人物の移動方向、速度および距離が行動条件保持部326に保持される行動基準を満たす場合、該複数の人物は対応するグループ属性を有する仮グループに属すると決定される。図7では図5と同じく、グループ属性として家族連れ、カップル、友達、一人客(非グループ)の4種類の例が挙げられる。なお、年齢性別条件保持部325におけるグループ属性と行動条件保持部326におけるグループ属性とは同じであってもよいし異なっていてもよい。行動条件保持部326に保持される行動基準は、対応するグループ属性のグループに属する人物について想定される行動に基づき定義される。例えば、家族連れとカップルと友達のグループは店内移動時に一緒に行動する(類似度の高い行動を取る)が、一人客は独立に行動する(類似度の低い行動を取る)。家族連れとカップルのグループは、人物間の距離が近い状態(手がつなげる程度の距離)で行動するが、友達のグループは一定の距離(会話ができる程度の距離)を保って行動する。人数については、家族連れは3人以上、カップルは2人組、友達は2人以上で構成される。
グループ化部314により行動条件保持部326を適用してグループ属性が設定された仮グループについて、算出部323はそれぞれのグループ属性に合わせた第2計算式を用いてグループ確度(第2確度)を計算し、仮グループに付与する。年齢性別条件と同様に、第2計算式においてグループに重みづけを行うことでグループ特定の精度の向上を図ることができる。重みづけは手動で設定されてもよく、または自動のフィードバックで設定されてもよい。第2計算式は、グループ属性が家族連れであれば、移動方向や速度が近くて人物間距離が近く、人数が3〜5人に近いほど高確度となるよう定義される。第2計算式は、グループ属性がカップルであれば、移動方向や速度が近くて人物間距離が近いほど高確度となるよう、かつ人数が2人の場合に限るよう定義される。第2計算式は、グループ属性が友達であれば、移動方向や速度が近く、一定の距離として2mに近いほど高確度となるよう、かつ2人以上の任意の人数でよいように定義される。更新部324は精度向上のために、グループ化部314におけるグループ推定の結果を、行動条件保持部326に保持される行動条件のパラメータにフィードバックする。
図8は、仮グループからグループを再構成する動作の模式図である。映像解析部321は、各カメラの仮グループからグループを確定する。入口カメラ102による仮グループ推定結果1101は、未確定の仮グループ1102(例えば仮グループA)やグループ化されなかった人物1103(例えば人物c2)を複数含む。店内カメラ104による仮グループ推定結果1111、店内カメラ105による仮グループ推定結果1121も同様に、仮グループとグループ化されなかった人物とを複数含む。仮グループ推定結果1101、1111、1121を合わせて未確定の仮グループ群とする。
映像解析部321は、各仮グループに付与されたグループ確度の点数(図8において仮グループの矩形に接続された円領域内の数字で示される)を用いて、仮グループから確定済みのグループ1132(例えばグループX)を順に得ていき、統廃合を繰り返すことで確定済みのグループ群1131を得る。映像解析部321は、まず、未確定の仮グループ群から最も高得点の仮グループ(仮グループF(90点))と次に高得点の仮グループ(仮グループA(80点))とを抽出する。映像解析部321は、これらの仮グループに属する人物の顔特徴量を比較して、同一人物が存在すればこれらの仮グループをマージし、存在しなければ独立したグループとする。図8の例では、仮グループAと仮グループFとに同一人物(人物a1、a2)が存在すると判定され、両仮グループが統合され、統合の結果人物a1、a2、a3からなる確定済みのグループXが再構成される。
映像解析部321は、確定済みのグループに属する人物を未確定の仮グループ群から除外し、更新された仮グループでグループ確度を再計算する。図8の例では、グループXに属する人物a1、a2、a3が未確定の仮グループ群から除かれた結果、仮グループDのグループ確度が25から50に更新される。また、仮グループCはグループではなくなる。映像解析部321は、更新された未確定の仮グループ群から、再び高得点の仮グループの抽出とマージを繰り返す。図8の例では、映像解析部321は、残存する未確定の仮グループから最も高得点の仮グループ(仮グループE(70点))と次に高得点の仮グループ(仮グループG(65点))とを抽出する。抽出された仮グループEと仮グループGとに同一人物(人物c1)が存在すると判定され、両仮グループが統合され、統合の結果人物c1、c2、c3からなる確定済みのグループZが再構成される。グループZに属する人物c1、c2、c3が未確定の仮グループ群から除かれた結果、仮グループBのグループ確度が30から60に更新される。映像解析部321は、残存する未確定の仮グループから最も高得点の仮グループ(仮グループB(60点))と次に高得点の仮グループ(仮グループD(50点))とを抽出する。抽出された仮グループBと仮グループDとに同一人物(人物b1、b2)が存在すると判定され、両仮グループが統合され、統合の結果人物b1、b2からなる確定済みのグループYが再構成される。映像解析部321は、未確定の仮グループ群に2人以上のグループが無くなったら処理を終了する。この時に残った未確定の仮グループ群の人物は、全て一人客とされる。
以上の構成による画像処理システム204の動作を説明する。
図9(a)は、画像処理システム204における一連の処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、1以上のプロセッサが対応するプログラム(ROM等に格納)を実行することにより実現される。図9(b)〜(e)はそれぞれ、図9(a)に示されるフローチャートのサブルーチンを示す。
図9(a)は、画像処理システム204における一連の処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、1以上のプロセッサが対応するプログラム(ROM等に格納)を実行することにより実現される。図9(b)〜(e)はそれぞれ、図9(a)に示されるフローチャートのサブルーチンを示す。
まず、ステップS1201では、映像解析部321は、入口カメラ102の映像解析を行うため、サブルーチンS1210(図9(b))を呼び出す。サブルーチンS1210のステップS1211では、検出部313は、録画映像保持部312から入口カメラ102の映像を取得する。ステップS1212では、検出部313は、入口カメラ102の映像全てに映った人物の顔特徴量(入口)と年齢性別とを抽出する。ステップS1213では、グループ化部314は、年齢性別条件保持部325から年齢性別条件を取得する。ステップS1214では、グループ化部314は、年齢性別条件から仮グループ(入口)を推定し、サブルーチン呼び出し元のステップS1202へ進む。
ステップS1202では、映像解析部321は、店内カメラ104、105の映像解析を行うため、サブルーチンS1220(図9(c))を呼び出す。サブルーチンS1220のステップS1221では、検出部313は、録画映像保持部312から店内カメラ104、105の映像を取得する。ステップS1222では、検出部313は、店内カメラ104、105の映像全てに映った人物の顔特徴量(店内)と年齢性別とを抽出する。ステップS1223では、グループ化部314は、行動条件保持部326から行動条件を取得する。ステップS1224では、グループ化部314は、行動条件から仮グループ(店内)を推定し、サブルーチン呼び出し元のステップS1203へ進む。
ステップS1203では、映像解析部321は、仮グループ(入口)と仮グループ(店内)を利用しグループを確定するため、サブルーチンS1230(図9(d))を呼び出す。サブルーチンS1230のステップS1231では、再構成部322は、未確定の仮グループ群から最も高得点の仮グループを抽出する。ステップS1232では、再構成部322は、未確定の仮グループ群から高得点の上位から順に仮グループを抽出する。ステップS1233では、再構成部322は、2つの仮グループに同一人物がいるか判断し、真ならばステップS1234へ進み、偽ならばステップS1232へ進む。ステップS1234では、再構成部322は、2つの仮グループをマージしてグループを確定する。ステップS1235では、再構成部322は、未確定の仮グループ群からマージしたグループに含まれる人物を除外する。ステップS1237では、再構成部322は、未確定の仮グループ群に2人以上が含まれる仮グループが存在するか判断し、真ならばステップS1231へ進み、偽ならばステップS1238へ進む。ステップS1238では、再構成部322は、未確定の仮グループ群の仮グループの属性を全て一人客に設定し、呼び出し元のステップS1204へ進む。
ステップS1204では、映像解析部321は、顧客データを生成する。ステップS1205では、映像解析部321は、顧客データを顧客データ保持部331に格納する。ステップS1206では、映像解析部321は、年齢性別条件保持部325、行動条件保持部326の更新のために、サブルーチンS1240(図9(e))を呼び出す。サブルーチンS1240のステップS1241では、更新部324は、年齢性別条件に無いグループがあるか判断し、真ならばステップS1242へ進み、偽ならばステップS1243へ進む。ステップS1242では、更新部324は、年齢性別条件保持部325に新たな年齢性別条件を追加し、ステップS1243へ進む。ステップS1243では、更新部324は、年齢性別条件保持部325のパラメータを更新する。ステップS1244では、更新部324は、行動条件に無いグループがあるか判断し、真ならばステップS1245へ進み、偽ならばステップS1246へ進む。ステップS1245では、更新部324は、行動条件保持部326に新たな行動条件を追加し、ステップS1246へ進む。ステップS1246では、更新部324は、行動条件保持部326のパラメータを更新し、呼び出し元に戻り、処理を終了する。
本実施の形態に係る画像処理システム204によると、店舗の複数箇所に設置されたカメラの映像の処理結果を組み合わせることで、グループ特定の精度を向上させることができる。また、その精度の向上によって、より多様なマーケティング分析が可能となる。例えば、入口カメラ102の映像だけでなく店内カメラ104、105の映像も使用することで、グループが同時に入店しなかったり他の人が紛れたりした場合にもより正確にグループを特定できる。
店舗の入口109の入口カメラ102だけでは、グループの人物が同時に入店しない場合や、同時に複数グループが入店した場合や、人物の顔が重なる場合や、正面から撮影できず顔認識ができない場合等にグループ特定の精度が低下しうる。本実施の形態では、店内カメラ104、105からの映像の解析結果も加味することにより、上記の場合でもより正確にグループを特定することができる。
店舗内のカメラの設置場所によって、撮影できる範囲や人物の挙動の特性が異なる。そこで、本実施の形態に係る画像処理システム204では、カメラの設置場所に応じてグループ推定の条件を使い分けることで、より精度の高いグループの特定が可能となる。例えば、入口カメラ102の映像に対しては、入口カメラ102が人物の認識により適していることから、人物認識に係る条件が適用される。一方、店内カメラ104、105の映像に対しては、店内カメラ104、105が人物の行動の追跡により適していることから、行動に係る条件が適用される。
(第2の実施の形態)
第2の実施の形態では、入口カメラ102、店内カメラ104、105に加えてレジカメラ107からの映像を使用する場合を説明する。本実施の形態では、POSレジスタの売上データ(売上情報)をグループ特定結果と連携させ、新規来店客獲得や顧客単価向上などのマーケティング分析に利用する。レジカメラ107は、入口カメラ102とも店内カメラ104、105とも異なる特性を有するカメラ群であってもよい。
第2の実施の形態では、入口カメラ102、店内カメラ104、105に加えてレジカメラ107からの映像を使用する場合を説明する。本実施の形態では、POSレジスタの売上データ(売上情報)をグループ特定結果と連携させ、新規来店客獲得や顧客単価向上などのマーケティング分析に利用する。レジカメラ107は、入口カメラ102とも店内カメラ104、105とも異なる特性を有するカメラ群であってもよい。
図10は、第2の実施の形態に係る画像処理システム1300のシステム構成図である。画像処理システム1300は、カメラ制御部311と、録画映像保持部312と、映像解析部321と、年齢性別条件保持部325と、行動条件保持部326と、顧客データ保持部331と、売上データ保持部1342と、データ統合部1343と、分析用データ保持部1344と、を備える。レジカメラ107は、カメラ制御部311によって制御され、レジカメラ107の映像は録画映像保持部312に記録される。POSレジスタ1341は会計カウンタ110に設置される。会計時に店員がPOSレジスタ1341を操作し、POSレジスタ1341は売上品目と金額と日時とを売上データ保持部1342に記録する。データ統合部1343は、顧客データ保持部331の顧客データと、売上データ保持部1342の売上データと、を日時等の時刻をキーにして統合する。例えば、データ統合部1343はレジカメラ107で撮影した映像における時刻と、POSレジスタ1341で記憶している時刻との対応関係に基づいて統合する。データ統合部1343は、過去の来店履歴と購買履歴とから最新来店日、来店頻度、最新購買日、購買頻度、購買金額等の、マーケティング分析用データを生成して、分析用データ保持部1344に記録する。
以上の構成による画像処理システム1300の動作を説明する。
図11(a)は、画像処理システム1300における一連の処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、1以上のプロセッサが対応するプログラム(ROM等に格納)を実行することにより実現される。図11(b)は、図11(a)に示されるフローチャートのサブルーチンを示す。
図11(a)は、画像処理システム1300における一連の処理の一例を示すフローチャートである。該フローチャートに対応する処理は、例えば、1以上のプロセッサが対応するプログラム(ROM等に格納)を実行することにより実現される。図11(b)は、図11(a)に示されるフローチャートのサブルーチンを示す。
まず、ステップS1401では、映像解析部321は、入口カメラ102の映像解析を行うため、サブルーチンS1210を呼び出す。ステップS1402では、映像解析部321は、店内カメラ104、105の映像解析を行うため、サブルーチンS1220を呼び出す。ステップS1403では、映像解析部321は、仮グループ(入口)と仮グループ(店内)とを利用しグループを確定するため、サブルーチンS1230を呼び出す。ステップS1404では、映像解析部321は、顧客データを生成する。ステップS1405では、映像解析部321は、顧客データを顧客データ保持部331に格納する。ステップS1406では、映像解析部321は、年齢性別条件保持部325、行動条件保持部326の更新のために、サブルーチンS1240を呼び出す。ステップS1407では、映像解析部321は、レジカメラ107の映像解析を行うため、サブルーチンS1420(図11(b))を呼び出す。
サブルーチンS1420のステップS1421では、検出部313は、録画映像保持部312からレジカメラ107の映像を取得する。ステップS1422では、検出部313は、レジカメラ107の映像全てに映った人物の顔特徴量(レジ)と年齢性別とを推定し、呼び出し元のステップS1408へ進む。
ステップS1408では、データ統合部1343は、顔特徴量(レジ)と顔特徴量(全体)とでグループ(全体)を関連付ける。ステップS1409では、データ統合部1343は、POSレジスタ1341の売上データの日時とレジカメラ107の日時とで、売上データとグループ(全体)とを関連付ける関連付け部として機能する。例えば、データ統合部1343はレジカメラ107で撮影した映像における時刻と、POSレジスタ1341で記憶している時刻との対応関係に基づいて統合する。データ統合部1343は、関連付けの結果に基づき顧客データ保持部331を更新する。ステップS1410では、データ統合部1343は、顧客データ保持部331から来店頻度、購買金額、購買頻度、最新購買日を抽出し、分析用データ保持部1344に格納し、処理を終了する。
本実施の形態に係る画像処理システム1300によると、第1の実施の形態に係る画像処理システム204によって奏される作用効果と同様の作用効果が奏される。
以上、実施の形態に係る画像処理システムの構成と動作について説明した。これらの実施の形態は例示であり、その各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
第1および第2の実施の形態では、飲食店や小売店を対象とする場合について説明したが、これに限られない。例えば一般のオフィス、工場、駐車場、その他の店舗形態や建物等に設置されたネットワークカメラからの映像を処理する場合に、第1または第2の実施の形態に係る技術的思想を適用してもよい。
第1および第2の実施の形態では、入口カメラ102や店内カメラ104、105からの映像を対象とする場合について説明したが、これに限られない。例えば、利用するカメラとして、店外カメラ、車内カメラ、機器内部カメラ、移動式カメラ(レストランの給仕ロボットに組み込まれたカメラ等)等が採用されてもよい。
第1および第2の実施の形態では、店内カメラ104、105の映像からの仮グループ推定において、類似性の高い行動か否かを判断するためにコサイン類似度を算出する場合について説明したが、これに限られない。コサイン類似度の代わりに、例えばユークリッド距離、マハラノビス距離、ピアソンの相関係数等の尺度が使用されてもよい。また、行動の類似度と人物間距離による類似度とを計算する代わりに、全ての画像フレームでの人物間距離の平均値が使用されてもよい。
第1および第2の実施の形態では、グループ属性として家族連れ、カップル、友達等が例示されたが、これに限られず、主婦、学生、仕事仲間等のグループ属性が設定されてもよい。
第2の実施の形態では、売上データをPOSレジスタ1341から取得する場合について説明したが、これに限られない。例えば、タブレット型レジスタ、ハンディターミナル、売上管理ソフト、ASPサービス、クラウドサービス等から売上データが取得されてもよい。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 小売店、 102 入口カメラ、 104 店内カメラ、 204 画像処理システム、 321 映像解析部。
Claims (11)
- 第1領域を撮像して得られる第1画像および前記第1領域とは異なる第2領域を撮像して得られる第2画像のそれぞれから人物を検出する検出部と、
前記検出部によって前記第1画像から検出された人物を第1条件にしたがいグループに分けると共に、前記検出部によって前記第2画像から検出された人物を第2条件にしたがいグループに分けるグループ化部と、
前記第1画像に係るグループと前記第2画像に係るグループとを比較する比較部と、
前記比較部における比較結果に基づいてグループを再構成する再構成部と、を備えることを特徴とする画像処理システム。 - 前記第1条件は前記第1領域に応じた条件であり、前記第2条件は前記第2領域に応じた条件であり、前記第1条件と前記第2条件とは異なることを特徴とする請求項1に記載の画像処理システム。
- 前記第1画像は第1撮像装置が前記第1領域を撮像して得られる画像であり、前記第2画像は前記第1撮像装置とは異なる第2撮像装置が前記第2領域を撮像して得られる画像であることを特徴とする請求項1または2に記載の画像処理システム。
- 前記比較部は、前記第1画像に係るグループに含まれる人物の特徴量と前記第2画像に係るグループに含まれる人物の特徴量とを比較し、
前記再構成部は、前記比較部における比較の結果、同一人物であると判定される場合は前記第1画像に係るグループと前記第2画像に係るグループとを統合することを特徴とする請求項1から3のいずれか1項に記載の画像処理システム。 - 前記第1画像に係るグループの第1確度を前記第1領域に応じた第1計算式で算出すると共に、前記第2画像に係るグループの第2確度を前記第2領域に応じた第2計算式であって前記第1計算式とは異なる第2計算式で算出する算出部をさらに備え、
前記比較部は、前記算出部によって算出された前記第1確度および前記第2確度を比較に使用することを特徴とする請求項1から4のいずれか1項に記載の画像処理システム。 - 前記第1領域は店舗の入口であり、前記第2領域は店舗の店内の領域であることを特徴とする請求項1から5のいずれか1項に記載の画像処理システム。
- 前記第1条件は人物の属性に関する条件であり、前記第2条件は人物の動きに関する条件であることを特徴とする請求項6に記載の画像処理システム。
- 前記第2画像は店舗の精算場所に設置された撮像装置から得られる画像であり、
前記画像処理システムはさらに、前記精算場所に対応する精算装置から得られる売上情報と前記再構成部によって再構成されたグループとを関連付ける関連付け部を備えることを特徴とする請求項1から7のいずれか1項に記載の画像処理システム。 - グループ属性と、該グループ属性が割り当てられる基準と、を対応付けて保持する条件保持部と、
前記条件保持部を更新する更新部と、をさらに備え、
前記グループ化部は前記条件保持部を参照してグループ分けを行うことを特徴とする請求項1から8のいずれか1項に記載の画像処理システム。 - 第1領域を撮像して得られる第1画像および前記第1領域とは異なる第2領域を撮像して得られる第2画像のそれぞれから人物を検出することと、
前記第1画像から検出された人物を第1条件にしたがいグループに分けると共に、前記第2画像から検出された人物を第2条件にしたがいグループに分けることと、
前記第1画像に係るグループと前記第2画像に係るグループとを比較することと、
比較結果に基づいてグループを再構成することと、を含むことを特徴とする画像処理方法。 - コンピュータを請求項1乃至9のいずれか1項に記載のシステムの各部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016009137A JP2017130061A (ja) | 2016-01-20 | 2016-01-20 | 画像処理システム、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016009137A JP2017130061A (ja) | 2016-01-20 | 2016-01-20 | 画像処理システム、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017130061A true JP2017130061A (ja) | 2017-07-27 |
Family
ID=59395664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016009137A Pending JP2017130061A (ja) | 2016-01-20 | 2016-01-20 | 画像処理システム、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017130061A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133437A (ja) * | 2018-01-31 | 2019-08-08 | キヤノン株式会社 | 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム |
WO2019239813A1 (ja) * | 2018-06-14 | 2019-12-19 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理プログラム及び情報処理システム |
WO2022079841A1 (ja) * | 2020-10-14 | 2022-04-21 | 日本電気株式会社 | グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体 |
EP4310766A4 (en) * | 2021-03-17 | 2024-01-24 | Nec Corp | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM |
-
2016
- 2016-01-20 JP JP2016009137A patent/JP2017130061A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133437A (ja) * | 2018-01-31 | 2019-08-08 | キヤノン株式会社 | 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム |
WO2019239813A1 (ja) * | 2018-06-14 | 2019-12-19 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理プログラム及び情報処理システム |
CN111742376A (zh) * | 2018-06-14 | 2020-10-02 | 松下知识产权经营株式会社 | 信息处理方法、信息处理程序以及信息处理系统 |
JPWO2019239813A1 (ja) * | 2018-06-14 | 2021-06-24 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理プログラム及び情報処理システム |
JP7296559B2 (ja) | 2018-06-14 | 2023-06-23 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理プログラム及び情報処理システム |
WO2022079841A1 (ja) * | 2020-10-14 | 2022-04-21 | 日本電気株式会社 | グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体 |
EP4310766A4 (en) * | 2021-03-17 | 2024-01-24 | Nec Corp | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11087130B2 (en) | Simultaneous object localization and attribute classification using multitask deep neural networks | |
JP7208974B2 (ja) | 画像認識を用いた商品を置くこと及び取ることの検出 | |
JP7251569B2 (ja) | 店舗装置、店舗管理方法、プログラム | |
US20170169297A1 (en) | Computer-vision-based group identification | |
JP7260022B2 (ja) | 店舗装置、店舗システム、店舗管理方法、プログラム | |
KR101779096B1 (ko) | 지능형 영상분석 기술 기반 통합 매장관리시스템에서의 객체 추적방법 | |
JP6500374B2 (ja) | 画像処理装置及び画像処理プログラム | |
CA3014365C (en) | System and method for gathering data related to quality of service in a customer service environment | |
JP2008203916A (ja) | 画像処理装置、プログラム及び画像処理方法 | |
CN109255642A (zh) | 人流分析方法、人流分析装置以及人流分析系统 | |
JP2017130061A (ja) | 画像処理システム、画像処理方法およびプログラム | |
JP2017083980A (ja) | 行動分析装置及びシステム及び方法 | |
CA3158925A1 (en) | Customer path tracking method and system | |
WO2017155466A1 (en) | Method and system for visitor tracking at a pos area | |
JP2022042014A (ja) | 制御方法、プログラム、情報処理装置、及び情報処理システム | |
KR20170016578A (ko) | 의류 피팅 시스템 및 의류 피팅 시스템의 동작 방법 | |
Nguyen et al. | When AI meets store layout design: a review | |
JP5720843B1 (ja) | 位置変換プログラム及び情報処理装置 | |
JP2023153148A (ja) | セルフレジシステム、購入商品管理方法および購入商品管理プログラム | |
JP2019083058A (ja) | 画像処理装置及び画像処理プログラム | |
CN111414799A (zh) | 同行用户确定方法、装置、电子设备及计算机可读介质 | |
Lee et al. | Understanding human-place interaction from tracking and identification of many users | |
JP7276535B1 (ja) | 情報処理プログラム、情報処理方法、および情報処理装置 | |
JP7276419B1 (ja) | 情報処理プログラム、情報処理方法、および情報処理装置 | |
EP4231222A1 (en) | Information processing program, information processing method, and information processing apparatus |