JP2010067079A - 行動解析システムおよび行動解析方法 - Google Patents
行動解析システムおよび行動解析方法 Download PDFInfo
- Publication number
- JP2010067079A JP2010067079A JP2008233814A JP2008233814A JP2010067079A JP 2010067079 A JP2010067079 A JP 2010067079A JP 2008233814 A JP2008233814 A JP 2008233814A JP 2008233814 A JP2008233814 A JP 2008233814A JP 2010067079 A JP2010067079 A JP 2010067079A
- Authority
- JP
- Japan
- Prior art keywords
- behavior analysis
- consumer
- distance data
- behavior
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 225
- 238000000034 method Methods 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 45
- 230000009471 action Effects 0.000 claims description 39
- 238000013500 data storage Methods 0.000 claims description 33
- 238000009434 installation Methods 0.000 claims description 6
- 230000003542 behavioural effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 222
- 238000010586 diagram Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 19
- 238000005452 bending Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 101001081590 Homo sapiens DNA-binding protein inhibitor ID-1 Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 102000049143 human ID1 Human genes 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】消費者が行った詳細な行動を分析することができ、更に、消費者の個人情報を保護することのできる行動解析システムを提供する。
【解決手段】本発明に係わる行動解析システム1は、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列され、各々の画素の距離データが含まれた2次元距離データを出力する距離画像センサ11と、距離画像センサ11から出力される2次元距離データを設定されたフレームレートで取得し、2次元距離データを利用して、2次元距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを記憶する行動解析装置10とから構成される。
【選択図】図1
【解決手段】本発明に係わる行動解析システム1は、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列され、各々の画素の距離データが含まれた2次元距離データを出力する距離画像センサ11と、距離画像センサ11から出力される2次元距離データを設定されたフレームレートで取得し、2次元距離データを利用して、2次元距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを記憶する行動解析装置10とから構成される。
【選択図】図1
Description
本発明は、コンピュータを用いて、店舗内における消費者の行動を取得する技術に関し、更に詳しくは、店舗に設置される商品棚の前などにいる消費者の行動を取得する技術に関する。
POP(Point-Of-Purchase)等の販促効果の確認や、消費者の購買心理を探ることなどを目的として、店舗における消費者の行動を解析するシステムが開発されている。
店舗における消費者の行動分析に利用できる技術としては、例えば、特許文献1で開示されている発明のように、カメラで店舗内を撮影し、カメラ画像を処理することで、各々の消費者を特定し、特定した消費者の移動軌跡を解析することが考えられる。
更に、例えば、特許文献2で開示されている発明のように、非接触ICカードや非接触ICタグに代表されるRFID(Radio Frequency Identification)を消費者に所持させ、RFIDを検出する検出器を店舗内に設置し、RFIDを検出した検出器を時系列で調べることで、消費者の移動軌跡を解析することが考えられる。
更に、消費者の移動軌跡以外の行動を解析できる技術としては、(株)構造計画研究所からマーケティングツール(Vitracom SiteView)が既に販売されている。(株)構造計画研究所から販売されているVitracom SiteViewでは、カメラで撮影された画像をコンピュータに解析させることで、移動物体(例えば、消費者)の店舗内における行動として、通過、滞留および移動軌跡を解析する。
特開平9−330415号公報
特開2002−32550号公報
しかしながら、上述した特許文献1や特許文献2で開示されている発明では、消費者の移動軌跡を解析することは可能であるが、消費者の移動軌跡を解析するためには、複数のセンサを店舗に配置する必要で、更には、消費者が商品棚の前などで行った詳細な行動を解析することはできない。
確かに、(株)構造計画研究所から販売されているVitracom SiteViewの技術を利用すれば、消費者が商品棚の前などで行った詳細な行動を解析することができるが、カメラで撮影された画像には消費者の顔も含まれてしまうため、個人情報保護の観点からすると問題がある。
そこで、本発明は、複数のセンサを店舗に配置することなく、消費者が商品棚の前などで行った詳細な行動を解析することができ、更に、消費者の個人情報を保護することのできる行動解析システムおよび方法を提供することを目的とする。
上述した課題を解決する第1の発明は、消費者の行動を解析するシステムであって、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列され、各々の前記画素の距離データが含まれた2次元距離データを出力する距離画像センサと、前記距離画像センサから出力される前記2次元距離データを利用して、消費者の行動を認識する行動解析装置とから構成され、前記行動解析装置は、前記距離画像センサから出力される前記2次元距離データを設定されたフレームレートで取得し、前記2次元距離データをデータ記憶装置に記憶する距離データ記憶手段と、前記距離データ記憶装置に記憶された前記2次元距離データを利用して、前記2次元記距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを前記データ記憶装置に記憶する消費者行動解析手段を備えていることを特徴とする行動解析システムである。
第1の発明によれば、消費者を検出するセンサとして、CCDカメラではなく、前記距離画像センサを用いることで、消費者の顔は鮮明に撮影されることはなくなり、消費者の個人情報が漏洩することはなくなる。
また、前記距離画像センサから出力される前記2次元距離データには2次元に配列された画素で計測された距離データが含まれるため、前記2次元距離データに含まれる距離データの差を解析することで、商品棚前に存在する消費者の領域を認識でき、画像処理と同様に、認識した消費者の領域をトラッキングすることで、消費者が行った行動を認識することが可能になる。
更に、第2の発明は、第1の発明に記載の行動解析システムであって、前記距離画像センサは、斜め下方に向けて消費者を撮影するように設置され、前記行動解析装置の前記消費者行動解析手段は、前記人物領域を認識する前に、前記距離画像センサの設置角度および画角を用いて、前記2次元距離データに含まれる各距離データを高さに変換し、変換後の前記2次元距離データを利用して、前記人物領域を認識することを特徴とする行動解析システムである。
上述した第2の発明によれば、前記距離画像センサを斜め下方に向けた状態で設置した方が以下の点においてメリットがある。
1)消費者の真上から前記距離画像センサが落下することが無く、危険性を少なくできる点。
2)カートなどの障害物が撮影されにくくなる点。
3)床面からの乱反射等、外乱の影響を少なくできる点。
4)前記距離画像センサの取り外しが容易であり、一台のシステムを様々な場所で利用できる点。
5)前記距離画像センサを設置するときに、工事等の大掛かりな準備が不要である点。
1)消費者の真上から前記距離画像センサが落下することが無く、危険性を少なくできる点。
2)カートなどの障害物が撮影されにくくなる点。
3)床面からの乱反射等、外乱の影響を少なくできる点。
4)前記距離画像センサの取り外しが容易であり、一台のシステムを様々な場所で利用できる点。
5)前記距離画像センサを設置するときに、工事等の大掛かりな準備が不要である点。
また、前記距離画像センサを斜め下方に向けた状態で設置すると、前記2次元距離データに含まれる距離データと実際の高さに差が生じるため、前記距離画像センサの設置角度や画角を用いて、前記2次元距離データに含まれる距離データを実際の高さに変換するとよい。
更に、第3の発明は、第1の発明または第2の発明に記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記フレームレートを利用して、人物領域をトラッキングできた時間をカウントし、前記人物領域をトラッキングできた時間が設定時間未満のとき、前記距離画像センサの画角の領域を消費者が通過したと認識することを特徴とする行動解析システムである。
更に、第4の発明は、第1の発明から第3の発明のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記フレームレートを利用して、前記人物領域をトラッキングできた時間をカウントし、前記人物領域をトラッキングできた時間が設定時間以上のとき、前記距離画像センサの画角の領域を消費者が滞留したと認識することを特徴とする行動解析システムである。
更に、第5の発明は、第1の発明から第4の発明のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記人物領域をトラッキングしている間、トラッキングしている前記人物領域内における最大高さの変化を時系列的に監視し、最大高さの変化が規定値以上になったとき、前記距離画像センサの画角の領域に存在する消費者が前屈みをしたと認識することを特徴とする行動解析システムである。
更に、第6の発明は、第1の発明から第5の発明のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記人物領域をトラッキングしている間、トラッキングしている前記人物領域の大きさを時系列的に監視し、該人物領域の下部に特定形状の領域が含まれているとき、前記距離画像センサの画角の領域に存在する消費者が手伸ばしをしたと認識することを特徴とする行動解析システムである。
上述した第3の発明から第6の発明によれば、前記行動解析装置は消費者の通過、滞留、前屈みおよび手伸ばしを認識することができるようになる。
更に、第7の発明は、第1の発明から第6の発明のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、前記距離画像センサから取得した前記2次元距離データを解析するときに、前記2次元距離データに含まれる距離データを階調に変換することで距離画像を生成し、生成した前記距離画像を前記データ記憶装置に記憶することを特徴とする行動解析システムである。
上述した第7の発明によれば、前記距離データを前記距離画像に変換することで、人が目視で消費者の行動を確認できるようになる。
更に、第8の発明は、消費者の行動を解析する方法であって、消費者の行動を認識する行動解析装置が、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列され、各々の前記画素の距離データが含まれた2次元距離データを出力する距離画像センサから設定されたフレームレートで前記2次元距離データを取得し、前記2次元距離データをデータ記憶装置に記憶する工程aと、前記工程aが実行された後に、前記行動解析装置が、前記データ記憶装置に記憶された前記2次元距離データを利用して、前記2次元距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを前記データ記憶装置に記憶する工程bが実行されることを特徴とする行動解析方法である。
更に、第9の発明は、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列された距離画像センサから出力され、各々の前記画素の距離データが含まれた2次元距離データを、前記距離画像センサから所定のフレームレートで取得し、データ記憶装置に記憶する距離データ記憶手段と、前記距離データ記憶装置に記憶された前記2次元距離データを利用して、前記2次元記距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを前記データ記憶装置に記憶する消費者行動解析手段を、コンピュータに実行させるためのプログラムである。
上述した第8の発明および第9の発明によれば、第1の発明と同様の効果を得ることができる。
このように、本発明によれば、複数のセンサを店舗に配置することなく、消費者が商品棚の前などで行った詳細な行動を解析することができ、更に、消費者の個人情報を保護することのできる行動解析システムおよび方法できる。
ここから、本発明に係わる行動解析システムおよび行動解析方法について、図を参照しながら詳細に説明する。
図1は、本発明に係わる行動解析システム1の構成を説明する図である。図1に図示したように、本発明に係わる行動解析システム1には、店舗の商品棚2の上に設置され、画角の範囲内に存在する物体までの距離を測定する距離画像センサ11と、距離画像センサ11が接続され、距離画像センサ11から得られる2次元距離データを記憶し、商品棚2の前にいる消費者3の行動を解析する行動解析装置10とから構成される。
行動解析システム1を構成する距離画像センサ11としては、市販の距離画像センサ11を利用でき、例えば、松下電工株式会社などから市販されている光波測距(Time of Flight)式のセンサを利用できる。
光波測距(Time of Flight)式の距離画像センサ11は、距離画像センサ11に備えられたLEDから照射された近赤外光が、物体から反射して距離画像センサ11に返ってくる到達時間を利用して、距離画像センサ11から物体までの距離を2次元で配列された画素毎に計測し、各画素の距離データを含む2次元距離データを所定のフレームレート(例えば、15fps)で出力する機能を備えている。
市販されている距離画像センサ11には、距離測定機能に加え、画像撮影機能を備えているセンサもあるが、個人情報漏洩の観点から、本発明では、市販されている距離画像センサ11の距離測定機能のみを利用し、画像撮影機能は利用しない。
図2は、距離画像センサ11の設置状況と測定範囲を説明するための図で、図2(a)は、距離画像センサ11を横から見た図、図2(b)は、距離画像センサ11を上から見た図である。図2(a)に図示しているように、本実施形態では、距離画像センサ11は、商品棚2の上から斜め下方に向けた状態で設置している。
距離画像センサ11を商品棚2の床面の真上から下方に向けて設置してもよいが、商品棚2の上から斜め下方に向けた状態で設置した方が以下の点においてメリットがある。
1)消費者3の真上から距離画像センサ11が落下することが無く、危険性を少なくできる点。
2)カートなどの障害物が撮影されにくくなる点。
3)床面からの乱反射等、外乱の影響を少なくできる点。
4)距離画像センサ11の取り外しが容易であり、一台のシステムを様々な場所で利用できる点。
5)距離画像センサ11を設置するときに、工事等の大掛かりな準備が不要である点。
1)消費者3の真上から距離画像センサ11が落下することが無く、危険性を少なくできる点。
2)カートなどの障害物が撮影されにくくなる点。
3)床面からの乱反射等、外乱の影響を少なくできる点。
4)距離画像センサ11の取り外しが容易であり、一台のシステムを様々な場所で利用できる点。
5)距離画像センサ11を設置するときに、工事等の大掛かりな準備が不要である点。
また、図2(a)、図2(b)に図示したように、距離画像センサ11の画角は、垂直方向で45°、水平方向で60°であり、図2(a)および図2(b)の斜線の範囲が、距離画像センサ11の画角に入る測定範囲になる。
図3は、距離画像センサ11から出力される2次元距離データを説明する図である。本実施形態において、距離画像センサ11は、水平方向128×垂直方向123の画素毎に距離データを出力し、距離画像センサ11から出力される2次元距離データは、水平方向128×垂直方向123それぞれの画素で計測された測定距離が2次元テーブルで表現されたCSV型式のデータで、2次元距離データには、画素の並び順に従い、それぞれの画素が計測した距離がcm単位で記述される。
このように、距離画像センサ11から出力される2次元距離データには、水平方向128画素×垂直方向123画素それぞれの画素における距離データが含まれる。距離画像センサ11の画角内に消費者3が存在する場合、画素から消費者3までの距離が短くなるため、商品棚2の消費者3の人物領域を認識でき、人物領域を時系列でトラッキングすることで、商品棚2の前で消費者3が行った行動を詳細に認識することが可能になる。
また、物体(ここでは、消費者3)を検出するセンサとして、CCDカメラではなく、距離画像センサ11を用いれば、距離画像センサ11の出力はcm単位が一般的であるので、消費者3の人物領域から消費者3の顔は鮮明に特定できることはなく、消費者3の個人情報が漏洩することはなくなる。
なお、距離画像センサ11から出力される2次元距離データに含まれる距離データは、距離画像センサ11から物体までの距離になるが、図2(a)で図示したように、距離画像センサ11は下方斜めの状態で設置されているため、画素から同じ距離dであっても、画角の上端の画素と下端の画素においては、実際の高さにΔhだけ差が生じてしまう。
そこで、本実施形態において、行動解析装置10は、距離画像センサ11から出力される2次元距離データに含まれる各距離データを実際の高さに変換した後に、消費者3の行動を認識する処理を実行する。
次に、行動解析システム1の行動解析装置10について説明する。行動解析システム1の行動解析装置10は、距離画像センサ11から出力される2次元距離データを解析し、商品棚2の前で消費者3が行った行動を詳細に認識する機能を備えた装置で、行動解析装置10が認識できる消費者3の行動は、行動解析装置10に実装されたコンピュータプログラムによって決定される。
図4は、本実施形態においては、行動解析装置10が認識できる消費者3の行動を説明する図である。図4で図示したように、行動解析装置10は、商品棚2の前における消費者3の通過(図4(a))、商品棚2の前における消費者3の滞留(図4(b))、商品棚2の前における消費者3の前屈み(図4(c))、そして、商品棚2の前における消費者3の手伸ばし(図4(d))を認識でき、それぞれの行動を認識すると、認識した行動が記された行動データを生成し記憶する。
本実施形態において、行動解析装置10が認識できる消費者3の行動は、図4で図示した4種類の消費者3の行動であるが、当然のことながら、図4で図示した4種類の消費者3の行動の中から選択された一つ以上の消費者3の行動であってもよく、または、他の消費者3の行動を認識するコンピュータプログラムを行動解析装置10に実装させれば、図4で図示した以外の消費者3の行動も行動解析装置10で認識することができるようになる。
図5は、行動解析装置10の回路ブロック図、図6は、行動解析装置10の機能ブロック図である。
行動解析装置10は汎用的なコンピュータで実現され、図5に図示したように、行動解析装置10は、行動解析装置10を制御するCPU10a(Central Processing Unit)と、メインメモリであるRAM10b(Random Access Memory)と、大容量のデータ記憶装置であるハードディスク10cと、距離画像センサ11と接続するためのUSBインターフェース10eと、FPGA (Field Programmable Gate Array)を用いた画像処理ボード10d、ディスプレイ10gと、ポインティングデバイスであるマウス10hと、そして、入力デバイスであるキーボード10iと、時刻を計測する時計などを備えている。
行動解析装置10のハードディスク10cには、本発明の行動解析装置10としてコンピュータを機能させるためのコンピュータプログラムが記憶され、このコンピュータプログラムが実行されることで、行動解析装置10には、図6で図示した手段が備えられる。
図6に図示したように、行動解析装置10のハードディスク10cに記憶されたコンピュータプログラムが実行されることで、行動解析装置10には、距離画像センサ11から2次元距離データを取得し、行動解析装置10のハードディスク10cに記憶する距離データ記憶手段100と、距離データ記憶手段100がハーディスクに記憶した2次元距離データを解析することで、消費者3の行動を認識し、認識した消費者3の行動を示す行動履歴データをハードディスク10cに記憶する消費者行動解析手段101と、消費者行動解析手段101がハードディスク10cに記憶した行動履歴データを集計する消費者行動集計手段102が備えられる。
距離画像センサ11から2次元距離データを取得し記憶する距離データ記憶手段100は、RAM10bおよびハードディスク10cなどを利用したコンピュータプログラムで実現され、距離画像センサ11から一定のフレームレート(例えば、5fps)で2次元距離データをUSBインターフェース10eから取得し、取得した順に時系列でハードディスク10cに記憶する手段である。
消費者行動解析手段101は、画像処理ボード10dやRAM10bなどを利用したコンピュータプログラムで実現される手段で、定められたアルゴリズムに従い、2次元距離データ記憶手段100がハードディスク10cに記憶した2次元距離データを解析することで、図4を用いて説明した4つの消費者3の行動を認識し、認識した消費者3の行動を示す行動履歴データをハードディスク10cに記憶する手段である。
消費者行動集計手段102は、消費者行動解析手段101がハードディスク10cに記憶した行動履歴データを集計・出力する手段である。
ここから、図1で図示した行動解析システム1の動作を説明しながら、更に詳細に、行動解析装置10の各手段についても説明する。なお、行動解析システム1の動作の説明は、本発明の行動解析方法の説明も兼ねている。
図7は、行動解析システム1の行動解析装置10が2次元距離データを取得・記憶するときに実行される手順を示したフロー図で、行動解析装置10の距離データ記憶手段100によって実行される手順である。
まず、図7を参照しながら、行動解析システム1の行動解析装置10が2次元距離データを取得・記憶するときの手順について説明する。行動解析システム1の行動解析装置10が2次元距離データを取得・記憶するとき、行動解析装置10の2次元距離データ記憶手段100は、2次元距離データを取得・記憶する時刻データ(ここでは、開始時刻と終了時刻)と、2次元距離データを取得するフレームレート(例えば、5fps)を取得し、行動解析装置10のRAM10bにこれらのデータを記憶する(図7のS1)。
2次元距離データを取得・記憶する時間データと2次元距離データを取得するフレームレートは、行動解析装置10のキーボードやマウスなどを利用して入力されるようにしてもよく、または、行動解析装置10のハードディスク10cに記憶された時刻データおよびフレームレートを読み出すようにしてもよい。なお、このステップで取得するフレームレートは、距離画像センサ11の仕様で定められるフレームレートと必ずしも一致している必要はない。
行動解析装置10の距離データ記憶手段100は、2次元距離データを取得・記憶する時刻データとフレームレートを取得すると(図7のS2)、行動解析装置10に備えられた時計10fの時刻によって処理を分岐させる(図7のS3)。行動解析装置10の時刻10fが時刻データの開始時刻前ならば図7のS2に戻り、行動解析装置10の時刻が時刻データの開始時刻であれば図7のL1に進む。
図7のL1から図7のL2はループ処理で、このループ処理では、行動解析装置10の時計10fが時間データの終了時刻に達するまで、図7のS4の処理が実行され、このループ処理を抜けると、図7で図示した手順は終了する。
図7のS4において、行動解析装置10の距離データ記憶手段100は、図7のS1で取得したフレームレートで距離画像センサ11から2次元距離データを取得し、2次元距離データを取得する毎に、2次元距離データをハードディスク10cに時系列で記憶する。
次に、行動解析システム1の行動解析装置10が2次元距離データを解析するときに実行される手順について説明する。図8は、行動解析システム1の行動解析装置10が2次元距離データを解析するときの手順を示した第1のフロー図で、図9は、行動解析システム1の行動解析装置10が2次元距離データを解析するときの手順を示した第2のフロー図である。
行動解析システム1の行動解析装置10は、図7の手順を実行することで、距離画像センサ11から取得した2次元距離データをハードディスク10cに記憶した後、定められたトリガー(例えば、行動解析装置10の操作)が成立すると消費者行動解析手段101が作動し、ハードディスク10cに記憶された2次元距離データの解析を開始する。
図8で図示した手順は、図8のL10から図8のL11間で定義されるループ処理である。行動解析装置10は、図8で図示したループ処理で定義された処理を実行することで、ハードディスク10cに時系列で記憶された2次元距離データを時系列で解析し、時系列的に最後の2次元距離データを処理した後に、このループ処理を抜け、図8で図示した手順は終了する。
まず、このループ処理において、行動解析装置10の消費者行動解析手段101は、消費者3の行動の解析対象となるCSV型式の2次元距離データをハードディスク10cから読み取り、2次元距離データに含まれる距離データを高さに変換する処理を実行する(図8のS10)。
2次元距離データに含まれる距離データを高さに変換するとき、距離画像センサ11を設置した位置の高さ、距離画像センサ11の設置角度、距離画像センサ11の画角等をパラメータとし、三角関数等を利用した算出式によって、2次元距離データに含まれる距離データは高さに変換される。
行動解析装置10の消費者行動解析手段101は、2次元距離データに含まれる距離を高さに変換する処理を実行すると、変換後の2次元距離データに含まれる高さを画像の濃淡を表す階調に変換することで、高さが濃淡で記された距離画像に変換する処理を実行することで、距離画像を生成し、ハードディスク10cに記憶する(図8のS11)。
例えば、1画素を256階調の濃淡差で表す画像と距離画像をしたとき、各階調ごとに対応する高さが予め定められ、変換後の2次元距離データに含まれる水平128×垂直123画素それぞれの高さを階調に変換することで、水平128×垂直123画素の256階調の距離画像が生成される。
図8のS11において、行動解析装置10の消費者行動解析手段101が、2次元距離データから距離画像を生成するのは、目視で確認した結果と解析した結果を照らし合わせて実証もしくは評価できるようにするためで、図8のS11は実行されなくとも、これ以降の手順に支障はない。
消費者行動解析手段101は、図8のS11で目視確認用の距離画像を生成・記憶した後、変換後の2次元距離データに対して、人物領域とは認識できない小領域を除去する処理を実行する(図8のS12)。図10は、消費者行動解析手段101が実行する小領域除去処理を説明する図で、図10(a)は小領域除去処理をする前の2次元距離データを説明する図で、図10(b)は空間フィルタを利用した処理後の2次元距離データを説明する図で、図10(c)は領域分割を利用した処理後の2次元距離データを説明する図である。
なお、図10では、消費者行動解析手段101が実行する処理を視覚的に説明するために、値0が最も高さが低く、値255が最も高さが高くなるように、変換後の2次元距離データに含まれる高さを256階調に変換している。
消費者行動解析手段101は、小領域を除去する処理として、空間フィルタを利用した処理と、領域分割を利用した処理の2種類の処理を実行する。空間フィルタを利用した処理においては、3画素×3画素の移動平均法による平滑化処理によって、変換後の2次元距離データに含まれる細かな小領域が除去される。また、領域分割を利用した処理においては、4近傍ラベリング処理により領域の分割を行い、領域の大きさが一定値より小さい小領域を除去することで、空間フィルタを利用した処理では除去できなかった小領域が除去される。
消費者行動解析手段101は、小領域を除去する処理を実施すると、変換後の2次距離データの中から人物領域を認識する処理を実行し、人物領域の認識結果に基づいて処理を分岐させる(図8のS13)。
変換後の2次距離データでは、距離画像センサ11から取得し2次元距離データに含まれる距離が実際の高さに変換されているので、高さが一定値以上の領域を抽出し、この領域の面積が閾値以上であるとき、消費者行動解析手段101は、この領域を人物領域として認識する。
消費者行動解析手段101は、人物領域を認識できたときは、消費者3の行動の解析処理を実行するために図8のS14に進み、人物領域を認識できなかったときは、消費者3の行動の解析処理を実行せず、図8のS30を実行した後に、ループ処理の終端(図8のL11)まで進む。
図8のS14では、消費者行動解析手段101は、認識した人物領域を時系列でトラッキングするときに利用するトラッキングデータが、行動解析装置10のRAM10bに生成されているか確認する。
行動解析装置10のRAM10bにトラッキングデータが生成されていない場合、行動解析装置10の消費者行動解析手段101は、図8のS15に進み、トラッキングデータをRAM10bに生成した後に図8のS16に進み、既に、トラッキングデータがRAM10bに生成されている場合は、行動解析装置10の消費者行動解析手段101は、図8のS15に進むことなく、図8のS16に進む。
図11は、RAM10bに生成されるトラッキングデータを説明する図である。トラッキングデータには、認識した人物領域を識別するための人物IDと、認識した消費者3の行動を記憶するためのデータと、消費者3の行動を認識するときに利用するデータが含まれ、更には、トラッキングデータをRAM10bに生成したときのフレームと時刻データの開始時刻から演算される認識時刻が含まれる。
図11に図示したトラッキングデータに含まれる人物IDは、トラッキングデータをRAM10bに生成するときに、消費者行動解析手段101によって生成されるデータで、消費者行動解析手段101は、トラッキングデータをRAM10bに生成するごとに、ユニークな人物IDをトラッキングデータに付与する。
認識した消費者3の行動を記憶するためのフラグは、消費者行動解析手段101が消費者3の行動を認識したときに立てられ、ここでは、このフラグとして、滞留フラグ、前屈みを認識した回数を記憶する前屈み認識カウンタ、および、手伸ばしを認識した回数を記憶する手伸ばし認識カウンタがトラッキングデータに含まれる。
また、消費者3の行動を認識するときに利用するデータとして、トラッキングデータには、滞留を認識するときに利用するデータである滞留カウンタと、前屈みを認識するときに利用するデータである参照最大高さと、手伸ばしを認識するときに利用するデータである手伸ばしカウンタが含まれる。
行動解析装置10の消費者行動解析手段101がトラッキングデータをRAM10bに生成したとき、人物IDを書き込み、それ以外のフラグおよびデータはすべて初期化の状態である。
行動解析装置10の消費者行動解析手段101がトラッキングデータをRAM10bに生成した後、或いは、トラッキングデータがRAM10bに生成済みであるとき、消費者行動解析手段101は、トラッキングデータの滞留カウンタを一つインクリメントとし、トラッキングデータに含まれる滞留カウンタの値を参照することで、消費者3の滞留を認識する処理を実行し、処理を分岐させる(図8のS16)。
行動解析装置10の消費者行動解析手段101には、消費者3の滞留があったと認識するとき時間を示す滞留カウンタの規定値が設定され、滞留カウンタの値がこの規定値に達していれば、消費者3が滞留したと認識し、図8のS17に進み、滞留カウンタの値がこの規定値に達していなければ、ループ処理の終端(図8のL11)まで進む。
図8のS17において、消費者行動解析手段101は、消費者3が滞留したと認識し、トラッキングデータの滞留フラグを参照し、滞留フラグが降りていれば、滞留フラグを立てた後に、図8のS18に進む。
例えば、行動解析装置10が2次元距離データを取得するときのフレームレートが「5fps」で、消費者3の滞留があったと認識するとき時間を3秒とすれば、滞留カウンタの規定値は「15」になる。
すなわち、滞留カウンタの値が「15未満」すなわち3秒未満であれば、トラッキングデータの滞留フラグは降ろされた状態のままで、滞留カウンタの値が「15以上」になったとき、トラッキングデータの滞留フラグが立つ。
消費者3の滞留を認識したとき、図8のS18において、消費者行動解析手段101は、変換した2次元距離データの最大高さを利用して、消費者3の前屈みを認識する処理を実行し、消費者3の前屈みの認識結果によって、処理を分岐させる。
図12は、消費者行動解析手段101が消費者3の前屈みを認識する処理の内容を説明する図で、図12(a)は、消費者3の前屈みがないときの2次元距離データを説明する図で、図12(b)は、消費者3が前屈みしたときの2次元距離データを説明する図である。
図12では、図10と同様に、消費者行動解析手段101が実行する処理を視覚的に説明するために、値0が最も高さが低く、値255が最も高さが高くなるように、変換後の2次元距離データに含まれる高さを256階調に変換している。
図12(a)で図示したように、消費者3の前屈みしないときは、消費者3の頭の箇所(点線で囲った部分)が最大高さになる。また、図12(b)で図示したように、消費者3が前屈みしたときは、消費者3は腰を支点として90°前後曲がった状態になるため、消費者3の腰の箇所(点線で囲った部分)、或いは、消費者3の頭の箇所(点線で囲った部分)が最大高さになる。
つまり、消費者3が前屈みしたときとしないときでは、2次元距離データの人物領域内における最大高さが異なるため、本実施形態において、消費者行動解析手段101は、連続して人物領域を認識したとき、前回認識した人物領域の最大高さと今回認識した人物領域の最大高さの差分を利用して、消費者3の前屈みを認識する。
トラッキングデータの参照最大高さは、前回認識した人物領域の最大高さを記憶するために設けられ、消費者行動解析手段101は、トラッキングデータに記憶された参照最大高さと、今回の2次元距離データから取得した最大高さとの差分を求め、最大高さの差分が規定値以上になったとき、消費者3の前屈みがあると認識する
なお、消費者行動解析手段101は人物領域を認識したときに、認識した人物領域の最大高さを取得し、消費者3の前屈みを認識する処理を実行した後に、トラッキングデータの参照最大高さを認識した人物領域の最大高さに更新する。
そして、消費者3の前屈みを認識したときは、図8のS19に進み、トラッキングデータの前屈み認識カウンタを一つインクリメントした後、ループ処理の終端(図8のL11)まで進み、消費者3の前屈みを認識しなかったときは、図8のS20に進む。
消費者3の前屈みがないと認識したとき、消費者行動解析手段101は、図8のS20において、消費者3の手伸ばしを認識する処理を実行し、消費者の手伸ばしの認識結果に応じて処理を分岐させる。
手伸ばしの行動は、2次元距離データの人物領域に特定形状が定められた領域に含まれているか否かによって認識される。
図13は、消費者行動解析手段101が消費者3の手伸ばしを認識するときの特定形状について説明する図である。消費者行動解析手段101は、図13の白四角枠で囲まれた領域のように、2次元距離データに含まれる人物領域の下部領域(例えば、人物領域の半分より下の領域)に、人物領域の最大幅の半分よりも小さく、かつ、所定の幅よりも大きい形状である特定形状が人物領域に含まれているとき、消費者行動解析手段101は、消費者3が手伸ばしを行った可能性があると認識し、トラッキングデータの手伸ばしカウンタを一つインクリメントし、該特定形状が人物領域に含まれていないとき、トラッキングデータの手伸ばしカウンタをリセットする。
消費者行動解析手段101は、消費者3が手伸ばしを行った可能性があると認識し、トラッキングデータの手伸ばしカウンタを一つインクリメントした後、手伸ばしカウンタの値を参照し、手伸ばしカウンタの値が規定値(例えば、「2」)に達したとき、最終的に消費者3が手伸ばしを行ったと認識する。
なお、消費者行動解析手段101は、特定形状を初回に認識したときに、消費者3が手伸ばしを行ったと判断してもよいが、特定形状を連続(ここでは2回)して認識したときに、消費者3が手伸ばしを行ったと判断することで、ノイズの影響で手伸ばしを行ったと誤認識することを防止できる。
消費者行動解析手段101は、図8のS20において、消費者3の手伸ばしを認識したとき、図8のS21に進み、トラッキングデータの手伸ばし認識カウンタを一つインクリメントし、ループ処理の終端(図8のL11)に進み、消費者3の手伸ばしを認識しなかったときは、図8のS21に進むこと無く、ループ処理の終端(図8のL11)に進む。
行動解析装置10のRAM10bに生成されるトラッキングデータの内容は、2次元距離データから人物領域を特定した後に、2次元距離データから人物領域を認識できなくなったときに、消費者行動解析手段101によって、行動解析装置10のハーディスク10cに記憶される。
図9で図示した手順は、図8のS13において、消費者行動解析手段101が、2次元距離データから人物領域を特定できなかったときに実行される図8のS30の詳細な内容を記したフローである。
消費者行動解析手段101は、2次元距離データから人物領域を認識できなかったとき、まず、行動解析装置10のRAM10bにトラッキングデータが記憶されているか確認し、処理を分岐させる(図9のS31)。
行動解析装置10のRAM10bにトラッキングデータが記憶されていない場合、図9の手順を終了し、トラッキングデータが記憶されている場合、消費者行動解析手段101は、トラッキングデータの中から消費者の行動を集計するときに利用するデータ(人物ID、滞留フラグ、滞留カウンタの値、前屈み認識カウンタの値、手伸ばし認識カウンタ)を抽出し、抽出したデータから行動履歴データを生成し、生成した行動履歴データをハードディスク10cに記憶した後(図9のS32)、行動解析装置10のRAM10bに生成されていたトラッキングデータを消去して(図9のS33)、図9の手順を終了する。
図14は、図8および図9で図示した手順の内容を説明する図である。図14では、2次元距離データを模式図で図示し、模式図aの2次元距離データから模式図hの2次元距離データの順に時系列でハードディスク10cに記憶されているものとし、更に、模式図aの2次元距離データを行動解析装置10が取得した時点で、行動解析装置10のRAM10bにはトラッキングデータは生成されていないものとする。
図14の模式図aには、人物領域は含まれていないため、消費者行動解析手段101は、トラッキングデータは生成されないが、図14の模式図bには、人物領域は含まれているため、消費者行動解析手段101は、人物IDが「01」のトラッキングデータを生成する。
図14の模式図bから模式図cまでは連続して人物領域が含まれているため、模式図bから模式図cまでを時系列で解析することで、人物IDが「01」のトラッキングデータに消費者3の行動が記憶される。
図14の模式図dには人物領域が含まれておらず、かつ、行動解析装置10のRAM10bにトラッキングデータが生成されているため、行動解析装置10は、行動解析装置10のRAM10bに生成されているトラッキングデータから行動履歴データを生成し、生成した行動履歴データをハードディスク10cに記憶すると共に、行動解析装置10のRAM10bに生成されているトラッキングデータを消去する。
同様に、図14の模式図eには、人物領域は含まれていないため、消費者行動解析手段101は、トラッキングデータは生成されないが、図14の模式図fには、人物領域は含まれているため、消費者行動解析手段101は、人物IDが「02」のトラッキングデータを生成する。
図14の模式図fから模式図gまでは連続して人物領域が含まれているため、模式図fから模式図gまでを時系列で解析することで、人物IDが「02」のトラッキングデータに消費者3の行動が記憶される。
図14の模式図hには人物領域が含まれておらず、かつ、行動解析装置10のRAM10bにトラッキングデータが生成されているため、行動解析装置10は、行動解析装置10のRAM10bに生成されているトラッキングデータから行動履歴データを生成し、生成した行動履歴データをハードディスク10cに記憶すると共に、行動解析装置10のRAM10bに生成されているトラッキングデータを消去する。
ここから、これまで説明した内容に従い、消費者行動集計手段102が、ハードディスク10cに記憶された行動履歴データを集計・出力する内容について説明する。
図15は、行動履歴データの出力の一例を説明する図で、図15(a)は出力データの一例、図15(b)は集計結果の一例である。消費者行動集計手段102は、ハードディスク10cに記憶された行動履歴データを所定のフォーマットで出力する手段で、図15で例示した出力データのフォーマットはCSV形式、このCSV形式の項目には、時刻、ID、滞留時間、滞留判定、手伸ばしの数、そして、前屈みの数が含まれる。
図15の認識時刻、ID、滞留判定、手伸ばしの数および前屈みの数は、それぞれ、行動履歴データの認識時刻、人物ID、滞留フラグの値、手伸ばし認識カウンタの値および前屈みの認識カウンタの値である。また、滞留時間は、行動履歴データの滞留カウンタの値にフレーム間隔時間を乗算して得られる時間である。
図15の出力データのIDの最大値(ここでは、15)から、距離画像センサ11が設置された商品棚2の前に訪れた消費者の総人数(ここでは、15人)がわかる。
また、滞留判定、手伸ばし数および前屈み数それぞれのの合計をカウントすることで、距離画像センサ11が設置された商品棚2の前に滞留した総人数(ここでは、4人)、手伸ばしの総回数(ここでは、5回)および前屈みの総回数(ここでは、2回)がわかる。
消費者3の手伸ばしは、商品棚2に陳列された商品に対する消費者3のアプローチと考えられ、更に、消費者3の前屈みは、商品棚2の下段に陳列された商品に対する消費者3のアプローチと考えることができるため、前屈みの総回数(ここでは、2回)と手伸ばしの総回数(ここでは、5回)を合計した値は、消費者3が棚に注目した行動回数の総数(ここでは、7回)として判断できる。
更に、前屈みの総数と手伸ばしの総数ではなく、前屈み数および手伸ばし数がいずれも「0」でないIDの数をカウントすることで、消費者3が棚に注目した人の総人数(ここでは、3人)がわかる。
なお、本発明は、これまで説明した実施の形態に限定されることなく、当業者ならば、種々の変形や変更が可能である。例えば、距離画像センサと行動解析装置を直接接続しなくとも、距離画像センサから出力される2次元距離データを、一旦、ネットワークアタッチストレージやパーソナルコンピュータに記憶させておき、行動解析装置の消費者行動解析手段が、ネットワークアタッチストレージやパーソナルコンピュータに記憶された2次元距離データを解析するようにすることもできる。
1 行動解析システム
10 行動解析装置
100 距離データ記憶手段
101 消費者行動解析手段
102 消費者行動集計手段
11 距離画像センサ
2 商品棚
3 消費者
10 行動解析装置
100 距離データ記憶手段
101 消費者行動解析手段
102 消費者行動集計手段
11 距離画像センサ
2 商品棚
3 消費者
Claims (9)
- 消費者の行動を解析するシステムであって、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列され、各々の前記画素の距離データが含まれた2次元距離データを出力する距離画像センサと、前記距離画像センサから出力される前記2次元距離データを利用して、消費者の行動を認識する行動解析装置とから構成され、前記行動解析装置は、前記距離画像センサから出力される前記2次元距離データを設定されたフレームレートで取得し、前記2次元距離データをデータ記憶装置に記憶する距離データ記憶手段と、前記距離データ記憶装置に記憶された前記2次元距離データを利用して、前記2次元記距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを前記データ記憶装置に記憶する消費者行動解析手段を備えていることを特徴とする行動解析システム。
- 請求項1に記載の行動解析システムであって、前記距離画像センサは、斜め下方に向けて消費者を撮影するように設置され、前記行動解析装置の前記消費者行動解析手段は、前記人物領域を認識する前に、前記距離画像センサの設置角度および画角を用いて、前記2次元距離データに含まれる各距離データを高さに変換し、変換後の前記2次元距離データを利用して、前記人物領域を認識することを特徴とする行動解析システム。
- 請求項1または請求項2に記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記フレームレートを利用して、人物領域をトラッキングできた時間をカウントし、前記人物領域をトラッキングできた時間が設定時間未満のとき、前記距離画像センサの画角の領域を消費者が通過したと認識することを特徴とする行動解析システム。
- 請求項1から請求項3のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記フレームレートを利用して、前記人物領域をトラッキングできた時間をカウントし、前記人物領域をトラッキングできた時間が設定時間以上のとき、前記距離画像センサの画角の領域を消費者が滞留したと認識することを特徴とする行動解析システム。
- 請求項1から請求項4のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記人物領域をトラッキングしている間、トラッキングしている前記人物領域内における最大高さの変化を時系列的に監視し、最大高さの変化が規定値以上になったとき、前記距離画像センサの画角の領域に存在する消費者が前屈みをしたと認識することを特徴とする行動解析システム。
- 請求項1から請求項5のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、少なくとも、前記人物領域をトラッキングしている間、トラッキングしている前記人物領域の大きさを時系列的に監視し、該人物領域の下部に特定形状の領域が含まれているとき、前記距離画像センサの画角の領域に存在する消費者が手伸ばしをしたと認識することを特徴とする行動解析システム。
- 請求項1から請求項6のいずれか一つに記載の行動解析システムであって、前記行動解析装置の前記消費者行動解析手段は、前記距離画像センサから取得した前記2次元距離データを解析するときに、前記2次元距離データに含まれる距離データを階調に変換することで距離画像を生成し、生成した前記距離画像を前記データ記憶装置に記憶することを特徴とする行動解析システム。
- 消費者の行動を解析する方法であって、消費者の行動を認識する行動解析装置が、画角範囲に存在する物体までの距離データを格納する画素が2次元に配列され、各々の前記画素の距離データが含まれた2次元距離データを出力する距離画像センサから設定されたフレームレートで前記2次元距離データを取得し、前記2次元距離データをデータ記憶装置に記憶する工程aと、前記工程aが実行された後に、前記行動解析装置が、前記データ記憶装置に記憶された前記2次元距離データを利用して、前記2次元距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを前記データ記憶装置に記憶する工程bが実行されることを特徴とする行動解析方法。
- 画角範囲に存在する物体までの距離データを格納する画素が2次元に配列された距離画像センサから出力され、各々の前記画素の距離データが含まれた2次元距離データを、前記距離画像センサから所定のフレームレートで取得し、データ記憶装置に記憶する距離データ記憶手段と、前記距離データ記憶装置に記憶された前記2次元距離データを利用して、前記2次元記距離データに含まれる人物領域を認識し、認識した人物領域の時系列的にトラッキングすることで消費者の行動を判別し、判別した消費者の行動を記した行動履歴データを前記データ記憶装置に記憶する消費者行動解析手段を、コンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008233814A JP2010067079A (ja) | 2008-09-11 | 2008-09-11 | 行動解析システムおよび行動解析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008233814A JP2010067079A (ja) | 2008-09-11 | 2008-09-11 | 行動解析システムおよび行動解析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010067079A true JP2010067079A (ja) | 2010-03-25 |
Family
ID=42192604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008233814A Pending JP2010067079A (ja) | 2008-09-11 | 2008-09-11 | 行動解析システムおよび行動解析方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010067079A (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025478A (ja) * | 2011-07-19 | 2013-02-04 | Panasonic Corp | 作業検知システム |
JP2013058054A (ja) * | 2011-09-08 | 2013-03-28 | Dainippon Printing Co Ltd | 移動体追跡装置、移動体追跡方法及びプログラム |
EP2613529A3 (en) * | 2011-07-21 | 2013-07-17 | Lee S. Weinblatt | Monitoring system including an array of cameras for eye movement recording |
JP2014002502A (ja) * | 2012-06-18 | 2014-01-09 | Dainippon Printing Co Ltd | 手のばし検出装置、手のばし検出方法及びプログラム |
CN103577827A (zh) * | 2012-07-20 | 2014-02-12 | 株式会社日立制作所 | 图像识别装置以及电梯装置 |
JP5632512B1 (ja) * | 2013-07-02 | 2014-11-26 | パナソニック株式会社 | 人物行動分析装置、人物行動分析システムおよび人物行動分析方法、ならびに監視装置 |
JP2017162432A (ja) * | 2016-03-07 | 2017-09-14 | 株式会社リコー | 画像処理システム、情報処理装置、情報端末、プログラム |
JP2017213593A (ja) * | 2016-06-02 | 2017-12-07 | コマツ産機株式会社 | コントローラ、鍛圧機械、および制御方法 |
JP2017213594A (ja) * | 2016-06-02 | 2017-12-07 | コマツ産機株式会社 | コントローラ、鍛圧機械、および制御方法 |
US10063843B2 (en) | 2015-09-15 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for estimating three-dimensional position of object in image |
JP2019075083A (ja) * | 2017-10-18 | 2019-05-16 | 株式会社TanaーX | 情報収集システム |
JP2019194926A (ja) * | 2019-08-06 | 2019-11-07 | 日本電気株式会社 | Pos端末装置、posシステム、画像処理方法及びプログラム |
CN111681018A (zh) * | 2019-03-11 | 2020-09-18 | 宏碁股份有限公司 | 顾客行为分析方法与顾客行为分析系统 |
JP2020204942A (ja) * | 2019-06-18 | 2020-12-24 | 凸版印刷株式会社 | 顧客情報取得支援システム及び顧客情報取得支援方法 |
JP2021002290A (ja) * | 2019-06-24 | 2021-01-07 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004054536A (ja) * | 2002-07-19 | 2004-02-19 | Matsushita Electric Works Ltd | 広域監視システム |
-
2008
- 2008-09-11 JP JP2008233814A patent/JP2010067079A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004054536A (ja) * | 2002-07-19 | 2004-02-19 | Matsushita Electric Works Ltd | 広域監視システム |
Non-Patent Citations (2)
Title |
---|
CSNG200500123003; 藤本 喜彦: '店舗内に設置した全方位視覚センサによる顧客の行動解析' 情報処理学会研究報告 Vol.2004 No.6 第2004巻, 20040123, 第17-22ページ, 社団法人情報処理学会 * |
JPN6012055814; 藤本 喜彦: '店舗内に設置した全方位視覚センサによる顧客の行動解析' 情報処理学会研究報告 Vol.2004 No.6 第2004巻, 20040123, 第17-22ページ, 社団法人情報処理学会 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013025478A (ja) * | 2011-07-19 | 2013-02-04 | Panasonic Corp | 作業検知システム |
EP2613529A3 (en) * | 2011-07-21 | 2013-07-17 | Lee S. Weinblatt | Monitoring system including an array of cameras for eye movement recording |
JP2013058054A (ja) * | 2011-09-08 | 2013-03-28 | Dainippon Printing Co Ltd | 移動体追跡装置、移動体追跡方法及びプログラム |
JP2014002502A (ja) * | 2012-06-18 | 2014-01-09 | Dainippon Printing Co Ltd | 手のばし検出装置、手のばし検出方法及びプログラム |
CN103577827A (zh) * | 2012-07-20 | 2014-02-12 | 株式会社日立制作所 | 图像识别装置以及电梯装置 |
CN103577827B (zh) * | 2012-07-20 | 2016-12-28 | 株式会社日立制作所 | 图像识别装置以及电梯装置 |
JP5632512B1 (ja) * | 2013-07-02 | 2014-11-26 | パナソニック株式会社 | 人物行動分析装置、人物行動分析システムおよび人物行動分析方法、ならびに監視装置 |
JP2015011649A (ja) * | 2013-07-02 | 2015-01-19 | パナソニック株式会社 | 人物行動分析装置、人物行動分析システムおよび人物行動分析方法、ならびに監視装置 |
US10063843B2 (en) | 2015-09-15 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for estimating three-dimensional position of object in image |
JP2017162432A (ja) * | 2016-03-07 | 2017-09-14 | 株式会社リコー | 画像処理システム、情報処理装置、情報端末、プログラム |
JP2017213594A (ja) * | 2016-06-02 | 2017-12-07 | コマツ産機株式会社 | コントローラ、鍛圧機械、および制御方法 |
JP2017213593A (ja) * | 2016-06-02 | 2017-12-07 | コマツ産機株式会社 | コントローラ、鍛圧機械、および制御方法 |
US10685450B2 (en) | 2016-06-02 | 2020-06-16 | Komatsu Industries Corporation | Controller, forming machine, and control method |
JP2019075083A (ja) * | 2017-10-18 | 2019-05-16 | 株式会社TanaーX | 情報収集システム |
CN111681018A (zh) * | 2019-03-11 | 2020-09-18 | 宏碁股份有限公司 | 顾客行为分析方法与顾客行为分析系统 |
JP2020204942A (ja) * | 2019-06-18 | 2020-12-24 | 凸版印刷株式会社 | 顧客情報取得支援システム及び顧客情報取得支援方法 |
JP2021002290A (ja) * | 2019-06-24 | 2021-01-07 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7378232B2 (ja) | 2019-06-24 | 2023-11-13 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2019194926A (ja) * | 2019-08-06 | 2019-11-07 | 日本電気株式会社 | Pos端末装置、posシステム、画像処理方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010067079A (ja) | 行動解析システムおよび行動解析方法 | |
US9536153B2 (en) | Methods and systems for goods received gesture recognition | |
JP4972491B2 (ja) | 顧客動作判定システム | |
KR102189205B1 (ko) | 사람의 활동 개요 생성 시스템 및 방법 | |
JP6508419B2 (ja) | 画像表示装置、画像表示システム、画像表示方法及びプログラム | |
JP7251569B2 (ja) | 店舗装置、店舗管理方法、プログラム | |
US9699419B2 (en) | Image processing apparatus and image processing method | |
JP6590609B2 (ja) | 画像解析装置及び画像解析方法 | |
CN108051777B (zh) | 目标的追踪方法、装置及电子设备 | |
JP6731097B2 (ja) | 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体 | |
CN109353397B (zh) | 商品管理方法、装置和系统及存储介质及购物车 | |
JP2015011649A (ja) | 人物行動分析装置、人物行動分析システムおよび人物行動分析方法、ならびに監視装置 | |
JP2011253344A (ja) | 購買行動分析装置、購買行動分析方法、およびプログラム | |
US20230412774A1 (en) | Video monitoring apparatus, control method thereof, and computer readable medium | |
WO2017163879A1 (ja) | 行動分析装置、行動分析システム、行動分析方法及びプログラム | |
US20180293598A1 (en) | Personal behavior analysis device, personal behavior analysis system, and personal behavior analysis method | |
US11315294B2 (en) | Information processing device, display method, and program storage medium for monitoring object movement | |
Ghorbel et al. | 3D real-time human action recognition using a spline interpolation approach | |
JP2010009444A (ja) | 商品関心度計測装置 | |
KR101355206B1 (ko) | 영상분석을 이용한 출입 계수시스템 및 그 방법 | |
JP7010030B2 (ja) | 店内監視装置、店内監視方法、および店内監視プログラム | |
JP4338147B2 (ja) | 商品関心度計測装置 | |
CN110110688B (zh) | 一种信息分析方法及系统 | |
JP2014002502A (ja) | 手のばし検出装置、手のばし検出方法及びプログラム | |
EP4160533A1 (en) | Estimation program, estimation method, and estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110616 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121030 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130611 |