JP2021168073A - 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 - Google Patents

行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 Download PDF

Info

Publication number
JP2021168073A
JP2021168073A JP2020071749A JP2020071749A JP2021168073A JP 2021168073 A JP2021168073 A JP 2021168073A JP 2020071749 A JP2020071749 A JP 2020071749A JP 2020071749 A JP2020071749 A JP 2020071749A JP 2021168073 A JP2021168073 A JP 2021168073A
Authority
JP
Japan
Prior art keywords
information
behavior
person
management device
behavior management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020071749A
Other languages
English (en)
Inventor
昌希 内田
Masaki Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2020071749A priority Critical patent/JP2021168073A/ja
Publication of JP2021168073A publication Critical patent/JP2021168073A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】効果的なマーケティングを行うことを可能にする行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置を提供する。【解決手段】行動管理装置1は、店舗SP内に設置された1以上のカメラ4から画像データを受信するセンシング情報受信部12と、センシング情報受信部12が受信した画像データに基づいて店舗SP内の人物を特定する人物特定部13と、特定した人物及び同時に特定した人物の組合せに関する特徴となる属性情報を推定する属性取得部15と、人物特定部13により特定した人物の言動を示す言動情報を取得する言動情報取得部16と、人物の購買情報を取得する購買情報取得部17と、属性取得部15により取得した属性情報と、言動情報取得部16により取得した言動情報と、購買情報取得部17により取得した購買情報とを関連付けて行動DB32に記憶する関連付け部18と、を備える。【選択図】図2

Description

本発明は、行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置に関する。
従来、IoT(Internet of Things)技術の進歩により、IoTに対応した機器を用いて、様々な情報を取得することが可能になっている。例えば、店舗内等の追跡領域内で移動する人物を追跡する追跡システムが提案されている(例えば、特許文献1)。
特開2011−2896号公報
特許文献1に記載の技術を用いて人物を追跡することで、例えば、人物が商品の購入に至る経緯や、未購入のまま退出に至る経緯を把握することができ、取得した情報をマーケティングに活用することができる。
しかし、更なる効果的なマーケティングを行うためには、人物の移動に関する情報以外の更なる情報が必要であると考えた。
本発明は、効果的なマーケティングを行うことを可能にする行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置を提供することを目的とする。
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、所定空間内に設置された1以上のセンシング装置からセンシング情報を受信するセンシング情報受信手段と、前記センシング情報受信手段が受信した前記センシング情報に基づいて前記所定空間内の人物を特定し、特定した前記人物及び同時に特定した人物の組合せに関する特徴となる属性情報を推定する人物特定手段と、前記人物特定手段により特定した前記人物の言動を示す言動情報を、前記センシング情報を用いて取得する言動情報取得手段と、前記人物の購買に係る情報を取得する購買情報取得手段と、前記人物特定手段により取得した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買情報取得手段により取得した前記購買に係る情報とを関連付けて行動データベースに記憶する情報記憶手段と、を備える、行動管理装置である。
第2の発明は、第1の発明の行動管理装置において、前記人物特定手段が特定した前記人物に対して一意の識別情報を付与する識別情報付与手段を備え、前記情報記憶手段は、前記言動情報に、前記識別情報をさらに関連付ける、行動管理装置である。
第3の発明は、第1の発明又は第2の発明の行動管理装置において、前記人物特定手段は、特定した前記人物の性別及び年齢に関する前記属性情報をさらに取得する、行動管理装置である。
第4の発明は、第1の発明から第3の発明までのいずれかの行動管理装置において、特定人物を識別可能な特定人物情報を記憶する特定人物記憶部を備え、前記人物特定手段は、前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部の前記特定人物情報とを用いて未知の人物を特定する、行動管理装置である。
第5の発明は、第4の発明の行動管理装置において、前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部に記憶された前記特定人物情報とに基づいて、前記特定人物の前記言動情報である特定人物言動情報を取得する特定人物言動取得手段を備え、前記情報記憶手段は、前記未知の人物の前記言動情報に、前記特定人物言動取得手段により取得した前記特定人物の前記特定人物言動情報をさらに関連付ける、行動管理装置である。
第6の発明は、第1の発明から第5の発明までのいずれかの行動管理装置において、前記センシング情報は、前記センシング装置により情報を取得した日時情報を含み、前記言動情報取得手段は、前記日時情報に基づいて時系列にした前記言動情報を取得する、行動管理装置である。
第7の発明は、第1の発明から第6の発明までのいずれかの行動管理装置において、前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、前記分類手段による分類ごとの前記言動情報に基づく購買結果を分析する情報分析手段と、前記情報分析手段による分析結果を出力する分析結果出力手段と、を備える、行動管理装置である。
第8の発明は、第1の発明から第7の発明までのいずれかの行動管理装置としてコンピュータを機能させるための行動管理プログラムである。
第9の発明は、第1の発明から第7の発明までのいずれかの行動管理装置と、前記センシング装置と、を備えた行動管理システムであって、前記センシング装置は、前記所定空間内における前記人物の出入りを含む前記センシング情報を取得し、前記行動管理装置の前記情報記憶手段は、前記言動情報取得手段により取得した前記言動情報により、前記人物が前記所定空間内から外へ出たことが確認できた場合に、前記人物特定手段により推定した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買に係る情報とを関連付けて前記行動データベースに記憶する、行動管理システムである。
第10の発明は、第9の発明の行動管理システムにおいて、前記センシング装置は、カメラ及びマイクのうち少なくとも一方を含み、前記センシング情報は、前記カメラにより取得する画像及び前記マイクにより取得する音声のうち少なくとも一方を含む、行動管理システムである。
第11の発明は、第1の発明から第6の発明までのいずれかの行動管理装置が備える前記行動データベースを用いた行動分析装置であって、前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、前記分類手段による分類ごとの前記言動情報に基づく購買結果を分析する情報分析手段と、前記情報分析手段による分析結果を出力する分析結果出力手段と、を備える行動分析装置である。
本発明によれば、効果的なマーケティングを行うことを可能にする行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置を提供することができる。
第1実施形態に係る行動管理システムの使用環境の例を示す図である。 第1実施形態に係る行動管理装置の機能ブロックを示す図である。 第1実施形態に係る行動管理装置での情報登録処理を示すフローチャートである。 第1実施形態に係る行動管理装置での言動取得処理を示すフローチャートである。 第1実施形態に係る行動管理システムでの実施例を示す図である。 第1実施形態に係る行動管理装置の行動DBに記憶されるデータ例を示す図である。 第1実施形態に係る行動管理装置での行動分析処理を示すフローチャートである。 第2実施形態に係る行動管理システムでの実施例を示す図である。 第2実施形態に係る行動管理装置の機能ブロックを示す図である。 第2実施形態に係る行動管理装置での言動取得処理を示すフローチャートである。 第2実施形態に係る行動管理装置の行動DBに記憶されるデータ例を示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(第1実施形態)
<行動管理システム100>
図1は、第1実施形態に係る行動管理システム100の使用環境の例を示す図である。
図2は、第1実施形態に係る行動管理装置1の機能ブロックを示す図である。
行動管理システム100は、行動管理装置1(後述する)が、例えば、貴金属店等の有人店舗において、出入口Dから入ってきた来店者の属性情報と、この有人店舗の店員との両方の言動情報と、来店者の購買情報とを関連付ける。そして、行動管理システム100は、行動管理装置1が、関連付けられた情報を分類及び分析し、分析結果を出力することで、効果的なマーケティングを行うことを可能にするシステムである。
図1に示すように、行動管理システム100による言動情報及び購買情報を取得する範囲は、店舗SP(所定空間)である。つまり、行動管理システム100は、店舗SPの来店者(未知の人物)及び店員(特定人物)を対象にする。店舗SPには、複数台のカメラ4(センシング装置)が設けられている。複数台のカメラ4により、店舗SPの全ての範囲が撮影可能になっている。また、店舗SPには、会計を行うレジスタ8が設けられている。さらに、店舗SPには、複数のショーケース9が設けられている。なお、図1に示す店舗SPは、一例である。
図2に示すように、行動管理システム100は、行動管理装置1と、カメラ4とを備える。図2には、カメラ4は、1つが記載されているが、図1に示すように、行動管理システム100では、カメラ4を複数台備えるのが一般的である。行動管理装置1と、カメラ4とは、通信ネットワークNを介して通信可能に接続されている。
<行動管理装置1>
行動管理装置1は、カメラ4から受信した画像データ(センシング情報)に基づく各種の処理を行う装置である。行動管理装置1は、例えば、サーバである。
行動管理装置1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
制御部10は、行動管理装置1の全体を制御するCPU(中央処理装置)である。制御部10は、記憶部30に記憶されているOS(オペレーションシステム)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、情報登録処理部11と、情報分析処理部21とを備える。
情報登録処理部11は、カメラ4から画像データを受信し、画像データに含まれる人物の属性情報と、言動情報と、購買情報とを関連付ける処理を行う。
情報登録処理部11は、センシング情報受信部12(センシング情報受信手段)と、人物特定部13(人物特定手段)と、ID(IDentification)付与部14(識別情報付与手段)と、属性取得部15(人物特定手段)と、言動情報取得部16(言動情報取得手段、特定人物言動情報取得手段)と、購買情報取得部17(購買情報取得手段)と、関連付け部18(情報記憶手段)とを備える。
センシング情報受信部12は、店舗SP内に設置された各カメラ4から画像データを受信する。センシング情報受信部12は、受信した画像データを、受信した日時情報に関連付ける。
人物特定部13は、センシング情報受信部12が受信した画像データに基づいて店舗SP内の人物を特定する。人物特定部13は、例えば、画像データに対して画像認識処理を行って人物を特定する。画像データから人物を特定する方法としては、様々な公知の手法により行うことができる。ここで、人検出の手法としては、例えば、HOG特徴量を用いるものがある。HOG特徴量を用いた人検出に関しては、「N.Dalal and B.Triggs.Histograms of Oriented Gradients for Human Detection.In CVPR,pages886−893,2005」に記載されている。
そして、人物特定部13は、特定した人物の特徴を、画像データから取得する。人物の特徴としては、例えば、体形、服装、髪型等であってよく、画像データから得られた特徴量等の数値であってもよい。
また、人物特定部13は、センシング情報受信部12が受信した画像データと、特定人物記憶部33に記憶された店員の特徴とを用いて、店員を特定する。
ID付与部14は、人物特定部13が特定した店員を除く人物である来店者に固有のID(識別情報)を付与する。以下、付与するIDを、来店者IDともいう。ID付与部14が付与した来店者IDは、一意の識別情報である。ID付与部14が付与した来店者IDは、当該来店者IDに対応する人物が出入口Dから出るまで、その人物を識別するのに用いる。
属性取得部15は、人物特定部13が特定した来店者の属性情報を取得する。属性取得部15は、属性情報として、画像データを分析することにより得られる年齢や性別に関する情報を取得する。また、属性取得部15は、特定した人物及び同時に特定した人物の組合せに関する特徴となる属性情報として、複数の人物の関係性等の情報を推定する。
言動情報取得部16は、ID付与部14により来店者IDを付与した人物の店舗SP内における言動を示す言動情報を取得する。言動は、例えば、会話内容、表情、感情、移動経路、動作等々といった多様な概念を含む。
言動情報取得部16は、例えば、ID付与部14により来店者IDを付与した人物の店舗SP内における移動を、画像データを用いて追跡する。言動情報取得部16は、来店者IDを付与した人物の画像の特徴を取得して、取得した特徴に基づいてトラッキングする。
また、言動情報取得部16は、ID付与部14により来店者IDを付与した人物の店舗SP内における感情データ(感情を示す情報)を、例えば、画像データを分析することで得られる人物の表情から推定する。
まず、顔検出の手法としては、例えば、Haar−like特徴を用いるものがある。Haar−like特徴を用いた顔検出に関しては、「P.Viola and M.J.Jones:“Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,pp.511−518,(2001).」に記載されている。
そして、言動情報取得部16は、検出した画像データの顔画像に対して画像認識処理を行った結果として、顔画像から表情が笑顔であると認識されれば、大らかな状態であるといった感情データを得ることができる。ここで、表情と感情データとの対応付けを予め記憶部30に記憶させておき、言動情報取得部16は、この対応付けを用いて感情データを得てもよい。
さらに、言動情報取得部16は、人物特定部13で特定した店員に関しても、来店者と同様に、言動情報(特定人物言動情報)を取得する。
購買情報取得部17は、ID付与部14により来店者IDを付与した人物の購買情報(購買に係る情報)を取得する。購買情報取得部17は、画像データを分析して、例えば、来店者がレジスタ8に近傍の位置に一定時間以上滞在している場合に、購買したと推定する。また、購買情報取得部17は、購買商品を、例えば、画像データを分析することで取得する。
他方、購買情報取得部17は、画像データを分析して、例えば、来店者がレジスタ8に近傍の位置に一定時間以上滞在していない場合や、レジスタ8に近傍の位置に近づかずに出入口Dから退店した場合に、購買しなかったと推定する。
関連付け部18は、属性取得部15で取得及び推定した属性情報と、言動情報取得部16で取得した言動情報と、購買情報取得部17で取得した購買情報とを関連付けて、行動DB(データベース)32に記憶させる。ここで、言動情報に関連付ける購買情報は、購買があった場合には、購買商品を含む情報であり、購買がなかった場合には、購買なしの旨の情報である。
情報分析処理部21は、行動DB32に記憶された属性情報と言動情報と購買情報との関連付けに基づいて、情報を分析する処理を行う。
情報分析処理部21は、分類部22(分類手段)と、情報分析部23(情報分析手段)と、分析結果出力部24(分析結果出力手段)とを備える。
分類部22は、行動DB32に記憶された属性情報に基づいて分類分けをする。例えば、分類部22は、属性情報として、例えば、一人客と、カップルの客とについて、分類してもよい。また、分類部22は、一人客の場合及びカップル客の場合のそれぞれについて、年齢や性別によって分類してもよい。
情報分析部23は、分類部22による分類ごとの言動情報に基づく購買結果を分析する。
分析結果出力部24は、情報分析部23による分析結果を、例えば、行動管理装置1に対して通信可能に接続された図示しない表示装置に出力する。
記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
なお、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、行動管理装置1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。
記憶部30は、プログラム記憶部31と、行動DB32と、特定人物記憶部33と、センシング装置位置記憶部34とを備える。
プログラム記憶部31は、各種のプログラムを記憶する記憶領域である。プログラム記憶部31は、行動管理プログラム31aを記憶している。
行動管理プログラム31aは、上記した制御部10が行う各種機能を実行するためのアプリケーションプログラムである。
行動DB32は、上記した情報登録処理部11で取得した属性情報と、言動情報と、購買情報とを関連付けて記憶するデータベースである。
特定人物記憶部33は、店員情報を記憶する記憶領域である。特定人物記憶部33は、例えば、店員を識別するための販売員IDをキーとして、店員の画像の特徴データ(特定人物情報)を予め記憶しておく。
センシング装置位置記憶部34は、各カメラ4のIDと、各カメラ4が撮影する店舗SPにおける撮影領域とを対応付けて記憶する記憶領域である。
通信インタフェース部39は、カメラ4等との間で通信を行うためのインタフェースである。
<カメラ4>
カメラ4は、店舗SP内をくまなく撮影するために、店舗SPに複数設置されている。そして、カメラ4は、店舗SPに来店した来店者及び店舗SPで接客する店員を撮影する。
カメラ4は、通信ネットワークNを介して行動管理装置1に接続されている。カメラ4が撮影した画像データは、行動管理装置1に送信される。
<通信ネットワークN>
通信ネットワークNは、行動管理装置1と、カメラ4との間のネットワークであり、例えば、インターネット回線等の通信網である。通信ネットワークNは、全てが無線による通信であってもよいし、有線による通信であってもよい。
次に、行動管理システム100での処理について説明する。
<情報登録処理>
図3は、第1実施形態に係る行動管理装置1での情報登録処理を示すフローチャートである。
図4は、第1実施形態に係る行動管理装置1での言動取得処理を示すフローチャートである。
以下に説明する情報登録処理は、行動管理装置1が店舗SPに滞在中の来店者の属性情報、言動情報及び購買情報を取得して行動DB32に記憶する処理である。よって、来店者ごとに当該処理が行われる。
図3のステップS(以下、単に「S」という。)11において、行動管理装置1の情報登録処理部11(センシング情報受信部12)は、各カメラ4から画像データを受信する。
S12において、情報登録処理部11(人物特定部13)は、受信した画像データによって、出入口Dから入店する人物を確認したか否かを判断する。確認した場合(S12:YES)には、情報登録処理部11は、処理をS13に移す。確認していない場合(S12:NO)には、情報登録処理部11、処理をS11に移し、出入口Dから入店する人物を確認するまで当該処理を繰り返す。
S13において、情報登録処理部11(人物特定部13)は、画像データに基づいて人物を特定する。
S14において、情報登録処理部11(人物特定部13)は、特定した人物が店員であるか否かを判断する。情報登録処理部11は、特定人物記憶部33に記憶された店員の特徴を用いて、特定した人物が店員であるか否かを判断できる。店員である場合(S14:YES)には、情報登録処理部11は、処理をS18に移す。他方、店員ではない場合(S14:NO)には、情報登録処理部11は、処理をS15に移す。店員ではない場合とは、特定された人物が来店者である場合をいう。
S15において、情報登録処理部11(属性取得部15)は、画像データに基づいて来店者の属性情報を取得及び推定する。
S16において、情報登録処理部11は、言動取得処理を行う。
ここで、言動取得処理について、図4に基づき説明する。
図4のS31において、情報登録処理部11(言動情報取得部16)は、来店者の位置情報を取得する。情報登録処理部11は、来店者の位置情報を、例えば、センシング装置位置記憶部34を参照し、来店者を含む画像を撮影したカメラ4に対応する位置情報を特定して、特定した位置情報とする。
S32において、情報登録処理部11(言動情報取得部16)は、来店者の感情データを取得する。情報登録処理部11は、画像データを分析することで来店者の表情を得る。そして、情報登録処理部11は、取得した表情から来店者の感情を推定する。
S33において、情報登録処理部11(言動情報取得部16)は、来店者のトラッキングの結果、来店者がレジスタ8の位置に一定時間とどまっているか否かを判断する。とどまっている場合(S33:YES)には、情報登録処理部11は、処理をS34に移す。他方、とどまっていない場合(S33:NO)には、情報登録処理部11は、処理をS35に移す。
S34において、情報登録処理部11(購買情報取得部17)は、購買情報を取得する。
S35において、情報登録処理部11(センシング情報受信部12)は、画像データを受信する。その後、情報登録処理部11は、処理を図3のS17に移す。
図3のS17において、情報登録処理部11(人物特定部13)は、当該人物である来店者が、店舗SPの出入口Dから退店するのを確認したか否かを判断する。退店を確認した場合(S17:YES)には、情報登録処理部11は、処理をS19に移す。他方、退店を確認していない場合(S17:NO)には、情報登録処理部11は、処理をS16に移し、言動取得処理を繰り返す。この言動取得処理によって、情報登録処理部11は、来店者の位置情報を常に取得するので、来店者の移動を時系列にトラッキングできる。また、情報登録処理部11は、来店者の感情データを常に取得するので、来店者の移動と共に時系列に来店者の感情データを得ることができる。
他方、S18において、情報登録処理部11(言動情報取得部16)は、店員言動取得処理を行う。店員言動取得処理は、来店者の場合と同様に、位置情報に基づくトラッキングを行い、感情データを取得する処理である。
S19において、情報登録処理部11(関連付け部18)は、取得した各情報を、行動DB32に関連付けて記憶する。その後、情報登録処理部11は、本処理を終了する。
次に、取得する言動情報について、具体例に基づき説明する。
図5は、第1実施形態に係る行動管理システム100での実施例を示す図である。
図6は、第1実施形態に係る行動管理装置1の行動DB32に記憶されるデータ例を示す図である。
図5では、店舗SP内のショーケース9で商品の購入を進める店員C1と、店員C1に対面している来店者P1及びP2とを示す。店舗SPに設けられた複数台のカメラ4は、店員C1と、来店者P1及びP2とを撮影している。
図6は、情報登録処理によって行動DB32に登録された図5の例での情報例を示す。
行動DB32は、来店者IDと、属性情報と、言動情報と、店員情報と、購買情報とを関連付けて記憶する。
図6に示す来店者IDが「0001」の来店者は、図5の来店者P1に対応し、来店者IDが「0002」の来店者は、図5の来店者P2に対応する。また、図5の店員C1は、来店者IDが「0001」と来店者IDが「0002」の来店者P1及びP2を接客している。
来店者IDが「0001」である来店者P1と、来店者IDが「0002」である来店者P2とが共に行動しているので、行動管理装置1は、属性情報として、来店者P1と来店者P2とがカップルであると推定する。また、行動管理装置1は、属性情報として、来店者P1と来店者P2との各々の年齢や性別のデータを得る。
さらに、行動管理装置1は、言動情報として、来店者IDが「0001」である来店者P1が笑顔であったのに対して、来店者IDが「0002」である来店者P2が泣き顔になったため、来店者P1が焦り顔になり、来店者P2が真顔に変化したとのデータを得る。そして、行動管理装置1は、言動情報として、店員C1が笑顔で接客しているとのデータを得る。その後、行動管理装置1は、言動情報及び購買情報として、来店者P1及びP2が商品を購買したとのデータを得る。
また、図6に示す例では、行動管理装置1は、来店者IDが「0003」の者が1人で来店したとの属性情報を推定し、別のショーケース9を見た後に退店したことを示す言動情報を得る。
このように、行動管理システム100では、行動管理装置1による情報登録処理によって、来店者の属性情報、言動情報及び購買情報が関連付けられて行動DB32に登録することができる。また、接客した店員の言動情報を、行動DB32にさらに関連付けることができる。
そして、行動DB32に登録する情報は、来店者の個人を特定する情報を含まない。よって、情報の管理が容易なものにできる。
次に、行動DB32に登録した情報の利用について説明する。
<行動分析処理>
図7は、第1実施形態に係る行動管理装置1での行動分析処理を示すフローチャートである。
この処理は、例えば、店舗SPを運営するユーザが、行動DB32に登録された情報を分析したいタイミングで行われる。
図7のS41において、行動管理装置1の情報分析処理部21(分類部22)は、行動DB32に記憶されている属性情報に基づいてデータを分類する。情報分析処理部21は、属性情報として、例えば、一人客か、カップルか、同性の複数客か、といったものに基づいてデータを分類してもよい。また、情報分析処理部21は、属性情報として、例えば、性別や年代に基づいてデータを分類してもよい。
S42において、情報分析処理部21(情報分析部23)は、分類ごとに言動情報に基づく購買結果を分析する。情報分析処理部21は、例えば、一人客の来店者の表情や感情を購買傾向ごとに分析し、カップルの表情や感情を購買傾向ごとに分析する。一例として、情報分析処理部21は、来店時に怒っている一人客の来店者は、高価な商品を購入することが多い、といった分析ができる。
S43において、情報分析処理部21(分析結果出力部24)は、分析結果を出力する。情報分析処理部21は、例えば、カップルでパンフレットを手に取っている来店者は、購買する確率が高い等の分析結果を出力することができる。
なお、情報分析処理部21は、分析に用いる情報を、ユーザに選択させてもよい。
このように、第1実施形態の行動管理システム100によれば、以下のような効果がある。
(1)行動管理装置1は、店舗SP内の来店者を特定し、特定した来店者の組み合わせに関する特徴を、属性情報として推定できる。また、行動管理装置1は、特定した来店者の移動の軌跡と、来店者の表情から推定される感情データとを、言動情報として取得できる。さらに、行動管理装置1は、来店者の購買情報を取得して、言動情報に関連付けて行動DB32に登録する。
よって、属性情報と言動情報と購買情報とが関連付けられた行動DB32を、効果的なマーケティングを行うための分析に用いることができる。
(2)来店者に来店者IDを付与するので、来店者IDを用いて来店者を識別できる。
また、来店者自身の属性情報を取得するので、来店者自身の属性情報を言動情報にさらに関連付けて行動DB32に登録できる。よって、効果的なマーケティングを行うための分析に、来店者自身の属性情報をさらに用いることができ、多面的に分析を行うことができる。
(3)来店者と店員とを識別し、それぞれの言動情報を取得して関連付ける。よって、来店者の言動情報に店員の言動情報を加味して分析を行うことができる。
(4)行動DB32に登録された属性情報と言動情報と購買情報との関連付けを用いて、購買に係る分類を行った後に行動分析を行うので、取得した様々な情報を、効果的なマーケティングを行うための分析に用いることができる。
分析結果をユーザに出力するので、マーケティングに生かすことができる。
(第2実施形態)
第2実施形態では、言動情報に音声データから得たものを含むものを説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
図8は、第2実施形態に係る行動管理システム200での実施例を示す図である。
図9は、第2実施形態に係る行動管理装置201の機能ブロックを示す図である。
図8に示すように、行動管理システム200では、店舗SP内に複数台のカメラ4の他に、マイク205が、例えば、各ショーケース9に載置され、店員C1や来店者P1及びP2の音声データ(センシング情報)を取得する。そして、行動管理システム200では、音声データを用いて言動情報を取得する。
図9に示すように、行動管理システム200は、行動管理装置201と、カメラ4と、マイク205とを備える。行動管理装置201と、カメラ4と、マイク205とは、通信ネットワークNを介して通信可能に接続されている。
<行動管理装置201>
行動管理装置1は、カメラ4から受信した画像データと、マイク205から受信した音声データとに基づく各種の処理を行う装置である。
行動管理装置201は、制御部210と、記憶部230と、通信インタフェース部39とを備える。
制御部210は、情報登録処理部211と、情報分析処理部21とを備える。
情報登録処理部211は、カメラ4から画像データを受信し、マイク205から音声データを受信して、画像データに含まれる人物の属性情報及び言動情報と、購買情報とを関連付ける処理を行う。
情報登録処理部211は、センシング情報受信部212と、人物特定部213と、ID付与部14と、属性取得部215と、言動情報取得部216と、購買情報取得部17と、関連付け部18とを備える。
センシング情報受信部212は、店舗SP内に設置された各カメラ4から画像データを受信する。また、センシング情報受信部212は、店舗SP内に設置された各マイク205から音声データを受信する。
人物特定部213は、センシング情報受信部212が受信した画像データ及び音声データに基づいて店舗SP内の人物を特定する。音声データから人物を特定する方法としては、様々な公知の手法により行うことができる。人物特定部213は、例えば、音声データに対して音声認識処理を行って音声の特徴によって人物を特定できる。
属性取得部215は、人物特定部213が特定した来店者の属性情報を取得する。属性取得部215は、属性情報として、画像データ及び音声データを分析することにより得られる年代や性別に関する情報等を取得する。また、属性取得部215は、画像データ及び音声データを分析することにより得られる、特定した人物及び同時に特定した人物の組合せに関する特徴となる属性情報として、複数の人物の関係性等の情報を推定する。
言動情報取得部216は、来店者IDを付与した人物の店舗SP内における言動を示す言動情報を取得する。言動情報取得部16は、例えば、人物の店舗SP内における移動を、画像データ及び音声データを用いて追跡する。店舗SPにおいて、例えば、各ショーケース9にマイク205を設置しておけば、どのショーケース9の近くに来店者がいるかを、取得した音声データの音量や足音等の音自体によって得ることができる。また、言動情報取得部216は、来店者IDを付与した人物の画像の特徴を取得して、取得した特徴に基づいてトラッキングする。
さらに、言動情報取得部216は、来店者IDを付与した人物の店舗SP内における感情を、画像データ及び音声データを分析することで推定する。音声データの場合、言動情報取得部216は、取得した音声データから早口であることを分析した場合に、来店者は、焦っている状態であるといった感情データを得ることができる。
記憶部230は、プログラム記憶部231と、行動DB32と、特定人物記憶部33と、センシング装置位置記憶部234とを備える。
プログラム記憶部231は、行動管理プログラム231aを記憶している。
行動管理プログラム231aは、上記した制御部210が行う各種機能を実行するためのアプリケーションプログラムである。
センシング装置位置記憶部234は、各カメラ4のIDと、各カメラ4が撮影する店舗SPにおける撮影領域とを対応付けて記憶する記憶領域である。また、センシング装置位置記憶部234は、各マイク205のIDと、各マイク205が設置された店舗SPにおける位置とを対応付けて記憶する記憶領域である。
<マイク205>
マイク205は、店舗SP内における来店者と店員との会話等を取得するために、店舗SPに複数設置されている。この例では、マイク205は、各ショーケース9の上に載置されている。そして、マイク205は、店舗SPに来店した来店者及び店舗SPで接客する店員の会話を集音する。
マイク205は、通信ネットワークNを介して行動管理装置201に接続されている。マイク205が集音した音声データは、行動管理装置201に送信される。
次に、行動管理システム200での処理について説明する。
<情報登録処理>
行動管理装置201が行う情報登録処理は、第1実施形態(図3)と同様である。
但し、図3のS11に対応する処理において、行動管理装置201の情報登録処理部211(センシング情報受信部212)は、各カメラ4から画像データを受信し、各マイク205から音声データを受信する。
また、図3のS13に対応する処理において、行動管理装置201の情報登録処理部211(人物特定部213)は、画像データと音声データとに基づいて人物を特定する。
さらに、図3のS15に対応する処理において、行動管理装置201の情報登録処理部211(属性取得部215)は、画像データと音声データとに基づいて来店者の属性情報を取得する。
ここで、図3のS16に対応する言動取得処理について、図10に基づき説明する。
図10のS231において、情報登録処理部211(言動情報取得部216)は、来店者の位置情報を取得する。情報登録処理部211は、来店者の位置情報を、例えば、センシング装置位置記憶部234を参照し、来店者を含む画像を撮影したカメラ4に対応する位置情報を特定して、特定した位置情報とする。また、情報登録処理部211は、来店者の位置情報を、例えば、センシング装置位置記憶部234を参照し、来店者の音声データを集音したマイク205に対応する位置情報を特定して、特定した位置情報としてもよい。さらに、情報登録処理部211は、画像データから得た位置情報と音声データから得た位置情報とを精査して位置情報を取得してもよい。
S232において、情報登録処理部211(言動情報取得部216)は、来店者の感情データを取得する。情報登録処理部211は、画像データを分析することで来店者の表情を得て、取得した表情から来店者の感情を推定する。また、情報登録処理部211は、音声データを分析することで音声内容を得る。さらに、情報登録処理部211は、音声データを分析することで、音量と、音の周波数等とにより来店者の感情を推定する。
S233及びS234の処理は、第1実施形態(図4)のS33及びS34の処理と同様である。
S235において、情報登録処理部211(センシング情報受信部212)は、画像データ及び音声データを受信する。その後、情報登録処理部211は、処理を図3のS17に対応する処理に移す。
図11は、第2実施形態に係る行動管理装置1の行動DB32に記憶されるデータ例を示す図である。
図11は、図8に示す例であって、店員C1と、来店者P1及びP2が、第1実施形態と同様の言動をした場合であり、音声データを加えたものである。図11の言動情報には、画像データから得られた情報の他、音声データから得られた情報として発話内容を含むものになっている。
このように、行動管理システム200では、行動管理装置201による情報登録処理によって、行動DB32には、来店者の言動情報として、来店者の表情及び音声に基づいて得られた感情データを記憶することができる。また、行動DB32には、来店者の言動情報として、来店者の音声に対して音声認識処理を行うことで得られた発話内容を記憶することができる。行動管理装置201は、属性情報と、これらの言動情報と、購買情報とを関連付けて行動DB32に登録することができる。
行動DB32に登録した情報を分析する行動分析処理は、第1実施形態(図7)と同様である。
図7のS42に対応する処理で情報分析処理部21(情報分析部23)によって行われる分類した属性情報に基づく購買結果の分析は、発話内容に基づいて様々に行うことができる。
情報分析処理部21は、例えば、購買情報の購買傾向ごとに、各分類における単語の出現頻度を分析することができる。情報分析処理部21は、一例として、値段の高い商品を購入した来店者は、発話内容に「誕生日」や「結婚」といった単語を多く含む、といった分析ができる。また、情報分析処理部21は、購入した商品が指輪類である場合に、店員の発話内容には「新作」や「お揃い」といった単語を多く含む、といった分析ができる。
また、情報分析処理部21は、分析方法として、例えば、ディープラーニング等の機械学習を用いた発話内容のラベル付けを用いることができる。この分析方法では、例えば、発話内容と、購買情報との組み合わせを教師データとして学習する。これは、売上の良いときの店員の発話内容を分析するものであり、この機械学習結果を用いることで、情報分析処理部21は、発話内容から売上を推定することができる。
このように、第2実施形態の行動管理システム200によれば、以下のような効果がある。
センシング情報として画像データに加えて音声データを用いるため、来店者や店員の言動情報を、より多くの情報から得ることができる。よって、行動分析に用いるデータを多様にでき、より詳細な分析を行うことができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)各実施形態では、行動分析処理において、行動DBに記憶されている購買情報に基づいてデータを分類するものを例に説明したが、これに限定されない。例えば、来店者の購買情報に基づいてデータを分類してもよいし、店員ごとにデータを分類してもよい。具体的には、例えば、購買情報に基づいてデータを分類する場合には、購買した場合と、購買しなかった場合との2つについて、各々言動情報に基づく分析をしてもよい。また、購買した商品ごと(例えば、指輪、ネックレス等)に言動情報に基づく分析をしてもよい。さらに、購買した商品数や商品の価格の範囲(例えば、5千円未満、5千円以上2万円未満、2万円以上等)ごとに言動情報に基づく分析をしてもよい。
このように、様々な切り口でデータを分類して分析することで、効果的なマーケティングを行うための情報を得ることができる。
(2)各実施形態では、購買したか否かを、画像データを分析することで得るものを例に説明したが、これに限定されない。例えば、レジスタを行動管理装置に接続して、レジスタからPOS(Point Of Sales)データを受信し、受信したPOSデータを購買情報としてもよい。そのようにすれば、より正確な購買情報を得ることができる。
(3)各実施形態では、カメラの撮影領域に基づいて来店者の位置情報を得るものを例に説明したが、これに限定されない。例えば、店舗のフロアの床面を領域ごとに色分けし、カメラが撮影した来店者が立っている床面の色に基づいて位置情報を得るようにしてもよい。そのようにすれば、カメラを可動させることができ、カメラの設置箇所を減らすことができる。
(4)各実施形態では、行動管理装置が情報登録処理と情報分析処理とを行うものを例に説明したが、これに限定されない。例えば、行動分析処理は、行動管理装置1に対して通信可能に接続された行動分析装置(図示せず)により行ってもよい。そして、行動管理プログラムは、情報登録処理と情報分析処理との機能を有するプログラムであるとして説明したが、機能ごとに別プログラムにしてもよい。
(5)各実施形態では、言動情報として、位置情報による移動のトラッキングと感情データの取得による感情の推定とを例に説明したが、これに限定されない。言動情報として、例えば、会話内容や、表情、動作等を含んでもよい。
(6)第1実施形態では、センシング装置としてカメラを例に説明し、第2実施形態では、センシング装置としてカメラ及びマイクを例に説明したが、これに限定されない。更なるセンシング装置として、例えば、温度センサや、重量センサ等を用いてもよい。例えば、温度センサであれば、来店者の顔の温度変化によって、喜怒哀楽といった感情を取得できる。
1,201 行動管理装置
4 カメラ
8 レジスタ
9 ショーケース
10,210 制御部
11,211 情報登録処理部
12,212 センシング情報受信部
13,213 人物特定部
14 ID付与部
15,215 属性取得部
16,216 言動情報取得部
17 購買情報取得部
18 関連付け部
21 情報分析処理部
22 分類部
23 情報分析部
24 分析結果出力部
30,230 記憶部
31a,231a 行動管理プログラム
32 行動DB
33 特定人物記憶部
100,200 行動管理システム
205 マイク
C1 店員
P1,P2 来店者

Claims (11)

  1. 所定空間内に設置された1以上のセンシング装置からセンシング情報を受信するセンシング情報受信手段と、
    前記センシング情報受信手段が受信した前記センシング情報に基づいて前記所定空間内の人物を特定し、特定した前記人物及び同時に特定した人物の組合せに関する特徴となる属性情報を推定する人物特定手段と、
    前記人物特定手段により特定した前記人物の言動を示す言動情報を、前記センシング情報を用いて取得する言動情報取得手段と、
    前記人物の購買に係る情報を取得する購買情報取得手段と、
    前記人物特定手段により取得した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買情報取得手段により取得した前記購買に係る情報とを関連付けて行動データベースに記憶する情報記憶手段と、
    を備える、行動管理装置。
  2. 請求項1に記載の行動管理装置において、
    前記人物特定手段が特定した前記人物に対して一意の識別情報を付与する識別情報付与手段を備え、
    前記情報記憶手段は、前記言動情報に、前記識別情報をさらに関連付ける、行動管理装置。
  3. 請求項1又は請求項2に記載の行動管理装置において、
    前記人物特定手段は、特定した前記人物の性別及び年齢に関する前記属性情報をさらに取得する、行動管理装置。
  4. 請求項1から請求項3までのいずれかに記載の行動管理装置において、
    特定人物を識別可能な特定人物情報を記憶する特定人物記憶部を備え、
    前記人物特定手段は、前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部の前記特定人物情報とを用いて未知の人物を特定する、行動管理装置。
  5. 請求項4に記載の行動管理装置において、
    前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部に記憶された前記特定人物情報とに基づいて、前記特定人物の前記言動情報である特定人物言動情報を取得する特定人物言動取得手段を備え、
    前記情報記憶手段は、前記未知の人物の前記言動情報に、前記特定人物言動取得手段により取得した前記特定人物の前記特定人物言動情報をさらに関連付ける、行動管理装置。
  6. 請求項1から請求項5までのいずれかに記載の行動管理装置において、
    前記センシング情報は、前記センシング装置により情報を取得した日時情報を含み、
    前記言動情報取得手段は、前記日時情報に基づいて時系列にした前記言動情報を取得する、行動管理装置。
  7. 請求項1から請求項6までのいずれかに記載の行動管理装置において、
    前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、
    前記分類手段による分類ごとの前記言動情報に基づく購買結果を分析する情報分析手段と、
    前記情報分析手段による分析結果を出力する分析結果出力手段と、
    を備える、行動管理装置。
  8. 請求項1から請求項7までのいずれかに記載の行動管理装置としてコンピュータを機能させるための行動管理プログラム。
  9. 請求項1から請求項7までのいずれかに記載の行動管理装置と、
    前記センシング装置と、
    を備えた行動管理システムであって、
    前記センシング装置は、前記所定空間内における前記人物の出入りを含む前記センシング情報を取得し、
    前記行動管理装置の前記情報記憶手段は、前記言動情報取得手段により取得した前記言動情報により、前記人物が前記所定空間内から外へ出たことが確認できた場合に、前記人物特定手段により推定した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買に係る情報とを関連付けて前記行動データベースに記憶する、行動管理システム。
  10. 請求項9に記載の行動管理システムにおいて、
    前記センシング装置は、カメラ及びマイクのうち少なくとも一方を含み、
    前記センシング情報は、前記カメラにより取得する画像及び前記マイクにより取得する音声のうち少なくとも一方を含む、行動管理システム。
  11. 請求項1から請求項6までのいずれかに記載の行動管理装置が備える前記行動データベースを用いた行動分析装置であって、
    前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、
    前記分類手段による分類ごとの前記言動情報に基づく購買結果を分析する情報分析手段と、
    前記情報分析手段による分析結果を出力する分析結果出力手段と、
    を備える行動分析装置。
JP2020071749A 2020-04-13 2020-04-13 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 Pending JP2021168073A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020071749A JP2021168073A (ja) 2020-04-13 2020-04-13 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071749A JP2021168073A (ja) 2020-04-13 2020-04-13 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置

Publications (1)

Publication Number Publication Date
JP2021168073A true JP2021168073A (ja) 2021-10-21

Family

ID=78079894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071749A Pending JP2021168073A (ja) 2020-04-13 2020-04-13 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置

Country Status (1)

Country Link
JP (1) JP2021168073A (ja)

Similar Documents

Publication Publication Date Title
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
US10019653B2 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
JP6596899B2 (ja) 接客データ処理装置及び接客データ処理方法
CN108182714B (zh) 图像处理方法及装置、存储介质
KR101216115B1 (ko) 고객 인적정보 생성방법 및 생성장치, 그 기록매체 및 포스 시스템
TW201201115A (en) Facial expression recognition systems and methods and computer program products thereof
WO2016190814A1 (en) Method and system for facial recognition
JP6472925B1 (ja) 情報処理装置、情報処理システム、学習装置、学習済の推定モデル、および学習用データの収集方法
JP6500374B2 (ja) 画像処理装置及び画像処理プログラム
KR20040036730A (ko) 전시품에 관한 관심을 평가하는 방법 및 장치
CN106951448A (zh) 一种个性化穿搭推荐方法及系统
AU2017231602A1 (en) Method and system for visitor tracking at a POS area
Alrihaili et al. Music recommender system for users based on emotion detection through facial features
Saraswat et al. Anti-spoofing-enabled contactless attendance monitoring system in the COVID-19 pandemic
Patua et al. Gait-based person identification, gender classification, and age estimation: a review
JP2021168073A (ja) 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置
Gautam et al. Perceptive advertising using standardised facial features
US20230014572A1 (en) System and method for employee retention
CN114066564A (zh) 服务推荐时间确定方法、装置、计算机设备、存储介质
Ghalleb et al. Demographic Face Profiling Based on Age, Gender and Race
CN112528140A (zh) 信息推荐方法、装置、设备、系统及存储介质
CN114359646A (zh) 一种视频分析方法、装置、系统、电子设备和介质
JP2021105945A (ja) 処理装置、処理方法及びプログラム
Lin et al. Face detection based on the use of eyes tracking
JP2019083058A (ja) 画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507