JP2023020726A - 生成プログラム、生成方法および情報処理装置 - Google Patents

生成プログラム、生成方法および情報処理装置 Download PDF

Info

Publication number
JP2023020726A
JP2023020726A JP2021126258A JP2021126258A JP2023020726A JP 2023020726 A JP2023020726 A JP 2023020726A JP 2021126258 A JP2021126258 A JP 2021126258A JP 2021126258 A JP2021126258 A JP 2021126258A JP 2023020726 A JP2023020726 A JP 2023020726A
Authority
JP
Japan
Prior art keywords
product
interest
person
store
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021126258A
Other languages
English (en)
Other versions
JP7318681B2 (ja
Inventor
源太 鈴木
Genta Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021126258A priority Critical patent/JP7318681B2/ja
Priority to EP22186220.4A priority patent/EP4125067A1/en
Priority to US17/870,822 priority patent/US20230031073A1/en
Publication of JP2023020726A publication Critical patent/JP2023020726A/ja
Application granted granted Critical
Publication of JP7318681B2 publication Critical patent/JP7318681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】接客効果の高い客を検知することを課題とする。【解決手段】情報処理装置は、店舗に入店した人物が退店するまでに撮像された各画像データを取得する。そして、情報処理装置は、各画像データに基づき、人物が入店から退店するまでの店舗内の商品に対する行動を特定する。続いて、情報処理装置は、特定した行動に基づいて、人物の商品に対する興味の度合いを判定する。その後、情報処理装置は、興味の度合いと商品とを対応づけた検知ルールを生成する。【選択図】図11

Description

本発明は、生成プログラム、生成方法および情報処理装置に関する。
人物による商品に対する興味の高い行動を検知する手法が知られている。例えば、客が商品を手に取って見ているか、特に商品のラベルを見ているかを判定する技術、棚のどの位置に手を伸ばしたかを映像から判定する技術、姿勢推定を行い、商品に手を伸ばすやカートに入れるなどの動作を判別する技術などが知られている。
特開2009-48430号公報
しかしながら、上記技術では、接客効果の高い客を検知するために、商品ごとに検知ルールを生成する必要があるが、手動で、膨大な商品ごとの検知ルールを生成することは時間と手間がかかり現実的ではなく、接客効果の高い客を検知する難しい。
具体的には、商品が変わると、商品に対して人物の興味のある行動は変わってくるので、商品毎にルールを作ることが必要であるが、商品は膨大であり、現実的には難しい。例えば、商品が自転車である場合、自転車に乗る行動、自転車のハンドルに手をかける行動などを検知するルールが想定されるが、商品がソファである場合は座るなどのルールが想定され、商品が化粧品であれば、さらに別のルールを生成する必要がある。
一つの側面では、接客効果の高い客を検知することができる生成プログラム、生成方法および情報処理装置を提供することを目的とする。
第1の案では、生成プログラムは、コンピュータに、店舗に入店した人物が退店するまでに撮像された各画像データを取得し、前記各画像データに基づき、前記人物が入店から退店するまでの前記店舗内の商品に対する行動を特定し、特定した行動に基づいて、前記人物の商品に対する興味の度合いを判定し、前記興味の度合いと前記商品とを対応づけた検知ルールを生成する、処理を実行させることを特徴とする。
一実施形態によれば、接客効果の高い客を検知することができる。
図1は、実施例1にかかる検知ルール生成システムの全体構成例を示す図である。 図2は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図3は、カメラ設置DBに記憶される情報の例を示す図である。 図4は、商品DBに記憶される情報の例を示す図である。 図5は、POSデータDBに記憶される情報の例を示す図である。 図6は、客の追跡を説明する図である。 図7は、骨格情報の例を示す図である。 図8は、全身の姿勢判定を説明する図である。 図9は、パーツ別動作の検知を説明する図である。 図10Aは、検知ルールを説明する図である。 図10Bは、検知ルールのデータ化を説明する図である。 図11は、興味の度合いの決定例を説明する図である。 図12は、検知ルール生成処理の流れを示すフローチャートである。 図13は、実施例2にかかる接客検知システムの全体構成例を示す図である。 図14は、実施例2にかかる接客検知システムの流れを説明する図である。 図15は、実施例2にかかる情報処理装置の機能構成を示す機能ブロック図である。 図16Aは、実施例2にかかる検知例1を説明する図である。 図16Bは、実施例2にかかる検知例1を説明する図である。 図16Cは、実施例2にかかる検知例1を説明する図である。 図17は、実施例2にかかる検知例2を説明する図である。 図18は、実施例2にかかる検知例3を説明する図である。 図19は、店員への通知例を説明する図である。 図20は、実施例2にかかる接客検知システムの処理の流れを示すフローチャートである。 図21は、実施例3にかかる属性判定の通知例を説明する図である。 図22は、実施例3にかかる商品検討時間の通知例を説明する図である。 図23は、実施例3にかかる接客結果のフィードバック例を説明する図である。 図24は、購買行動分析の例を説明する図である。 図25は、ハードウェア構成例を説明する図である。
以下に、本願の開示する生成プログラム、生成方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
食品、家具、文房具などの様々な店舗において、来客者の中には、購入を検討している客、購入に際してより詳細な情報を聞きたいが近くに店員がいない客、自分から店員に話しかけるのが苦手な人物などが来客する。このような商品に対して興味を持っている客は購入意識が強い客であることが多く、店舗側が接客的に接客を行うことで、店舗側にとっては購入数を増やすことができ、客にとっては説明を受けた上で購入でき、双方にとってメリットが高い。
一方で、商品に対して人物の興味のある行動は変わってくるので、このような接客効果の高い客を検知するためには商品毎にルールを作ることが必要であるが、現実的ではない。そこで、実施例1では、過去の行動や商品の購入有無などを用いて、商品の興味の度合いに基づく数段階(例えば3段階)の行動について基本動作の組み合わせとして定義した検知ルールを用いることで、商品に依存することなく、接客効果の高い客を検知する。
図1は、実施例1にかかる検知ルール生成システムの全体構成例を示す図である。図1に示すように、このシステムは、売り場A、売り場B、売り場C、売り場Dのそれぞれに設置された各カメラ、レジ(POS装置)に設置されたカメラ、情報処理装置10のそれぞれが有線や無線を問わず、インターネットなどのネットワークを介して接続される。
各売り場のカメラは、売り場の商品が撮像できる位置に設定されており、画像データ、動画データ、映像データなどを撮像して、情報処理装置10に定期的に送信する。また、各カメラが撮像する領域にある商品には、商品を特定する商品IDと商品の位置を特定する座標などが割り当てられており、商品の種別や位置などが特定可能に制御される。
POS装置は、商品の購入履歴を情報処理装置10に定期的に送信する。例えば、POS装置は、購入時刻と商品IDとが対応付けられたPOSデータを情報処理装置10に送信する。
情報処理装置10は、各売り場のカメラから受信した画像データを解析し、客がどのような行動をとったときに商品を購入したか、または、商品に対して興味を持ったかを特定し、接客効果の高い客を検知するための検知ルールを生成するコンピュータ装置の一例である。
具体的には、情報処理装置10は、店舗に入店した人物が退店するまでに撮像された各画像データを取得し、各画像データに基づき、人物が入店から退店するまでの店舗内の商品に対する行動を特定する。そして、情報処理装置10は、特定した行動に基づいて、人物の商品に対する興味の度合いを判定し、判定した興味の度合いと商品とを対応づけた検知ルールを生成する。
このように、情報処理装置10は、商品に依存しない検知ルールを生成することで、来客時の画像データに対して複雑な解析を行うことなく、また、膨大な行動認識を行うこともなく、接客効果の高い客を検知することができる。
[機能構成]
図2は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図2に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部11は、各カメラから動画像データ(例えば画像データ)を受信し、POS装置からPOSデータを受信する。
記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどにより実現される。この記憶部12は、撮像DB13、カメラ設置DB14、商品DB15、POSデータDB16、検知ルールDB17を記憶する。
撮像DB13は、カメラごとに、カメラにより撮像された各種データを記憶するデータベースである。本実施利においては、撮像DB13は、各カメラが撮像した画像データを記憶する。
カメラ設置DB14は、各カメラが設置される場所を特定する情報を記憶するデータベースである。ここで記憶される情報は、管理者等により設定される。図3は、カメラ設置DB14に記憶される情報の例を示す図である。図3に示すように、カメラ設置DB14は、「カメラID、売り場」を対応付けて記憶する。ここで記憶される「カメラID」は、カメラを識別する情報が設定され、「売り場」は、カメラが設置される売り場を特定する情報が設定される。図3の例では、ベビー用品売り場にカメラID=1のカメラが設置され、スポーツ用品売り場にカメラID=2のカメラが設置される例が示されている。
商品DB15は、各売り場にある商品に関する情報を記憶するデータベースである。ここで記憶される情報は、管理者等により設定される。図4は、商品DB15に記憶される情報の例を示す図である。図4に示すように、商品DB15は、「売り場、商品サイズ、商品例、商品ID」を対応付けて記憶する。ここで記憶される「売り場」は、売り場を特定する情報が設定され、「商品サイズ」は、商品のサイズに関する情報が設定され、「商品例」は、該当する商品の一例が設定され、「商品ID」は、商品を特定する情報が設定される。図4の例では、ベビー用品売り場で商品サイズが小さい商品に該当する小物類には商品IDとして「242・・・」が設定されていることが示される。
POSデータDB16は、受信したPOSデータを記憶するデータベースである。図5は、POSデータDB16に記憶される情報の例を示す図である。図5に示すように、POSデータDB16は、「購入時刻、商品ID」を対応付けて記憶する。ここで記憶される「購入時刻」は、商品が購入された時刻が設定され、「商品ID」は、商品を特定する情報が設定される。図5の例では、「11:01:56」に、商品ID「2420496」の商品が購入されたことが示される。
検知ルールDB17は、情報処理装置10により生成された検知ルールを記憶するデータベースである。なお、検知ルールの詳細については後述する。
制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部20は、撮像部21、追跡部22、骨格検知部23、動作認識部24、検知ルール生成部25を有する。
撮像部21は、画像を撮像する処理部である。例えば、撮像部21は、各カメラにより撮像された画像データを受信して撮像DB13に格納する。
追跡部22は、店舗に入店した人物が退店するまでに撮像された各画像データを取得する処理部である。具体的には、追跡部22は、各カメラにより撮像された複数の画像データから、商品と人物とが写っている画像データを抽出して、骨格検知部23に出力したり、記憶部12に格納したりする。
例えば、追跡部22は、ある人物が店舗に入店してから退店するまでを追跡し、店舗内で撮像されたある人物の各画像データを取得する。図6は、客の追跡を説明する図である。図6に示すように、追跡部22は、店舗の入り口にあるカメラから撮像された画像データに対して一般的な画像解析を行い、写っている人物の顔画像を特定することで、入店した人物を特定する。その後、追跡部22は、店舗の出口にあるカメラから撮像された画像データから当該人物が検出されるまでに、店舗に設定された各カメラの画像データから当該人物が写っている画像データを取得する。このようにすることで、追跡部22は、各人物について、人物が入店して商品を選択して購入して退店するまでの画像データを取得することができる。
骨格検知部23は、画像データに写っている人物の骨格情報を取得する処理部である。具体的には、骨格検知部23は、追跡部22により検知された各人物について、追跡部22により取得された画像データのうち、人物と商品が写っている画像データに対して、人物の骨格検知を実行する。
例えば、骨格検知部23は、画像データ(各フレーム)を訓練済みの機械学習モデルに入力することで、骨格情報を取得する。図7は、骨格情報の例を示す図である。骨格情報は、公知の骨格モデルで特定される各関節をナンバリングした、18個(0番から17番)の定義情報を用いることができる。例えば、右肩関節(SHOULDER_RIGHT)には7番が付与され、左肘関節(ELBOW_LEFT)には5番が付与され、左膝関節(KNEE_LEFT)には11番が付与され、右股関節(HIP_RIGHT)には14番が付与される。したがって、事前処理部30は、図7に示した18個の骨格の座標情報を、画像データから取得することができる。例えば、事前処理部30は、7番の右肩関節の位置として「X座標=X7、Y座標=Y7、Z座標=Z7」を取得する。なお、例えば、Z軸は、撮像装置から対象に向けた距離方向、Y軸は、Z軸に垂直な高さ方向、X軸は、水平方向と定義することができる。
また、骨格検知部23は、骨格のパターンをあらかじめ訓練した機械学習モデルを用いて、立つ・歩く・しゃがむ・座る・寝るなどの全身の姿勢を判定することもできる。例えば、骨格検知部23は、図7の骨格情報や美技図のような一部の関節と関節間の角度をMultilayer Perceptronで訓練した機械学習モデルを用いることで、最も近い全身の姿勢を判定することもできる。図8は、全身の姿勢判定を説明する図である。図8に示すように、骨格検知部23は、10番の「HIP_LEFT」と11番の「KNEE_LEFT」との間の関節の角度(a)、14番の「HIP_RIGHT」と15番の「KNEE_RIGHT」との間の関節の角度(b)、11番の「KNEE_LEFT」の角度(c)、15番の「KNEE_RIGHT」の角度(d)などを取得することで、全身の姿勢を検知することができる。
また、骨格検知部23は、体の3D関節姿勢に基づき、パーツの姿勢判定することで、パーツ別の動作を検知することもできる。具体的には、骨格検知部23は、3D-baseline手法などを用いて、2D関節座標から3D関節座標への変換を行うこともできる。
図9は、パーツ別動作の検知を説明する図である。図9に示すように、骨格検知部23は、パーツ「顔」について、顔向きと各方向ベクトルの角度が閾値以下であるか否かにより、顔の向きが前、左、右、上、下のいずれの向きか(5種類)を検知することができる。なお、骨格検知部23は、顔の向きについては、「始点:両耳の中点、終点:鼻」により定義されるベクトルにより特定する。また、骨格検知部23は、顔が後ろを向いているか否かについては、「顔が右向きかつ腰が右捻り」または「顔が左向きかる腰が左捻り」により検知することができる。
骨格検知部23は、パーツ「腕」について、前腕の向きと各方向ベクトルの角度が閾値以下であるか否かにより、左右の腕の向きが前後左右上下のいずれの向きであるか(6種類)を検知することができる。なお、骨格検知部23は、腕の向きについては「始点:肘(elbow)、終点:手首(wrist)」により定義されるベクトルにより検知することができる。
骨格検知部23は、パーツ「脚」について、下腿の向きと各方向ベクトルの角度が閾値以下であるか否かにより、左右の脚の向きが前後左右上下のいずれの向きであるか(6種類)を検知することができる。なお、骨格検知部23は、下腿の向きについては「始点:膝(knee)、終点:足首(ankle)」により定義されるベクトルにより検知することができる。
骨格検知部23は、パーツ「肘」について、肘の角度が閾値以上で伸ばしている、閾値未満で曲げていると検知することができる(2種類)。なお、骨格検知部23は、肘の角度については、「始点:肘(elbow)、終点:肩(shoulder)」のベクトルAと「始点:肘(elbow)、終点:手首(wrist)」のベクトルBとのなす角度により検知することができる。
骨格検知部23は、パーツ「膝」について、膝の角度が閾値以上で伸ばしている、閾値未満で曲げていると検知することができる(2種類)。なお、骨格検知部23は、膝の角度については、「始点:膝(knee)、終点:足首(ankle)」のベクトルAと「始点:膝(knee)、終点:腰(hip)」のベクトルBとのなす角度により検知することができる。
骨格検知部23は、パーツ「腰」について、腰と肩の角度が閾値以上か否かにより、左右のひねり(2種類)を検知でき、閾値未満で正面と検知することができる。なお、骨格検知部23は、腰と肩の角度については、「始点:左肩、終点:右肩」のベクトルAと「始点:左腰(hip(L))、終点:右腰(hip(R))」のベクトルBそれぞれについて、軸ベクトルC「始点:両腰の中点:終点:両肩の中点」まわりでの回転角により検知することができる。
図2に戻り、動作認識部24は、骨格検知部23による骨格情報の検知結果に基づき、人物の動作を認識する処理部である。具体的には、動作認識部24は、連続する複数のフレームそれぞれについて認識された骨格情報の遷移に基づき、少なくとも1つの動作を含む行動を特定する。
例えば、動作認識部24は、数フレーム間で、パール別判定により顔が正面を見ている骨格かつ全身の姿勢判定により立っている骨格が連続して検知された場合、「正面を一定時間見る」動作を認識する。また、動作認識部24は、数フレーム間で、全身の姿勢の変化が所定値未満の骨格が連続して検知された場合、「移動しない」動作を認識する。
また、動作認識部24は、数フレーム間で、肘の角度が閾値以上変化した骨格が検知された場合に、「片手を前に出す」動作もしくは「片腕を伸ばす」動作を認識し、数フレーム間で、肘の角度が閾値以上変化した後に当該角度が閾値未満となった骨格が検知された場合に、「片手を曲げる」動作を認識する。さらに、動作認識部24は、肘の角度が閾値以上変化した後に当該角度が閾値未満となった骨格が検知された後に、その角度が数フレーム間継続した場合に、「片手を見る」動作を認識する。
また、動作認識部24は、数フレーム間で、手首の角度が連続して変化した骨格が検知された場合、「一定時間の間に手首座標が頻繁に動く」動作を認識する。動作認識部24は、数フレーム間で、手首の角度が連続して変化するとともに、肘の角度が連続して変化した骨格が検知された場合、「一定時間の間に肘座標と手首座標が頻繁に動く」動作を認識する。動作認識部24は、数フレーム間で、手首の角度、肘の角度、全身の向きのそれぞれが連続して変化した骨格が検知された場合、「一定時間の間に体の向きや全身動作が頻繁に変わる」動作を認識する。
なお、動作認識部24は、骨格検知部23により骨格検知が実行された画像データであって人物と商品が写っている画像データ内の商品について、各カメラの撮像領域と撮像領域内の商品の座標とにより商品を特定し、商品DB15を参照することで、特定された商品のサイズを特定できる。この結果、動作認識部24は、各動作と商品のサイズを対応付けることができる。
図2に戻り、検知ルール生成部25は、来客者の中から接客効果の高いお客を検知するための検知ルールを生成する処理部である。具体的には、検知ルール生成部25は、動作認識部24の認識結果を用いて、興味の度合いに基づく3段階の行動について、基本動作の組み合わせを定義する。
図10Aは、検知ルールを説明する図である。図10Bは、検知ルールのデータ化を説明する図である。なお、図10Aは、検知ルールを概念的に示したものであり、図10Bは、検知ルールをデータ化したものであり、両者は同じ情報を示している。
図10Aに示すように、検知ルール生成部25は、検知ルールとして、興味の度合いに対応する各行動(見る行動、手に取る行動、試す・比べる行動)と、商品の属性の一例である各商品のサイズとの組合せごとに、少なくとも1つの動作から構成される人物の行動を対応付ける。ここで、「見る」行動は、興味の度合いのレベル1に対応し、「手に取る」行動は、興味の度合いのレベル2に対応し、「試す・比べる」行動は、興味の度合いのレベル3に対応する。
例えば、検知ルール生成部25は、行動と当該行動を特定する動作との対応関係を予め保持し、動作認識部24から取得した各動作と商品のサイズとの対応付けを集計する。例を挙げると、検知ルール生成部25は、商品のサイズに関わらず、「見る」行動は同じ動作が行われることから、各サイズの商品に対して、「見る」行動として、「正面を一定時間見る」動作、「移動しない」動作、「立つ」動作、「屈む」動作、「しゃがむ」動作のそれぞれを対応付ける。
また、検知ルール生成部25は、「手に取る」行動について、商品サイズによって行われる動作が異なることから、それぞれの商品サイズについて定義する。例えば、検知ルール生成部25は、食品などの小サイズの商品や鞄などの中サイズの商品については、「片手を前に出す」動作または「片腕を伸ばす」動作または「片手を見る」動作を行った後、「片腕を曲げる」動作を行う一連の動作を対応付ける。一方、検知ルール生成部25は、家具などの大サイズの商品については、「片腕を曲げる」動作と「片手を見る」動作を対応付ける。
同様に、検知ルール生成部25は、「試す・比べる」行動について、商品サイズによって行われる動作が異なることから、それぞれの商品サイズについて定義する。例えば、検知ルール生成部25は、食品などの小サイズの商品については、「一定時間の間に手首座標が頻繁に動く」動作を対応付ける。検知ルール生成部25は、中サイズの商品については、「一定時間の間に肘座標と手首座標とが頻繁に動く」動作を対応付ける。検知ルール生成部25は、家具などの大サイズの商品については、「一定時間の間に体の向きや全身動作が頻繁に変わる」動作を対応付ける。
なお、検知ルール生成部25は、宝飾品、美術品、五月人形などのように、固定される展示物についても、上述した処理と同様の処理により、動作を対応付けることができる。
このような対応付け結果をデータ化した情報が図10Bである。図10Bに示すように、「正面を一定時間見る」動作、「移動しない」動作、「立つ」動作、「屈む」動作、「しゃがむ」動作のいずれかが検出された場合には、興味の度合いがレベル1である「見る」行動と商品サイズ「大、中、小」との組合せが特定されることが示されている。
また、「片手を前に出す」動作または「片腕を伸ばす」動作または「片手を見る」動作を行った後、「片腕を曲げる」動作を行う一連の動作が検出された場合には、興味の度合いがレベル2である「手に取る」行動と商品サイズ「小」との組合せが特定されることが示されている。同様に、「片腕を曲げる」動作または「片手を見る」動作が検出された場合には、興味の度合いがレベル2である「手に取る」行動と商品サイズ「中」との組合せが特定されることが示されている。なお、「動作ID」は、検知ルールを特定する動作を識別する識別子が設定される。
なお、興味の度合いと行動との対応付けは、過去の履歴や経験則などにより決定することもできるが、実際の商品購入頻度等に基づき決定することもできる。図11は、興味の度合いの決定例を説明する図である。図11に示すように、検知ルール生成部25は、「食品に対して「見る」行動を行った人物が食品を購入しなかった」ことを示すデータを生成し、「食品に対して「見る」行動を行った後、「手に取る」行動を行った人物が食品を購入した」ことを示すデータを生成する。また、検知ルール生成部25は、「食品に対して「見る」行動を行った人物が食品を購入した」ことを示すデータを生成し、「食品に対して「見る」行動を行った後、「比べる」行動を行った人物が食品を購入した」ことを示すデータを生成する。
これらを集計し、検知ルール生成部25は、商品「食品」に対して「見る」行動を行った人物が商品を購入した割合を第1の閾値(例えば3割)未満であった場合に、商品「食品」に対して「見る」行動をとった人物の商品に対する興味度度合いを「レベル1」と決定する。
また、検知ルール生成部25は、商品「食品」に対して「手に取る」行動を行った人物が商品を購入した割合を第1の閾値(例えば2割)以上かつ第2の閾値(例えば7割)未満であった場合に、商品「食品」に対して「手に取る」行動をとった人物の商品に対する興味度度合いを「レベル2」と決定する。
また、検知ルール生成部25は、商品「食品」に対して「比べる」行動を行った人物が商品を購入した割合を第2の閾値(例えば7割)以上であった場合に、商品「食品」に対して「比べる」行動をとった人物の商品に対する興味度度合いを「レベル3」と決定する。なお、ここでは、サイズが小さい商品である食品(小サイズ)を例にして説明したが、各サイズの商品について同様に処理することができる。
[処理の流れ]
図12は、検知ルール生成処理の流れを示すフローチャートである。図12に示すように、情報処理装置10は、画像データに基づき人物の入店を検知すると(S101:Yes)、検知した人物を追跡して画像データを取得する(S102)。そして、情報処理装置10は、退店するまで(S103:No)、S102移行を繰り返して、検知した人物を追跡して画像データを取得する。
その後、情報処理装置10は、追跡対象の人物の退店を検知すると(S103:Yes)、撮像された画像データごとに骨格情報を取得し(S104)、画像データごとに動作を認識する(S105)。このとき、情報処理装置10は、人物と商品の両方が写っている画像データに絞り込んで、骨格情報と動作認識とを実行することもできる。
ここで、情報処理装置10は、データの収集を継続する場合(S106:No)、S101以降を繰り返す。一方、情報処理装置10は、データの収集を終了した場合(S106:Yes)、各行動と各商品のサイズとの組合せごとに、動作を対応付けた検知ルールを生成する(S107)。そして、情報処理装置10は、検知ルールを記憶部12に格納したり、出力したりする(S108)。
[バリエーション]
上述した例では、情報処理装置10は、行動認識したユーザが商品を購入した割合を算出して興味の度合いを決定する例を説明したが、これに限定されるものではない。例えば、情報処理装置10は、商品に触れた回数、商品の前に滞在した時間等により決定することもできる。
例えば、情報処理装置10は、商品に触れたか回数が多いほど、興味の度合いを高くするように、回数が第1閾値未満の場合はレベル1、回数が第1閾値以上で第2閾値未満の場合にレベル2、回数が第2閾値以上の場合はレベル3と決定することもできる。同様に、情報処理装置10は、複数の連続する画像データ(フレーム)について同様の人物が連続して検出された時間を滞在時間として算出し、商品の前の滞在時間が長いほど、興味の度合いを高くしてもよい。
また、情報処理装置10は、商品のサイズごとの検知ルールに限らず、食品、大型家具、自転車、おもちゃなど商品の種別ごとに検知ルールを生成することもできる。また、情報処理装置10は、検知ルールを用いて実際に接客を行った結果を、検知ルールにフィードバックさせることもできる。例えば、情報処理装置10は、あるレベルの検知ルールを用いて接客を行った結果、商品を実際に購入した人数や割合が閾値を超えた場合に、レベルを1つ挙げてもよく、逆に、商品を実際に購入した人数や割合が閾値を下回った場合に、レベルを1つ下げてもよい。
[効果]
上述したように、情報処理装置10は、商品のサイズ、種別など商品を特定する特徴量に対して客の行動を対応づけた検知ルールを生成することができる。したがって、情報処理装置10は、商品ごとに詳細なルールを生成することなく、接客効果の高い客を検知することができる。また、情報処理装置10は、導入する店舗に合わせて、特徴量やレベルを適切に変更することができるので、店舗に合わせた検知ルールを生成することができ、店舗の立地や状況に適合した接客効果の高い客を検知することができる。
[全体構成]
次に、店舗の来客者の中から接客効果の高い客を検知する例を説明する。図13は、実施例2にかかる接客検知システムの全体構成例を示す図である。図13に示すように、このシステムは、売り場A、売り場B、売り場C、売り場Dのそれぞれに設置された各カメラ、店員が使用する端末、情報処理装置50が有線や無線を問わず、インターネットなどのネットワークを介して接続される。
各売り場のカメラは、売り場の商品が撮像できる位置に設定されており、画像データ、動画データ、映像データなどを撮像して、情報処理装置10に定期的に送信する。また、各カメラが撮像する領域にある商品には、商品を特定する商品IDと商品の位置を特定する座標などが割り当てられており、商品の種別や位置などが特定可能に制御される。
店員が使用する端末は、スマートフォンや携帯電話などの携帯端末の一例であり、情報処理装置10から受信したメッセージを表示し、店員が操作した結果を情報処理装置10に送信する。
情報処理装置50は、各売り場のカメラから受信した画像データを解析して、接客効果の高い客を検知するコンピュータの一例である。具体的には、情報処理装置50は、画像データから人物と商品とを検出し、検出された人物の骨格情報を取得する。情報処理装置50は、人物の骨格情報に基づき、商品に対する人物の行動を特定する。情報処理装置50は、特定された商品に対する人物の行動に基づいて、商品の属性と商品の興味の度合いとの組み合わせを特定する。
例えば、情報処理装置50は、各売り場のカメラから受信した画像データを解析して客の行動を認識し、実施例1で生成した検知ルールに適合する行動を行うお客を検出した場合に、店員の端末に通知する。
図14は、実施例2にかかる接客検知システムの流れを説明する図である。図14に示すように、情報処理装置50は、検知ルールに基づき、ある売り場Aで商品に興味を持っているお客様を検知すると、商品に興味を持っているお客様の存在を店員の端末に通知する。このとき、情報処理装置50は、検知された売り場Aの情報もあわせて通知してもよい。
この結果、店員が接客に向かい、購買へと誘導することができ、お客様は、商品に対する疑問や不安を解消した上で、レジで商品を購入することができる。したがって、店舗にとってもお客様にとってもメリットの高い接客を行うことができる。
[機能構成]
図15は、実施例2にかかる情報処理装置50の機能構成を示す機能ブロック図である。図15に示すように、情報処理装置50は、通信部51、記憶部52、制御部60を有する。
通信部51は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部51は、各カメラから動画像データ(例えば画像データ)を受信し、店員の端末にメッセージや画像データを送信する。
記憶部52は、各種データや制御部60が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどにより実現される。この記憶部52は、撮像DB53、カメラ設置DB54、商品DB55、検知ルールDB56を記憶する。
撮像DB53、カメラ設置DB54、商品DB55、検知ルールDB56のそれぞれは、実施例1で説明した撮像DB13、カメラ設置DB14、商品DB15、検知ルールDB17のそれぞれと同様の情報を記憶するので、詳細な説明は省略する。
制御部60は、情報処理装置50全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部60は、撮像部61、骨格検知部62、動作認識部63、検知部64、報知部65を有する。
撮像部61は、画像を撮像する処理部である。例えば、撮像部61は、実施例1の撮像部21と同様、各カメラにより撮像された画像データを受信して撮像DB53に格納する。
骨格検知部62は、画像データに写っている人物の骨格情報を取得する処理部である。例えば、骨格検知部62は、実施例1で説明した図7から図9の手法を用いて、骨格検知、全身姿勢判定、パーツ別動作の検出を実行し、それらの結果を動作認識部63に出力する。
動作認識部63は、骨格検知部23により検知された骨格検知、全身姿勢判定、パーツ別動作の検出を用いて、人物の行動認識を実行する処理部である。具体的には、動作認識部63は、実施例1で説明した手法を用いて、行動を特定する各動作を認識し、検知部64に出力する。
例えば、動作認識部63は、骨格検知部62による骨格検知に基づき、「正面を一定時間見る」動作、「移動しない」動作、「立つ」動作、「屈む」動作、「しゃがむ」動作の各動作を認識する。また、動作認識部63は、骨格検知部62による骨格検知に基づき、「片手を前に出す」動作、「片腕を伸ばす」動作、「片手を見る」動作、「片腕を曲げる」動作の各動作を認識する。同様に、動作認識部63は、「片腕を曲げる」動作、「片手を見る」動作を認識する。また、動作認識部63は、「一定時間の間に手首座標が頻繁に動く」動作、「一定時間の間に肘座標と手首座標とが頻繁に動く」動作、または、「一定時間の間に体の向きや全身動作が頻繁に変わる」動作を認識する。
なお、動作認識部63は、1つの動作に限らず、複数の画像データを用いて検出された各骨格情報を用いて、複数の連続する動作を検出することもできる。例えば、動作認識部63は、10フレームのうち、先頭フレームで「片手を前に出す」動作を認識したのち、5フレームまで「片手を前に出す」動作を認識し続け、6フレーム目で「片腕を曲げる」動作を認識した場合、「片手を前に出す」動作から「片腕を曲げる」動作の一連の行動を認識することもできる。
検知部64は、特定された商品に対する人物の行動に基づいて、商品の属性と商品の興味の度合いとの組み合わせを特定する処理部である。すなわち、検知部64は、検知ルールに適合する行動を行う人物であって、商品に興味を持っている接客効果の高い客の検知を実行する。そして、検知部64は、検知した売り場、時間、人物に関する情報を報知部65に出力する。
(検知例1)
図16A、図16B、図16Cは、実施例2にかかる検知例1を説明する図である。図16Aに示すように、撮像部61は、売り場Aで撮像された画像データを取得し(S1)、動作認識部63は、骨格検知部62による画像データの骨格検知の結果に基づき「正面を一定時間見る」動作が検出する(S2)。すると、検知部64は、検知ルールDB56を参照し(S3)、「正面を一定時間見る」動作に対応付けられる商品の属性と興味の度合いとの組合せとして、「商品の属性=小サイズ、中サイズ、大サイズ,興味の度合い=見る(Interest)」を特定する(S4)。すなわち、検知部64は、興味の度合い(レベル1)を特定する。そして、報知部65により、商品の属性と興味の度合いとの組合せである「商品の属性=小サイズ、中サイズ、大サイズ,興味の度合い=見る(Interest)」が店員用端末に送信される(S5)。
このとき、図16Bに示すように、検知部64は、カメラID=1のカメラにより撮像された画像データから「正面を一定時間見る」動作が検出された場合、カメラ設置DB54を参照し、撮像された場所がベビー用品売り場であることを特定することもできる(S6)。すると、検知部64は、商品DB55を参照し、商品サイズ=小、中、大に該当する商品として小物類、抱っこひも、ベビーカーを特定する(S7)。この結果、検知部64は、商品の属性と興味の度合いとの組合せとして、「商品の属性=小物類、抱っこひも、ベビーカー,興味の度合い=見る(Interest)」を特定する。
さらに、図16Cに示すように、検知部64は、画像データに写っている商品について、予め定めた座標位置や画像解析により商品サイズが「小」であることを特定した場合(S8)、商品DB55を参照し、商品サイズ=小に該当する商品として小物類を特定することもできる(S9)。この結果、検知部64は、商品の属性と興味の度合いとの組合せとして、「商品の属性=小物類,興味の度合い=見る(Interest)」を特定する。
ここで、図16Aを用いて、検知ルールDB56の一例を説明する。検知ルールDB56は、商品の属性と商品の興味の度合いとの組み合わせ毎に、人物が商品に対して行う動作の種類が規定された情報100を有する。
商品の属性は、商品の大きさの「大」、「中」、「小」、「その他」のいずれかを示すカテゴリを有する。商品の大きさの「大」は、「ベビーカー、自転車、家具(ソファ、椅子、ベッド)、家電他」などの商品が含まれる。商品の大きさの「中」は、「服、鞄、スポーツ用品他」などの商品が含まれる。商品の大きさの「小」は、「食品、ワイン、本、化粧品他」などの商品が含まれる。また、商品の大きさの「その他」は、「固定/展示物(宝飾品、美術品、五月人形)」を含む。
商品の興味の度合いは、商品の興味を示す複数レベルのカテゴリを有する。「見る(Interest)」に対応する興味の度合いは、レベル1の「低」の状態であることを示す。「手に取る(Desire)」に対応する興味の度合いは、レベル2の「中」の状態であることを示す。「試す・比べる(Compare)」に対応する興味の度合いは、レベル3の「大」の状態であることを示す。
例えば、人物が商品に対して行う動作の種類が「正面を一定時間見る」動作であるときに、「正面を一定時間見る」動作は、商品の大きさの「大」、「中」、「小」、「その他」のそれぞれと対応づけられる。また、「正面を一定時間見る」動作は、興味の度合いの「見る(Interest)」と対応づけられる。
次いで、図16Bを用いて、カメラ設置DB54の一例を説明する。カメラ設置DB54は、カメラIDと売り場とが対応付けた情報101を有する。カメラIDは、カメラの識別情報を示す。売り場は、カメラが撮影した場所を示す。例えば、カメラIDの「1」と売り場の「ベビー用品売り場」とが対応づけられる。
次いで、図16Cを用いて、商品DB55の一例を説明する。商品DB55は、売り場と、商品サイズと、商品例と、商品IDとを対応付けた情報102を有する。売り場は、商品の売り場を示す。商品サイズは、商品の属性を示す。商品例は、商品の名称を示す。商品IDは、商品の識別情報を示す。例えば、売り場の「ベビー用品売り場」と、商品サイズの「小」と、商品例の「小物類」と、商品IDの「242・・・」とが対応づけられる。
図16A、図16B、図16Cに戻って、実施例2にかかる検知例1の説明をする。ここでは、画像解析により商品サイズを特定することなく、検知部64が、カメラ設置DB54、商品DB55、検知ルールDB56を用いて、商品を特定する例を説明する。つまり、実施例2にかかる検知例1において、検知部64は、画像データに写っている商品について、検知ルールDB56を参照することで特定された商品のサイズを用いて特定する。
具体的には、検知部64は、検知ルールDB56を参照し、「骨格検知の結果に基づく動作」に対応した「人物が商品に対して行う動作の種類」を特定する。そして、検知部64は、「人物が商品に対して行う動作の種類」に対応する「商品の属性と興味の度合いとの組合せ」を特定する。
ここでは、検知部64は、商品の属性と興味の度合いとの組合せとして、「商品の属性=小サイズ,興味の度合い=見る(Interest)」を特定したとする。このとき、検知部64は、カメラ設置DB54を参照し、動作を検知した人物を撮影したカメラIDを用いて、「売り場」を特定する。例えば、検知部64は、「ベビー用品売り場」を特定する。そして、検知部64は、商品DB55を参照し、特定された「売り場」に対応する、「商品サイズと商品例」を特定する。例えば、検知部64は、「ベビー用品売り場」に対応する商品サイズと商品例」を特定する。
すると、検知部64は、商品DB55を参照し、「小サイズ」に該当する商品として小物類を特定する。また、検知部64は、小物類についての興味の度合いとして、「見る(Interest)」を特定する。
これにより、検知部64は、動作を検知した人物の商品の名称、商品に対する興味の度合い、および、商品の売り場を特定することができる。報知部65は、接客担当の店員が所有する店員用端末に、商品の名称、商品に対する興味の度合い、および、商品の売り場の少なくとも1つとともに、接客効果の高いお客様の存在を示すメッセージを送信する。
(検知例2)
図17は、実施例2にかかる検知例2を説明する図である。図17に示すように、検知部64は、「片手を前に出す」動作と「片腕を曲げる」動作の一連の行動が検出された場合、商品の属性と興味の度合いとの組合せとして、「商品サイズ=小、中,興味の度合い=手に取る(Desire)」を特定する。すなわち、検知部64は、興味の度合い(レベル2)を特定する。
このとき、検知部64は、カメラID=2のカメラにより撮像された画像データから上記動作(行動)が検出された場合、カメラ設置DB14を参照し、撮像された場所がベビー用品売り場であることを特定することもできる。そして、検知部64は、商品DB15を参照し、商品サイズ=小、中に該当する商品としてボール、野球グローブを特定する。この結果、検知部64は、商品の属性と興味の度合いとの組合せとして、「商品の属性=ボール、野球グローブ,興味の度合い=手に取る(Desire)」を特定する。
さらに、検知部64は、画像データに写っている商品について、予め定めた座標位置や画像解析により商品サイズが「中」を特定した場合、商品DB15を参照し、商品サイズ=中に該当する商品として野球グローブを特定することもできる。この結果、検知部64は、商品の属性と興味の度合いとの組合せとして、「商品の属性=野球グローブ,興味の度合い=手に取る(Desire)」を特定する。
なお、検知部64は、「片腕を曲げる」動作または「片手を見る」動作が検出された場合、商品の属性と興味の度合いとの組合せとして、「商品サイズ=大,興味の度合い=手に取る(Desire)」を特定する。
(検知例3)
図18は、実施例2にかかる検知例3を説明する図である。図18に示すように、検知部64は、「一定時間の間に体の向きや全身動作が頻繁に変わる」動作が検出された場合、商品の属性と興味の度合いとの組合せとして、「商品サイズ=大,興味の度合い=試す・比べる(Compare)」を特定する。すなわち、検知部64は、興味の度合い(レベル3)を特定する。
このとき、検知部64は、カメラID=3のカメラにより撮像された画像データから上記動作が検出された場合、カメラ設置DB14を参照し、撮像された場所が家具売り場(ベッド)であることを特定することもできる。そして、検知部64は、商品DB15を参照し、商品サイズ=大に該当する商品としてベッドを特定する。この結果、検知部64は、商品の属性と興味の度合いとの組合せとして、「商品の属性=ベッド,興味の度合い=試す・比べる(Compare)」を特定する。
なお、検知部64は、カメラID=1のカメラにより撮像された画像データから「一定時間の間に手首座標が頻繁に動く」動作が検出された場合、商品の属性として、商品サイズ=小に対する興味の度合いを特定する。すなわち、検知部64は、カメラ設置DB14および商品DB15を参照し、商品の属性と興味の度合いとの組合せとして、「商品の属性=小物類,興味の度合い=試す・比べる(Compare)」を特定する。
また、検知部64は、カメラID=1のカメラにより撮像された画像データから「一定時間の間に肘の座標と手首座標が頻繁に動く」動作が検出された場合、商品の属性として、商品サイズ=中に対する興味の度合いを特定する。すなわち、検知部64は、カメラ設置DB14および商品DB15を参照し、商品の属性と興味の度合いとの組合せとして、「商品の属性=抱っこひも,興味の度合い=試す・比べる(Compare)」を特定する。
図15に戻り、報知部65は、接客効果の高い客が検知された場合に、店員の端末に報知を実行する処理部である。具体的には、報知部65は、接客担当の店員が所有する店員用端末に、商品の名称とともに、接客効果の高いお客様の存在を示すメッセージを送信する。例えば、報知部65は、商品の属性と興味の度合いとして、「商品名称および行動」を含むメッセージを送信する。
図19は、店員への通知例を説明する図である。図19の(a)に示すように、報知部65は、ベッド売り場で撮像されたが画像データから「商品の属性=大型商品,興味の度合い=試す・比べる(Compare)」が検知された場合、ベッド売り場で大型商品を試しているお客様が検知されたこと伝えるメッセージを店員の端末に送信する。また、図19の(b)に示すように、報知部65は、家具売り場で撮像されたが画像データから「商品の属性=大型商品,興味の度合い=試す・比べる(Compare)」が検知された場合、家具売り場で大型商品の試しているお客様が検知された場合に、メッセージと画像データとをあわせて店員の端末に送信してもよい。
なお、報知部65は、検知された興味の度合いのレベルに応じたメッセージを、店員の端末に送信してもよい。例えば、報知部65は、レベルが高いほど、お客様や商品を特定するより詳細なメッセージを送信してもよい。また、報知部65は、興味の度合いが高いか低いかもあわせて通知してもよく、どのレベルのお客様がいるかを示すメッセージを送信してもよい。
また、報知部65は、組み合わせを構成する興味の度合いとともに、接客効果の高いお客様の存在を示すメッセージを送信してよい。上記例で説明すると、報知部65は、「ベッド売り場で大型商品を試しているお客様がいます。興味の度合い(レベル3)」などのメッセージを店員の端末に送信する。
また、報知部65は、メッセージの中には、売り場や商品名など、上述した処理で特定される各種情報を任意に選択して含めることができる。報知部65は、報知部65は、「ベッド売り場でベッドを試しているお客様がいます。」などのメッセージや、「ベッド売り場に接客を望まれているお客様がいます。」などのメッセージや、「ベッド売り場に接客を望まれているお客様がいます。興味の度合い(レベル3)」などのメッセージを店員の端末に送信することができる。
[処理の流れ]
図20は、実施例2にかかる接客検知システムの処理の流れを示すフローチャートである。図20に示すように、情報処理装置10は、画像データを取得し(S201)、画像データから人物の骨格情報を検知する(S202)。
そして、情報処理装置10は、人物の骨格情報に基づき、動作認識を実行する。具体的には、検知部64は、画像データから、人物の「骨格検知の結果に基づく動作」を特定する(S203)。その後、情報処理装置10は、認識された動作と検知ルールとを照合する。具体的には、検知部64は、検知ルールDB56を参照し、「骨格検知の結果に基づく動作」に対応した「人物が商品に対して行う動作の種類」を照合する(S204)。合致行動が存在する場合(S205:Yes)、検知ルールから、商品の属性(大きさ)と興味の度合い(行動)を取得する。具体的には、検知部64は、検知ルールDB56から、「人物が商品に対して行う動作の種類」に対応する「商品の属性と興味の度合いとの組合せ」を特定する(S206)。
続いて、情報処理装置10は、商品の属性(大きさ)と興味の度合い(行動)を用いた通知メッセージを生成する。具体的には、検知部64は、カメラ設置DB54を参照し、動作を検知した人物を撮影したカメラIDを用いて、「売り場」を特定する。その後、検知部64は、商品DB55を参照し、特定された「売り場」に対応する、「商品の属性」と「商品の名称」を特定する。そして、検知部64は、商品DB55から、S206で特定された組み合わせを構成する「商品の属性」に該当する「商品の名称」を取得する。また、検知部64は、S206で特定された組み合わせを構成する「興味の度合い」を特定する。検知部64は、「売り場」、「商品の名称」、「興味の度合い」とともに、接客効果の高いお客様の存在を示すメッセージを生成する(S207)。情報処理装置10は、生成したメッセージを店員の端末に送信する(S208)。なお、情報処理装置10は、S204において、合致行動が存在しない場合(S205:No)、S206を実行することなく、処理を終了する。
[効果]
上述したように、情報処理装置50は、画像データから、人物の骨格情報を生成し、生成した人物の骨格情報から得られる姿勢の時系列変化から人物の動作を検知する。情報処理装置50は、商品の属性(大きさ、用途など)と商品の興味の度合いとの組み合わせ毎に、人物が商品に対して行う動作の種類が規定された情報を取得する。情報処理装置50は、取得した情報に含まれる動作の種類の中の、検出した人物の動作に対応する動作の種類を特定し、特定した動作の種類と対応付けられた商品の属性(大きさ、用途)と商品の興味の度合いとを特定する。
すなわち、情報処理装置50は、検知ルールを用いて、商品に対して興味ある行動をした人物を検知して、店員に通知することができる。したがって、店員は、興味の度合いが高いお客様に優先的にアドバイスを行うことができる。一方で、お客様は、購入を迷っている場合や自分からは相談しにくい場合であっても、店員からアドバイスを受けることで、不安などを軽減した状態で購入することができる。
また、情報処理装置50はマーケティングの分野では知られている、消費者が購入に至るまでに複数の行動プロセス(例えば、AIDMAなどの)を流用し、店頭における消費者の行動を特定することができる。例えば、情報処理装置50は、Attention(立ち止まる)、Interest(見て気になる)、Desire(手に取る)、Compare(試す)を段階的に評価した検知ルールに基づき、接客効果の高い客を検知することができる。
ところで、情報処理装置50は、実施例2で説明した内容に限らず、様々なバリエーションを有している。そこで、実施例3では、情報処理装置50が実行する処理のバリエーションについて説明する。
[検知ルール]
例えば、実施例2では、実施例1で生成した検知ルールを用いる例を説明したが、これに限定されるものではなく、管理者等が生成した別の検知ルールを用いることもできる。例えば、情報処理装置50は、過去の履歴、統計論等による解析、経験則などを用いて生成された、人物の行動と商品との組合せごとに興味の度合いを対応付けた検知ルールを用いることもできる。
[属低判定]
例えば、情報処理装置50は、写っている人物の年齢、性別などの属性をさらに判定して店員に通知することもできる。図21は、実施例3にかかる属性判定の通知例を説明する図である。図21に示すように、情報処理装置50は、商品の属性および人物の動作が認識された画像データを、訓練済みの機械学習モデルに入力して、写っている人物の属性(60代、男性)を取得する。そして、情報処理装置50は、属性を含むメッセージ「ベビーカー売り場でベビーカーを試しているお客様がいます(60代、男性)」を店員に通知する。この結果、店員は、プレゼントをする人が興味を持っているのか、実際に使用する人が興味を持っているかなどの詳細な情報を取得して上で、接客を行うことができるので、効率的な接客を行うことができる。
[検討時間の通知]
例えば、情報処理装置50は、複数のフレームにまたがって同じ行動が認識されている場合、お客様の商品検討時間を算出し、店員に通知することもできる。図22は、実施例3にかかる商品検討時間の通知例を説明する図である。図22に示すように、情報処理装置50は、ベビーカー売り場で、人物Aが写っている画像データから興味の度合いとして、レベル2を検知したとする。その後、情報処理装置50は、30秒間の間に連続して、ベビーカー売り場で人物Aが写っている画像データから興味の度合いとしてレベル2を検知したとする。この場合、情報処理装置50は、検討時間を含むメッセージ「ベビーカー売り場でベビーカーを30秒以上見ているお客様がいます。」を店員に通知してもよい。
このとき、情報処理装置50は、Attention(立ち止まる)、Interest(見て気になる)、Desire(手に取る)、Compare(試す)の段階を考慮し、次のステップを進めるメッセージを送信することもできる。例えば、情報処理装置50は、メッセージ「ベビーカー売り場でベビーカーを30秒以上見ているお客様がいます。商品のお試しを勧めてください」を店員に通知してもよい。
この結果、店員は、接客の前に、お客様の状態を把握することができ、適切な接客を行うことができる。
[フィードバック]
例えば、情報処理装置50は、店員の端末に通知後、実際に商品を購入したか否かのフィードバックを収集して検知ルールの更新を行い、検知ルールを最適な状態に保つこともできる。図23は、実施例3にかかる接客結果のフィードバック例を説明する図である。図23に示すように、情報処理装置50は、メッセージ「ベビーカー売り場でベビーカーを30秒以上見ているお客様がいます。商品のお試しを誘導してください」とともに、「接客後購入or接客後未購入」を選択させる画面を店員に通知してもよい。
そして、情報処理装置50は、「接客後購入」が閾値以上フィードバックされた検知ルールのレベルを1段階上げたり、「接客後未購入」が閾値以上フィードバックされた検知ルールのレベルを1段階下げたりして、現状に即した検知ルールを維持することもできる。
[購買分析]
また、情報処理装置50は、レジのPOSデータと行動履歴を照合した購買分析を行うことで、どの興味の度合いの行動が購買につながったかを照合し、一歩手前の興味の度合いで接客へ誘導し購買につなげることもできる。
図24は、購買行動分析の例を説明する図である。図24に示すように、情報処理装置50は、一定期間の間で検出した行動の履歴データと、購入を示すPOSデータとを収集する。ここで、一定期間の間で検出した行動の履歴データには、認識された人物を特定する人物ID、一連の行動認識が終了した時刻を示す行動終了時刻、検出した行動の遷移が含まれる。例えば、人物ID=1の人物が、行動Aを10秒した後に行動Bを5秒し、行動Bを終了した時刻が「10:14:23」であることを示している。ここで、行動Aや行動Bは、上述した「見る」、「手に取る」、「試す」などに該当する。
そして、情報処理装置50は、行動の履歴データを集計し、行動Aを4回、行動Bを42回、行動Cを12回、行動Dを3回、行動Eを15回、行動Fを2回と集計する。続いて、情報処理装置50は、行動の履歴データとPOSデータとを照合して、行動の時刻とPOSデータの購入時刻の近いものを紐づける。なお、近いものの判定は、両時刻の差が閾値未満か否かにより判定することができる。
例えば、情報処理装置50は、行動の履歴データにおいて、「11:01:22」に人ID=3の人物が「行動A(4秒)、行動B(7秒)、行動E(3秒)」を行ったことを特定する。また、情報処理装置50は、POSデータにおいて、「11:01:56」に商品ID=2420496の商品が購入されたことを特定する。この結果、情報処理装置50は、「行動A(4秒)、行動B(7秒)、行動E(3秒)」を行った人物が商品ID=2420496の商品が購入したと判定する。
同様に、情報処理装置50は、行動の履歴データにおいて、「11:14:44」に人ID=4の人物が「行動B(2秒)、行動E(6秒)」を行ったことを特定する。また、情報処理装置50は、POSデータにおいて、「11:15:23」に商品ID=43532443の商品が購入されたことを特定する。この結果、情報処理装置50は、「行動B(2秒)、行動E(6秒)」を行った人物が商品ID=43532443の商品が購入したと判定する。
このような紐づけの結果、情報処理装置50は、行動Eまで行った人のうち、実際に購入した人の割合が閾値以上であることを特定する。また、情報処理装置50は、行動Eの前行動として行動Bを行う人の割合が閾値以上であることも特定する。この結果、情報処理装置50は、行動Eまでの行動を行った人が商品を多く購入し、行動Bを行った人の多くが行動Eを行うことを特定した結果、行動Bを行っている人物が検知された場合に、行動Eへ誘導するメッセージを店員に通知することもできる。
このように、情報処理装置50は、行動の時系列を特定し、検知ルールとして活用することができる。この結果、情報処理装置50は、より接客効果の高いお客様を検知することができるので、売り上げの向上を図ることができ、きめ細かな接客サービスを提供することができるので、集客率の向上を図ることもできる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[適用例]
上記実施例では、画像データを例にして説明したが、これに限定されるものではなく、動画データなどでも同様に処理することができる。また、実施例2では、検知ルールを用いた接客検知例を説明したが、これに限定されるものではなく、情報処理装置50は、人物の行動と商品との組合せにより、商品に対する人物の興味の度合いを決定することもできる。すなわち、情報処理装置50は、行動、商品、興味の度合いを対応付けた基準を用いることもできる。
[数値例]
上記実施例で用いたデータ例、数値例、各DBの情報、フレーム数、レベル数、行動の数、行動の例、動作と骨格情報の対応付け等は、あくまで一例であり、任意に変更することができる。また、商品の属性として、商品の大きさまたは商品の種別を例示したが、これに限定されるものではなく、商品の用途などを用いることもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更されてもよい。
また、各装置の構成要素の分散や統合の具体的形態は図示のものに限られない。例えば、情報処理装置10と情報処理装置50とを同一の筐体で実現することもできる。つまり、その構成要素の全部または一部は、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合されてもよい。さらに、各装置の各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図25は、ハードウェア構成例を説明する図である。ここでは、情報処理装置10を例にして説明するが、情報処理装置50も同様である。図25に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図25に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、撮像部21、追跡部22、骨格検知部23、動作認識部24、検知ルール生成部25等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、撮像部21、追跡部22、骨格検知部23、動作認識部24、検知ルール生成部25等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで生成方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、上記実施例が同様に適用されてもよい。
このプログラムは、インターネットなどのネットワークを介して配布されてもよい。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行されてもよい。
10、50 情報処理装置
11、51 通信部
12、52 記憶部
13、53 撮像DB
14、54 カメラ設置DB
15、55 商品DB
16 POSデータDB
17、56 検知ルールDB
20、60 制御部
21、61 撮像部
22 追跡部
23、62 骨格検知部
24 動作認識部
25 検知ルール生成部
63 動作認識部
64 検知部
65 報知部

Claims (7)

  1. コンピュータに、
    店舗に入店した人物が退店するまでに撮像された各画像データを取得し、
    前記各画像データに基づき、前記人物が入店から退店するまでの前記店舗内の商品に対する行動を特定し、
    特定した行動に基づいて、前記人物の商品に対する興味の度合いを判定し、
    前記興味の度合いと前記商品とを対応づけた検知ルールを生成する、
    処理を実行させることを特徴とする生成プログラム。
  2. 前記興味の度合いを判定する処理は、
    前記商品が購入されたか否か、前記商品に触れた回数、または、前記商品の前に滞在した時間を用いて判定する、
    ことを特徴とする請求項1に記載の生成プログラム。
  3. 前記特定する処理は、前記商品のサイズごとに、前記行動を特定し、
    前記興味の度合いを判定する処理は、前記商品のサイズごとに、前記興味の度合いを判定し、
    前記生成する処理は、前記商品のサイズと前記興味の度合いとを対応付けた前記検知ルールを生成する、
    ことを特徴とする請求項1または2に記載の生成プログラム。
  4. 前記検知ルールは、前記商品のサイズと前記興味の度合いの組み合せ毎に、人物が行う行動が既定される、ことを特徴とする請求項1から3のいずれか一つに記載の生成プログラム。
  5. 前記検知ルールを用いた接客が行われた結果、前記行動が特定された接客対象の人物のうち前記商品を購入した人数もしくは前記商品を購入しなかった人数を計数し、
    計数された結果に基づき、前記検知ルールにおいて前記行動に対応付けられる前記興味の度合いを更新する、処理を前記コンピュータに実行させることを特徴とする請求項1から4のいずれか一つに記載の生成プログラム。
  6. コンピュータが、
    店舗に入店した人物が退店するまでに撮像された各画像データを取得し、
    前記各画像データに基づき、前記人物が入店から退店するまでの前記店舗内の商品に対する行動を特定し、
    特定した行動に基づいて、前記人物の商品に対する興味の度合いを判定し、
    前記興味の度合いと前記商品とを対応づけた検知ルールを生成する、
    処理を実行することを特徴とする生成方法。
  7. 店舗に入店した人物が退店するまでに撮像された各画像データを取得する取得部と、
    前記各画像データに基づき、前記人物が入店から退店するまでの前記店舗内の商品に対する行動を特定する特定部と、
    特定した行動に基づいて、前記人物の商品に対する興味の度合いを判定する判定部と、
    前記興味の度合いと前記商品とを対応づけた検知ルールを生成する生成部と、
    を有することを特徴とする情報処理装置。
JP2021126258A 2021-07-30 2021-07-30 生成プログラム、生成方法および情報処理装置 Active JP7318681B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021126258A JP7318681B2 (ja) 2021-07-30 2021-07-30 生成プログラム、生成方法および情報処理装置
EP22186220.4A EP4125067A1 (en) 2021-07-30 2022-07-21 Generating program, generation method, and information processing device
US17/870,822 US20230031073A1 (en) 2021-07-30 2022-07-22 Non-transitory computer-readable recording medium, generation method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021126258A JP7318681B2 (ja) 2021-07-30 2021-07-30 生成プログラム、生成方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2023020726A true JP2023020726A (ja) 2023-02-09
JP7318681B2 JP7318681B2 (ja) 2023-08-01

Family

ID=82656699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021126258A Active JP7318681B2 (ja) 2021-07-30 2021-07-30 生成プログラム、生成方法および情報処理装置

Country Status (3)

Country Link
US (1) US20230031073A1 (ja)
EP (1) EP4125067A1 (ja)
JP (1) JP7318681B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム
JP2006301823A (ja) * 2005-04-19 2006-11-02 Hitachi Ltd 陳列商品マーケティング方法、陳列商品マーケティングシステムおよび陳列商品マーケティングプログラム
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
JP2009217636A (ja) * 2008-03-11 2009-09-24 Fujitsu Ltd 指定商品案内装置、指定商品案内方法、およびコンピュータプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160203499A1 (en) * 2013-09-06 2016-07-14 Nec Corporation Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム
JP2006301823A (ja) * 2005-04-19 2006-11-02 Hitachi Ltd 陳列商品マーケティング方法、陳列商品マーケティングシステムおよび陳列商品マーケティングプログラム
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
JP2009217636A (ja) * 2008-03-11 2009-09-24 Fujitsu Ltd 指定商品案内装置、指定商品案内方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
US20230031073A1 (en) 2023-02-02
EP4125067A1 (en) 2023-02-01
JP7318681B2 (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
Popa et al. Kinect sensing of shopping related actions
Ahmed et al. Human gender classification based on gait features using kinect sensor
KR20170016578A (ko) 의류 피팅 시스템 및 의류 피팅 시스템의 동작 방법
Shadrach et al. Smart virtual trial room for apparel industry
JP7318681B2 (ja) 生成プログラム、生成方法および情報処理装置
JP7318682B2 (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP7318679B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP7276419B1 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP7315049B1 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP7276535B1 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP2023121485A (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP7318680B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP7315048B1 (ja) 配信プログラム、配信方法および情報処理装置
WO2024018545A1 (ja) 生成プログラム、生成方法および情報処理装置
WO2024018548A1 (ja) 生成プログラム、生成方法および情報処理装置
US20230033062A1 (en) Non-transitory computer-readable recording medium, customer service detection method, and information processing device
CN112183691B (zh) 一种商品展示的方法、装置及存储介质
JP2022189456A (ja) 行動認識プログラム、行動認識方法および情報処理装置
Negin et al. An rdf-based action recognition framework with feature selection capability, considering therapy exercises utilizing depth cameras
JP2024013129A (ja) 表示制御プログラム、表示制御方法および情報処理装置
Chu et al. Natural and implicit information-seeking cues in responsive technology
JP2024067990A (ja) 生成プログラム、生成方法および情報処理装置
KR20240085839A (ko) 정보 처리 프로그램, 정보 처리 방법 및 정보 처리 장치
JP2023098483A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP2023098482A (ja) 情報処理プログラム、情報処理方法および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150