JP2016206736A - Customer service data processing device and customer service data processing method - Google Patents

Customer service data processing device and customer service data processing method Download PDF

Info

Publication number
JP2016206736A
JP2016206736A JP2015083921A JP2015083921A JP2016206736A JP 2016206736 A JP2016206736 A JP 2016206736A JP 2015083921 A JP2015083921 A JP 2015083921A JP 2015083921 A JP2015083921 A JP 2015083921A JP 2016206736 A JP2016206736 A JP 2016206736A
Authority
JP
Japan
Prior art keywords
customer
data
impression
customer service
clerk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015083921A
Other languages
Japanese (ja)
Other versions
JP6596899B2 (en
Inventor
真 寺尾
Makoto Terao
真 寺尾
祥史 大西
Yoshifumi Onishi
祥史 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015083921A priority Critical patent/JP6596899B2/en
Publication of JP2016206736A publication Critical patent/JP2016206736A/en
Application granted granted Critical
Publication of JP6596899B2 publication Critical patent/JP6596899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide useful information to improve a customer service method.SOLUTION: A customer service data processing device includes: an estimation part which calculates the index data of an impression estimated that a customer receives from a salesclerk according to data showing the salesclerk at customer service ; a data acquisition part which acquires data showing the customer's purchase behavior; and a generation part which generates information containing the calculated index data of the impression and the data showing the customer's purchase behavior under such a state as they may be associated with each other or as they are associated with each other.SELECTED DRAWING: Figure 14

Description

本発明は、接客を示すデータを処理する技術に関する。   The present invention relates to a technique for processing data indicating customer service.

接客業務において、店員の接客品質の向上が、重要な経営課題の一つとなっている。例えば、電気店において、良い接客を受けた顧客はその電気店で多くの商品を購入する可能性が高い。一方、接客で不快な思いをした顧客は二度とその店を訪れない可能性もある。従って、接客品質の把握と向上に対するニーズは大きい。例えば、下記特許文献1では、非接触型IC(Integrated Circuit)タグを買い物カートやかごに付け、ICタグ読取装置を店舗内フロアに等間隔に配置することで、顧客の移動方向及び移動速度を含めた詳細な購買行動を把握する手法が提案されている。   In customer service, improving customer service quality is one of the important management issues. For example, in an electronic store, a customer who receives a good customer service is likely to purchase many products at the electronic store. On the other hand, a customer who is uncomfortable with the customer service may never visit the store again. Therefore, there is a great need for understanding and improving customer service quality. For example, in Patent Document 1 below, a non-contact IC (Integrated Circuit) tag is attached to a shopping cart or a basket, and IC tag readers are arranged on the floor in the store at equal intervals, so that the movement direction and movement speed of the customer can be determined. A method for grasping detailed purchase behavior including the proposal has been proposed.

また、下記特許文献2では、店舗での接客において、顧客満足度、店員満足度、及び、売上の関係を分析する手法が提案されている。この手法は、顧客の音声から顧客の感情を認識し、認識した顧客の感情から顧客満足度を算出し、店員の音声から店員の感情を認識し、認識した店員の感情から店員満足度を算出し、算出した顧客満足度および店員満足度と、当該顧客に対する売上実績とを関連付けた接客データを記録する。下記特許文献3には、会話比率と顧客満足度の関連性を把握するための接客データを記録する手法が提案されている。この手法は、店員又は顧客の話し掛け区間の長さの、店員の話し掛け区間及び顧客の話し掛け区間の長さの合計に対する比率を当該会話比率として算出し、音声からの顧客の感情認識の結果に基づいて顧客満足度を算出する。   Patent Document 2 below proposes a technique for analyzing the relationship between customer satisfaction, salesclerk satisfaction, and sales in customer service at a store. This method recognizes customer emotion from customer voice, calculates customer satisfaction from recognized customer emotion, recognizes store clerk emotion from store clerk's voice, and calculates clerk satisfaction from recognized store clerk emotion Then, customer service data in which the calculated customer satisfaction and store clerk satisfaction are associated with sales results for the customer is recorded. Patent Document 3 below proposes a method of recording customer service data for grasping the relationship between the conversation ratio and customer satisfaction. This method calculates the ratio of the length of a store clerk's or customer's talk section to the sum of the length of the store clerk's talk section and the customer's talk section as the conversation ratio, and based on the result of customer emotion recognition from voice. To calculate customer satisfaction.

特開2006−309280号公報JP 2006-309280 A 特許第5533219号公報Japanese Patent No. 5533219 特開2011−238028号公報JP 2011-238028 A

上記提案手法で生成されるデータによれば、顧客満足度及び店員満足度と売上実績との関係性や会話比率と顧客満足度との関係性を把握することができる。しかしながら、それらデータでは、売上向上のための接客方法の改善策を見出すことができない。それらデータによれば、顧客満足度を上げる必要があることを把握することができるものの、具体的にどのような接客をすれば売上が向上するのかを知ることができないからである。   According to the data generated by the proposed method, it is possible to grasp the relationship between the customer satisfaction and the store clerk satisfaction and the sales record and the relationship between the conversation ratio and the customer satisfaction. However, with these data, it is not possible to find a way to improve the customer service method for increasing sales. Although it is possible to grasp that it is necessary to raise customer satisfaction according to these data, it is not possible to know what kind of customer service will increase the sales.

本発明は、このような事情に鑑みてなされたものであり、接客方法の改善に有益な情報を提供する。本明細書において「接客」とは文言どおり顧客に接することを意味し、本発明は、接客を行う人、接客が行われる場所、接客の目的等は何ら制限されない。   The present invention has been made in view of such circumstances, and provides information useful for improving the customer service method. In the present specification, “customer service” means to contact a customer according to the wording, and the present invention does not limit the person who performs customer service, the place where customer service is performed, the purpose of customer service, and the like.

本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の側面は、接客データ処理装置に関する。第1の側面に係る接客データ処理装置は、接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出する推定手段と、顧客の購買行動を示すデータを取得するデータ取得手段と、算出された印象の指標データ及び取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する生成手段と、を有する。   The first aspect relates to a service data processing apparatus. The customer service data processing device according to the first aspect shows, based on data indicating a store clerk at the time of customer service, estimation means for calculating index data of an impression estimated to be received by the customer from the store clerk, and customer purchase behavior Data acquisition means for acquiring data, and generation means for generating information including the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in a state that can be associated or in an associated state.

第2の側面は、少なくとも一つのコンピュータにより実行される接客データ処理方法に関する。第2の側面に係る接客データ処理方法は、接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出し、顧客の購買行動を示すデータを取得し、算出された印象の指標データ及び取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する、ことを含む。   The second aspect relates to a service data processing method executed by at least one computer. The customer service data processing method according to the second aspect calculates index data of impressions estimated to be received by a customer from the store clerk based on data indicating the store clerk at the time of customer service, and obtains data indicating customer purchase behavior And generating information including the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in a state where they can be associated or in an associated state.

なお、本発明の他の側面としては、上記第2の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   Another aspect of the present invention may be a program that causes at least one computer to execute the method of the second aspect, or a computer-readable recording medium that records such a program. May be. This recording medium includes a non-transitory tangible medium.

上記各側面によれば、接客方法の改善に有益な情報を提供することができる。   According to each aspect described above, it is possible to provide information useful for improving the customer service method.

第一実施形態における接客データ処理装置のハードウェア構成を概念的に示す図である。It is a figure which shows notionally the hardware constitutions of the customer service data processing apparatus in 1st embodiment. 第一実施形態における接客データ処理装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the customer service data processing apparatus in 1st embodiment. データ取得部による売上金額の取得例を示す図である。It is a figure which shows the example of acquisition of the sales amount by a data acquisition part. データ取得部による顧客の店舗滞在時間の取得例を示す図である。It is a figure which shows the acquisition example of the customer's store stay time by a data acquisition part. データ取得部による顧客の1人当たりの店舗滞在時間の取得例を示す図である。It is a figure which shows the example of acquisition of the store stay time per customer of the customer by a data acquisition part. 検出部による接客行動(特定発話)の検出例を示す図である。It is a figure which shows the example of detection of the customer service action (specific utterance) by a detection part. 印象推定部による印象の指標データの算出例を示す図である。It is a figure which shows the example of calculation of the index data of the impression by an impression estimation part. 生成部により生成される情報の例を示す図である。It is a figure which shows the example of the information produced | generated by the production | generation part. 第一実施形態における接客データ処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the customer service data processing apparatus in 1st embodiment. 第二実施形態における生成部により生成される関連付け情報の例を示す図である。It is a figure which shows the example of the correlation information produced | generated by the production | generation part in 2nd embodiment. 第二実施形態における生成部により生成される関連付け情報の例を示す図である。It is a figure which shows the example of the correlation information produced | generated by the production | generation part in 2nd embodiment. 第二実施形態における生成部により生成される関連付け情報の例を示す図である。It is a figure which shows the example of the correlation information produced | generated by the production | generation part in 2nd embodiment. 出力部による出力例を示す図である。It is a figure which shows the example of an output by an output part. 第三実施形態における接客データ処理装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the customer service data processing apparatus in 3rd embodiment. 第三実施形態における接客データ処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the customer service data processing apparatus in 3rd embodiment. 特定表情に関する印象の指標データと時刻情報との関連付けの例を示す図である。It is a figure which shows the example of correlation with the parameter | index data of the impression regarding a specific facial expression, and time information.

以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, each embodiment given below is an illustration, respectively, and this invention is not limited to the structure of each following embodiment.

以下に例示される各実施形態における接客データ処理装置及び接客データ処理方法は、接客に関するデータを処理する。以下の各実施形態では、接客を行う人、接客される人、接客が行われる場所、接客の目的等は何ら制限されない。但し、説明を分かり易くするために、以下の各実施形態では、接客を行う人を「店員」と表記し、接客される人を「顧客」と表記する。また、接客が行われる場所として小売店舗が例示される。但し、各実施形態は、小売店舗への適用のみに制限されず、例えば、訪問販売、対面販売(銀行、保険、住宅、車等)、客先への営業活動などが行われる場所に適用されてもよい。   The customer service data processing apparatus and the customer service data processing method in each embodiment exemplified below process data related to customer service. In each of the following embodiments, there are no restrictions on the person who receives a customer, the person who receives the customer, the place where the customer is served, the purpose of the customer service, and the like. However, in order to make the explanation easy to understand, in each of the following embodiments, a person who serves a customer is referred to as a “clerk”, and a person who serves the customer is referred to as a “customer”. Moreover, a retail store is illustrated as a place where customer service is performed. However, each embodiment is not limited to application to retail stores. For example, it is applied to places where door-to-door sales, face-to-face sales (banks, insurance, housing, cars, etc.), sales activities to customers, etc. are performed. May be.

[第一実施形態]
以下、第一実施形態における接客データ処理装置及び接客データ処理方法について図面を用いて説明する。
[First embodiment]
The customer service data processing apparatus and customer service data processing method in the first embodiment will be described below with reference to the drawings.

〔ハードウェア構成〕
図1は、第一実施形態における接客データ処理装置のハードウェア構成を概念的に示す図である。接客データ処理装置(以降、処理装置と略称する)10は、いわゆるコンピュータであり、図1に示されるように、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。
[Hardware configuration]
FIG. 1 is a diagram conceptually illustrating the hardware configuration of the customer service data processing apparatus according to the first embodiment. A customer service data processing device (hereinafter abbreviated as a processing device) 10 is a so-called computer. As shown in FIG. 1, a CPU (Central Processing Unit) 11, a memory 12, an input / output interface (I / F) 13, The communication unit 14 and the like are included.

CPU11には、一般的なCPUに加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれる。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
In addition to a general CPU, the CPU 11 includes an application specific integrated circuit (ASIC), a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), and the like.
The memory 12 is a RAM (Random Access Memory), a ROM (Read Only Memory), or an auxiliary storage device (such as a hard disk).

入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。   The input / output I / F 13 can be connected to user interface devices such as the display device 15 and the input device 16. The display device 15 is a device that displays a screen corresponding to drawing data processed by the CPU 11 or the like, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. The input device 16 is a device that receives an input of a user operation such as a keyboard and a mouse. The display device 15 and the input device 16 may be integrated and realized as a touch panel.

通信ユニット14は、他のコンピュータとの通信網(図示せず)を介した通信や、他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
図1に示される各ハードウェア構成はそれぞれ例であり、処理装置10のハードウェア構成は、図1に示される例に制限されない。処理装置10は、図示されていない他のハードウェア要素を含み得る。また、各ハードウェア要素の数も、図1の例に制限されない。例えば、処理装置10は、複数のCPU11を有していてもよい。
The communication unit 14 communicates with other computers via a communication network (not shown), exchanges signals with other devices, and the like. A portable recording medium or the like can be connected to the communication unit 14.
Each hardware configuration shown in FIG. 1 is an example, and the hardware configuration of the processing apparatus 10 is not limited to the example shown in FIG. The processing device 10 may include other hardware elements not shown. Also, the number of hardware elements is not limited to the example of FIG. For example, the processing apparatus 10 may have a plurality of CPUs 11.

〔処理構成〕
図2は、第一実施形態における接客データ処理装置10の処理構成例を概念的に示す図である。第一実施形態における処理装置10は、第一取得部21、データ取得部22、第二取得部23、検出部24、印象推定部25、生成部26、分析部27、助言生成部28、出力部29、格納部30等を有する。これら各処理モジュールは、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから通信ユニット14を介してインストールされ、メモリ12に格納されてもよい。
[Processing configuration]
FIG. 2 is a diagram conceptually illustrating a processing configuration example of the customer service data processing device 10 in the first embodiment. The processing apparatus 10 in the first embodiment includes a first acquisition unit 21, a data acquisition unit 22, a second acquisition unit 23, a detection unit 24, an impression estimation unit 25, a generation unit 26, an analysis unit 27, an advice generation unit 28, and an output. Section 29, storage section 30 and the like. Each of these processing modules is realized by the CPU 11 executing a program stored in the memory 12. Further, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the communication unit 14 and stored in the memory 12.

第一取得部21は、店舗内での顧客の行動を示すデータ(以降、顧客行動データと表記する)を取得する。顧客行動データとしては、会計データ、店舗内における顧客の位置データ、顧客の入店時刻及び退店時刻、顧客の発話音声データ、来店した顧客を識別する顧客識別情報などが例示される。第一取得部21は、POS(Point Of Sales)システム(図示せず)等から顧客の精算情報を会計データとして取得することができる。   The first acquisition unit 21 acquires data indicating customer behavior in the store (hereinafter referred to as customer behavior data). Examples of customer behavior data include accounting data, customer location data in a store, customer entry and exit times, customer utterance voice data, customer identification information for identifying a customer who visited the store, and the like. The first acquisition unit 21 can acquire customer settlement information as accounting data from a POS (Point Of Sales) system (not shown) or the like.

また、第一取得部21は、既存の様々な手法を用いて、店舗内における顧客の位置データを取得することができる。例えば、第一取得部21は、店舗内の複数箇所に設置された複数の監視カメラ(図示せず)から得られる映像に基づいて、顧客の動線解析を行うことにより、顧客の位置データの履歴を取得することができる。この動線解析手法については後述する。また、第一取得部21は、店舗内の複数箇所に設置された認証センサ(図示せず)が、顧客の携帯物に付されたICタグやRFID(Radio Frequency IDentifier)タグから取得した情報に基づいて、顧客の位置データの履歴を取得することもできる。また、第一取得部21は、店舗内の複数箇所に設置されたビーコン装置から送出される無線信号を受信した顧客の携帯端末から得られる情報に基づいて、顧客の位置データの履歴を取得することもできる。   Moreover, the 1st acquisition part 21 can acquire the position data of the customer in a store using the existing various methods. For example, the first acquisition unit 21 performs customer flow analysis based on videos obtained from a plurality of monitoring cameras (not shown) installed at a plurality of locations in the store, thereby obtaining customer position data. History can be acquired. This flow line analysis method will be described later. In addition, the first acquisition unit 21 uses information acquired from an IC tag or an RFID (Radio Frequency IDentifier) tag attached to a customer's portable object by authentication sensors (not shown) installed at a plurality of locations in the store. Based on this, a history of customer location data can also be obtained. Moreover, the 1st acquisition part 21 acquires the log | history of a customer's position data based on the information obtained from the customer's portable terminal which received the radio signal transmitted from the beacon apparatus installed in the multiple places in a shop You can also.

また、第一取得部21は、既存の様々な手法を用いて、顧客の入店時刻及び退店時刻を取得することができる。例えば、第一取得部21は、店舗の出入口において、顧客の入店及び退店を検出することで、顧客の入店時刻及び退店時刻を取得することができる。具体的には、第一取得部21は、店舗の出入口に設けられた監視カメラから得られる映像で顧客の識別を行うことで、顧客の入店時刻及び退店時刻を取得することができる。また、店舗の出入口に設けられた認証センサが顧客の携帯物に付されたICタグ等から取得した情報を用いて、顧客の入店時刻及び退店時刻が取得されてもよい。また、店舗の出入口に設けられたビーコン装置から送出される無線信号を受信した顧客の携帯端末から得られる情報に基づいて、顧客の入店時刻及び退店時刻が取得されてもよい。   Moreover, the 1st acquisition part 21 can acquire a customer's entrance time and exit time using various existing methods. For example, the 1st acquisition part 21 can acquire a customer's entrance time and exit time by detecting a customer's entrance and exit at the entrance of a store. Specifically, the 1st acquisition part 21 can acquire a customer's store entry time and store exit time by identifying a customer by the image | video obtained from the monitoring camera provided in the entrance / exit of the store. Further, the customer's store entry time and store exit time may be acquired by using information acquired from an IC tag or the like attached to the customer's portable object by an authentication sensor provided at the store entrance / exit. Further, the customer's store entry time and store exit time may be acquired based on information obtained from the customer's mobile terminal that has received a wireless signal transmitted from a beacon device provided at the store entrance.

また、第一取得部21は、店員が装着したピンマイク、レジに設置したマイク、天井に設置した監視カメラのマイクなどから顧客の発話音声データを取得することができる。また、第一取得部21は、レジで提示されるポイントカードや電子マネーカード、携帯端末などからレジ端末で取得される顧客識別情報をそのレジ端末又はPOSシステム等から取得することができる。また、店舗内のビーコン装置から送出される無線信号を受信した顧客の携帯端末から得られる情報に基づいて、顧客識別情報が取得されてもよいし、監視カメラからの映像から顧客の顔の特徴量が顧客識別情報として取得されてもよい。第一取得部21による顧客行動データの取得方法はこのような例に制限されない。   Moreover, the 1st acquisition part 21 can acquire a customer's speech audio | voice data from the pin microphone with which the shop clerk was mounted | worn, the microphone installed in the cash register, the microphone of the surveillance camera installed in the ceiling, etc. Moreover, the 1st acquisition part 21 can acquire the customer identification information acquired by a cash register terminal from the point card shown by a cash register, an electronic money card, a portable terminal, etc. from the cash register terminal or a POS system. Further, customer identification information may be acquired based on information obtained from a mobile terminal of a customer who has received a wireless signal transmitted from a beacon device in a store, or a feature of a customer's face from a video from a monitoring camera The quantity may be acquired as customer identification information. The acquisition method of the customer behavior data by the first acquisition unit 21 is not limited to such an example.

データ取得部22は、第一取得部21により取得された顧客行動データから、顧客の購買行動を示すデータを取得する。データ取得部22により取得されるデータが示す「顧客の購買行動」は、顧客が実際に何かを購入する行動のみならず、顧客が店舗に入店してから店舗から出るまでの間の顧客の行動の中で接客目的(売上向上)に結び付く可能性のある様々な行動を含む。例えば、「顧客の購買行動」には、保険や銀行口座開設等の申し込み行動や、ウィンドウショッピングや銀行や保険の窓口での相談のような購入のための予備行動も含まれる。   The data acquisition unit 22 acquires data indicating customer purchase behavior from the customer behavior data acquired by the first acquisition unit 21. The “customer purchase behavior” indicated by the data acquired by the data acquisition unit 22 includes not only the customer's actual purchase behavior but also the customer from when the customer enters the store until the customer leaves the store. This includes various actions that may lead to customer service purposes (sales improvement). For example, “customer purchase behavior” includes application behavior such as insurance and bank account opening, and preliminary behavior for purchase such as window shopping and consultation at a bank or insurance window.

データ取得部22は、顧客が購入した商品、顧客が購入した金額、顧客の店舗滞在時間、顧客の店舗内移動経路(売り場の移動順序)、顧客の来店頻度、顧客の来店回数の少なくとも1つを顧客の購買行動を示すデータとして取得する。但し、データ取得部22により取得される顧客の購買行動を示すデータは、このような例に制限されない。データ取得部22は、特定の売り場における滞在時間を顧客の購買行動を示すデータとして取得してもよい。特定の売り場における滞在時間は、第一取得部21により取得された顧客の位置データの履歴から算出され得る。   The data acquisition unit 22 is at least one of the product purchased by the customer, the amount purchased by the customer, the customer's store stay time, the customer's in-store movement route (sales floor movement order), the customer's store visit frequency, and the customer's store visit frequency. Is acquired as data indicating the purchase behavior of the customer. However, the data indicating the purchase behavior of the customer acquired by the data acquisition unit 22 is not limited to such an example. The data acquisition unit 22 may acquire the stay time at a specific sales floor as data indicating the purchase behavior of the customer. The staying time at a specific sales floor can be calculated from the history of customer position data acquired by the first acquisition unit 21.

データ取得部22は、第一取得部21により取得された精算情報から、顧客が購入した商品及び顧客が購入した金額(売上金額)のデータを得ることができる。データ取得部22は、第一取得部21により取得された顧客の位置データの軌跡によれば、顧客の店舗内移動経路を示すデータを取得することができる。また、データ取得部22は、第一取得部21により取得された顧客の位置データの軌跡又は顧客の入店時刻及び退店時刻により、顧客毎の店舗滞在時間を示すデータを取得することができる。他の例として、データ取得部22は、顧客毎の店舗滞在時間ではなく、所定の時間区間における顧客の平均店舗滞在時間を計算してもよい。例えば、或る時間区間において、顧客の入店が時刻X1、X2、X3にあり、顧客の退店が時刻Y1、Y2、Y3にあった場合、この3人の顧客の合計店舗滞在時間はL=(Y1+Y2+Y3)−(X1+X2+X3)で計算できる。従って、この時間区間における顧客の1人当たり平均店舗滞在時間はL/3で計算できる。1人当たり平均店舗滞在時間は、入店と退店とが同一人物であるかどうかを判定しなくても計算することができる。   The data acquisition unit 22 can obtain data of the product purchased by the customer and the amount of money (sales amount) purchased by the customer from the settlement information acquired by the first acquisition unit 21. The data acquisition unit 22 can acquire data indicating the customer's in-store movement route according to the locus of the customer's position data acquired by the first acquisition unit 21. In addition, the data acquisition unit 22 can acquire data indicating the store stay time for each customer based on the locus of the customer's position data acquired by the first acquisition unit 21 or the customer's store entry time and store exit time. . As another example, the data acquisition unit 22 may calculate the average store stay time of a customer in a predetermined time interval instead of the store stay time for each customer. For example, when a customer enters a store at times X1, X2, and X3 and a customer exits at times Y1, Y2, and Y3 in a certain time section, the total store stay time of these three customers is L = (Y1 + Y2 + Y3)-(X1 + X2 + X3). Therefore, the average store stay time per customer of this time section can be calculated by L / 3. The average store stay time per person can be calculated without determining whether the store entry and the store exit are the same person.

データ取得部22は、第一取得部21により取得された顧客識別情報の履歴により、顧客の来店頻度及び顧客の来店回数を顧客の購買行動を示すデータとして取得することもできる。   The data acquisition unit 22 can also acquire the customer visit frequency and the number of customer visits as data indicating the purchase behavior of the customer based on the history of the customer identification information acquired by the first acquisition unit 21.

具体例として、データ取得部22は、顧客の支払い金額(売上金額)及び顧客の店舗滞在時間を顧客の購買行動を示すデータとして取得する。売上金額はそのまま接客目的となるが、顧客の店舗滞在時間も売上向上の接客目的に結びつく。一般的に、顧客の店舗滞在時間が長いほど売上が大きくなると言われているからである。   As a specific example, the data acquisition unit 22 acquires the customer's payment amount (sales amount) and the customer's store stay time as data indicating the purchase behavior of the customer. The sales amount is used for customer service as it is, but the customer's staying time at the store is also linked to the purpose of customer service to improve sales. This is because it is generally said that the longer the customer stays in the store, the higher the sales.

図3は、データ取得部22による売上金額の取得例を示す図である。データ取得部22は、精算情報から売上金額(合計金額)及び精算時刻を取得する。取得された売上金額及び精算時刻は、後述の生成部26により、図3に示されるように精算毎に関連付けられて、格納部30に格納される。図3の例によれば、7時24分20秒に1500円の売上があったことが示される。   FIG. 3 is a diagram illustrating an example of sales amount acquisition by the data acquisition unit 22. The data acquisition unit 22 acquires the sales amount (total amount) and the settlement time from the settlement information. The acquired sales amount and settlement time are stored in the storage unit 30 in association with each settlement as shown in FIG. According to the example of FIG. 3, it is shown that sales were 1500 yen at 7:24:20.

図4は、データ取得部22による顧客の店舗滞在時間の取得例を示す図である。データ取得部22は、上述のように第一取得部21により取得された顧客毎の入店時刻及び退店時刻から顧客毎の店舗滞在時間を算出する。算出された店舗滞在時間は、後述の生成部26により、図4に示されるように、顧客毎に、識別情報(顧客番号)、入店時刻及び退店時刻と関連付けられて、格納部30に格納される。図4の例によれば、顧客番号1の顧客は、7時05分00秒に入店し、店舗に43分15秒滞在して、7時48分15秒に退店したことが示される。   FIG. 4 is a diagram illustrating an example of acquisition of customer store stay time by the data acquisition unit 22. The data acquisition unit 22 calculates the store stay time for each customer from the store entry time and the store exit time for each customer acquired by the first acquisition unit 21 as described above. The calculated store stay time is associated with identification information (customer number), store entry time, and store exit time for each customer by the generation unit 26 described later, as shown in FIG. Stored. According to the example of FIG. 4, it is shown that the customer of customer number 1 entered the store at 7:05:00, stayed at the store for 43 minutes and 15 seconds, and exited at 7:48:15. .

図5は、データ取得部22による顧客の1人当たりの店舗滞在時間の取得例を示す図である。データ取得部22は、上述のように、所定の時間区間における顧客の平均店舗滞在時間を算出する。算出された平均店舗滞在時間は、後述の生成部26により、図5に示されるように、時間区間毎に、時間区間の識別情報及び来店顧客数と関連付けられて、格納部30に格納される。図5の例によれば、7時00分から8時00分の間には、4人の顧客が来店し、1人当たり店舗滞在時間が平均40分15秒であったことが示される。   FIG. 5 is a diagram illustrating an example of acquisition of store stay time per customer by the data acquisition unit 22. As described above, the data acquisition unit 22 calculates the average store stay time of the customer in a predetermined time interval. As shown in FIG. 5, the calculated average store stay time is stored in the storage unit 30 in association with the identification information of the time section and the number of customers visiting the store for each time section, as shown in FIG. 5. . According to the example of FIG. 5, it is shown that four customers visited the store between 7:00 and 8:00, and the average stay time per customer was 40 minutes and 15 seconds.

第二取得部23は、店員の行動を示すデータ(以降、店員行動データと表記する)を取得する。店員行動データとしては、店員の発話音声データ、店員の顔や動作を表す画像データ、店舗内における店員の位置データ、レジ端末の店員毎の操作履歴(ログイン履歴)などが例示される。   The second acquisition unit 23 acquires data indicating the behavior of the clerk (hereinafter referred to as clerk behavior data). Examples of the clerk behavior data include clerk utterance voice data, image data representing the clerk's face and motion, position data of the clerk in the store, operation history (login history) of each clerk at the cash register terminal, and the like.

第二取得部23は、店員が装着したピンマイク、レジに設置したマイク、天井に設置した監視カメラのマイクなどから得られる音声信号に対して既知の音声区間検出技術又は話者照合技術を適用することで、店員の発話音声データを取得することができる。例えば、第二取得部23は、所定値以上の音量が継続している区間の音声データを店員の発話音声データとして取得し、その発話音声データの開始時刻及び終了時刻を合わせて取得することもできる。また、第二取得部23は、得られた音声データに対して、事前に登録されている各店員の音声又は音声特徴情報を用いた話者照合技術を適用することで、店員の発話音声データを取得することができる。このとき、第二取得部23は、店員の発話音声データの補足情報として、同音声データから得られる顧客の発話音声データを合わせて取得してもよい。例えば、第二取得部23は、所定値以下の音量が継続している区間の音声データを顧客の発話音声データとして取得する。また、第二取得部23は、事前登録された店員の音声とは異なる発話区間を顧客の発話音声データとして取得する。   The second acquisition unit 23 applies a known voice segment detection technique or speaker verification technique to a voice signal obtained from a pin microphone worn by a store clerk, a microphone installed in a cash register, a microphone of a surveillance camera installed on a ceiling, or the like. Thus, the utterance voice data of the clerk can be acquired. For example, the second acquisition unit 23 acquires the voice data of the section where the sound volume equal to or higher than a predetermined value continues as the clerk's utterance voice data, and acquires the start time and the end time of the utterance voice data together. it can. Further, the second acquisition unit 23 applies the speaker verification technology using the voice or voice feature information of each clerk registered in advance to the obtained voice data, so that the utterance voice data of the clerk Can be obtained. At this time, the second acquisition unit 23 may also acquire customer utterance voice data obtained from the voice data as supplementary information of the clerk utterance voice data. For example, the 2nd acquisition part 23 acquires the audio | voice data of the area where the sound volume below a predetermined value is continuing as a customer's utterance audio | voice data. Moreover, the 2nd acquisition part 23 acquires the speech area different from the salesclerk's voice registered beforehand as customer's speech voice data.

また、第二取得部23は、レジに設置したカメラ、天井に設置した監視カメラなどから、店員の顔や動作を表す画像データを取得することができる。
第二取得部23は、POSシステム等から、そこで管理されているレジ端末に対する店員の利用履歴(操作履歴)の情報を得ることができる。
In addition, the second acquisition unit 23 can acquire image data representing a store clerk's face and actions from a camera installed at a cash register, a monitoring camera installed on a ceiling, and the like.
The second acquisition unit 23 can obtain information on a store clerk's use history (operation history) for the cash register terminal managed there from a POS system or the like.

また、第二取得部23は、様々な既存の方法で、店員の位置データを取得することができる。例えば、第二取得部23は、店舗内の複数箇所に設置された複数の監視カメラ(図示せず)から得られる映像に基づいて、店員の動線解析を行うことにより、店員の位置データの履歴を取得することができる。また、第二取得部23は、店舗内の複数箇所に設置された認証センサ(図示せず)が、店員の携帯物に付されたICタグやRFIDタグから取得した情報に基づいて、店員の位置データの履歴を取得することもできる。また、第二取得部23は、店舗内の複数箇所に設置されたビーコン装置から送出される無線信号を受信した店員の携帯端末から得られる情報に基づいて、店員の位置データの履歴を取得することもできる。   Moreover, the 2nd acquisition part 23 can acquire the position data of a salesclerk by various existing methods. For example, the second acquisition unit 23 performs the flow analysis of the store clerk based on the images obtained from a plurality of monitoring cameras (not shown) installed at a plurality of locations in the store, thereby obtaining the location data of the store clerk. History can be acquired. In addition, the second acquisition unit 23 is based on information acquired by the authentication sensors (not shown) installed at a plurality of locations in the store from the IC tag or RFID tag attached to the store clerk's portable items. A history of position data can also be acquired. Moreover, the 2nd acquisition part 23 acquires the log | history of the position data of a salesclerk based on the information obtained from the mobile terminal of the salesclerk who received the radio signal transmitted from the beacon apparatus installed in the multiple places in a shop You can also.

検出部24は、第二取得部23により取得された店員行動データから、顧客に対する店員の接客行動を検出する。検出部24により検出される接客行動は、店員が顧客に対して行う動作、行為、振舞い、発言、態度などを含む。例えば、接客行動としては、顧客に対する挨拶やセールストーク、顧客との会話(顧客に対する発話、顧客の問いかけに対する応答発話等を含む)、顧客への情報提供、顧客への商品又はサービスの提供、店舗案内、顧客に見せる表情、会計作業などが例示される。但し、検出部24により検出される接客行動はこのような例に制限されない。   The detection unit 24 detects the customer service behavior of the salesclerk for the customer from the salesclerk behavior data acquired by the second acquisition unit 23. The customer service behavior detected by the detection unit 24 includes operations, actions, behaviors, remarks, attitudes, and the like performed by the store clerk for the customer. For example, customer interaction includes greetings to customers, sales talks, conversations with customers (including utterances to customers, response utterances to customer questions, etc.), provision of information to customers, provision of products or services to customers, stores Examples include guidance, facial expressions to be shown to customers, and accounting work. However, the customer service behavior detected by the detection unit 24 is not limited to such an example.

検出部24は、第二取得部23により取得された店員の音声データに対して音声認識処理を適用することで、店員の発話内容を示す発話テキストデータを取得することができる。なお、音声認識処理には、既存の様々な音声認識手法が利用可能である。更に、検出部24は、その発話テキストデータと共に、第二取得部23により取得されたその発話の開始時刻及び終了時刻を利用することも可能である。   The detection unit 24 can acquire speech text data indicating the clerk's utterance content by applying a speech recognition process to the clerk's speech data acquired by the second acquisition unit 23. Various existing voice recognition methods can be used for the voice recognition process. Furthermore, the detection unit 24 can use the start time and end time of the utterance acquired by the second acquisition unit 23 together with the utterance text data.

検出部24は、上述のような音声認識の結果(発話テキストデータ)の中から特定表現を検出することで、挨拶やセールストーク、顧客への情報提供、店舗案内、会計作業等の接客行動を検出することができる。例えば、「顧客への情報提供」の検出は、店舗で取り扱っている製品やサービス名を表す特定表現の検出により実現可能である。また、店舗案内の検出は、「こちらへどうぞ」、「こちらでございます」といった特定表現の検出により実現可能である。会計作業の検出は、「次の方どうぞ」、「・・円になります」、「ポイントカードはお持ちですか」といった特定表現の検出により実現可能である。このとき、検出部24は、特定表現と完全に一致する表現のみを検出してもよいし、それに加えて、特定表現と類似する表現(語尾の違い等)を検出することもできる。   The detection unit 24 detects a specific expression from the result of speech recognition (utterance text data) as described above, thereby performing customer service actions such as greetings, sales talks, providing information to customers, store guidance, and accounting work. Can be detected. For example, detection of “providing information to a customer” can be realized by detecting a specific expression representing a product or service name handled in a store. In addition, the store information can be detected by detecting a specific expression such as “Please come here” or “Here is”. The detection of the accounting work can be realized by detecting specific expressions such as “next person please”, “... will be a circle”, “do you have a point card”. At this time, the detection unit 24 may detect only an expression that completely matches the specific expression, or in addition, may detect an expression (such as a difference in endings) similar to the specific expression.

具体例として、検出部24は、店員の特定発話の中の店員の挨拶及びセールストークを接客行動として検出する。挨拶及びセールストークは、接客業務における基本的な要素として広く重要視されている。例えば、コンビニエンスストアやデパートでは、良い挨拶の発声方法やセールストークの方法がマニュアル化され、店員の教育や評価で活用されている。挨拶を表す特定表現としては、「いらっしゃいませ」、「おはようございます」、「こんにちは」、「こんばんは」、「ありがとうございました」、「またお越しくださいませ」などが利用される。また、セールストークを表す特定表現としては、店舗で取り扱っている製品やサービス名が用いられる。例えば、コンビニエンスストアであれば、「コーヒー」や「メロンパン」などがセールストークを表す特定表現に設定され得る。   As a specific example, the detection unit 24 detects a salesclerk greeting and a sales talk in a specific utterance of the salesclerk as a customer service action. Greetings and sales talks are widely regarded as basic elements in customer service. For example, at convenience stores and department stores, a method for producing good greetings and a method for sales talks has been made into a manual, which is used in the education and evaluation of shop assistants. As a specific representation of the greeting, "May I help you?", "Good morning", "Hello", "Good evening", "Thank you", and "also not please come" is used. In addition, as a specific expression representing sales talk, a product or service name handled in a store is used. For example, in the case of a convenience store, “coffee”, “melon bread”, and the like can be set as a specific expression representing sales talk.

図6は、検出部24による接客行動(特定発話)の検出例を示す図である。検出部24は、特定発話の種別(挨拶及びセールストーク)毎に異なる特定表現をそれぞれ用いて、その特定表現に相当する発話を検出する。そして、後述の生成部26は、図6に示されるように、その検出された発話毎に、その発話の開始時刻及び終了時刻、その発話の種別(挨拶又はセールストーク)、及び発話内容テキストデータをそれぞれ関連付けて、格納部30に格納する。図6の例によれば、7時05分10秒から7時5分12秒にかけて、「いらっしゃいませ」という店員の挨拶が検出されたことが示される。   FIG. 6 is a diagram illustrating a detection example of customer service behavior (specific utterance) by the detection unit 24. The detection unit 24 detects the utterance corresponding to the specific expression by using different specific expressions for each specific utterance type (greeting and sales talk). Then, as shown in FIG. 6, the generation unit 26 described later, for each detected utterance, the start time and end time of the utterance, the type of the utterance (greeting or sales talk), and utterance content text data Are associated with each other and stored in the storage unit 30. According to the example of FIG. 6, it is shown that the greeting of the salesclerk “I welcome you” was detected from 7:05:10 to 7: 5: 12.

また、検出部24は、上述のような音声認識の結果(発話テキストデータ)に基づいて、顧客に対する店員の発話すべてを接客行動として検出してもよい。
また、検出部24は、顧客の問いかけに対する応答発話を接客行動として検出してもよい。例えば、検出部24は、店員の発話音声データと共に第二取得部23によりその補足情報として取得された顧客の発話音声データを用いて、「顧客に対する店員の発話」又は「顧客の問いかけに対する応答発話」を検出することができる。検出部24は、顧客の発話から一定時間以内に発声された店員の発話を「応答発話」として検出する。また、検出部24は、店員の発話の前後の所定時間以内に顧客の発話が存在する場合に、「顧客に対する店員の発話」として検出する。但し、検出部24による「顧客に対する店員の発話」及び「応答発話」の検出手法はこのような例に限定されない。
Moreover, the detection part 24 may detect all the salesclerk's utterances with respect to a customer as a customer service action based on the result (utterance text data) of the above speech recognition.
Moreover, the detection part 24 may detect the response speech with respect to a customer's inquiry as a customer service action. For example, the detection unit 24 uses the customer's utterance voice data acquired as supplementary information by the second acquisition unit 23 together with the clerk's utterance voice data, so that "the clerk's utterance to the customer" or "response utterance to the customer's inquiry" Can be detected. The detection unit 24 detects a clerk's utterance uttered within a certain time from the customer's utterance as a “response utterance”. In addition, when the customer utterance exists within a predetermined time before and after the clerk's utterance, the detection unit 24 detects the utterance of the clerk to the customer. However, the detection method of “the clerk's utterance to the customer” and “response utterance” by the detection unit 24 is not limited to such an example.

また、検出部24は、第二取得部23により取得された画像データから店員の特定表情を接客行動として検出することもできる。例えば、検出部24は、画像データから画像認識技術を用いて店員の顔を表す画像領域を特定し、その画像領域に対して表情認識技術を適用することで、笑顔、しかめっつら等の特定表情を検出することができる。   Moreover, the detection part 24 can also detect a shop staff's specific facial expression from the image data acquired by the 2nd acquisition part 23 as a customer service action. For example, the detection unit 24 specifies an image area representing a store clerk's face from the image data using an image recognition technique, and applies a facial expression recognition technique to the image area, thereby specifying a smile, grimacing, and the like. A facial expression can be detected.

また、検出部24は、第二取得部23により取得された、レジ端末に対する店員の操作履歴情報に基づいて、店員の会計作業を接客行動として検出することができる。例えば、検出部24は、その操作履歴情報からレジ端末利用の開始時刻及び終了時刻を抽出し、開始時刻から終了時刻の間を店員の会計作業として検出する。   Further, the detection unit 24 can detect the clerk's accounting work as a customer service action based on the clerk's operation history information for the cash register terminal acquired by the second acquisition unit 23. For example, the detection unit 24 extracts the start time and the end time of using the cashier terminal from the operation history information, and detects a period between the start time and the end time as the clerk's accounting work.

また、検出部24は、第二取得部23により取得される店員の位置データの履歴及び第一取得部21で取得される顧客の位置データの履歴に基づいて、店員の店舗案内を接客行動として検出することができる。例えば、検出部24は、店員と顧客とが一定距離以内に存在する状態が一定時間以上継続しかつ両者が移動していることを店舗案内として検出する。   The detection unit 24 uses the store clerk's store guidance as a customer service action based on the store location data history acquired by the second acquisition unit 23 and the customer location data history acquired by the first acquisition unit 21. Can be detected. For example, the detection unit 24 detects, as store guidance, that a store clerk and a customer are present within a certain distance for a certain period of time and both are moving.

顧客及び店員の動線解析手法には、様々な既存の手法が利用可能である。例えば、第一取得部21及び第二取得部23は、監視カメラから得られる画像から背景差分法によって顧客又は店員を検出する。背景差分法では、時系列に沿って入力される複数の画像から背景の情報を表すモデルが構築され、対象画像と背景モデルとの差分が計算され、この差分が大きい画像領域が顧客又は店員として検出される。また、第一取得部21及び第二取得部23は、背景モデルを用いずに、店員又は顧客の顔や頭部がモデル化されそのモデルにより学習された顔検出器や頭部検出器を用いて、画像から人の顔や頭部を検出してもよい。このような人の顔の検出手法は、検出部24による上述の特定表情の検出手法にも利用される。第一取得部21及び第二取得部23は、このように検出された顧客又は店員を、時間的及び空間的な条件マッチング等により複数の画像間で追跡(トラッキング)することで、顧客又は店員の位置データの履歴を得ることができる。但し、顧客及び店員の動線解析には、画像データのみでなく、認証センサやビーコン装置を用いて得られる位置データが利用されてもよい。この画像以外から得られる位置データを用いて、複数の画像間での顧客又は店員の追跡を行うことで、追跡精度を向上させることができる。   Various existing methods can be used for the flow line analysis method of the customer and the store clerk. For example, the 1st acquisition part 21 and the 2nd acquisition part 23 detect a customer or a salesclerk by the background subtraction method from the image obtained from a surveillance camera. In the background difference method, a model representing background information is constructed from a plurality of images input along a time series, a difference between the target image and the background model is calculated, and an image area having a large difference is used as a customer or a store clerk. Detected. Moreover, the 1st acquisition part 21 and the 2nd acquisition part 23 use the face detector and head detector which modeled the face and head of a shop assistant or the customer, and were learned by the model, without using a background model. Thus, a human face or head may be detected from the image. Such a human face detection method is also used for the specific facial expression detection method described above by the detection unit 24. The first acquisition unit 21 and the second acquisition unit 23 track (track) the customer or the store clerk detected in this way among a plurality of images by temporal and spatial condition matching, etc. The position data history can be obtained. However, not only image data but also position data obtained by using an authentication sensor or a beacon device may be used for the flow line analysis of the customer and the store clerk. Tracking accuracy can be improved by tracking a customer or a store clerk between a plurality of images using position data obtained from other than this image.

印象推定部25は、検出部24により検出された店員の接客行動に基づいて、その接客行動が行われた際のその店員を示すデータを用いて、その店員から顧客が受けると推定される印象の指標データを算出する。印象の指標データは、その印象の種別(明るい、元気等)、その印象の有無、又はその印象の強さの程度を示す。印象推定部25は、各印象の有無又は強さをそれぞれ示す複数印象の指標データを算出してもよい。推定される印象の数及び種類は制限されず、接客行動から顧客が感じ得る様々な印象が推定対象とされてもよい。   The impression estimation unit 25 uses the data indicating the store clerk when the customer service action is performed based on the customer service behavior detected by the detection unit 24, and the impression that the customer is estimated to receive from the store clerk. The index data of is calculated. The impression index data indicates the type of the impression (bright, fine, etc.), the presence or absence of the impression, or the degree of the intensity of the impression. The impression estimation unit 25 may calculate index data of a plurality of impressions indicating the presence or absence or strength of each impression. The number and types of impressions estimated are not limited, and various impressions that the customer can feel from the customer service behavior may be the estimation target.

印象推定部25による印象推定手法は、次の2つの手法に分類できる。
1つは、検出部24により検出された店員の接客行動から顧客が受けると推定される印象の指標データを算出する手法であり(以降、第一推定方法と表記する)、
もう1つは、検出部24により検出された店員の接客行動と同時期に行われた、その検出された接客行動とは異なる、同一店員の接客行動から、顧客が受けると推定される印象の指標データを算出する手法である(以降、第二推定方法と表記する)。
The impression estimation method by the impression estimation unit 25 can be classified into the following two methods.
One is a method of calculating index data of an impression that the customer is estimated to receive from the customer service behavior of the clerk detected by the detection unit 24 (hereinafter referred to as a first estimation method),
The other is the impression of the customer estimated to be received from the customer service behavior of the same store clerk, which is different from the customer service behavior detected at the same time as the customer service behavior detected by the detection unit 24. This is a method for calculating index data (hereinafter referred to as a second estimation method).

《第一推定方法》
まずは、第一推定方法から説明する。
検出部24により顧客に対する店員の発話が接客行動として検出される場合、印象推定部25は、その検出された店員の発話音声データから、明るさ、元気さ、力強さ、格好よさ、丁寧さ、落ち着き、可愛さ、誠実さ、冷たさ、流暢さ、若さ、上品さ、及び優しさの少なくとも1つの印象の有無又は強さを示す指標データを算出する。検出部24により挨拶又はセールストークの特定発話が接客行動として検出される場合、印象推定部25は、その検出された店員の発話の音声データから、明るさ、元気さ、力強さ、丁寧さ、及び冷たさの少なくとも1つの印象の有無または強さを示す指標データを算出することが望ましい。接客品質管理において、これらの印象が広く重要視されているからである。例えば、コンビニエンスストアやデパートなどにおいては「明るく」、「元気な」挨拶が売上向上や顧客のリピート率向上に役立つと考えられている。また、「冷たい」接客発話は、顧客離れにつながると考えられる。
<First estimation method>
First, the first estimation method will be described.
When the clerk's utterance to the customer is detected by the detection unit 24 as a customer service behavior, the impression estimation unit 25 uses the detected clerk's utterance voice data to determine brightness, spirit, strength, coolness, and politeness. Index data indicating the presence or strength of at least one impression of calmness, cuteness, honesty, coldness, fluency, youth, elegance, and kindness is calculated. When the detection unit 24 detects a greeting or a specific utterance of sales talk as a customer service behavior, the impression estimation unit 25 determines brightness, spirit, strength, and politeness from the voice data of the detected clerk's speech. It is desirable to calculate index data indicating the presence or absence or strength of at least one impression of coldness. This is because these impressions are widely regarded as important in customer service quality control. For example, at convenience stores and department stores, “bright” and “energetic” greetings are thought to help increase sales and increase the customer's repeat rate. Also, “cold” customer service utterances are thought to lead to customer churn.

検出部24により挨拶又はセールストークの特定発話が接客行動として検出される場合、印象推定部25は、その検出された店員の発話の音声データから、明るさ、元気さ、力強さ、丁寧さ、及び冷たさの印象の強さを示す指標データを算出する。言い換えれば、印象推定部25は、店員の挨拶及びセールストークを聞いた顧客が、その店員の発話から「明るさ」、「元気さ」、「力強さ」、「丁寧さ」、及び「冷たさ」をどの程度感じたかを推定する。具体的には、印象推定部25は、検出部24により検出された店員の挨拶又はセールストークに対応する音声データから特徴量を抽出する。印象推定部25は、当該音声データを10msecの窓幅で分割した各フレームに対して、パワー(音量)、基本周波数(声の高さ)、Mel−Frequency Cepstral Coefficients(MFCC、周波数スペクトルの包絡形状)、音素の継続時間長、及びそれらの時間差分(デルタ量)などを算出する。更に、印象推定部25は、挨拶やセールストークを表す音声区間に対して、これらフレーム単位の特徴量の平均値、分散、最小値、最大値などの統計量を計算し、これらを印象推定に用いる特徴量とする。なお、印象推定に用いる特徴量はこれらに限られるものではない。   When the detection unit 24 detects a greeting or a specific utterance of sales talk as a customer service behavior, the impression estimation unit 25 determines brightness, spirit, strength, and politeness from the voice data of the detected clerk's speech. And index data indicating the strength of the cold impression. In other words, the impression estimation unit 25 allows the customer who heard the salesclerk's greeting and the sales talk to “brightness”, “energy”, “power”, “poorness”, and “cold” Estimate how much “feel” is felt. Specifically, the impression estimation unit 25 extracts a feature amount from voice data corresponding to a salesclerk greeting or sales talk detected by the detection unit 24. The impression estimation unit 25 performs power (volume), fundamental frequency (voice pitch), Mel-Frequency Cepstial Coefficients (MFCC, frequency spectrum envelope shape) for each frame obtained by dividing the audio data by a window width of 10 msec. ), The phoneme duration, and the time difference (delta amount) between them. Further, the impression estimation unit 25 calculates statistics such as the average value, variance, minimum value, maximum value, and the like of the feature amount of each frame unit for the speech section representing the greeting or the sales talk, and uses these for the impression estimation. The feature amount to be used. Note that the feature amount used for impression estimation is not limited to these.

印象推定部25は、計算された特徴量に対して声印象推定モデルを適用することで、店員の挨拶及びセールストークから顧客が受ける印象の指標データを算出する。例えば、声印象推定モデルとして、入力音声データの「明るさ」、「元気さ」、「力強さ」、「丁寧さ」、及び「冷たさ」のそれぞれに対して、それら印象の強さを数値として算出するモデルが用いられる。声印象推定モデルとしては、それら印象の有無を推定するモデルが用いられてもよいし、音声データをそれら印象のいずれかに分類するモデルが用いられてもよい。声印象推定モデルを実現するためには、Support Vector Machine(SVM)、ニューラルネットワーク、ロジスティック回帰モデル、決定木などの周知のパターン認識モデルを用いることができる。声印象推定モデルは、以下のように学習され、印象推定部25により予め保持されていてもよいし、他の装置により保持されていてもよい。また、印象推定部25が声印象推定モデルを学習させてもよい。   The impression estimation unit 25 calculates the index data of the impression received by the customer from the salesclerk greeting and the sales talk by applying the voice impression estimation model to the calculated feature amount. For example, as a voice impression estimation model, for each of “brightness”, “energy”, “strength”, “poorness”, and “coldness” of the input voice data, A model calculated as a numerical value is used. As the voice impression estimation model, a model that estimates the presence / absence of these impressions may be used, or a model that classifies voice data into any of these impressions may be used. In order to realize the voice impression estimation model, a well-known pattern recognition model such as Support Vector Machine (SVM), neural network, logistic regression model, or decision tree can be used. The voice impression estimation model is learned as follows and may be held in advance by the impression estimation unit 25 or may be held by another device. Further, the impression estimation unit 25 may learn a voice impression estimation model.

声印象推定モデルは、学習用の音声データを用いて、次のように学習される。まず、学習用の音声データのそれぞれに対して、当該音声データの聞こえ方の主観評価によって得られる印象情報が付与される。次に、学習用の音声データから前述の方法によって計算される特徴量と、付与した印象情報とを用いて、声印象推定モデルが学習される。例えば、音声データを聞いたときに感じる「明るさ」を推定するモデルを学習する場合は、まず、印象情報の付与作業者が学習用音声データを聴取し、当該音声データを「明るい」と感じるか否かを表す印象情報を付与する。次に、付与された印象情報を推定するパターン認識モデルを学習する。なお、挨拶の印象を推定するモデルを学習する場合、学習用の音声データも挨拶に限定することが望ましい。これにより、挨拶に固有の特徴を学習した声印象推定モデルを得ることができるため、印象の推定精度が向上する。また、印象情報の付与作業は複数の作業者で行い、多数決によって付与する印象情報を決定することが望ましい。接客行動から受ける印象は主観によるところが大きいが、複数の作業者の結果を統合することで大多数の顧客が受ける印象を正しく推定可能なモデルを学習できる。   The voice impression estimation model is learned as follows using the speech data for learning. First, impression information obtained by subjective evaluation of how the sound data is heard is assigned to each of the learning sound data. Next, a voice impression estimation model is learned using the feature amount calculated by the above-described method from the speech data for learning and the given impression information. For example, when learning a model that estimates the “brightness” that is felt when listening to audio data, first, the impression information assigner listens to the learning audio data and feels the audio data “bright”. Impression information indicating whether or not is given. Next, a pattern recognition model for estimating the given impression information is learned. Note that when learning a model for estimating the impression of greetings, it is desirable to limit the speech data for learning to greetings. This makes it possible to obtain a voice impression estimation model in which features unique to greetings are learned, thereby improving impression estimation accuracy. Further, it is desirable that impression information is given by a plurality of workers, and impression information to be given is determined by majority vote. The impression received from customer service is largely subjectivity, but by integrating the results of multiple workers, it is possible to learn a model that can correctly estimate the impression received by the majority of customers.

このような印象の指標データの算出手法は、挨拶又はセールストークの特定発話のみではなく、応答発話などのような顧客に対する店員の全ての発話についても適用可能である。   Such a method of calculating the index data of impression is applicable not only to specific utterances of greetings or sales talks, but also to all utterances of the store clerk to customers such as response utterances.

図7は、印象推定部25による印象の指標データの算出例を示す図である。印象推定部25は、検出部24により接客行動として検出された挨拶及びセールストークの各々に対して、その発話音声データから推定される、「明るさ」、「元気さ」、「力強さ」、「丁寧さ」、及び「冷たさ」の各印象の強さを示す数値(指標データ)を0から100の範囲でそれぞれ算出する。そして、後述の生成部26は、図7に示されるように、検出部24により検出された発話毎に、その発話の開始時刻及び終了時刻、その発話の種別(挨拶又はセールストーク)、発話内容テキストデータ、及び印象の指標データをそれぞれ関連付けて、格納部30に格納する。図7の例によれば、7時05分10秒に発せられた「いらっしゃいませ」という挨拶発話から顧客が受ける印象は、「明るさ=92」、「元気さ=80」、「力強さ=55」、「丁寧さ=77」、及び「冷たさ=1」を示す指標データが算出されている。本実施形態においても、印象推定部25は、上述の各印象以外に、「格好よさ」、「落ち着き」、「可愛さ」、「誠実さ」、「流暢さ」、「若さ」、「上品さ」、「優しさ」などを推定対象としても良い。   FIG. 7 is a diagram illustrating a calculation example of impression index data by the impression estimation unit 25. The impression estimation unit 25 estimates “brightness”, “energy”, and “strength” estimated from the speech data for each greeting and sales talk detected by the detection unit 24 as customer service behavior. , Numerical values (index data) indicating the strength of each impression of “politeness” and “coldness” are calculated in the range of 0 to 100, respectively. Then, as shown in FIG. 7, the generation unit 26 described later, for each utterance detected by the detection unit 24, the start time and end time of the utterance, the type of the utterance (greeting or sales talk), and the utterance content The text data and the impression index data are associated with each other and stored in the storage unit 30. According to the example of FIG. 7, the impression that the customer receives from the greeting utterance “I welcome you” issued at 7:05:10 is “brightness = 92”, “energy = 80”, “strength” = 55 "," Politeness = 77 ", and" Coolness = 1 "are calculated. Also in this embodiment, in addition to the above-mentioned impressions, the impression estimation unit 25 is “cool”, “calm”, “cute”, “honesty”, “fluency”, “youth”, “elegant” "S", "kindness", etc. may be the estimation target.

検出部24により店員の特定表情が接客行動として検出される場合、印象推定部25は、特定表情として検出された店員の表情を含む画像データから、その表情から顧客が受けると推定される印象の指標データを算出する。この場合、印象推定部25は、その画像データから顔の特徴量を算出し、この算出された顔の特徴量に対して顔印象推定モデルを適用することにより、その表情から顧客が受けると推定される印象の指標データを算出することができる。顔の特徴量の算出手法には様々な既存の手法が利用可能である。例えば、顔の特徴量は、目、鼻、口等の形状や位置関係等を記述したベクトルや各画素の濃淡値を表すベクトルなどを用いて表される。また、顔印象推定モデルは、学習用の顔画像データを用いて、声印象推定モデルの学習と同様の方法により学習できる。すなわち、主観評価によって得られた印象情報が付与された学習用の顔画像データを用いて、顔印象推定モデルを学習する。店員の表情から顧客が受けると推定される印象についても、店員の発話から推定される印象と同様のものが推定対象とされてもよい。   When the specific facial expression of the store clerk is detected as a customer service behavior by the detection unit 24, the impression estimation unit 25 uses the image data including the facial expression of the store clerk detected as the specific facial expression to estimate the impression that the customer receives from the facial expression. Calculate index data. In this case, the impression estimation unit 25 calculates a facial feature amount from the image data, and applies a facial impression estimation model to the calculated facial feature amount to estimate that the customer receives from the facial expression. It is possible to calculate the index data of the impression to be made. Various existing methods can be used as a method for calculating the facial feature amount. For example, the facial feature amount is represented using a vector describing the shape and positional relationship of eyes, nose, mouth, etc., a vector representing the gray value of each pixel, and the like. The face impression estimation model can be learned by the same method as the voice impression estimation model learning using the learning face image data. That is, the face impression estimation model is learned using learning face image data to which impression information obtained by subjective evaluation is added. As for the impression estimated to be received by the customer from the facial expression of the clerk, the same impression as that estimated from the clerk's utterance may be the estimation target.

《第二推定方法》
次に、第二推定方法を説明する。第二推定方法では、検出部24により第一の接客行動が検出された場合、印象推定部25は、その検出された第一接客行動が行われた際における、その第一接客行動とは異なる、同一店員の第二接客行動を示すデータから、その第二接客行動から顧客が受けると推定される印象の指標データを算出する。
《Second estimation method》
Next, the second estimation method will be described. In the second estimation method, when the first customer service behavior is detected by the detection unit 24, the impression estimation unit 25 is different from the first customer service behavior when the detected first customer service behavior is performed. Then, from the data indicating the second customer service behavior of the same store clerk, the index data of the impression estimated to be received by the customer from the second customer service behavior is calculated.

例えば、検出部24により店員の発話(特定発話、応答発話を含む)が接客行動として検出される場合、印象推定部25は、その発話中の店員の表情から顧客が受ける印象の指標データを算出する。この場合、印象推定部25は、検出部24により検出された店員の発話の開始時刻及び終了時刻を用いて、第二取得部23により取得される店員の顔を含む画像データのうち、その開始時刻及び終了時刻の間の画像データを特定する。印象推定部25は、その特定された画像データから上述のように店員の顔を示す画像領域を特定し、その画像領域の特徴量を算出する。印象推定部25は、この算出された特徴量に対して上述の顔印象推定モデルを適用することで、その発話中の店員の表情から顧客が受ける印象の指標データを算出することができる。   For example, when the clerk's utterance (including a specific utterance and a response utterance) is detected by the detection unit 24 as a customer service behavior, the impression estimation unit 25 calculates index data of an impression received by the customer from the facial expression of the clerk during the utterance. To do. In this case, the impression estimation unit 25 uses the start time and end time of the clerk's utterance detected by the detection unit 24 to start the image data including the clerk's face acquired by the second acquisition unit 23. Image data between the time and the end time is specified. The impression estimation unit 25 identifies an image area indicating the face of the store clerk from the identified image data as described above, and calculates a feature amount of the image area. The impression estimation unit 25 can calculate the index data of the impression received by the customer from the facial expression of the clerk during the utterance by applying the above-described face impression estimation model to the calculated feature amount.

また、検出部24により店員の会計作業が接客行動として検出される場合、印象推定部25は、その会計作業中の店員の発話又は表情から顧客が受ける印象の指標データを算出する。この場合、印象推定部25は、検出部24により検出された店員の会計作業
の開示時刻及び終了時刻を用いて、第二取得部23により取得される店員の発話音声データ又は画像データのうち、その開始時刻及び終了時刻の間の発話音声データ又は画像データを特定する。印象推定部25は、その特定された発話音声データ又は画像データから上述のようにして、店員の発話又は表情から顧客が受ける印象の指標データを算出する。
Further, when the clerk's accounting work is detected as a customer service behavior by the detection unit 24, the impression estimation unit 25 calculates the index data of the impression received by the customer from the utterance or facial expression of the clerk during the accounting work. In this case, the impression estimation unit 25 uses the disclosure time and the end time of the clerk's accounting work detected by the detection unit 24, and among the utterance voice data or image data of the clerk acquired by the second acquisition unit 23, Speech audio data or image data between the start time and end time is specified. The impression estimation unit 25 calculates index data of an impression received by the customer from the utterance or facial expression of the store clerk from the identified speech voice data or image data as described above.

また、検出部24により店員の店舗案内が接客行動として検出される場合、印象推定部25は、その店舗案内中の店員の発話又は表情から顧客が受ける印象の指標データを算出する。この場合、印象推定部25は、検出部24により検出された店員の店舗案内行為の開始時刻及び終了時刻を用いて、第二取得部23により取得される店員の発話音声データ又は画像データのうち、その開始時刻及び終了時刻の間の発話音声データ又は画像データを特定する。印象推定部25は、その特定された発話音声データ又は画像データから上述のようにして、店員の発話又は表情から顧客が受ける印象の指標データを算出する。   Further, when the store guide of the store clerk is detected as a customer service behavior by the detection unit 24, the impression estimation unit 25 calculates index data of an impression received by the customer from the utterance or facial expression of the store clerk in the store guide. In this case, the impression estimation unit 25 uses the start time and end time of the store guidance act of the store clerk detected by the detection unit 24, among the clerk speech data or image data acquired by the second acquisition unit 23. The speech audio data or the image data between the start time and the end time is specified. The impression estimation unit 25 calculates index data of an impression received by the customer from the utterance or facial expression of the store clerk from the identified speech voice data or image data as described above.

印象推定部25は、上述の2つの印象推定手法のいずれか一方の手法のみを実行してもよいし、両方を実行してもよい。両方を実行する場合、印象推定部25は、検出部24により検出された第一接客行動が行われた際における、同一店員のその第一接客行動を示すデータ及び第二接客行動を示すデータから、印象の前記指標データを算出する。   The impression estimation unit 25 may execute only one of the two impression estimation methods described above, or both. When both are executed, the impression estimation unit 25 uses the data indicating the first customer service behavior and the data indicating the second customer service behavior of the same store clerk when the first customer service behavior detected by the detection unit 24 is performed. The index data of the impression is calculated.

生成部26は、印象推定部25により算出された印象の指標データ及びデータ取得部22により取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する。生成部26は、生成された情報を格納部30に格納する。上述の図3から図7に例示される各表は、生成部26により生成され、格納部30に格納された情報の例である。   The generation unit 26 generates information including the index data of the impression calculated by the impression estimation unit 25 and the data indicating the purchase behavior of the customer acquired by the data acquisition unit 22 in an associated state or an associated state. The generation unit 26 stores the generated information in the storage unit 30. Each table illustrated in FIG. 3 to FIG. 7 described above is an example of information generated by the generation unit 26 and stored in the storage unit 30.

生成部26は、図3、図4及び図5に示されるような顧客の購買行動を示すデータとそのデータに対応する時刻情報とを関連付けて、格納部30に格納する。図3の例では、生成部26は、購買行動を示すデータとして取得された売上金額及び精算時刻を精算毎に関連付けて、格納部30に格納する。図4の例では、生成部26は、購買行動を示すデータとして算出された店舗滞在時間を、その計算に用いられた入店時刻及び退店時刻、並びに顧客の識別番号と関連付けて、格納部30に格納する。図5の例では、生成部26は、購買行動を示すデータとして算出された平均店舗滞在時間を、時間区間の識別情報及びその時間区間の来店顧客数と関連付けて、格納部30に格納する。   The generation unit 26 associates data indicating the purchase behavior of the customer as illustrated in FIGS. 3, 4, and 5 with time information corresponding to the data and stores the data in the storage unit 30. In the example of FIG. 3, the generation unit 26 stores the sales amount and the settlement time acquired as data indicating purchase behavior in the storage unit 30 in association with each settlement. In the example of FIG. 4, the generation unit 26 associates the store stay time calculated as data indicating purchase behavior with the store entry time and store exit time used for the calculation, and the customer identification number, 30. In the example of FIG. 5, the generation unit 26 stores the average store stay time calculated as data indicating purchase behavior in the storage unit 30 in association with the identification information of the time interval and the number of customers visiting the time interval.

更に、生成部26は、図7に示されるような印象の指標データとその指標データに対応する時刻情報とを関連付けて、格納部30に格納する。ここで、印象の指標データに関連付けられる時刻情報は、その印象を顧客に与えると推定された定員の行動がなされた時刻を示す。言い換えれば、生成部26は、印象の指標データを、検出部24により検出された接客行動が行われた時刻の情報と関連付ける。図7の例では、生成部26は、検出部24により接客行動として検出された発話毎に、その発話の開始時刻及び終了時刻、その発話の種別(挨拶又はセールストーク)、発話内容テキストデータ、及び印象の指標データをそれぞれ関連付けて、格納部30に格納する。生成部26は、図6に示されるように、検出部24により接客行動として検出された発話毎に、その発話の開始時刻及び終了時刻、その発話の種別(挨拶又はセールストーク)、及び発話内容テキストデータをそれぞれ関連付けて、格納部30に格納してもよい。   Further, the generation unit 26 associates the impression index data as shown in FIG. 7 and the time information corresponding to the index data, and stores them in the storage unit 30. Here, the time information associated with the impression index data indicates the time at which a capacity action estimated to give the impression to the customer was performed. In other words, the generation unit 26 associates the impression index data with information on the time when the customer service behavior detected by the detection unit 24 is performed. In the example of FIG. 7, for each utterance detected by the detection unit 24 as a customer service behavior, the generation unit 26 starts and ends the utterance, type of the utterance (greeting or sales talk), utterance content text data, And impression index data are associated with each other and stored in the storage unit 30. As shown in FIG. 6, the generation unit 26, for each utterance detected by the detection unit 24 as customer service behavior, the start time and end time of the utterance, the type of the utterance (greeting or sales talk), and the content of the utterance The text data may be associated with each other and stored in the storage unit 30.

図3、図4、図5、及び図7の例では、生成部26により生成される各情報(各テーブル情報)は、印象の指標データと顧客の購買行動を示すデータとが直接関連付けられていない。しかしながら、各テーブル情報は、時刻情報(精算時刻、入店時刻及び退店時刻、時間区間、開始時刻及び終了時刻)の項目を共通して持ち、その項目で関連付け可能な状態となっている。   In the examples of FIGS. 3, 4, 5, and 7, each piece of information (each table information) generated by the generation unit 26 is directly associated with impression index data and customer purchase behavior data. Absent. However, each table information has a common item of time information (payment time, store entry time and store exit time, time section, start time and end time), and can be associated with each other.

生成部26は、図7に例示される印象の指標データと図3に例示される顧客の購買行動を示すデータとを関連付けられた状態で含む情報を生成することもできる。例えば、生成部26は、図3に示される売上金額及び精算時刻に基づいて、所定時間区間毎の平均売上金額を算出し、時間区間の識別情報と平均売上金額とを関連付けて、格納部30に格納する。また、生成部26は、図7に示される開始時刻及び終了時刻と印象の指標データとの関係から、印象の所定時間区間毎の平均指標データを算出し、時間区間の識別情報と平均指標データとを関連付けて、格納部30に格納する。これにより、印象の指標データと顧客の購買行動を示すデータとは、共通の時間区間の項目で関連付けられる。   The generation unit 26 can also generate information including the impression index data illustrated in FIG. 7 and the data indicating the purchase behavior of the customer illustrated in FIG. 3 in an associated state. For example, the generation unit 26 calculates an average sales amount for each predetermined time interval based on the sales amount and the settlement time shown in FIG. 3, associates the identification information of the time interval with the average sales amount, and stores the storage unit 30. To store. Further, the generation unit 26 calculates average index data for each predetermined time interval of the impression from the relationship between the start time and end time shown in FIG. 7 and the impression index data, and identifies identification information and average index data of the time interval. Are stored in the storage unit 30. Thereby, the impression index data and the data indicating the purchase behavior of the customer are associated with each other in the common time interval item.

図8は、生成部26により生成される情報の例を示す図である。生成部26は、図8に示されるように、印象の指標データ及び顧客の購買行動を示すデータを関連付けられた状態で含む情報を生成することもできる。図8の例では、生成部26は、印象の指標データ及び顧客の購買行動を示すデータが直接関連付けられたグラフ情報を生成する。図8の例では、図7に示される印象の指標データ(F20、F21)、図3に示される売上金額(F22)、図4に示される顧客毎の店舗滞在時間(F23)がグラフの情報として生成されたものである。各グラフは、横軸の時間軸により関連付けられている。F20は、店員の挨拶(丸マークで表示)及びセールストーク(星マークで表示)の発生時刻と、顧客が受ける「明るさ」の印象の指標データを表す。F21は、顧客の挨拶及びセールストークの発生時刻と、顧客が受ける「力強さ」の印象の指標データを表す。F22は、売上の発生時刻とその金額を表す。F23は、それぞれの顧客が店内に滞在した時間区間を横棒線で表す。滞在時間が30分以上の場合は、傍線が太く表されている。各傍線の左に付記した数字は図4における顧客番号を示している。   FIG. 8 is a diagram illustrating an example of information generated by the generation unit 26. As illustrated in FIG. 8, the generation unit 26 can also generate information including impression index data and data indicating customer purchase behavior in an associated state. In the example of FIG. 8, the generation unit 26 generates graph information in which impression index data and data indicating customer purchase behavior are directly associated with each other. In the example of FIG. 8, the impression index data (F20, F21) shown in FIG. 7, the sales amount (F22) shown in FIG. 3, the store stay time (F23) for each customer shown in FIG. Is generated. Each graph is related by a time axis on the horizontal axis. F20 represents the index data of the impression of “brightness” received by the customer and the time of occurrence of the salesclerk greeting (displayed with a circle mark) and sales talk (displayed with a star mark). F21 represents index data of the customer's greeting and sales talk occurrence time and the impression of “strength” received by the customer. F22 represents the occurrence time and the amount of sales. F23 represents a time section in which each customer stayed in the store with a horizontal bar. When the stay time is 30 minutes or more, the side line is shown thick. The numbers appended to the left of each side line indicate the customer number in FIG.

上述の例では、生成部26は、印象の指標データ及び顧客の購買行動を示すデータに時刻情報をそれぞれ関連付けることで、両データが関連付け可能な状態又は関連付けられた状態となるようにした。このように、印象の指標データ及び顧客の購買行動を示すデータをそれぞれ時刻情報と関連付けることで、時間的に近接している店員の接客行動から得られる印象と顧客の購買行動とを関連づけて分析することが可能となる。この場合、データ取得部22は、顧客の購買行動を示すデータを取得する際に、このデータに対応する時刻情報を合わせて取得する。データ取得部22は、顧客が購入した商品又は顧客が購入した金額を当該データとして取得する場合、精算情報から精算時刻を取得することができる。データ取得部22は、顧客の店舗滞在時間及び顧客の店舗内移動経路を当該データとして取得する場合、それら情報の開始時刻と終了時刻とを取得することができる。また、印象推定部25は、印象の指標データを算出する際に、その算出の元データの時刻、即ち、検出部24により検出された店員の接客行動が行われた時刻の情報を取得することができる。   In the above-described example, the generation unit 26 associates the time information with the impression index data and the data indicating the purchase behavior of the customer, so that both data can be associated with each other or can be associated with each other. In this way, the impression index data and the data indicating the customer's purchase behavior are associated with the time information, respectively, and the impression obtained from the customer service behavior of the store clerk who is close in time is associated with the customer's purchase behavior and analyzed. It becomes possible to do. In this case, when the data acquisition part 22 acquires the data which show a customer's purchase behavior, it acquires together with the time information corresponding to this data. When acquiring the product purchased by the customer or the amount purchased by the customer as the data, the data acquisition unit 22 can acquire the settlement time from the settlement information. When acquiring the customer's store stay time and the customer's in-store movement route as the data, the data acquisition unit 22 can acquire the start time and end time of the information. In addition, when calculating the impression index data, the impression estimation unit 25 acquires information on the time of the original data of the calculation, that is, the time when the store clerk's customer service behavior detected by the detection unit 24 is performed. Can do.

更に、生成部26は、店員の接客行動の検出の有無、検出された店員の接客行動の種別、及び検出された店員の接客行動の内容を識別する内容識別データの少なくとも一つが、印象の指標データ又は顧客の購買行動を示すデータと関連付けられた情報を生成してもよい。接客行動の種別は、発話、表情、会計作業、店舗案内といった行動種を示す。内容識別データは、挨拶、セールストーク、応答発話といった発話行動を更に詳細レベルに分類する識別情報であってもよいし、上述の発話内容テキストデータのような内容を直接的に表すデータであってもよい。   Further, the generation unit 26 may include at least one of content identification data for identifying presence / absence of detection of customer service behavior of the store clerk, type of customer service behavior of the detected store clerk, and content of detected customer service behavior of the store clerk as an impression index. Information associated with data or data indicative of customer purchasing behavior may be generated. The type of customer service action indicates an action type such as utterance, facial expression, accounting work, store guidance. The content identification data may be identification information for further classifying speech behaviors such as greetings, sales talks, response speeches, etc., or data directly representing content such as the above-mentioned speech content text data. Also good.

分析部27は、印象推定部25により算出された印象の指標データとデータ取得部22により取得された顧客の購買行動を示すデータとの間の相関係数を算出する。印象推定部25により複数の印象に関する指標データが算出される場合、分析部27は、各印象の指標データと顧客の購買行動を示すデータとの間の相関係数をそれぞれ算出する。相関係数は、2つのデータ間の相関の度合を示す指標値であり、その算出手法は周知である。   The analysis unit 27 calculates a correlation coefficient between the impression index data calculated by the impression estimation unit 25 and the data indicating the purchase behavior of the customer acquired by the data acquisition unit 22. When the index data relating to a plurality of impressions is calculated by the impression estimation unit 25, the analysis unit 27 calculates a correlation coefficient between the index data of each impression and data indicating the purchase behavior of the customer. The correlation coefficient is an index value indicating the degree of correlation between two data, and its calculation method is well known.

印象の指標データと顧客の購買行動を示すデータとを関連付けられた状態で含む情報が格納部30に格納されている場合、分析部27は、格納部30に格納される両データの関連付け情報を用いて、当該相関係数を算出する。図3及び図7に例示されるように、格納部30において両データが関連付けられていない場合、分析部27は、生成部26に関連付けを指示する。   When the storage unit 30 stores information including the impression index data and the data indicating the purchase behavior of the customer in association with each other, the analysis unit 27 displays the association information of both data stored in the storage unit 30. To calculate the correlation coefficient. As illustrated in FIG. 3 and FIG. 7, when both data are not associated in the storage unit 30, the analysis unit 27 instructs the generation unit 26 to associate.

助言生成部28は、分析部27により算出された相関係数に基づいて、接客に関する助言情報を生成する。例えば、助言生成部28は、算出された相関係数が所定第一閾値よりも高いか否かを判定する。助言生成部28は、顧客の購買行動を示すデータと相関が高い印象の種別を示す情報(明るい等)を含み、かつその印象種が売上向上のために重要であることを表現する助言情報を生成する。更に、助言生成部28は、算出された相関係数が所定第二閾値(上記第一閾値と同じ又は異なる閾値)よりも低いか否かを判定する。助言生成部28は、この判定により、その助言情報に、相関が低い印象の種別を示す情報(力強い等)を含み、かつその印象種については特に気にしなくてよいことを示す表現を含めてもよい。更に、助言生成部28は、図8に示されるような情報に基づいて、購買行動を示すデータと相関が高い印象の種別について、改善すべき時間帯情報をその助言情報に含めてもよい。例えば、図8の例では、9時から11時の間の「明るさ」の印象の指標値が低く、その時間帯の売上が低いため、助言生成部28は、その時間帯の「明るさ」の印象を改善すべきことをその助言情報に含める。   The advice generation unit 28 generates advice information about customer service based on the correlation coefficient calculated by the analysis unit 27. For example, the advice generation unit 28 determines whether the calculated correlation coefficient is higher than a predetermined first threshold value. The advice generation unit 28 includes information (such as bright) that indicates the type of impression that is highly correlated with the data indicating the purchase behavior of the customer, and that indicates that the impression type is important for improving sales. Generate. Furthermore, the advice generation unit 28 determines whether or not the calculated correlation coefficient is lower than a predetermined second threshold value (a threshold value that is the same as or different from the first threshold value). As a result of this determination, the advice generation unit 28 includes, in the advice information, information indicating a type of impression with low correlation (powerful, etc.) and an expression indicating that the impression type need not be particularly taken care of. Also good. Furthermore, the advice generation unit 28 may include time zone information to be improved in the advice information for the type of impression having a high correlation with the data indicating the purchase behavior based on the information as illustrated in FIG. 8. For example, in the example of FIG. 8, since the index value of the impression of “brightness” between 9 o'clock and 11 o'clock is low and the sales in that time zone are low, the advice generation unit 28 sets the “brightness” in that time zone. Include advice in the advice that should improve the impression.

出力部29は、格納部30に格納される情報を出力する。出力部29による出力の具体的形態は制限されない。出力部29は、当該情報の表示を入出力I/F13を介して表示装置15に出力させてもよいし、当該情報を入出力I/F13を介して印刷装置(図示せず)に印刷させてもよい。また、出力部29は、当該情報を通信ユニット14を介して他の装置に出力してもよいし、当該情報を通信ユニット14を介して可搬型記録媒体等に電子ファイルとして出力してもよい。   The output unit 29 outputs information stored in the storage unit 30. The specific form of the output by the output unit 29 is not limited. The output unit 29 may cause the display of the information to be output to the display device 15 via the input / output I / F 13 or cause the printing device (not shown) to print the information via the input / output I / F 13. May be. The output unit 29 may output the information to another device via the communication unit 14, or may output the information as an electronic file to a portable recording medium or the like via the communication unit 14. .

具体的には、出力部29は、格納部30に格納される情報に基づいて、印象の指標データ及び顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で出力する。例えば、出力部29は、図3、図4及び図5に示されるように、顧客の購買行動を示すデータと時刻情報とが関連付けられた情報(表やグラフ等)を出力する。出力部29は、図7に示されるように、印象の指標データと時刻情報とが関連付けられた情報(表やグラフ等)を出力する。このように、出力部29は、図3、図4又は図5に示される表と、図7に示される表とを別々に出力してもよい。更に、出力部29は、図8に示されるように、印象の指標データ及び顧客の購買行動を示すデータが関連付けられた情報(表やグラフ等)を出力する。   Specifically, based on the information stored in the storage unit 30, the output unit 29 outputs the impression index data and the data indicating the purchase behavior of the customer in an associated state or an associated state. For example, as illustrated in FIGS. 3, 4, and 5, the output unit 29 outputs information (tables, graphs, and the like) in which data indicating customer purchase behavior is associated with time information. As shown in FIG. 7, the output unit 29 outputs information (table, graph, etc.) in which impression index data and time information are associated with each other. Thus, the output unit 29 may separately output the table shown in FIG. 3, FIG. 4 or FIG. 5 and the table shown in FIG. Further, as shown in FIG. 8, the output unit 29 outputs information (tables, graphs, etc.) associated with impression index data and data indicating customer purchase behavior.

例えば、図7に示される時刻情報付きの印象の指標データの表イメージと、図3に示される時刻情報付きの売上金額データの表イメージとが出力された場合、その出力を見た者は、次のことを把握することができる。7時から8時にかけての店員の挨拶やセールストークの「明るさ」は概ね80以上と大きく、売上も1000円以上と大きい。一方で、10時から11時にかけての店員の挨拶やセールストークの「明るさ」は概ね30以下と小さく、かつ、売上も1000円以下と小さい。このことから、挨拶やセールストークの「明るさ」が大きいほど、売上が大きくなることが分かる。更に、図5に示される時刻情報付きの顧客の店舗滞在時間の表イメージによれば、次のことが分かる。すなわち、7時から8時にかけての店員の挨拶やセールストークの「明るさ」が大きいとき、顧客の店舗滞在時間は40分程度と長い。一方で、10時から11時にかけての店員の挨拶やセールストークの「明るさ」が小さいとき、顧客の店舗滞在時間は10分程度と短い。このことから、挨拶やセールストークの「明るさ」が大きいほど、顧客の店舗滞在時間が長くなることが分かる。   For example, when the table image of the index data of impression with time information shown in FIG. 7 and the table image of sales amount data with time information shown in FIG. 3 are output, The following can be grasped. The “brightness” of clerk greetings and sales talks from 7:00 to 8:00 is generally as high as 80 or more, and sales are as large as 1,000 yen or more. On the other hand, the “brightness” of salesclerk greetings and sales talks from 10:00 to 11:00 is generally as small as 30 or less, and sales are as small as 1,000 yen or less. From this, it can be seen that the greater the “brightness” of greetings and sales talks, the greater the sales. Furthermore, according to the table image of the customer's store stay time with time information shown in FIG. That is, when the “brightness” of the salesclerk greetings and sales talks from 7 am to 8 am is large, the customer stays at the store for about 40 minutes. On the other hand, when the “brightness” of the salesclerk greeting or sales talk from 10:00 to 11:00 is small, the customer's stay in the store is as short as about 10 minutes. From this, it can be seen that the longer the “brightness” of the greeting or sales talk, the longer the customer stays at the store.

また、図8のように、印象の指標データと顧客の購買行動を示すデータとが関連付けられたグラフが出力されることで、それらの間の関係を直感的に把握させることが可能となる。例えば、挨拶やセールストークが明るいほど売上が大きく、顧客の店舗滞在時間が長い傾向があることが分かり易い。また、挨拶やセールストークの「力強さ」は、売上や顧客の店舗滞在時間とはあまり関係がなく、従って、力強い挨拶を目指す必要がないことも分かる。   Further, as shown in FIG. 8, by outputting a graph in which impression index data and data indicating customer purchase behavior are associated with each other, it is possible to intuitively grasp the relationship between them. For example, it is easy to understand that the brighter the greeting or sales talk, the larger the sales and the longer the customer's stay in the store. It can also be seen that the “strength” of greetings and sales talks has little to do with sales and customer stay time, so there is no need to aim for a strong greeting.

また、出力部29は、助言生成部28により生成された助言情報及び印象に関して算出された相関係数の少なくとも一方を出力してもよい。   Further, the output unit 29 may output at least one of the advice information generated by the advice generation unit 28 and the correlation coefficient calculated regarding the impression.

〔動作例/接客データ処理方法〕
以下、第一実施形態における接客データ処理方法について図9を用いて説明する。図9は、第一実施形態における接客データ処理装置10の動作例を示すフローチャートである。例えば、図示される各工程は、処理装置10が有する上述の各処理モジュールにより実行される。各工程は、処理装置10が有する上述の各処理モジュールの処理内容と同様であるため、各工程の詳細は、適宜省略される。
[Operation example / Service data processing method]
Hereinafter, the service data processing method in the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing an operation example of the customer service data processing apparatus 10 in the first embodiment. For example, each process shown in the drawing is executed by each of the above-described processing modules included in the processing apparatus 10. Since each process is the same as the processing content of each processing module described above that the processing apparatus 10 has, details of each process are omitted as appropriate.

処理装置10は、店員行動データを取得する(S90)。このとき、処理装置10は、店員行動データと共にそのデータに対応する時刻情報も取得する。店員行動データについて上述したとおりである。例えば、処理装置10は、店員の、音声データ、顔画像データ、位置データ等を店員行動データとして取得する。処理装置10は、店舗内に設置されたカメラ及びマイク、店員が携帯するカメラ及びマイク、POSシステム、レジ端末、サーバ装置等の少なくとも一つから、入出力I/F13又は通信ユニット14を介して、店員行動データを取得する。処理装置10は、カメラから得られる映像の録画データやマイクから得られる音声の録音データを店員行動データとして可搬型記録媒体又は他の装置から取得することもできる。店員行動データの取得手法は制限されない。   The processing apparatus 10 acquires store clerk behavior data (S90). At this time, the processing apparatus 10 also acquires time information corresponding to the data along with the clerk behavior data. The clerk behavior data is as described above. For example, the processing device 10 acquires the clerk's voice data, face image data, position data, and the like as clerk action data. The processing device 10 is connected to at least one of a camera and microphone installed in the store, a camera and microphone carried by a store clerk, a POS system, a cash register terminal, a server device, and the like via the input / output I / F 13 or the communication unit 14. , Get clerk behavior data. The processing device 10 can also acquire video recording data obtained from a camera and audio recording data obtained from a microphone from a portable recording medium or another device as clerk behavior data. The method for acquiring the clerk behavior data is not limited.

処理装置10は、(S90)で取得された店員行動データから、店員の接客行動を検出する(S91)。店員の接客行動及びその検出方法については上述したとおりである。処理装置10は、接客行動を検出すると共に、その接客行動が行われた時刻の情報も取得する。この時刻情報は、(S90)で店員行動データと共に取得されてもよい。例えば、処理装置10は、店員の挨拶又はセールストークを接客行動として検出し、合わせて、その発話の開始時刻及び終了時刻を取得する。   The processing device 10 detects the customer service behavior of the clerk from the clerk behavior data acquired in (S90) (S91). The customer service behavior of the store clerk and its detection method are as described above. The processing device 10 detects the customer service behavior and also acquires information on the time when the customer service behavior was performed. This time information may be acquired together with the clerk behavior data in (S90). For example, the processing device 10 detects a salesclerk greeting or sales talk as a customer service action, and also acquires the start time and end time of the utterance.

処理装置10は、(S91)で検出された店員の接客行動に基づいて、その接客行動が行われた際のその店員を示すデータを用いて、その店員から顧客が受けると推定される印象の指標データを算出する(S92)。(S92)での印象推定方法は、上述のとおり2つに分類できる(第一推定方法及び第二推定方法)。第一推定方法では、処理装置10は、(S91)で検出された店員の接客行動から顧客が受けると推定される印象の指標データを算出する(S92)。第二推定方法では、処理装置10は、(S91)で検出された店員の接客行動と略同時期に行われた、その検出された接客行動とは異なる、同一店員の接客行動から、顧客が受けると推定される印象の指標データを算出する(S92)。印象の指標データの算出手法については上述したとおりである。   Based on the customer service behavior detected in (S91), the processing device 10 uses the data indicating the customer when the customer service behavior is performed, and the impression that the customer is estimated to receive from the customer Index data is calculated (S92). The impression estimation method in (S92) can be classified into two as described above (first estimation method and second estimation method). In the first estimation method, the processing device 10 calculates index data of an impression that is estimated to be received by the customer from the customer service behavior of the clerk detected in (S91) (S92). In the second estimation method, the processing device 10 determines that the customer has received the customer service from the customer service behavior of the same store clerk, which is different from the customer service behavior detected at the same time as the customer service behavior detected in (S91). The index data of the impression estimated to be received is calculated (S92). The calculation method of impression index data is as described above.

例えば、第一推定方法では、処理装置10は、(S91)で検出された挨拶及びセールストークの音声データから、明るさ、元気さ、力強さ、丁寧さ、及び冷たさの印象の強さを示す指標データを算出する。第二推定方法では、例えば、処理装置10は、(S91)で検出された挨拶及びセールストークと同時期の、店員の顔を含む画像データから、その店員の表情から顧客が受ける印象(明るさ、元気さ、冷たさ等)の指標データを算出する。   For example, in the first estimation method, the processing device 10 uses the voice data of the greeting and sales talk detected in (S91), and the strength of the impression of brightness, energy, strength, politeness, and coldness. The index data indicating is calculated. In the second estimation method, for example, the processing device 10 receives an impression (brightness) that the customer receives from the facial expression of the clerk from image data including the clerk's face at the same time as the greeting and sales talk detected in (S91). , Energy, coldness, etc.) is calculated.

処理装置10は、顧客行動データを取得する(S93)。このとき、処理装置10は、顧客行動データと共にそのデータに対応する時刻情報も取得する。顧客行動データについて上述したとおりである。例えば、処理装置10は、会計データ(精算情報)、位置データ、入店時刻及び退店時刻、音声データ等を顧客行動データとして取得する。処理装置10は、店舗内に設置されたカメラ及びマイク、顧客の携帯端末、POSシステム、レジ端末、サーバ装置等の少なくとも一つから、入出力I/F13又は通信ユニット14を介して、顧客行動データを取得する。処理装置10は、カメラから得られる映像の録画データやマイクから得られる音声の録音データを顧客行動データとして可搬型記録媒体又は他の装置から取得することもできる。顧客行動データの取得手法は制限されない。   The processing device 10 acquires customer behavior data (S93). At this time, the processing apparatus 10 also acquires time information corresponding to the data together with the customer behavior data. The customer behavior data is as described above. For example, the processing apparatus 10 acquires transaction data (accounting information), position data, store entry and exit times, audio data, and the like as customer behavior data. The processing device 10 receives customer behavior from at least one of a camera and a microphone installed in the store, a customer's mobile terminal, a POS system, a cash register terminal, a server device, etc. via the input / output I / F 13 or the communication unit 14. Get the data. The processing device 10 can also acquire video recording data obtained from a camera and audio recording data obtained from a microphone as customer behavior data from a portable recording medium or another device. The method for acquiring customer behavior data is not limited.

処理装置10は、(S93)で取得された顧客行動データから、顧客の購買行動を示すデータを取得する(S94)。このとき、処理装置10は、購買行動を示すデータと共に、そのデータに対応する時刻情報も取得する。顧客の購買行動を示すデータ及びそのデータの取得方法については上述したとおりである。例えば、処理装置10は、(S93)で顧客行動データとして取得された精算情報から売上金額及び精算時刻を取得する。また、処理装置10は、(S93)で顧客行動データとして取得された入店時刻及び退店時刻から顧客毎の店舗滞在時間又は所定の時間区間における顧客の平均店舗滞在時間を算出する。   The processing device 10 acquires data indicating the purchase behavior of the customer from the customer behavior data acquired in (S93) (S94). At this time, the processing apparatus 10 acquires time information corresponding to the data together with the data indicating the purchase behavior. The data indicating the purchase behavior of the customer and the method for acquiring the data are as described above. For example, the processing apparatus 10 acquires the sales amount and the settlement time from the settlement information acquired as the customer behavior data in (S93). Further, the processing device 10 calculates the store stay time for each customer or the average store stay time of the customer in a predetermined time interval from the store entry time and the store exit time acquired as customer behavior data in (S93).

処理装置10は、(S92)で算出された印象の指標データ及び(S94)で取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する(S95)。具体的には、処理装置10は、顧客の購買行動を示すデータとそのデータに対応する時刻情報との関連付け情報及び印象の指標データとその指標データに対応する時刻情報との関連付け情報を別々に生成する。また、処理装置10は、顧客の購買行動を示すデータと印象の指標データとの関連付け情報を生成する。処理装置10は、生成された情報を格納部30に格納する。   The processing apparatus 10 generates information including the index data of the impression calculated in (S92) and the data indicating the purchase behavior of the customer acquired in (S94) in an associated state or an associated state (S95). . Specifically, the processing device 10 separately associates the association information between the data indicating the purchase behavior of the customer and the time information corresponding to the data and the association information between the impression index data and the time information corresponding to the index data. Generate. In addition, the processing device 10 generates association information between data indicating customer purchase behavior and index data of impressions. The processing device 10 stores the generated information in the storage unit 30.

処理装置10は、印象の指標データと顧客の購買行動を示すデータとの相関係数を算出する(S96)。このとき、処理装置10は、印象の指標データと顧客の購買行動を示すデータとの関連付け情報を利用することができる。   The processing device 10 calculates a correlation coefficient between the index data of impression and data indicating the purchase behavior of the customer (S96). At this time, the processing apparatus 10 can use association information between the index data of impressions and data indicating the purchase behavior of the customer.

処理装置10は、(S96)で生成された相関係数に基づいて、助言情報を生成する(S97)。助言情報の内容及びその生成手法については上述のとおりである。   The processing device 10 generates advice information based on the correlation coefficient generated in (S96) (S97). The contents of the advice information and the generation method thereof are as described above.

処理装置10は、(S95)で生成された情報、(S96)で算出された相関係数、及び(S97)で生成された助言情報の少なくとも一つを出力する(S98)。この出力の具体的形態は制限されない。例えば、処理装置10は、図3、図4及び図5に示される表の少なくとも一つと図7に示される表を別々に出力する。また、処理装置10は、図8に示されるグラフを出力する。   The processing device 10 outputs at least one of the information generated in (S95), the correlation coefficient calculated in (S96), and the advice information generated in (S97) (S98). The specific form of this output is not limited. For example, the processing apparatus 10 outputs at least one of the tables shown in FIGS. 3, 4, and 5 and the table shown in FIG. 7 separately. Further, the processing apparatus 10 outputs the graph shown in FIG.

第一実施形態における接客データ処理方法における各工程の実行順序は、図9に示される例に限定されない。各工程の実行順序は、内容的に支障のない範囲で変更することができる。例えば、(S90)から(S92)と(S93)及び(S94)とは並列に実行されてもよい。また、(S96)及び(S97)は、その前の工程からシーケンシャルに実行されなくてもよい。例えば、処理装置10は、(S95)で生成された情報の件数、所定時間の経過、入力装置16を用いたユーザの指示操作の検出等の少なくとも一つに基づいて、(S96)の実行を行うか否かを判定する。同様に、処理装置10は、(S97)の実行を行うか否かを判定してもよい。これにより、(S98)では、(S95)で生成され格納部30に格納される情報のみが出力される場合、(S96)で算出された相関係数のみが出力される場合、(S97)で生成された助言情報のみが出力される場合、それら情報の2つ以上が出力される場合があり得る。   The execution order of each process in the customer service data processing method in the first embodiment is not limited to the example shown in FIG. The execution order of each process can be changed within a range that does not hinder the contents. For example, (S90) to (S92), (S93), and (S94) may be executed in parallel. Further, (S96) and (S97) may not be executed sequentially from the previous step. For example, the processing device 10 executes (S96) based on at least one of the number of pieces of information generated in (S95), elapse of a predetermined time, detection of a user instruction operation using the input device 16, and the like. Determine whether to do it. Similarly, the processing apparatus 10 may determine whether or not to execute (S97). Thereby, in (S98), when only the information generated in (S95) and stored in the storage unit 30 is output, or when only the correlation coefficient calculated in (S96) is output, in (S97) When only the generated advice information is output, two or more of the information may be output.

〔第一実施形態の作用及び効果〕
上述したように、第一実施形態では、顧客の購買行動を示すデータが取得され、店員の接客行動が検出され、検出された接客行動が行われた際のその店員から顧客が受けると推定される印象の指標データが算出される。そして、印象の指標データ及び顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報が生成され、出力される。このように、第一実施形態によれば、接客方法の改善に有益な情報を提供することができる。即ち、この出力された情報を見た店舗側の担当者は、店舗の業績向上を実現するために必要となる、店員の接客方法の具体的な改善策を見出すことができる。例えば、その担当者は、店員の挨拶やセールストークから顧客が受ける印象と、売上や顧客の店舗滞在時間との関係を把握することができる。そして、その担当者は、売上を向上したり、顧客の店舗滞在時間を長くしたりするためには、挨拶やセールストークを明るく行うように店員を教育する、といった改善策を見出すことができる。また、挨拶やセールストークを力強く行うことは売上向上には意味がない、といった知見も得ることができる。
[Operation and effect of the first embodiment]
As described above, in the first embodiment, data indicating the purchase behavior of the customer is acquired, the customer service behavior of the store clerk is detected, and it is estimated that the customer receives from the store clerk when the detected customer service behavior is performed. The impression index data is calculated. Then, information including impression index data and data indicating the purchase behavior of the customer in an associated state or an associated state is generated and output. Thus, according to the first embodiment, it is possible to provide information useful for improving the customer service method. That is, the store-side person in charge who sees the output information can find out specific measures for improving the store staff's customer service method, which are necessary for realizing improvement in store performance. For example, the person in charge can grasp the relationship between the impression received by the customer from the greeting of the store clerk and the sales talk, and the sales and the customer's store stay time. Then, the person in charge can find an improvement measure such as educating the store clerk to brighten greetings and sales talks in order to increase sales or increase the customer's stay time in the store. In addition, it is also possible to obtain knowledge that strong greetings and sales talks are meaningless for improving sales.

また、第一実施形態では、店員の行動(発話や表情等)を示すデータに基づいて、その行動から顧客が受けると推定される印象の指標データが算出される。よって、この印象の指標データは、特許文献2及び3で提案されている、顧客自身の音声から算出される顧客満足度とは相違する。第一実施形態によれば、顧客のデータがなくても、顧客が受ける印象の指標データを算出することができる。つまり、第一実施形態によれば、接客方法の改善に有益な情報を確実に取得することができる。接客が行われる場所において、個人情報保護やプライバシの問題から顧客の音声や画像を取るのは難しい場合があるからである。   Further, in the first embodiment, based on data indicating a store clerk's behavior (speech, facial expression, etc.), index data for an impression estimated to be received by the customer from the behavior is calculated. Therefore, the index data of the impression is different from the customer satisfaction calculated from the customer's own voice proposed in Patent Documents 2 and 3. According to the first embodiment, it is possible to calculate the index data of the impression received by the customer without the customer data. That is, according to the first embodiment, it is possible to reliably acquire information useful for improving the customer service method. This is because it may be difficult to take a voice or image of a customer in a place where customer service is performed due to personal information protection and privacy issues.

また、第一実施形態によれば、接客業務における接客品質管理で重要視されている印象から、「明るさ」、「元気さ」、「力強さ」、「丁寧さ」、「冷たさ」等のように、推定対象となる印象を選ぶことができる。また、このように、複数印象の指標データを算出することにより、印象種ごとに顧客の購買行動との関連性の知見を得ることができる。接客が行われる業種や場所によって、顧客の購買行動に影響を与える印象種が異なることが考えられる。第一実施形態によれば、接客が行われる業種や場所ごとに、接客方法の改善に寄与する適切な情報を提供することができる。例えば、コンビニエンスストアのような小売店における接客では、「明るさ」の印象が売上に強く影響し、ホテルでの接客では、「明るさ」よりも「丁寧さ」の印象が売上に強く影響することが考えられる。また、小売店やホテルでの接客では、「力強さ」の印象は売上にほとんど影響を与えないが、八百屋や居酒屋での接客では、「力強さ」の印象が売上に強く影響することが考えられる。   In addition, according to the first embodiment, “brightness”, “energy”, “strength”, “poorness”, “coldness” from the impression that is regarded as important in customer service quality management in customer service. Thus, an impression to be estimated can be selected. In addition, by calculating the index data of a plurality of impressions in this way, it is possible to obtain knowledge of the relevance to the customer purchase behavior for each impression type. Depending on the type of business and the place where customer service is performed, the type of impression that affects the customer's purchasing behavior may differ. According to the first embodiment, it is possible to provide appropriate information that contributes to the improvement of the customer service method for each business type and place where customer service is performed. For example, the impression of “brightness” has a strong impact on sales when serving customers at a retail store such as a convenience store, and the impression of “politeness” has a greater impact on sales than “brightness” when serving customers at a hotel. It is possible. In addition, the impression of “strength” has little effect on sales when serving customers at retail stores and hotels, but the impression of “strength” has a strong effect on sales when serving customers at greengrocers and pubs. Can be considered.

[第二実施形態]
上述の第二実施形態では、時刻情報が、印象の指標データと顧客の購買行動を示すデータとの関連付けのために利用された。即ち、推定された印象の元となる店員の行動が行われた時刻と近い時刻で行われた顧客の購買行動とが関連付けられた。しかしながら、時刻の近さのみによる関連付けでは、推定された印象の元となる店員の行動が、その印象に関連付けられた購買行動に結び付いたのかは定かではない。言い換えれば、時刻の近さのみによる関連付けでは、指標データが表すその印象を受けたと推定される顧客と、その指標データに関連付けられた購買行動を行った顧客とが一致しているとは限らない。
[Second Embodiment]
In the second embodiment described above, the time information is used for associating the impression index data with the data indicating the purchase behavior of the customer. That is, the purchase behavior of the customer performed at a time close to the time when the store clerk's behavior that is the basis of the estimated impression was associated. However, in the association based only on the closeness of the time, it is not certain whether the behavior of the store clerk that is the basis of the estimated impression is related to the purchase behavior associated with the impression. In other words, in the association based only on the proximity of time, the customer estimated to have received the impression represented by the index data does not necessarily match the customer who performed the purchase behavior associated with the index data. .

そこで、第二実施形態は、推定された印象の元となる店員の行動と顧客の購買行動とを適切に関連付ける。これにより、第二実施形態は、店員の行動から顧客が受ける印象と顧客の購買行動との関係を、第一実施形態よりもさらに高精度に分析することができる。以下、第二実施形態における接客データ処理装置及び接客データ処理方法について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。   Therefore, the second embodiment appropriately associates the behavior of the clerk who is the basis of the estimated impression with the purchase behavior of the customer. Thereby, 2nd embodiment can analyze the relationship between the impression which a customer receives from the behavior of a store clerk, and purchase behavior of a customer with higher accuracy than the first embodiment. Hereinafter, the customer service data processing device and the customer service data processing method in the second embodiment will be described focusing on the contents different from the first embodiment. In the following description, the same contents as those in the first embodiment are omitted as appropriate.

〔処理構成〕
第二実施形態における接客データ処理装置10は、図2に示される第一実施形態の処理構成と同様である。以下に示す各処理モジュールの処理内容が第一実施形態と異なる。
[Processing configuration]
The customer service data processing apparatus 10 in the second embodiment is the same as the processing configuration of the first embodiment shown in FIG. The processing content of each processing module shown below is different from the first embodiment.

生成部26は、印象の指標データと購買行動を示すデータとが同一顧客のものとなるように、両データを関連付ける。言い換えれば、生成部26は、印象推定部25によりその印象を受けたと推定される顧客と、その印象の指標データに関連付けられる購買行動を行った顧客とが一致するように、両データを関連付ける。これにより、例えば、顧客Aが店舗に入店し、その顧客に対して店員が「いらっしゃいませ」と挨拶した場合、その挨拶と顧客Aによる売上や顧客Aの店舗滞在時間とが関連付けられる。また、顧客Bに対して、店員が「メロンパンが焼き上がりましたよ」とセールストークを行った場合、このセールストークと顧客Bによる売上や顧客Bの店舗滞在時間とが関連付けられる。   The generation unit 26 associates both data so that the impression index data and the data indicating the purchase behavior belong to the same customer. In other words, the generation unit 26 associates both data so that the customer estimated to have received the impression by the impression estimation unit 25 matches the customer who has performed the purchase behavior associated with the index data of the impression. Thereby, for example, when the customer A enters the store and the store clerk greets the customer with “I welcome you”, the greeting is related to the sales by the customer A and the customer A's store stay time. In addition, when the sales clerk makes a sales talk to the customer B that the melon bread is baked, the sales talk is associated with the sales by the customer B and the customer B's store stay time.

生成部26による関連付け方法には次のような複数の方法が存在する。以下、各関連付け方法についてそれぞれ説明する。但し、生成部26による関連付け方法は、以下に挙げる例に限定されない。   There are a plurality of association methods by the generation unit 26 as follows. Hereinafter, each association method will be described. However, the association method by the generation unit 26 is not limited to the example given below.

《第一関連付け方法》
生成部26は、第一取得部21により取得される顧客の位置データの履歴、並びに、第一実施形態で述べた印象の指標データと時刻情報との関連付け及び購買行動を示すデータと時刻情報との関連付けとを用いて、印象の指標データと購買行動を示すデータとを関連付ける。顧客の位置データの履歴は、位置データと時刻情報との複数ペアを含み、更に、顧客の識別情報(顧客ID)を含む。印象の指標データと関連付けられる時刻情報は、検出部24により検出された接客行動が行われた時刻と略同様である。
<First association method>
The generation unit 26 records the customer position data acquired by the first acquisition unit 21, the association between the impression index data and the time information described in the first embodiment, the data indicating the purchase behavior, and the time information. Is used to associate impression index data with data indicating purchase behavior. The history of customer location data includes a plurality of pairs of location data and time information, and further includes customer identification information (customer ID). The time information associated with the impression index data is substantially the same as the time when the customer service behavior detected by the detection unit 24 is performed.

生成部26は、印象の指標データと時刻情報との関連付け及び顧客の位置データの履歴に基づいて、その印象の指標データに対して顧客IDを関連付ける。このとき、生成部26は、印象の指標データと関連付けられた時刻における顧客の位置により、その印象を受けたと推定される顧客のIDを特定する。例えば、生成部26は、10時に店員から発せられた「いらっしゃいませ」に対応する印象の指標データについては、10時に店の入口付近にいた顧客のIDを関連付ける。   The generation unit 26 associates the customer ID with the impression index data based on the association between the impression index data and the time information and the history of the customer position data. At this time, the generation unit 26 specifies the ID of the customer estimated to have received the impression based on the position of the customer at the time associated with the impression index data. For example, the generation unit 26 associates the ID of the customer who was near the entrance of the store at 10 o'clock with respect to the index data of the impression corresponding to “welcome” issued by the store clerk at 10 o'clock.

図10は、第二実施形態における生成部26により生成される関連付け情報の例を示す図である。図10の例では、生成部26は、検出部24により検出された発話毎に、印象の指標データ及び顧客IDをそれぞれ関連付ける。図10の例によれば、7時05分10秒に発せられた「いらっしゃいませ」という挨拶発話から推定される印象の指標データ(「明るさ=92」、「元気さ=80」等)に、「顧客ID=5」が関連付けられている。   FIG. 10 is a diagram illustrating an example of association information generated by the generation unit 26 in the second embodiment. In the example of FIG. 10, the generation unit 26 associates impression index data and a customer ID for each utterance detected by the detection unit 24. According to the example of FIG. 10, the impression index data (“brightness = 92”, “energeticity = 80”, etc.) estimated from the greeting utterance “I welcome you” uttered at 7:05:10 , “Customer ID = 5”.

更に、生成部26は、購買行動を示すデータと時刻情報との関連付け及び顧客の位置データの履歴に基づいて、その購買行動を示すデータに対して顧客IDを関連付ける。このとき、生成部26は、購買行動を示すデータと関連付けられた時刻における顧客の位置により、その購買行動の主体である顧客のIDを特定する。例えば、購買行動を示すデータとして顧客の店舗滞在時間が利用される場合、生成部26は、10時に入店して10時10分に退店した顧客の店舗滞在時間(10分)に対して、10時及び10時10分に店舗の出入口付近にいた顧客のIDを関連付ける。   Further, the generation unit 26 associates the customer ID with the data indicating the purchase behavior based on the association between the data indicating the purchase behavior and the time information and the history of the position data of the customer. At this time, the generation unit 26 specifies the ID of the customer who is the subject of the purchase behavior based on the position of the customer at the time associated with the data indicating the purchase behavior. For example, when the customer's store stay time is used as data indicating purchase behavior, the generation unit 26 enters the store at 10 o'clock and leaves the store at 10:10 with respect to the store stay time (10 min) of the customer. Associate customer IDs near the store entrance at 10:00 and 10:10.

図11は、第二実施形態における生成部26により生成される関連付け情報の例を示す図である。図11の例では、生成部26は、購買行動を示すデータである精算毎の売上金額に対して顧客IDを関連付ける。図11の例によれば、7時47分56秒に精算を終えた顧客の売上金額「1200円」に対して、7時47分くらいにレジにいた顧客のID(8)が関連付けられている。なお、顧客のIDは、レジで提示されたポイントカードの顧客情報から取得することもできる。   FIG. 11 is a diagram illustrating an example of association information generated by the generation unit 26 in the second embodiment. In the example of FIG. 11, the generation unit 26 associates a customer ID with a sales amount for each settlement, which is data indicating purchase behavior. According to the example of FIG. 11, the customer's sales amount “1200 yen” that has been settled at 7:47:56 is associated with the customer ID (8) of the customer who was at the cash register at about 7:47. Yes. The customer ID can also be acquired from the customer information of the point card presented at the cash register.

《第二関連付け方法》
生成部26は、上述の第一関連付け方法で用いられた情報に加えて、第二取得部23により取得される店員の位置データの履歴を更に用いて、印象の指標データと購買行動を示すデータとを関連付ける。店員の位置データの履歴は、位置データと時刻情報との複数ペアを含み、更に、店員の識別情報(店員ID)を含む。この方法では、生成部26は、印象の指標データと時刻情報との関連付け、顧客の位置データの履歴、及び店員の位置データの履歴に基づいて、その印象の指標データに対して顧客IDを関連付ける。生成部26は、印象の指標データと関連付けられた時刻における顧客と店員との位置関係により、その印象を受けたと推定される顧客のIDを特定する。例えば、生成部26は、11時の店員の表情に対する印象の指標データについては、11時にその店員から所定距離以内にいた顧客のIDを関連付ける。
《Second association method》
In addition to the information used in the first association method described above, the generation unit 26 further uses the history of the position data of the clerk acquired by the second acquisition unit 23 to generate the index data and impression behavior data. Associate with. The history of the clerk position data includes a plurality of pairs of position data and time information, and further includes clerk identification information (clerk ID). In this method, the generation unit 26 associates a customer ID with the impression index data based on the association between the impression index data and the time information, the customer position data history, and the store clerk position data history. . The generation unit 26 specifies the ID of the customer who is estimated to have received the impression based on the positional relationship between the customer and the store clerk at the time associated with the impression index data. For example, the generation unit 26 associates the ID of the customer who was within a predetermined distance from the clerk at 11:00 with respect to the index data of the impression of the clerk's facial expression at 11:00.

この場合、印象の指標データには、時刻情報と共に、その印象推定の元(入力)となる行動を取った店員のIDが関連付けられている必要がある。そこで、印象推定部25は、印象推定モデルを適用するデータ(音声や画像等)により示される店員のIDを特定する。例えば、第二取得部23は、店員行動データを取得する際に、そのデータの取得元に基づいて、その店員行動データにより示される店員のIDを特定する。第二取得部23は、店員IDと店員により携帯されるマイクのIDとの対応情報を参照することで、取得された店員行動データに対応する店員IDを特定することができる。また、店員にICタグを携帯させることで、第二取得部23は、店員の位置データと共に、ICタグから得られるその店員のIDを取得することもできる。このような場合、印象推定部25は、第二取得部23により特定された店員IDを用いればよい。   In this case, the impression index data needs to be associated with the time information and the ID of the clerk who took the action that is the source (input) of the impression estimation. Therefore, the impression estimation unit 25 specifies the clerk's ID indicated by data (sound, image, etc.) to which the impression estimation model is applied. For example, when acquiring the clerk behavior data, the second acquisition unit 23 specifies the clerk ID indicated by the clerk behavior data based on the data acquisition source. The second acquisition unit 23 can identify the clerk ID corresponding to the acquired clerk behavior data by referring to the correspondence information between the clerk ID and the ID of the microphone carried by the clerk. Moreover, the 2nd acquisition part 23 can also acquire ID of the salesclerk obtained from an IC tag with the position data of a salesclerk by making a salesclerk carry an IC tag. In such a case, the impression estimation unit 25 may use the clerk ID specified by the second acquisition unit 23.

他の例として、印象推定部25は、印象推定モデルを適用するデータ(音声や画像等)に対して、話者照合技術又は顔識別技術を適用することで、そのデータにより示される店員のIDを特定する。話者照合技術を用いる場合、印象推定部25は、店員毎の発話モデル(音声特徴量)を予め保持する。また、顔識別情報を用いる場合、印象推定部25は、店員毎の顔画像モデル(画像特長量)を予め保持する。   As another example, the impression estimation unit 25 applies the speaker verification technique or the face identification technique to the data (sound, image, etc.) to which the impression estimation model is applied, so that the clerk's ID indicated by the data is applied. Is identified. When the speaker verification technique is used, the impression estimation unit 25 holds an utterance model (voice feature amount) for each clerk in advance. Further, when using face identification information, the impression estimation unit 25 holds a face image model (image feature amount) for each clerk in advance.

図12は、第二実施形態における生成部26により生成される関連付け情報の例を示す図である。図12の例では、生成部26は、検出部24により検出された発話毎に、印象の指標データ、店員ID及び顧客IDをそれぞれ関連付ける。図12の例によれば、7時05分10秒に「店員ID=8」の店員が発した「いらっしゃいませ」という挨拶発話に対して、印象の指標データ(「明るさ=92」、「元気さ=80」等)及び「顧客ID=5」が関連付けられている。   FIG. 12 is a diagram illustrating an example of association information generated by the generation unit 26 in the second embodiment. In the example of FIG. 12, the generation unit 26 associates the impression index data, the clerk ID, and the customer ID for each utterance detected by the detection unit 24. According to the example of FIG. 12, impression index data (“brightness = 92”, “brightness = 92”, “ And “customer ID = 5” are associated with each other.

なお、購買行動を示すデータと顧客IDとの関連付けについては、第一関連付け方法と同様でよい。このようにして、生成部26は、印象の指標データと購買行動を示すデータとを顧客IDにより関連付ける。生成部26は、顧客IDにより関連付けられた情報を格納部30に格納する。ここで、生成部26は、関連付けられた印象の指標データと購買行動を示すデータを格納し、印象の指標データと顧客IDとの関連付け情報及び購買行動を示すデータと顧客IDとの関連付け情報を格納しなくてもよい。   The association between the data indicating the purchase behavior and the customer ID may be the same as in the first association method. In this manner, the generation unit 26 associates the impression index data and the data indicating the purchase behavior with the customer ID. The generation unit 26 stores information associated with the customer ID in the storage unit 30. Here, the generating unit 26 stores the associated impression index data and data indicating purchase behavior, and associates the impression index data with the customer ID, and the association information between the data indicating the purchase behavior and the customer ID. It is not necessary to store.

更に、上述の第二関連付け方法が取られる場合、生成部26は、印象の指標データに、店員IDと、その店員の行動によりその印象を受けたと推定される顧客のIDとの関連付け情報を生成することができる。更に、その関連付け情報に基づいて、生成部26は、印象の指標データ及び顧客の購買行動に店員IDを関連付けることもできる。この関連付け情報によれば、顧客が受けると推定される印象とその顧客の購買行動との関係の分析を、店員毎に行うことができる。例えば、店員Aは挨拶の「明るさ」が大きく接客した対象顧客の売上も大きいが、店員Bは挨拶の「明るさ」が小さく接客した対象顧客の売上が小さいこと等を分析できる。   Further, when the second association method described above is taken, the generation unit 26 generates association information between the clerk ID and the customer ID estimated to have received the impression by the behavior of the clerk in the impression index data. can do. Furthermore, based on the association information, the generation unit 26 can associate the store clerk ID with the impression index data and the purchase behavior of the customer. According to this association information, an analysis of the relationship between the impression estimated to be received by the customer and the purchase behavior of the customer can be performed for each clerk. For example, salesclerk A can analyze the sales of target customers who have received a large “brightness” in greetings and large sales for salesclerk B, but salesclerk B can analyze the sales of the target customers in whom the “brightness” of greetings is small.

図13は、出力部29による出力を示す図である。図13では、店員の挨拶の印象の指標データと顧客の購買行動を示すデータとの相関を示すグラフ及びその相関係数が出力されている。グラフF50は、挨拶の「明るさ」の印象の指標データと、挨拶の対象となった顧客による売上との相関関係を示す。このグラフF50によれば、明るい挨拶を受けた顧客からの売上が大きいという関係があることが分かる。グラフF51は、挨拶の「力強さ」の印象の指標データと、挨拶の対象となった顧客による売上との相関関係を示す。グラフF51によれば、挨拶の「力強さ」と売上との間にはほとんど関係がないことが分かる。グラフF52は、挨拶の「明るさ」の印象の指標データと、挨拶の対象となった顧客の店舗滞在時間との相関関係を示す。グラフF52によれば、明るい挨拶を受けた顧客ほど滞在時間が長いという関係があることが分かる。   FIG. 13 is a diagram illustrating an output by the output unit 29. In FIG. 13, a graph indicating the correlation between the index data of the impression of the salesclerk greeting and the data indicating the purchase behavior of the customer and the correlation coefficient thereof are output. The graph F50 shows the correlation between the index data of the “brightness” impression of the greeting and the sales by the customer who is the subject of the greeting. According to this graph F50, it can be seen that there is a relationship that sales from customers who have received a bright greeting are large. The graph F51 shows the correlation between the index data of the impression of “strength” of the greeting and the sales by the customer who is the subject of the greeting. According to the graph F51, it can be seen that there is almost no relationship between the “strength” of the greeting and the sales. The graph F52 shows the correlation between the index data of the “brightness” impression of the greeting and the customer's stay time in the store that is the subject of the greeting. According to the graph F52, it can be seen that a customer who receives a bright greeting has a longer staying time.

〔動作例/接客データ処理方法〕
第二実施形態における接客データ分析方法の各工程の順番は、図9に示される第一実施形態と同様である。第二実施形態では(S95)での関連付け方法が第一実施形態と異なる。この関連付け方法は、上述したとおりである。
[Operation example / Service data processing method]
The order of each process of the customer service data analysis method in the second embodiment is the same as that in the first embodiment shown in FIG. In the second embodiment, the associating method in (S95) is different from the first embodiment. This association method is as described above.

〔第二実施形態の作用及び効果〕
上述のように、第二実施形態では、印象の指標データ及び顧客の購買行動に関連付けられた時刻情報、顧客の位置データ、店員の位置データ等に基づいて、印象の指標データと購買行動を示すデータとが同一顧客のものとなるように、印象の指標データと購買行動を示すデータとが関連付けられる。これにより、第二実施形態によれば、店員の行動から顧客が受ける印象と顧客の購買行動との関係を高精度に分析することができる。具体的には、第二実施形態によれば、印象の指標データと購買行動を示すデータとが同一顧客のものとなるように両データが関連付けられるため、第一実施形態よりもより高精度な相関係数を得ることができる。
[Operation and effect of the second embodiment]
As described above, in the second embodiment, impression index data and purchase behavior are shown based on impression index data and time information associated with customer purchase behavior, customer location data, store clerk location data, and the like. The impression index data and the data indicating the purchase behavior are associated with each other so that the data belongs to the same customer. Thereby, according to 2nd embodiment, the relationship between the impression which a customer receives from a store clerk's action, and the purchase action of a customer can be analyzed with high precision. Specifically, according to the second embodiment, both data are associated with each other so that the impression index data and the data indicating the purchase behavior belong to the same customer, and therefore more accurate than the first embodiment. A correlation coefficient can be obtained.

更に、上述の第二関連付け方法によれば、印象の指標データに、店員IDと、その店員の行動によりその印象を受けたと推定される顧客のIDとの関連付け情報を生成することができる。加えて、印象の指標データ及び顧客の購買行動に店員IDを関連付けることもできる。これによれば、顧客が受けると推定される印象とその顧客の購買行動との関係の分析を、店員毎に行うことができる。   Furthermore, according to the second association method described above, it is possible to generate association information between a store clerk ID and a customer ID estimated to have received the impression by the behavior of the store clerk in the impression index data. In addition, the clerk ID can be associated with the impression index data and the purchase behavior of the customer. According to this, the analysis of the relationship between the impression estimated to be received by the customer and the purchase behavior of the customer can be performed for each clerk.

[変形例]
上述の各実施形態における処理装置10は、分析部27及び助言生成部28を有していなくてもよい。この場合、処理装置10(出力部29)は、格納部30に格納される情報に基づいて、印象の指標データ及び顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で出力し、相関係数や助言情報を出力しない。この場合、図9に示される接客データ処理方法は、(S96)及び(S97)を含まない。
[Modification]
The processing device 10 in each of the above embodiments may not include the analysis unit 27 and the advice generation unit 28. In this case, based on the information stored in the storage unit 30, the processing device 10 (the output unit 29) outputs the impression index data and the data indicating the purchase behavior of the customer in an associated state or an associated state. , Do not output correlation coefficient or advice information. In this case, the service data processing method shown in FIG. 9 does not include (S96) and (S97).

[第三実施形態]
以下、第三実施形態における接客データ処理装置及び接客データ処理方法について図14及び図15を用いて説明する。また、第三実施形態は、この接客データ処理方法を少なくとも1つのコンピュータ(CPU)に実行させるプログラムであってもよいし、このようなプログラムを記録した当該少なくとも1つのコンピュータが読み取り可能な記録媒体であってもよい。
[Third embodiment]
Hereinafter, the service data processing apparatus and the service data processing method according to the third embodiment will be described with reference to FIGS. 14 and 15. The third embodiment may be a program that causes at least one computer (CPU) to execute the service data processing method, or a recording medium that can be read by the at least one computer that records such a program. It may be.

図14は、第三実施形態における接客データ処理装置100の処理構成例を概念的に示す図である。図14に示されるように、接客データ処理装置100は、推定部101、データ取得部102、及び生成部103を有する。図14に示される接客データ処理装置100は、例えば、図1に示される上述の処理装置10と同様のハードウェア構成を有し、その処理装置10と同様にCPU11によりプログラムが処理されることで、上述の各処理モジュールが実現される。但し、接客データ処理装置100のハードウェア構成は、制限されず、接客データ処理装置100には、表示装置15及び入力装置16が接続されていなくてもよい。   FIG. 14 is a diagram conceptually illustrating a processing configuration example of the customer service data processing device 100 according to the third embodiment. As shown in FIG. 14, the customer service data processing apparatus 100 includes an estimation unit 101, a data acquisition unit 102, and a generation unit 103. The customer service data processing apparatus 100 shown in FIG. 14 has, for example, the same hardware configuration as the above-described processing apparatus 10 shown in FIG. 1, and the program is processed by the CPU 11 in the same manner as the processing apparatus 10. Each processing module described above is realized. However, the hardware configuration of the customer service data processing device 100 is not limited, and the display device 15 and the input device 16 may not be connected to the customer service data processing device 100.

推定部101は、接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出する。接客時の店員を示すデータの一具体例は、上述の店員行動データである。このデータの形式及び内容は、そのデータが接客時の店員を示していれば、制限されない。推定される印象の種別(明るい、元気等)は、制限されない。但し、その印象の種別は、接客目的に与える影響の大きい印象に設定されることが望ましい。また、算出される印象の指標データは、上述したとおり、その印象の種別(明るい、元気等)、その印象の有無、又はその印象の強さの程度を示す。推定部101による印象の指標データの算出手法は、上述の印象推定部25と同様である。   Based on the data indicating the store clerk at the time of customer service, the estimation unit 101 calculates the index data of the impression that the customer receives from the store clerk. A specific example of data indicating a clerk at the time of customer service is the clerk behavior data described above. The format and content of this data are not limited as long as the data indicates a store clerk at the time of customer service. The type of impression that is estimated (bright, fine, etc.) is not limited. However, it is desirable that the impression type is set to an impression having a great influence on the customer service purpose. Further, as described above, the calculated index data of the impression indicates the type of the impression (bright, energy, etc.), the presence / absence of the impression, or the degree of the intensity of the impression. The calculation method of the impression index data by the estimation unit 101 is the same as the impression estimation unit 25 described above.

データ取得部102は、顧客の購買行動を示すデータを取得する。取得されたデータの形式及び内容は、顧客の購買行動を示していれば、制限されない。顧客の購買行動は、上述したとおり、顧客が実際に何かを購入する行動のみならず、顧客が店舗に入店してから店舗から出るまでの間の顧客の行動の中で接客目的に結び付く可能性のある様々な行動を含む。データ取得部102によるこのデータの取得手法は、上述のデータ取得部22と同様である。   The data acquisition unit 102 acquires data indicating customer purchase behavior. The format and content of the acquired data are not limited as long as it indicates the purchase behavior of the customer. As described above, the customer's purchasing behavior is related not only to the customer actually purchasing something but also to the customer service in the customer's behavior from when the customer enters the store until when the customer leaves the store. Includes a variety of potential actions. The data acquisition method by the data acquisition unit 102 is the same as that of the data acquisition unit 22 described above.

生成部103は、推定部101により算出された印象の指標データ及びデータ取得部102により取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する。生成部103は、印象の指標データと顧客の購買行動データとが直接関連付けられた情報を生成してもよい。また、生成部103は、印象の指標データ及び顧客の購買行動を示すデータを含み、見た者が関連付けを行える又は情報処理により関連付けを行えるような情報を生成してもよい。更に、生成部103は、前者の情報と後者の情報とを両方生成してもよい。上述の各実施形態では、印象の指標データと顧客の購買行動とを関連付ける情報又は関連付け可能にする情報として、時刻情報及び顧客IDが例示された。関連付けのための情報は、このような例に制限されない。生成部103による情報の生成手法は、上述の生成部26と同様である。   The generation unit 103 generates information that includes the impression index data calculated by the estimation unit 101 and the data indicating the purchase behavior of the customer acquired by the data acquisition unit 102 in an associated state or an associated state. The generation unit 103 may generate information in which impression index data and customer purchase behavior data are directly associated with each other. Further, the generation unit 103 may generate information including impression index data and data indicating the purchase behavior of the customer so that the viewer can make an association or can make an association by information processing. Furthermore, the generation unit 103 may generate both the former information and the latter information. In each of the above-described embodiments, the time information and the customer ID are exemplified as the information that associates or enables the association between the impression index data and the purchase behavior of the customer. The information for association is not limited to such an example. The information generation method by the generation unit 103 is the same as that of the generation unit 26 described above.

図15は、第三実施形態における接客データ処理装置100の動作例を示すフローチャートである。図15に示されるように、第三実施形態における接客データ処理方法は、接客データ処理装置100のような少なくとも1つのコンピュータにより実行される。例えば、図示される各工程は、接客データ処理装置100が有する各処理モジュールにより実行される。各工程は、接客データ処理装置100が有する上述の各処理モジュールの処理内容と同様であるため、各工程の詳細は、適宜省略される。   FIG. 15 is a flowchart illustrating an operation example of the customer service data processing apparatus 100 according to the third embodiment. As shown in FIG. 15, the service data processing method in the third embodiment is executed by at least one computer such as the service data processing apparatus 100. For example, each illustrated process is executed by each processing module included in the customer service data processing apparatus 100. Since each process is the same as the processing content of each processing module described above that the customer service data processing apparatus 100 has, details of each process are omitted as appropriate.

本実施形態における接客データ処理方法は、(S151)、(S152)及び(S153)を含む。
(S151)では、接客データ処理装置100は、接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出する。
(S152)では、接客データ処理装置100は、顧客の購買行動を示すデータを取得する。
(S153)では、接客データ処理装置100は、(S151)で算出された印象の指標データ及び(S152)で取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する。生成された情報は、接客データ処理装置100内に格納されてもよいし、他の装置に送られてもよいし、可搬型記録媒体に格納されてもよい。
The customer service data processing method in the present embodiment includes (S151), (S152), and (S153).
In (S151), the customer service data processing device 100 calculates the index data of the impression that the customer receives from the store clerk based on the data indicating the store clerk at the time of customer service.
In (S152), the customer service data processing apparatus 100 acquires data indicating the purchase behavior of the customer.
In (S153), the customer service data processing device 100 includes the impression index data calculated in (S151) and the data indicating the purchase behavior of the customer acquired in (S152) in an associated state or an associated state. Generate information. The generated information may be stored in the customer service data processing apparatus 100, may be sent to another apparatus, or may be stored in a portable recording medium.

第三実施形態によれば、印象の指標データ及び顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報が生成されるため、上述の各実施形態と同様に、接客方法の改善に有益な情報を提供することができる。   According to the third embodiment, since the information including the index data of the impression and the data indicating the purchase behavior of the customer in a state that can be associated or in an associated state is generated, the customer service method is similar to the above-described embodiments. Can provide useful information for improvement.

上述の各実施形態では、次のような例が主に用いられた。
(1)検出される接客行動=挨拶又はセールストークのような特定発話
(2)印象推定の入力データ=その特定発話を示す音声データ
(3)印象の指標データに対応する時刻情報=特定発話の発声時刻
(4)購買行動を示すデータ=売上金額及び店舗滞在時間
(5)購買行動を示すデータに対応する時刻情報=精算時刻、入店時刻、退店時刻
(6)関連付けのための情報=時刻情報(第一実施形態)、顧客ID(第二実施形態)
以下、上述の各実施形態で明記されなかった他の例を実施例として説明する。但し、上述の内容は、以下の実施例の内容に限定されない。
In the above-described embodiments, the following examples are mainly used.
(1) Detected customer service behavior = specific utterance such as greeting or sales talk (2) input data for impression estimation = voice data indicating the specific utterance (3) time information corresponding to impression index data = specific utterance Voice time (4) Data indicating purchase behavior = sales amount and store stay time (5) Time information corresponding to data indicating purchase behavior = Checkout time, store entry time, store exit time (6) Information for association = Time information (first embodiment), customer ID (second embodiment)
Hereinafter, other examples not specified in the above-described embodiments will be described as examples. However, the above-mentioned content is not limited to the content of the following Examples.

[第一実施例]
(1)検出される接客行動=店員の特定表情(笑顔、しかめっつら等)
(2)印象推定の入力データ=検出された特定表情を表す画像データ
(3)印象の指標データに対応する時刻情報=特定表情の発生時刻
(4)から(6)=同上
処理装置10(第二取得部23)は、店員の顔を含む画像データを店員行動データとして取得する。処理装置10(検出部24)は、その画像データに対して顔検出及び顔表情認識技術を適用して、店員の特定表情を接客行動として検出する。処理装置10(印象推定部25は、その検出された特定表情を含む画像データに対して顔印象推定モデルを適用することで、その特定表情から顧客が受けると推定される印象の指標データを算出する(第一推定方法)。処理装置10(印象推定部25)は、その算出された印象の指標データに対応する時刻情報として、その特定表情が表れた時刻情報を取得する。処理装置10(生成部26)は、その印象の指標データと時刻情報とを関連付けて格納部30に格納する。
[First embodiment]
(1) Detected customer service behavior = specific facial expression of a store clerk (smile, grimacing, etc.)
(2) Impression estimation input data = image data representing the detected specific facial expression (3) Time information corresponding to impression index data = specific facial expression occurrence time (4) to (6) = Same processing device 10 (first The second obtaining unit 23) obtains image data including the clerk's face as clerk action data. The processing device 10 (detection unit 24) applies a face detection and facial expression recognition technique to the image data, and detects a specific facial expression of the clerk as a customer service action. Processing device 10 (impression estimation unit 25 calculates index data of an impression estimated to be received by the customer from the specific facial expression by applying a face impression estimation model to the image data including the detected specific facial expression. (First estimation method) The processing device 10 (impression estimation unit 25) acquires time information at which the specific facial expression appears as time information corresponding to the calculated index data of the impression. The generation unit 26) associates the impression index data and the time information and stores them in the storage unit 30.

図16は、特定表情に関する印象の指標データと時刻情報との関連付けの例を示す図である。図16の例では、処理装置10(生成部26)は、検出された特定表情毎に、発生時刻、表情種別、印象の指標データを関連付けて、格納部30に格納する。   FIG. 16 is a diagram illustrating an example of association between impression index data regarding a specific facial expression and time information. In the example of FIG. 16, the processing device 10 (the generation unit 26) stores the generation time, the expression type, and the impression index data in association with each detected specific facial expression in the storage unit 30.

[第二実施例]
(1)検出される接客行動=店員の発話(特定発話、応答発話を含む)
(2)印象推定の入力データ=検出された発話中の店員の表情を表す画像データ
(3)印象の指標データに対応する時刻情報=その店員の表情の発生時刻
(4)から(6)=同上
処理装置10(第二取得部23)は、店員の発話音声データ及び店員の顔を含む画像データを店員行動データとして取得する。処理装置10(検出部24)は、取得された発話音声データから、特定発話や応答発話等のような店員の発話を接客行動として検出する。処理装置10(印象推定部25)は、その検出された発話の開始時刻及び終了時刻の間を表す画像データに顔印象推定モデルを適用することで、その発話中の店員の表情から顧客が受けると推定される印象の指標データを算出する(第二推定方法)。処理装置10(印象推定部25)は、その算出された印象の指標データに対応する時刻情報として、顔印象推定モデルが適用された画像データの時刻情報を取得する。処理装置10(生成部26)は、図16に示されるように、印象の指標データと時刻情報とを関連付けて格納部30に格納する。
[Second Example]
(1) Detected customer service behavior = clerk's utterance (including specific utterance and response utterance)
(2) Impression estimation input data = image data representing detected clerk's facial expression during utterance (3) time information corresponding to impression index data = occurrence time of the clerk's facial expression (4) to (6) = The processing device 10 (second acquisition unit 23) acquires the clerk's speech data and image data including the clerk's face as clerk action data. The processing device 10 (detection unit 24) detects a clerk's utterance such as a specific utterance or a response utterance as a customer service action from the acquired utterance voice data. The processing device 10 (impression estimation unit 25) applies the face impression estimation model to the image data representing between the start time and the end time of the detected utterance, so that the customer receives from the facial expression of the clerk during the utterance Is calculated (second estimation method). The processing device 10 (impression estimation unit 25) acquires time information of image data to which the face impression estimation model is applied as time information corresponding to the calculated impression index data. As illustrated in FIG. 16, the processing device 10 (the generation unit 26) stores the impression index data and the time information in the storage unit 30 in association with each other.

[第三実施例]
(1)検出される接客行動=店員の会計作業
(2)印象推定の入力データ=検出された会計作業中の店員の発話音声データ
(3)印象の指標データに対応する時刻情報=その店員の発話の発声時刻
(4)から(6)=同上
処理装置10(第二取得部23)は、レジ端末の店員毎の操作履歴(ログイン履歴)の情報及び店員の発話音声データを店員行動データとして取得する。処理装置10(検出部24)は、その操作履歴の情報からレジ端末利用の開始時刻及び終了時刻を抽出して、その間を店員の会計作業として検出する。処理装置10(印象推定部25)は、その検出された会計作業の開始時刻及び終了時刻の間の当該発話音声データに声印象推定モデルを適用することで、検出された会計作業中の店員の発話から顧客が受けると推定される印象の指標データを算出する(第二推定方法)。処理装置10(印象推定部25)は、その算出された印象の指標データに対応する時刻情報として、声印象推定モデルが適用された発話音声データの時刻情報を取得する。
[Third embodiment]
(1) Detected customer service behavior = clerk's accounting work (2) Impression estimation input data = detected clerk's utterance voice data during accounting work (3) Time information corresponding to impression index data = the clerk's The utterance time (4) to (6) = same as above The processing device 10 (second acquisition unit 23) uses the operation history (login history) information of each clerk of the cash register terminal and the utterance voice data of the clerk as clerk behavior data. get. The processing device 10 (detection unit 24) extracts the start time and end time of using the cashier terminal from the information of the operation history, and detects the period as the accounting work of the store clerk. The processing device 10 (impression estimation unit 25) applies the voice impression estimation model to the utterance voice data between the detected start time and end time of the detected accounting operation, so that the detected clerk during the accounting operation The index data of the impression estimated that the customer receives from the utterance is calculated (second estimation method). The processing device 10 (impression estimation unit 25) acquires time information of the speech data to which the voice impression estimation model is applied, as time information corresponding to the calculated index data of the impression.

第三実施例では、印象推定の入力データとして、検出された会計作業中の店員の表情を表す画像データが用いられてもよい。この場合には、処理装置10(第二取得部23)は、レジ端末の店員毎の操作履歴(ログイン履歴)の情報及び店員の表情を表す画像データを店員行動データとして取得する。処理装置10(検出部24)は、上述のように店員の会計作業を検出する。処理装置10(印象推定部25)は、その検出された会計作業の開始時刻及び終了時刻の間の当該画像データに顔印象推定モデルを適用することで、検出された会計作業中の店員の表情から顧客が受けると推定される印象の指標データを算出する(第二推定方法)。   In the third embodiment, image data representing the detected facial expression of the store clerk during the accounting work may be used as the input data for impression estimation. In this case, the processing device 10 (second acquisition unit 23) acquires information on an operation history (login history) for each clerk of the cash register terminal and image data representing the clerk's facial expression as clerk action data. The processing device 10 (detection unit 24) detects the clerk's accounting work as described above. The processing device 10 (impression estimation unit 25) applies the face impression estimation model to the image data between the detected start time and end time of the detected check operation, thereby detecting the detected facial expression of the clerk during the check operation The index data of the impression estimated to be received by the customer is calculated (second estimation method).

[第四実施例]
(1)検出される接客行動=店員の店舗案内
(2)印象推定の入力データ=検出された店舗案内中の店員の発話音声データ
(3)印象の指標データに対応する時刻情報=その店員の発話の発声時刻
(4)から(6)=同上
処理装置10(第二取得部23)は、店舗内における店員の位置データの履歴及び店員の発話音声データを店員行動データとして取得する。また、処理装置10(第一取得部21)は、顧客の位置データの履歴を顧客行動データとして取得する。処理装置10(検出部24)は、店員の位置データの履歴及び顧客の位置データの履歴に基づいて、店員と顧客とが一定距離以内に存在する状態が一定時間以上継続しかつ両者が移動していることを店舗案内として検出する。処理装置10(印象推定部25)は、その検出された店舗案内の開始時刻及び終了時刻の間の当該発話音声データに声印象推定モデルを適用することで、その店舗案内中の店員の発話から顧客が受けると推定される印象の指標データを算出する(第二推定方法)。処理装置10(印象推定部25)は、その算出された印象の指標データに対応する時刻情報として、声印象推定モデルが適用された発話音声データの時刻情報を取得する。
[Fourth embodiment]
(1) Detected customer service behavior = store clerk's store guidance (2) impression estimation input data = clerk utterance voice data in the detected store guide (3) time information corresponding to impression index data = the clerk's The utterance time (4) to (6) = same as above The processing device 10 (second acquisition unit 23) acquires the position data history of the clerk in the store and the utterance voice data of the clerk as clerk action data. Moreover, the processing apparatus 10 (first acquisition unit 21) acquires a history of customer position data as customer behavior data. The processing device 10 (detection unit 24) continues the state where the clerk and the customer exist within a certain distance based on the clerk's position data history and the customer's position data history, and both move. Is detected as store guidance. The processing device 10 (impression estimation unit 25) applies the voice impression estimation model to the utterance voice data between the detected start time and end time of the store guide, thereby making it possible to detect the utterance of the store clerk in the store guide. Index data of impression estimated to be received by the customer is calculated (second estimation method). The processing device 10 (impression estimation unit 25) acquires time information of the speech data to which the voice impression estimation model is applied, as time information corresponding to the calculated index data of the impression.

上述の各実施形態及び変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態及び変形例の一部又は全部は、以下のようにも特定され得る。但し、上記の各実施形態及び変形例が以下の記載に限定されるものではない。
Each above-mentioned embodiment and modification can be combined in the range in which the contents do not conflict.
Part or all of the above embodiments and modifications may be specified as follows. However, the above embodiments and modifications are not limited to the following descriptions.

1. 接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出する推定手段と、
顧客の購買行動を示すデータを取得するデータ取得手段と、
前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する生成手段と、
を備える接客データ処理装置。
2. 店員の接客行動を検出する検出手段、
を更に備え、
前記推定手段は、接客時の店員を示す前記データとして、前記検出された接客行動が行われた際の前記店員を示すデータを用いて、前記印象の前記指標データを算出する、
1.に記載の接客データ処理装置。
3. 前記生成手段は、店員の接客行動の検出の有無、前記検出された店員の接客行動の種別、及び前記検出された店員の接客行動の内容を識別する内容識別データの少なくとも一つが、前記算出された印象の指標データ又は前記取得された顧客の購買行動を示すデータと関連付けられた情報を生成する、
2.に記載の接客データ処理装置。
4. 前記検出手段は、店員の発話を含む音声データから、顧客に対する店員の発話を前記接客行動として検出し、
前記推定手段は、前記検出された店員の発話の音声データから、明るさ、元気さ、力強さ、格好よさ、丁寧さ、落ち着き、可愛さ、誠実さ、冷たさ、流暢さ、若さ、上品さ、及び優しさの少なくとも1つの印象の有無又は強さを示す指標データを算出する、
2.又は3.に記載の接客データ処理装置。
5. 前記検出手段は、店員の発話を含む音声データから、挨拶又はセールストークを表す特定表現に相当する店員の発話を前記接客行動として検出し、
前記推定手段は、前記検出された店員の発話の音声データから、明るさ、元気さ、力強さ、丁寧さ、及び冷たさの少なくとも1つの印象の有無または強さを示す指標データを算出する、
2.から4.のいずれか1つに記載の接客データ処理装置。
6. 前記検出手段は、店員を含む画像データから、顧客に対する店員の特定表情を前記接客行動として検出し、
前記推定手段は、前記特定表情として検出された店員の表情を含む画像データから、その表情から顧客が受けると推定される印象の指標データを算出する、
2.から5.のいずれか1つに記載の接客データ処理装置。
7. 前記検出手段は、顧客に対する店員の第一接客行動を検出し、
前記推定手段は、前記検出された第一接客行動が行われた際における、その第一接客行動とは異なる、前記店員の第二接客行動を示すデータから、その第二接客行動から顧客が受けると推定される印象の指標データを算出する、
2.から6.のいずれか1つに記載の接客データ処理装置。
8. 前記推定手段は、前記検出された第一接客行動が行われた際における、前記店員のその第一接客行動を示すデータ及び前記第二接客行動を示すデータから、前記印象の前記指標データを算出する、
7.に記載の接客データ処理装置。
9. 前記データ取得手段は、顧客が購入した商品、顧客が購入した金額、顧客の店舗滞在時間、顧客の店舗内移動経路、顧客の来店頻度、顧客の来店回数の少なくとも1つを前記購買行動を示す前記データとして取得する、
1.から8.のいずれか1つに記載の接客データ処理装置。
10. 前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で出力する出力手段、
を更に備える1.から9.のいずれか1つに記載の接客データ処理装置。
11. 前記推定手段は、接客時の店員を示すデータに基づいて、各印象の有無又は強さをそれぞれ示す複数印象の指標データを算出する、
1.から10.のいずれか1つに記載の接客データ処理装置。
12. 前記算出された印象の指標データと前記取得された顧客の購買行動を示すデータとの間の相関係数を算出する分析手段、
を更に備える1.から11.のいずれか1つに記載の接客データ処理装置。
13. 前記算出された相関係数に基づいて、接客に関する助言情報を生成する助言生成手段、
を更に備える12.に記載の接客データ処理装置。
14. 前記生成された助言情報及び前記印象に関して算出された前記相関係数の少なくとも一方を出力する出力手段、
を更に備える13.に記載の接客データ処理装置。
15. 前記生成手段は、顧客の位置データの履歴及び前記算出された印象の指標データに対応する時刻情報に基づいて、その印象の指標データにその印象を受けたと推定される顧客の識別情報を関連付け、顧客の位置データの履歴及び前記取得された顧客の購買行動を示すデータに対応する時刻情報に基づいて、その購買行動を示すデータにその購買行動の主体である顧客の識別情報を関連付ける、
1.から14.のいずれか1つに記載の接客データ処理装置。
16. 前記生成手段は、前記算出された印象の指標データにその印象を顧客に与えた店員の識別情報を更に関連付ける、
15.に記載の接客データ処理装置。
1. An estimation means for calculating index data of impressions estimated to be received by the customer from the store clerk based on data indicating the store clerk at the time of customer service;
Data acquisition means for acquiring data indicating customer purchase behavior;
Generating means for generating information including the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in an associated state or an associated state;
A customer service data processing apparatus.
2. A detecting means for detecting the customer service behavior of the store clerk,
Further comprising
The estimating means calculates the index data of the impression using the data indicating the store clerk when the detected customer service behavior is performed as the data indicating the store clerk at the time of customer service,
1. The customer service data processing device described in 1.
3. The generating means calculates at least one of presence / absence of detection of customer service behavior of the store clerk, type of the customer service behavior of the detected store clerk, and content identification data identifying the content of the detected customer service behavior of the store clerk. Generating information related to the impression index data or the acquired customer purchase behavior data,
2. The customer service data processing device described in 1.
4). The detection means detects the clerk's utterance to the customer as the customer service behavior from the voice data including the clerk's utterance,
The estimation means, from the voice data of the detected clerk's speech, brightness, cheerfulness, strength, coolness, politeness, calmness, cuteness, honesty, coldness, fluency, youth, Calculating index data indicating the presence or strength of at least one impression of elegance and tenderness;
2. Or 3. The customer service data processing device described in 1.
5. The detection means detects, from the voice data including the clerk's speech, the clerk's speech corresponding to a specific expression representing a greeting or sales talk as the customer service behavior,
The estimation means calculates index data indicating the presence / absence or strength of at least one of brightness, energy, strength, politeness, and coldness from the detected speech data of the clerk's utterance. ,
2. To 4. The customer service data processing device according to any one of the above.
6). The detection means detects, from the image data including the clerk, a specific facial expression of the clerk for the customer as the customer service behavior,
The estimation means calculates index data of an impression estimated to be received by a customer from the facial expression, from image data including the facial expression of the clerk detected as the specific facial expression.
2. To 5. The customer service data processing device according to any one of the above.
7). The detection means detects the first customer service behavior of the store clerk for the customer,
The estimating means receives the customer from the second customer service behavior based on the data indicating the second customer service behavior of the store clerk, which is different from the first customer service behavior when the detected first customer service behavior is performed. Calculating the estimated impression index data,
2. To 6. The customer service data processing device according to any one of the above.
8). The estimation means calculates the index data of the impression from the data indicating the first customer service behavior of the store clerk and the data indicating the second customer service behavior when the detected first customer service behavior is performed. To
7). The customer service data processing device described in 1.
9. The data acquisition means indicates the purchase behavior of at least one of a product purchased by a customer, an amount purchased by the customer, a customer's store stay time, a customer's in-store travel route, a customer's store visit frequency, and a customer's store visit count. Obtain as the data,
1. To 8. The customer service data processing device according to any one of the above.
10. An output means for outputting the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in an associated state or an associated state;
1 is further provided. To 9. The customer service data processing device according to any one of the above.
11. The estimation means calculates index data of a plurality of impressions respectively indicating the presence or absence or strength of each impression based on data indicating a clerk at the time of customer service.
1. To 10. The customer service data processing device according to any one of the above.
12 Analyzing means for calculating a correlation coefficient between the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer;
1 is further provided. To 11. The customer service data processing device according to any one of the above.
13. Advice generating means for generating advice information on customer service based on the calculated correlation coefficient;
Is further provided. The customer service data processing device described in 1.
14 Output means for outputting at least one of the generated correlation information and the correlation coefficient calculated for the impression;
Further comprising: The customer service data processing device described in 1.
15. The generation means associates identification information of a customer estimated to have received the impression with the index data of the impression based on a history of the position data of the customer and time information corresponding to the calculated index data of the impression, Based on a history of customer position data and time information corresponding to the acquired data indicating the purchase behavior of the customer, associating the identification information of the customer who is the subject of the purchase behavior with the data indicating the purchase behavior,
1. To 14. The customer service data processing device according to any one of the above.
16. The generating means further associates identification information of a store clerk who gave the impression to the customer to the calculated index data of the impression.
15. The customer service data processing device described in 1.

17. 少なくとも一つのコンピュータにより実行される接客データ処理方法において、
接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出し、
顧客の購買行動を示すデータを取得し、
前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する、
事を含む接客データ処理方法。
18. 店員の接客行動を検出する、
ことを更に含み、
前記指標データの前記算出は、接客時の店員を示す前記データとして、前記検出された接客行動が行われた際の前記店員を示すデータを用いて、前記印象の前記指標データを算出する、
17.に記載の接客データ処理方法。
19. 店員の接客行動の検出の有無、前記検出された店員の接客行動の種別、及び前記検出された店員の接客行動の内容を識別する内容識別データの少なくとも一つが、前記算出された印象の指標データ又は前記取得された顧客の購買行動を示すデータと関連付けられた情報を生成する、
ことを更に含む18.に記載の接客データ処理方法。
20. 前記接客行動の前記検出は、店員の発話を含む音声データから、顧客に対する店員の発話を前記接客行動として検出し、
前記指標データの前記算出は、前記検出された店員の発話の音声データから、明るさ、元気さ、力強さ、格好よさ、丁寧さ、落ち着き、可愛さ、誠実さ、冷たさ、流暢さ、若さ、上品さ、及び優しさの少なくとも1つの印象の有無又は強さを示す指標データを算出する、
18.又は19.に記載の接客データ処理方法。
21. 前記接客行動の前記検出は、店員の発話を含む音声データから、挨拶又はセールストークを表す特定表現に相当する店員の発話を前記接客行動として検出し、
前記指標データの前記算出は、前記検出された店員の発話の音声データから、明るさ、元気さ、力強さ、丁寧さ、及び冷たさの少なくとも1つの印象の有無または強さを示す指標データを算出する、
18.から20.のいずれか1つに記載の接客データ処理方法。
22. 前記接客行動の前記検出は、店員を含む画像データから、顧客に対する店員の特定表情を前記接客行動として検出し、
前記指標データの前記算出は、前記特定表情として検出された店員の表情を含む画像データから、その表情から顧客が受けると推定される印象の指標データを算出する、
18.から21.のいずれか1つに記載の接客データ処理方法。
23. 前記接客行動の前記検出は、顧客に対する店員の第一接客行動を検出し、
前記指標データの前記算出は、前記検出された第一接客行動が行われた際における、その第一接客行動とは異なる、前記店員の第二接客行動を示すデータから、その第二接客行動から顧客が受けると推定される印象の指標データを算出する、
18.から22.のいずれか1つに記載の接客データ処理方法。
24. 前記指標データの前記算出は、前記検出された第一接客行動が行われた際における、前記店員のその第一接客行動を示すデータ及び前記第二接客行動を示すデータから、前記印象の前記指標データを算出する、
23.に記載の接客データ処理方法。
25. 前記購買行動を示す前記データの前記取得は、顧客が購入した商品、顧客が購入した金額、顧客の店舗滞在時間、顧客の店舗内移動経路、顧客の来店頻度、顧客の来店回数の少なくとも1つを前記購買行動を示す前記データとして取得する、
17.から24.のいずれか1つに記載の接客データ処理方法。
26. 前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で出力する、
ことを更に含む17.から25.のいずれか1つに記載の接客データ処理方法。
27. 前記指標データの前記算出は、接客時の店員を示すデータに基づいて、各印象の有無又は強さをそれぞれ示す複数印象の指標データを算出する、
17.から26.のいずれか1つに記載の接客データ処理方法。
28. 前記算出された印象の指標データと前記取得された顧客の購買行動を示すデータとの間の相関係数を算出する、
ことを更に含む17.から27.のいずれか1つに記載の接客データ処理方法。
29. 前記算出された相関係数に基づいて、接客に関する助言情報を生成する、
ことを更に含む28.に記載の接客データ処理方法。
30. 前記生成された助言情報及び前記印象に関して算出された前記相関係数の少なくとも一方を出力する、
ことを更に含む29.に記載の接客データ処理方法。
31. 顧客の位置データの履歴及び前記算出された印象の指標データに対応する時刻情報に基づいて、その印象の指標データにその印象を受けたと推定される顧客の識別情報を関連付け、
顧客の位置データの履歴及び前記取得された顧客の購買行動を示すデータに対応する時刻情報に基づいて、その購買行動を示すデータにその購買行動の主体である顧客の識別情報を関連付ける、
ことを更に含む17.から30.のいずれか1つに記載の接客データ処理方法。
32. 前記算出された印象の指標データにその印象を顧客に与えた店員の識別情報を更に関連付ける、
ことを更に含む31.に記載の接客データ処理方法。
17. In the service data processing method executed by at least one computer,
Based on data showing the store clerk at the time of customer service, calculate the index data of the impression that the customer is likely to receive from the store clerk,
Get data that shows customer buying behavior,
Generating information including the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in an associated state or an associated state;
Service data processing method including things.
18. Detect customer service behavior
Further including
The calculation of the index data calculates the index data of the impression using the data indicating the store clerk when the detected customer service behavior is performed as the data indicating the store clerk at the time of customer service.
17. Service data processing method described in 1.
19. At least one of the presence / absence of detection of the customer service behavior of the store clerk, the type of the customer service behavior of the detected store clerk, and the content of the detected customer service behavior of the store clerk is the index data of the calculated impression Or generating information associated with the acquired customer purchase behavior data;
Further includes: Service data processing method described in 1.
20. The detection of the customer service behavior is performed by detecting a customer clerk's utterance as a customer service behavior from voice data including a clerk's speech.
The calculation of the index data is based on the detected voice data of the clerk's utterance, brightness, spirit, strength, coolness, politeness, calmness, cuteness, honesty, coldness, fluency, Calculating index data indicating the presence or strength of at least one impression of youth, elegance, and tenderness;
18. Or 19. Service data processing method described in 1.
21. The detection of the customer service behavior is performed by detecting an utterance of a clerk corresponding to a specific expression representing a greeting or a sales talk from the voice data including the utterance of the clerk as the customer service behavior,
The calculation of the index data is based on the detected clerk's utterance voice data, and indicates index data indicating the presence or strength of at least one of brightness, spirit, strength, politeness, and coldness. To calculate,
18. To 20. The customer service data processing method according to any one of the above.
22. The detection of the customer service behavior detects a specific facial expression of a store clerk for a customer as the customer service behavior from image data including a store clerk.
The calculation of the index data is based on image data including a store clerk's facial expression detected as the specific facial expression, and calculates index data of an impression that a customer is expected to receive from the facial expression.
18. To 21. The customer service data processing method according to any one of the above.
23. The detection of the customer service behavior detects a first customer service behavior of a store clerk for a customer,
The calculation of the index data is based on data indicating the second customer service behavior of the store clerk, which is different from the first customer service behavior when the detected first customer service behavior is performed. Calculate the index data of the impression that the customer is expected to receive,
18. To 22. The customer service data processing method according to any one of the above.
24. The calculation of the index data is based on the index of the impression from the data indicating the first customer service behavior of the store clerk and the data indicating the second customer service behavior when the detected first customer service behavior is performed. Calculate the data,
23. Service data processing method described in 1.
25. The acquisition of the data indicating the purchase behavior is at least one of a product purchased by a customer, an amount purchased by the customer, a customer's store stay time, a customer's in-store travel route, a customer's store visit frequency, and a customer's store visit count. As the data indicating the purchase behavior,
17. To 24. The customer service data processing method according to any one of the above.
26. Outputting the index data of the calculated impression and the data indicating the acquired purchase behavior of the customer in a state where they can be associated or in an associated state;
Further includes: To 25. The customer service data processing method according to any one of the above.
27. The calculation of the index data is based on data indicating a store clerk at the time of customer service, and calculates index data of a plurality of impressions indicating the presence or absence or strength of each impression,
17. To 26. The customer service data processing method according to any one of the above.
28. Calculating a correlation coefficient between the calculated index data of the impression and the acquired customer purchase behavior data;
Further includes: To 27. The customer service data processing method according to any one of the above.
29. Based on the calculated correlation coefficient, advice information about customer service is generated.
Further includes: Service data processing method described in 1.
30. Outputting at least one of the generated correlation information and the correlation coefficient calculated for the impression;
Further includes: 29. Service data processing method described in 1.
31. Based on the history information of the customer's location data and the time information corresponding to the calculated index data of the impression, the identification data of the customer estimated to have received the impression is associated with the index data of the impression,
Based on a history of customer position data and time information corresponding to the acquired data indicating the purchase behavior of the customer, associating the identification information of the customer who is the subject of the purchase behavior with the data indicating the purchase behavior,
Further includes: To 30. The customer service data processing method according to any one of the above.
32. Further associates with the calculated impression index data the identification information of the clerk who gave the impression to the customer;
Further includes: Service data processing method described in 1.

33. 17.から32.のいずれか1つに記載の接客データ処理方法を少なくとも一つのコンピュータに実行させるプログラム。 33. 17. To 32. A program that causes at least one computer to execute the service data processing method according to any one of the above.

10,100 接客データ処理装置(処理装置)
11 CPU
12 メモリ
21 第一取得部
22,102 データ取得部
23 第二取得部
24 検出部
25 印象推定部
26,103 生成部
27 分析部
28 助言生成部
29 出力部
30 格納部
101 推定部
10,100 Hospitality data processing device (processing device)
11 CPU
DESCRIPTION OF SYMBOLS 12 Memory 21 1st acquisition part 22,102 Data acquisition part 23 2nd acquisition part 24 Detection part 25 Impression estimation part 26,103 Generation part 27 Analysis part 28 Advice generation part 29 Output part 30 Storage part 101 Estimation part

Claims (13)

接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出する推定手段と、
顧客の購買行動を示すデータを取得するデータ取得手段と、
前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する生成手段と、
を備える接客データ処理装置。
An estimation means for calculating index data of impressions estimated to be received by the customer from the store clerk based on data indicating the store clerk at the time of customer service;
Data acquisition means for acquiring data indicating customer purchase behavior;
Generating means for generating information including the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in an associated state or an associated state;
A customer service data processing apparatus.
店員の接客行動を検出する検出手段、
を更に備え、
前記推定手段は、接客時の店員を示す前記データとして、前記検出された接客行動が行われた際の前記店員を示すデータを用いて、前記印象の前記指標データを算出する、
請求項1に記載の接客データ処理装置。
A detecting means for detecting the customer service behavior of the store clerk,
Further comprising
The estimating means calculates the index data of the impression using the data indicating the store clerk when the detected customer service behavior is performed as the data indicating the store clerk at the time of customer service,
The service data processing apparatus according to claim 1.
前記検出手段は、店員の発話を含む音声データから、顧客に対する店員の発話を前記接客行動として検出し、
前記推定手段は、前記検出された店員の発話の音声データから、明るさ、元気さ、力強さ、格好よさ、丁寧さ、落ち着き、可愛さ、誠実さ、冷たさ、流暢さ、若さ、上品さ、及び優しさの少なくとも1つの印象の有無又は強さを示す指標データを算出する、
請求項2に記載の接客データ処理装置。
The detection means detects the clerk's utterance to the customer as the customer service behavior from the voice data including the clerk's utterance,
The estimation means, from the voice data of the detected clerk's speech, brightness, cheerfulness, strength, coolness, politeness, calmness, cuteness, honesty, coldness, fluency, youth, Calculating index data indicating the presence or strength of at least one impression of elegance and tenderness;
The service data processing apparatus according to claim 2.
前記検出手段は、店員を含む画像データから、顧客に対する店員の特定表情を前記接客行動として検出し、
前記推定手段は、前記特定表情として検出された店員の表情を含む画像データから、その表情から顧客が受けると推定される印象の指標データを算出する、
請求項2から3のいずれか1項に記載の接客データ処理装置。
The detection means detects, from the image data including the clerk, a specific facial expression of the clerk for the customer as the customer service behavior,
The estimation means calculates index data of an impression estimated to be received by a customer from the facial expression, from image data including the facial expression of the clerk detected as the specific facial expression.
The customer service data processing device according to any one of claims 2 to 3.
前記検出手段は、顧客に対する店員の第一接客行動を検出し、
前記推定手段は、前記検出された第一接客行動が行われた際における、その第一接客行動とは異なる、前記店員の第二接客行動を示すデータから、その第二接客行動から顧客が受けると推定される印象の指標データを算出する、
請求項2から4のいずれか1項に記載の接客データ処理装置。
The detection means detects the first customer service behavior of the store clerk for the customer,
The estimating means receives the customer from the second customer service behavior based on the data indicating the second customer service behavior of the store clerk, which is different from the first customer service behavior when the detected first customer service behavior is performed. Calculating the estimated impression index data,
The customer service data processing device according to any one of claims 2 to 4.
前記データ取得手段は、顧客が購入した商品、顧客が購入した金額、顧客の店舗滞在時間、顧客の店舗内移動経路、顧客の来店頻度、顧客の来店回数の少なくとも1つを前記購買行動を示す前記データとして取得する、
請求項1から5のいずれか1項に記載の接客データ処理装置。
The data acquisition means indicates the purchase behavior of at least one of a product purchased by a customer, an amount purchased by the customer, a customer's store stay time, a customer's in-store travel route, a customer's store visit frequency, and a customer's store visit count. Obtain as the data,
The customer service data processing apparatus according to any one of claims 1 to 5.
前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で出力する出力手段、
を更に備える請求項1から6のいずれか1項に記載の接客データ処理装置。
An output means for outputting the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in an associated state or an associated state;
The customer service data processing device according to any one of claims 1 to 6, further comprising:
前記推定手段は、接客時の店員を示すデータに基づいて、各印象の有無又は強さをそれぞれ示す複数印象の指標データを算出する、
請求項1から7のいずれか1項に記載の接客データ処理装置。
The estimation means calculates index data of a plurality of impressions respectively indicating the presence or absence or strength of each impression based on data indicating a clerk at the time of customer service.
The customer service data processing apparatus according to any one of claims 1 to 7.
前記算出された印象の指標データと前記取得された顧客の購買行動を示すデータとの間の相関係数を算出する分析手段、
を更に備える請求項1から8のいずれか1項に記載の接客データ処理装置。
Analyzing means for calculating a correlation coefficient between the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer;
The customer service data processing device according to any one of claims 1 to 8, further comprising:
前記算出された相関係数に基づいて、接客に関する助言情報を生成する助言生成手段、
を更に備える請求項9に記載の接客データ処理装置。
Advice generating means for generating advice information on customer service based on the calculated correlation coefficient;
The customer service data processing device according to claim 9, further comprising:
前記生成された助言情報及び前記印象に関して算出された前記相関係数の少なくとも一方を出力する出力手段、
を更に備える請求項10に記載の接客データ処理装置。
Output means for outputting at least one of the generated correlation information and the correlation coefficient calculated for the impression;
The customer service data processing device according to claim 10, further comprising:
少なくとも一つのコンピュータにより実行される接客データ処理方法において、
接客時の店員を示すデータに基づいて、その店員から顧客が受けると推定される印象の指標データを算出し、
顧客の購買行動を示すデータを取得し、
前記算出された印象の指標データ及び前記取得された顧客の購買行動を示すデータを関連付け可能な状態又は関連付けられた状態で含む情報を生成する、
事を含む接客データ処理方法。
In the service data processing method executed by at least one computer,
Based on data showing the store clerk at the time of customer service, calculate the index data of the impression that the customer is likely to receive from the store clerk,
Get data that shows customer buying behavior,
Generating information including the calculated index data of the impression and the acquired data indicating the purchase behavior of the customer in an associated state or an associated state;
Service data processing method including things.
請求項12に記載の接客データ処理方法を少なくとも一つのコンピュータに実行させるプログラム。   A program for causing at least one computer to execute the service data processing method according to claim 12.
JP2015083921A 2015-04-16 2015-04-16 Service data processing apparatus and service data processing method Active JP6596899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015083921A JP6596899B2 (en) 2015-04-16 2015-04-16 Service data processing apparatus and service data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015083921A JP6596899B2 (en) 2015-04-16 2015-04-16 Service data processing apparatus and service data processing method

Publications (2)

Publication Number Publication Date
JP2016206736A true JP2016206736A (en) 2016-12-08
JP6596899B2 JP6596899B2 (en) 2019-10-30

Family

ID=57489665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015083921A Active JP6596899B2 (en) 2015-04-16 2015-04-16 Service data processing apparatus and service data processing method

Country Status (1)

Country Link
JP (1) JP6596899B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6397089B1 (en) * 2017-07-12 2018-09-26 ヤフー株式会社 Providing device, providing method, and providing program
KR101893588B1 (en) * 2017-04-20 2018-10-29 에이치디에스 주식회사 Smart Teacher System for Comprising Workers-Managing Function which Includes Attendence Management and Managing Method thereof
WO2019070010A1 (en) * 2017-10-06 2019-04-11 株式会社 東芝 Service provision system, business analysis assistance system, method and program
JP2019207625A (en) * 2018-05-30 2019-12-05 株式会社エクサウィザーズ Coaching support device and program
JP2020052882A (en) * 2018-09-28 2020-04-02 株式会社Nttドコモ Business result predicting method, business result predicting program, and business result predicting apparatus
CN111242535A (en) * 2020-01-07 2020-06-05 贵阳货车帮科技有限公司 Transportation route pushing method and device, electronic equipment and readable storage medium
JP2020095747A (en) * 2020-03-10 2020-06-18 株式会社エクサウィザーズ Coaching support device and program
JP2020184252A (en) * 2019-05-09 2020-11-12 パナソニックIpマネジメント株式会社 Stress estimation system
JP2020190909A (en) * 2019-05-22 2020-11-26 株式会社セオン Actual facility condition evaluation device
JP6815667B1 (en) * 2019-11-15 2021-01-20 株式会社Patic Trust Information processing equipment, information processing methods, programs and camera systems
JP2021022059A (en) * 2019-07-25 2021-02-18 株式会社第一興商 Karaoke device
JP7276535B1 (en) 2022-02-22 2023-05-18 富士通株式会社 Information processing program, information processing method, and information processing apparatus
WO2023119671A1 (en) * 2021-12-24 2023-06-29 日本電信電話株式会社 Estimation method, estimation device, and estimation program
WO2023119672A1 (en) * 2021-12-24 2023-06-29 日本電信電話株式会社 Inference method, inference device, and inference program
WO2023119658A1 (en) * 2021-12-24 2023-06-29 日本電信電話株式会社 Inference method, inference device, and inference program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275814A (en) * 2004-03-24 2005-10-06 Yasumi Matsumoto Worker evaluation system, method and program
JP2009123029A (en) * 2007-11-15 2009-06-04 Toshiba Tec Corp Commodity sales data processing apparatus
JP2011221683A (en) * 2010-04-07 2011-11-04 Seiko Epson Corp Customer service support device, customer service support method, and program
US20110282662A1 (en) * 2010-05-11 2011-11-17 Seiko Epson Corporation Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium
JP2014081750A (en) * 2012-10-16 2014-05-08 Hitachi Ltd Data integration and analysis system
JPWO2014162788A1 (en) * 2013-04-02 2017-02-16 Necソリューションイノベータ株式会社 Facial expression scoring device, dance scoring device, karaoke device, and game device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275814A (en) * 2004-03-24 2005-10-06 Yasumi Matsumoto Worker evaluation system, method and program
JP2009123029A (en) * 2007-11-15 2009-06-04 Toshiba Tec Corp Commodity sales data processing apparatus
JP2011221683A (en) * 2010-04-07 2011-11-04 Seiko Epson Corp Customer service support device, customer service support method, and program
US20110282662A1 (en) * 2010-05-11 2011-11-17 Seiko Epson Corporation Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium
JP2014081750A (en) * 2012-10-16 2014-05-08 Hitachi Ltd Data integration and analysis system
JPWO2014162788A1 (en) * 2013-04-02 2017-02-16 Necソリューションイノベータ株式会社 Facial expression scoring device, dance scoring device, karaoke device, and game device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
金礪 愛, 外3名: "ポピュラー音楽における歌声の印象評価語を自動推定するシステム", 情報処理学会研究報告 音楽情報科学, JPN6019011371, 24 August 2013 (2013-08-24), pages 1 - 8, ISSN: 0004008816 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101893588B1 (en) * 2017-04-20 2018-10-29 에이치디에스 주식회사 Smart Teacher System for Comprising Workers-Managing Function which Includes Attendence Management and Managing Method thereof
JP2019020863A (en) * 2017-07-12 2019-02-07 ヤフー株式会社 Providing device, providing method, and providing program
JP6397089B1 (en) * 2017-07-12 2018-09-26 ヤフー株式会社 Providing device, providing method, and providing program
JPWO2019070010A1 (en) * 2017-10-06 2020-07-09 株式会社東芝 Service providing system, business analysis support system, method and program
WO2019070010A1 (en) * 2017-10-06 2019-04-11 株式会社 東芝 Service provision system, business analysis assistance system, method and program
JP6995871B2 (en) 2017-10-06 2022-01-17 株式会社東芝 Service provision systems, methods and programs
JP7242756B2 (en) 2017-10-06 2023-03-20 株式会社東芝 Service providing system, method and program
JP2021131913A (en) * 2017-10-06 2021-09-09 株式会社東芝 Service providing system, business analysis support system, method, and program
JP2019207625A (en) * 2018-05-30 2019-12-05 株式会社エクサウィザーズ Coaching support device and program
JP2020052882A (en) * 2018-09-28 2020-04-02 株式会社Nttドコモ Business result predicting method, business result predicting program, and business result predicting apparatus
JP7085448B2 (en) 2018-09-28 2022-06-16 株式会社Nttドコモ Performance forecast method, performance forecast program and performance forecast device
JP2020184252A (en) * 2019-05-09 2020-11-12 パナソニックIpマネジメント株式会社 Stress estimation system
JP2020190909A (en) * 2019-05-22 2020-11-26 株式会社セオン Actual facility condition evaluation device
JP2021022059A (en) * 2019-07-25 2021-02-18 株式会社第一興商 Karaoke device
JP7336292B2 (en) 2019-07-25 2023-08-31 株式会社第一興商 karaoke device
JP6815667B1 (en) * 2019-11-15 2021-01-20 株式会社Patic Trust Information processing equipment, information processing methods, programs and camera systems
WO2021095869A1 (en) * 2019-11-15 2021-05-20 株式会社Patic Trust Information processing device, information processing method, program, recording medium, and camera system
JP2021081881A (en) * 2019-11-15 2021-05-27 株式会社Patic Trust Information processing device, information processing method, program, and camera system
US11508186B2 (en) 2019-11-15 2022-11-22 Patic Trust Co., Ltd. Smile degree detection device, method, recording medium, and camera system
CN111242535B (en) * 2020-01-07 2023-04-07 贵阳货车帮科技有限公司 Transportation route pushing method and device, electronic equipment and readable storage medium
CN111242535A (en) * 2020-01-07 2020-06-05 贵阳货车帮科技有限公司 Transportation route pushing method and device, electronic equipment and readable storage medium
JP6994722B2 (en) 2020-03-10 2022-01-14 株式会社エクサウィザーズ Coaching support equipment and programs
JP2020095747A (en) * 2020-03-10 2020-06-18 株式会社エクサウィザーズ Coaching support device and program
WO2023119671A1 (en) * 2021-12-24 2023-06-29 日本電信電話株式会社 Estimation method, estimation device, and estimation program
WO2023119672A1 (en) * 2021-12-24 2023-06-29 日本電信電話株式会社 Inference method, inference device, and inference program
WO2023119658A1 (en) * 2021-12-24 2023-06-29 日本電信電話株式会社 Inference method, inference device, and inference program
JP7276535B1 (en) 2022-02-22 2023-05-18 富士通株式会社 Information processing program, information processing method, and information processing apparatus
JP2023122378A (en) * 2022-02-22 2023-09-01 富士通株式会社 Information processing program, information processing method, and information processing apparatus

Also Published As

Publication number Publication date
JP6596899B2 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
JP6596899B2 (en) Service data processing apparatus and service data processing method
US11341515B2 (en) Systems and methods for sensor data analysis through machine learning
JP5855290B2 (en) Service evaluation device, service evaluation system, and service evaluation method
US8577087B2 (en) Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US20190147228A1 (en) System and method for human emotion and identity detection
US20140019199A1 (en) Automatically evaluating customer satisfaction
US20110282662A1 (en) Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium
JP5477153B2 (en) Service data recording apparatus, service data recording method and program
CN108846724A (en) Data analysing method and system
JP2012088878A (en) Customer special treatment management system
JP2011210133A (en) Satisfaction degree calculation method, satisfaction degree calculation device and program
KR20190113245A (en) Method of providing a service using a face information
US20180150882A1 (en) Systems and Methods for Use in Determining Consumer Interest in Products Based on Intensities of Facial Expressions
US20140278745A1 (en) Systems and methods for providing retail process analytics information based on physiological indicator data
JP2011210100A (en) Customer service data recording device, customer service data recording method and program
JP2011237966A (en) Customer service support device, customer service support method and program
WO2022142899A1 (en) Store sales data analysis method, apparatus, electronic device, and storage medium
CN113887884A (en) Business-super service system
KR102337502B1 (en) Method and apparatus for detecting abnormal product reviews online
KR20200103144A (en) Marketing campaign platform based in big-data by customer&#39;s pattern
US20240185323A1 (en) Retail assistance system for assisting customers
JP7227884B2 (en) Purchase promotion system and purchase promotion method
WO2022201339A1 (en) Price management system, price management method, and recording medium
JP6620292B1 (en) Facility evaluation system
JP2011237965A (en) Conversation ratio calculation device, customer service data recording device, conversation ratio calculation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R150 Certificate of patent or registration of utility model

Ref document number: 6596899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150