JP2011221683A - Customer service support device, customer service support method, and program - Google Patents
Customer service support device, customer service support method, and program Download PDFInfo
- Publication number
- JP2011221683A JP2011221683A JP2010088388A JP2010088388A JP2011221683A JP 2011221683 A JP2011221683 A JP 2011221683A JP 2010088388 A JP2010088388 A JP 2010088388A JP 2010088388 A JP2010088388 A JP 2010088388A JP 2011221683 A JP2011221683 A JP 2011221683A
- Authority
- JP
- Japan
- Prior art keywords
- customer
- section
- satisfaction
- keyword
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 97
- 238000004364 calculation method Methods 0.000 claims abstract description 40
- 239000000284 extract Substances 0.000 claims abstract description 15
- 230000008569 process Effects 0.000 claims description 81
- 238000000605 extraction Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 6
- 238000013075 data extraction Methods 0.000 claims description 6
- 238000007726 management method Methods 0.000 description 105
- 230000008909 emotion recognition Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 21
- 238000013523 data management Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 238000013500 data storage Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 238000004321 preservation Methods 0.000 description 3
- 230000003139 buffering effect Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、店員による接客を支援する接客支援装置、接客支援方法およびプログラムに関するものである。 The present invention relates to a customer service support device, a customer service support method, and a program for supporting customer service by a store clerk.
従来、小売店などの店舗では、販売促進を目的として、顧客データや売り上げデータを収集し、マーケティングデータとして利用する試みが行われている。例えば、特許文献1では、POSデータの分析から消費者の併売傾向を数量的に的確に把握し、販売促進に反映させることができるマーケティングデータ収集分析技術が提案されている。
Conventionally, in stores such as retail stores, attempts have been made to collect customer data and sales data and use them as marketing data for the purpose of sales promotion. For example,
ところで、マーケティングの分野では、生産性や効率を多少犠牲にしてでも顧客満足度を高めた方が消費者のリピーター化などを通じて結果的には良いと言われている。すなわち、店員による接客では、顧客満足度を認識することが求められている。販売能力の高い店員は、顧客との会話から、当該顧客の顧客満足度を推測し、その推測に基づいて、会話を継続したり会話内容を変更したりする。これによって、顧客の購買意欲を向上させることができる。また、認識した顧客満足度に基づいて、顧客満足度が向上する接客方法を学習し、これが接客能力の向上の一因となっている。
しかしながら、このような顧客満足度の認識方法では、店員の勘や分析能力に頼らざるを得ず、店員によっては、顧客満足度を認識することができないという問題があった。
By the way, in the field of marketing, it is said that it is better to increase customer satisfaction at the expense of productivity and efficiency through consumer repeaters. That is, in customer service by a store clerk, it is required to recognize customer satisfaction. A salesclerk with high sales ability estimates the customer satisfaction level of the customer from the conversation with the customer, and continues the conversation or changes the content of the conversation based on the estimation. Thereby, the customer's willingness to purchase can be improved. Further, based on the recognized customer satisfaction, a customer service method for improving customer satisfaction is learned, which contributes to improvement of customer service ability.
However, such a method for recognizing customer satisfaction has to rely on the clerk's intuition and analysis ability, and depending on the clerk, the customer satisfaction cannot be recognized.
本発明は、店員に、顧客満足度をリアルタイムで認識させることで、店員の接客能力を向上させることができる接客支援装置、接客支援方法およびプログラムに関するものである。 The present invention relates to a customer service support device, a customer service support method, and a program capable of improving the customer service capability of a store clerk by making a store clerk recognize customer satisfaction in real time.
本発明の接客支援装置は、店員と顧客との会話における音声データを取得する音声データ取得部と、取得した音声データから顧客の音声データを抽出する音声データ抽出部と、抽出した顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出部と、顧客満足度算出部により算出された顧客満足度を、店員に通知する満足度通知部と、を備えたことを特徴とする。 The customer service support apparatus of the present invention includes a voice data acquisition unit that acquires voice data in a conversation between a store clerk and a customer, a voice data extraction unit that extracts customer voice data from the acquired voice data, and the extracted customer voice data A customer satisfaction calculation unit for calculating customer satisfaction, and a satisfaction notification unit for notifying the store clerk of the customer satisfaction calculated by the customer satisfaction calculation unit.
本発明の接客支援方法は、店員による接客を支援する接客支援装置の接客支援方法であって、接客支援装置は、店員と顧客との会話における音声データを取得する音声データ取得工程と、取得した音声データから顧客を抽出する音声データ抽出工程と、抽出した顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出工程と、顧客満足度算出工程により算出された顧客満足度を、店員に通知する満足度通知工程と、を実行することを特徴とする。 The customer service support method of the present invention is a customer service support method for a customer service support device that supports customer service by a store clerk, and the customer service support device acquires a voice data acquisition step for acquiring voice data in a conversation between a store clerk and a customer. The voice data extraction process for extracting customers from the voice data, the customer satisfaction calculation process for calculating customer satisfaction based on the extracted customer voice data, and the customer satisfaction calculated by the customer satisfaction calculation process, And a satisfaction notifying step for notifying the store clerk.
これらの構成によれば、店員と顧客との会話における音声データに基づいて、顧客満足度を算出し、算出した顧客満足度を店員に通知することにより、店員に顧客満足度を認識させることができる。ゆえに、店員の接客能力を向上させることができる。 According to these configurations, it is possible to make the clerk recognize the customer satisfaction by calculating the customer satisfaction based on the voice data in the conversation between the clerk and the customer, and notifying the calculated customer satisfaction to the clerk. it can. Therefore, the customer service ability of the store clerk can be improved.
上記の接客支援装置において、満足度通知部は、顧客満足度を示す音声を出力することで、顧客満足度を通知することが好ましい。 In the customer service support apparatus described above, it is preferable that the satisfaction notifying unit notifies the customer satisfaction by outputting a voice indicating the customer satisfaction.
この場合、満足度通知部は、顧客満足度算出部により算出された顧客満足度に応じて、複数の音声パターンの中から1の音声パターンを選択的に出力することで、顧客満足度を通知することが好ましい。 In this case, the satisfaction notifying unit notifies the customer satisfaction by selectively outputting one voice pattern from a plurality of voice patterns according to the customer satisfaction calculated by the customer satisfaction calculating unit. It is preferable to do.
この場合、満足度通知部は、顧客満足度を示す文字列を表示することで、顧客満足度を通知することが好ましい。 In this case, it is preferable that the satisfaction notifying unit notifies the customer satisfaction by displaying a character string indicating the customer satisfaction.
この場合、満足度通知部は、顧客満足度に応じた振動によって、顧客満足度を通知することが好ましい。 In this case, it is preferable that the satisfaction notifying unit notifies the customer satisfaction by vibration according to the customer satisfaction.
これらの構成によれば、顧客満足度を簡単な構成で且つ容易に通知することができる。 According to these configurations, customer satisfaction can be easily notified with a simple configuration.
この場合、音声データ取得部および満足度通知部は、店員に装着したウェアラブル装置で構成されていることが好ましい。 In this case, it is preferable that the voice data acquisition unit and the satisfaction notification unit are configured by a wearable device attached to a store clerk.
この構成によれば、音声データ取得部をウェアラブル装置で構成することにより、店員の音声を効率よく取得できる。また、満足度通知部をウェアラブル装置で構成することで、イヤホン等を介し店員のみに顧客満足度を通知できるため、顧客に不快な思いをさせることがない。なお、ここにいう「ウェアラブル装置」とは、店員の人体や衣服に装着可能な装置の意である。 According to this configuration, the voice of the clerk can be efficiently acquired by configuring the voice data acquisition unit with the wearable device. Further, by configuring the satisfaction notification unit with a wearable device, the customer satisfaction can be notified only to the store clerk via the earphone or the like, so that the customer does not feel uncomfortable. Here, the “wearable device” means a device that can be worn on a store clerk's body or clothes.
この場合、顧客満足度算出部は、連続する音声の区間を1発話区間としたとき、当該発話区間ごとに顧客満足度を算出する個別満足度算出部と、所定時間以上途切れないまま繰り返される店員または顧客の発話区間の集合体を1話し掛け区間、店員と顧客の話し掛け区間が所定時間以上途切れないまま交互に繰り返される話し掛け区間の集合体を1会話区間としたとき、会話区間ごとの顧客満足度の統計量を、会話区間単位の顧客満足度として算出する区間満足度算出部と、を有し、満足度通知部は、会話区間の終了ごとに、会話区間単位の顧客満足度を通知することが好ましい。 In this case, the customer satisfaction calculation unit, when a continuous speech section is set as one utterance section, an individual satisfaction calculation section that calculates customer satisfaction for each utterance section, and a clerk who is repeated without interruption for a predetermined time or more Alternatively, customer satisfaction for each conversation section, where a group of customer utterance sections is one conversation section, and a group of talk sections that are repeated alternately without interruption between the store clerk and the customer is a conversation section. And a section satisfaction calculation unit that calculates customer statistic of each as a conversation section, and the satisfaction notification section notifies the customer satisfaction of each conversation section at the end of the conversation section. Is preferred.
この構成によれば、話し掛け区間が途切れない会話区間の終了ごとに、会話区間単位の顧客満足度を通知するため、会話が途切れた後に、顧客満足度が通知される。そのため、顧客との会話が、顧客満足度の通知によって阻害されることがない。また、話し掛け区間が途切れない区間を1単位として、顧客満足度を算出するため、店員が、どの区間の顧客満足度が通知されたかを認識しやすい。 According to this configuration, at the end of the conversation section where the talking section is not interrupted, the customer satisfaction is notified in units of the conversation section, so that the customer satisfaction is notified after the conversation is interrupted. Therefore, the conversation with the customer is not hindered by the notification of customer satisfaction. In addition, since the customer satisfaction is calculated with a section where the talking section is not interrupted as one unit, the store clerk can easily recognize which section of the customer satisfaction is notified.
この場合、所定の音声キーワードに関連する関連キーワードを記憶する関連キーワード記憶部と、音声データに含まれる、連続する音声の区間である発話区間のうち、顧客満足度が、所定の閾値に達した発話区間を特定する区間特定部と、特定した発話区間の音声データを音声認識する音声認識部と、音声認識部の認識結果に基づいて、発話区間の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、関連キーワード記憶部から、抽出した音声キーワードに関連する関連キーワードを抽出する関連キーワード抽出部と、抽出した関連キーワードを店員に通知する関連キーワード通知部と、を更に備えたことが好ましい。 In this case, the customer satisfaction level has reached a predetermined threshold among the related keyword storage unit that stores the related keyword related to the predetermined voice keyword and the utterance section that is a continuous voice section included in the voice data. A voice identification unit for identifying a voice segment, a voice recognition unit for voice recognition of voice data of the voiced speech segment, and a voice for extracting a voice keyword included in the voice data of the voice segment based on the recognition result of the voice recognition unit A keyword extraction unit; a related keyword extraction unit that extracts a related keyword related to the extracted voice keyword from the related keyword storage unit; and a related keyword notification unit that notifies the clerk of the extracted related keyword. preferable.
この場合、関連キーワード記憶部は、関連キーワードとして、音声キーワードにより推定される商品の商品名称、当該商品の商品種別およびキャッチコピーのいずれか少なくとも1つを記憶していることが好ましい。 In this case, the related keyword storage unit preferably stores at least one of the product name of the product estimated by the voice keyword, the product type of the product, and a catch phrase as the related keyword.
これらの構成によれば、どんなキーワードが、顧客にとって好評であるかを容易に認識することができる。また、音声キーワードをそのまま通知せず、それに関連する関連キーワードを通知するため、例えば、同じものを示すキーワードを、関連キーワードに統合して、通知することができる。すなわち、店員からすれば、キーワードを分析して、関連キーワードに統合する思考が省けるため、接客効率を向上することができる。また、関連キーワードとして、商品名称を記憶することで、例えば、商品の略称や、商品種別を音声キーワードとして取得した際、それらが示す商品名称に統合して通知することができる。さらに、関連キーワードとして、商品種別を記憶することで、商品名称を音声キーワードとして取得した際、それが属する商品種別に統合して通知することができる。またさらに、関連キーワードとして、キャッチコピーを記憶することで、類似表現のキャッチコピーを取得した際、それら1のキャッチコピーに統合して通知することができる。 According to these configurations, it is possible to easily recognize what keywords are popular with customers. Moreover, since the voice keyword is not notified as it is and the related keyword related thereto is notified, for example, the keyword indicating the same thing can be integrated into the related keyword and notified. That is, since the store clerk can omit the thought of analyzing the keywords and integrating them into related keywords, the customer service efficiency can be improved. Further, by storing the product name as the related keyword, for example, when the abbreviation of the product or the product type is acquired as the voice keyword, the product name indicated by them can be integrated and notified. Further, by storing the product type as the related keyword, when the product name is acquired as the voice keyword, it can be integrated and notified to the product type to which the product name belongs. Furthermore, by storing a catch phrase as a related keyword, when a catch phrase of a similar expression is acquired, it can be integrated and notified to the one catch phrase.
この場合、話題ごとに分類された話題キーワードを記憶する話題キーワード記憶部と、連続する音声の区間を1発話区間としたとき、当該発話区間単位で、音声データを音声認識する音声認識部と、音声認識部の認識結果に基づいて、店員および顧客の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、話題キーワード記憶部を参照して、発話区間ごとに抽出した音声キーワードに対応する話題キーワードを特定し、当該話題キーワードが属する分類が変化しない発話区間の集合体を、話題区間として特定する話題区間特定部と、を更に備え、満足度算出部は、発話区間ごとに顧客満足度を算出する個別満足度算出部と、話題区間ごとの顧客満足度の統計量を、話題区間単位の顧客満足度として算出する区間満足度算出部と、を有し、満足度通知部は、話題区間の終了ごとに、話題区間単位の顧客満足度を通知することが好ましい。 In this case, a topic keyword storage unit that stores topic keywords classified for each topic, and a speech recognition unit that recognizes speech data in units of the speech segment when a continuous speech segment is defined as one speech segment; Based on the recognition result of the voice recognition unit, the voice keyword extraction unit that extracts the voice keyword included in the voice data of the clerk and the customer and the topic keyword storage unit are referred to, and the voice keyword extracted for each utterance section is supported. A topic segment identifying unit that identifies a topic keyword and identifies a group of utterance segments to which the classification to which the topic keyword belongs does not change as a topic segment, and the satisfaction degree calculation unit is a customer satisfaction level for each utterance segment Individual satisfaction calculation unit that calculates statistic and section satisfaction calculation that calculates customer satisfaction statistics for each topic section as customer satisfaction for each topic section Includes a part, the satisfaction notifying unit, for each end of the topic section, it is preferable to notify the customer satisfaction topic section units.
この構成によれば、話題区間の終了ごとに、話題区間単位の顧客満足度を通知することにより、どの話題が顧客に好評・不評であったかを容易に認識することができる。 According to this configuration, it is possible to easily recognize which topic was popular or unpopular with the customer by notifying the customer satisfaction level in units of topic sections at the end of the topic section.
本発明のプログラムは、コンピューターに、上記の接客支援方法における各工程を実行させることを特徴とする。 The program of the present invention causes a computer to execute each step in the customer service support method.
この構成によれば、コンピューターに本プログラムを搭載するだけで、上記の接客支援方法における各工程を実行させることができる。 According to this configuration, each process in the customer service support method can be executed simply by installing the program on a computer.
[第1実施形態]
以下、添付の図面を参照し、本発明の接客支援装置、接客支援方法およびプログラムについて説明する。なお、以下に示す各実施形態では、本発明の接客支援装置を、接客支援システムSYに適用した場合について例示する。当該接客支援システムSYは、小売業、飲食業およびサービス業などに関する店舗や会場内において、顧客の感情認識を行い、その結果を顧客満足度の向上や売り上げ向上に生かすべく構築されたものである。そこで、以下の実施形態では、衣料品店の店舗内において、店員に接客されている顧客の感情認識を行う場合を例示する。
[First Embodiment]
Hereinafter, a customer service support device, a customer service support method, and a program according to the present invention will be described with reference to the accompanying drawings. In the following embodiments, the case where the customer service support device of the present invention is applied to the customer service support system SY is illustrated. The customer service support system SY is constructed to recognize customer emotions in stores and venues related to retail, restaurant and service industries, and to utilize the results for improving customer satisfaction and sales. Therefore, in the following embodiment, the case of performing emotion recognition of a customer who is serving a store clerk in a clothing store is illustrated.
図1は、第1実施形態に係る接客支援システムSYのシステム構成図である。同図に示すように、接客支援システムSYは、店員に装着された体導音センサー1、音声取得用マイク2、音声指示用イヤホン3、および店員用端末5と、店舗の入り口および店内各所に配置された店内カメラ11(同図では、1台のみ図示)と、レジカウンター14に設置されたPOS(Point Of Sales)端末12およびレシートプリンター13と、店舗のバックヤードに設置された管理サーバー15および表示端末16と、から成る。
FIG. 1 is a system configuration diagram of a customer service support system SY according to the first embodiment. As shown in the figure, the customer service support system SY is provided at the
体導音センサー1は、店員の頭頚部に装着され、店員の音声が骨や肉を伝わって体表に届く体導音を検出する。本実施形態では、音声取得用マイク2により取得された音声が、店員のものであるか顧客のものであるかを識別するために用いられる。音声取得用マイク2は、店員の制服(胸元近傍)に取り付けられ、店員および顧客の音声を取得する。なお、体導音センサー1および音声取得用マイク2に代えて、店員と顧客に対してそれぞれ指向性を有するマイクを用いても良い。すなわち、店員音声取得用と顧客音声取得用との2つのマイクを使用し、いずれのマイクで取得されたかによって、店員の音声と顧客の音声を識別しても良い。
The body-conducting
音声指示用イヤホン3は、店員の耳に取り付けられ、音声通知用の音声データに基づく音声を出力する。具体的には、音声通知用の音声データとして、顧客満足度を示すメッセージ、並びにお勧め商品や好印象のキーワードを通知するメッセージを通知する。例えば、顧客満足度を示すメッセージとして、「顧客満足度 50」等のメッセージを通知し、お勧め商品や好印象のキーワードを通知するメッセージをとして、「お勧め商品は、ストレッチスリムフィットシャツです。」や「好印象のキーワードは、子供の誕生日会です。」等のメッセージを、音声出力する。
The
店員用端末5は、店員の制服(ベルトなど)に取り付けられ、専用ケーブルを介して体導音センサー1および音声取得用マイク2の出力データを取得すると共に、音声指示用イヤホン3に、管理サーバー15からの音声通知用の音声データを出力する。また、レシートプリンター13との無線通信機能を有しており、当該レシートプリンター13を介して、管理サーバー15と情報の授受を行う。
The
店内カメラ11は、店内各所の天井などに設けられ、来店した顧客、並びに接客中の店員および顧客を撮像する。なお、店内カメラ11としては、CCDカメラやPTZ(Pan Tilt Zoom)カメラを採用可能である。
The in-
POS端末12は、一般的なレジスターの構成を有しており、POSアプリケーションにしたがって会計処理を行う。また、不図示のバーコードスキャナーまたはキーボードから商品コードを取得し、商品マスタ18を参照して、会計レシートR(図3参照)に印刷するためのレシートデータを生成する。
The
レシートプリンター13は、POS端末12と専用ケーブルを介して接続され、POS端末12から取得したレシート印刷データをレシート用紙に印刷する。また、レシートプリンター13は、店員用端末5との無線通信機能および管理サーバー15との有線通信機能を有している。このように、レシートプリンター13を主幹として各種情報の入出力を行うことで(レシートプリンター13が、取得した各種情報をフィルタリングして必要な情報を出力することで)、POS基幹ネットワーク(POS端末12を主幹としたネットワーク)のトラフィックに影響を与えることがない。また、既存のPOSシステムに本発明を適用する際、POS基幹ネットワーク自体の変更が不要となる。
The
管理サーバー15は、レシートプリンター13と、イントラネット等のネットワーク19を介して接続されており、当該レシートプリンター13を介して、店員用端末5と各種情報の授受を行う。また、店員用端末5から取得した音声データを初めとする各種データに基づいて、音声認識、感情認識および顧客満足度の算出などを行う。また、算出した顧客満足度などに基づいた音声通知用の音声データを生成する。
The
次に、図2ないし図4を参照し、店員用端末5、レシートプリンター13および管理サーバー15のハードウェア構成について説明する。図2は、店員用端末5の制御ブロック図である。店員用端末5は、レシートプリンター13との無線通信機能を実現するための無線LANアンテナ21、無線LANRF(Radio Frequency)部22、無線LAN変復調部23および無線LANベースバンド部24を有している。無線LANベースバンド部24は、店員用端末5を識別するためのMACアドレスを記憶している。また、店員用端末5は、体導音センサー1の検出結果を得るためのアンプ部28およびA/Dコンバーター29と、音声取得用マイク2によって取得された音声データを得るためのアンプ部32およびA/Dコンバーター33と、音声指示用イヤホン3に対し音声通知用の音声データを出力するためのアンプ部35およびD/Aコンバーター36と、を有している。また、店員用端末5は、各部の統括制御を行う制御部25と、ファームウェアを初めとする各種データを記憶するメモリ26と、電力供給を行うバッテリー34と、を有している。制御部25は、A/Dコンバーター29およびA/Dコンバーター33から取得したデータに基づいて、店員の発話区間(連続する音声の時間帯)を特定する店員発話区間特定機能と、A/Dコンバーター33から取得したデータに基づいて、音声レベルを判定する音声レベル判定機能と、を有している。
Next, the hardware configuration of the
続いて、図3は、レシートプリンター13の制御ブロック図である。レシートプリンター13は、店員用端末5との無線通信機能を実現するための無線LANアンテナ41、無線LANRF部42、無線LAN変復調部43および無線LANベースバンド部44を有している。無線LANベースバンド部44は、レシートプリンター13を識別するためのMACアドレスを記憶している。また、レシートプリンター13は、POS端末12からレシートデータが入力される入力I/F部45と、文字パターンを記憶するCG−ROM46と、各部の統括制御を行う制御部47と、印刷ヘッド、ヘッド駆動機構およびレシート用紙搬送機構などを含む印刷機構48と、管理サーバー15と有線LANを介して接続される有線LANI/F部49と、を有している。
Next, FIG. 3 is a control block diagram of the
制御部47は、所定のコマンドを含むレシートデータの解析や、会計レシートRに印刷するための印刷データの生成などを行うメイン処理部47aと、本実施形態特有の構成であるレシートデータ意味解析部47bと、を有している。レシートデータ意味解析部47bは、レシートデータから、POS端末12の端末番号、レシート番号、商品コード、商品名称、商品単価、金額、オペレーター氏名などを認識し、上位システムとなる管理サーバー15が解釈可能な所定のデータ形式(例えば、XML形式)に変換する。なお、当該レシートデータの認識結果を所定のデータ形式に変換したものを、以下「変換データ」と称する。また、制御部47は、店員用端末5から無線LANを介して受信した音声データ(無線LANベースバンド部44から取得した音声データ)を、有線LANI/F部49を介して、管理サーバー15に転送する。
The
続いて、図4は、管理サーバー15の制御ブロック図である。管理サーバー15は、レシートプリンター13から、音声データおよび変換データを取得すると共に、店内カメラ11から映像データを取得するための有線LANI/F部51と、表示端末16に各種情報を表示させるための表示処理部52と、マウスやキーボードなどの入力装置55から入力データを取得すると共に各部の統括制御を行う制御部53と、各種情報を記憶する記憶部54と、を有している。制御部53は、取得した音声データに基づいて、会話区間(店員と顧客との会話の1単位区間)を特定する会話区間特定機能と、会話区間あたりの顧客満足度を算出する満足度算出機能と、顧客満足度が高い会話区間の音声データに基づいて、顧客満足度が高いキーワード(満足キーワード)を記録する満足キーワード記録機能と、算出した顧客満足度や記録した満足キーワードに基づいて、音声通知用の音声データを生成する音声データ生成機能と、を有している。
Next, FIG. 4 is a control block diagram of the
次に、図5を参照し、各区間の定義について説明する。上記のとおり、同一人物による連続する音声の区間、つまりブレス(息継ぎ)などが入らない1フレーズの区間を「発話区間」と称する。本実施形態では、当該発話区間単位で、感情認識や音声認識を行う。また、図5(a)に示すように、所定時間以上途切れないまま繰り返される店員または顧客の発話区間の集合体を「話し掛け区間」と称する。つまり、インターバルが所定時間X未満となる1以上の発話区間の集合体を言う(但し、XはX>0となる定数)。同図の例は、店員の話し掛け区間(以下、「店員話し掛け区間」と称する)、並びに当該店員の話し掛け区間に前後する2つの顧客の話し掛け区間(以下、「顧客話し掛け区間」と称する)が、いずれも2つの発話区間から成る場合を示している。 Next, the definition of each section will be described with reference to FIG. As described above, a continuous voice section by the same person, that is, a one-phrase section in which no breath (breathing) or the like is entered is referred to as an “utterance section”. In the present embodiment, emotion recognition and voice recognition are performed for each utterance section. Further, as shown in FIG. 5A, a collection of clerk or customer utterance sections that are repeated without interruption for a predetermined time or longer is referred to as a “talking section”. That is, it refers to a set of one or more utterance sections whose interval is less than the predetermined time X (where X is a constant that satisfies X> 0). In the example shown in the figure, a store clerk talk section (hereinafter referred to as “store clerk talk section”) and two customer talk sections (hereinafter referred to as “customer talk section”) around the store clerk talk section. Both cases show a case of two utterance sections.
また、同じく図5(a)に示すように、店員と顧客の話し掛け区間が所定時間以上途切れないまま交互に繰り返される話し掛け区間の集合体を「会話区間」と称する。つまり、インターバルが所定時間Y未満となる1以上の発話区間の集合体を言う(但し、YはY>Xとなる定数)。なお、本実施形態では、店員話し掛け区間を中心とした前後の顧客話し掛け区間の集合体(すなわち最低1つ、最大3つの話し掛け区間の集合体)を「1会話パターン」=「1会話区間」と定義する。 Similarly, as shown in FIG. 5A, a group of talking sections in which the talking sections of the store clerk and the customer are alternately repeated without being interrupted for a predetermined time or longer are referred to as “conversation sections”. That is, it refers to a collection of one or more utterance sections whose interval is less than the predetermined time Y (where Y is a constant such that Y> X). In the present embodiment, a group of customer talk sections before and after the store staff talk section (that is, a collection of at least one and up to three talk sections) is expressed as “one conversation pattern” = “one conversation section”. Define.
また、図5(b)に示すように、所定時間以上途切れないまま繰り返される会話区間の集合体を「接客区間」と称する。つまり、インターバルが所定時間Z未満となる1以上の会話区間の集合体を言う(但し、ZはZ>Yとなる定数)。同図の例は、2つの会話区間から成る接客区間1と、3つの会話区間から成る接客区間2と、を示している。このように、接客区間に含まれる会話区間の数は任意である。
In addition, as shown in FIG. 5B, a collection of conversation sections that are repeated without interruption for a predetermined time or longer is referred to as a “service section”. That is, it refers to an aggregate of one or more conversation sections whose interval is less than the predetermined time Z (where Z is a constant such that Z> Y). The example of the figure shows a
次に、図6および図7を参照し、第1実施形態に係る接客支援システムSYの機能構成について説明する。図6は、接客支援システムSYのブロック図である。店内カメラ11は、主な機能構成として、接客撮像部111を有している。接客撮像部111は、店員および顧客を含む接客状況を撮像する。本実施形態において、接客撮像部111は常時撮像を行っており、その映像データは、随時管理サーバー15に出力される。
Next, with reference to FIG. 6 and FIG. 7, the functional configuration of the customer service support system SY according to the first embodiment will be described. FIG. 6 is a block diagram of the customer service support system SY. The in-
体導音センサー1は、主な機能構成として、発話検出部101を有している。発話検出部101は、体導音に基づいて、店員が発話したこと、およびその発話区間を検出する。音声取得用マイク2は、主な機能構成として、音声取得部(音声データ取得部)102を有している。音声取得部102は、店員および顧客の音声(音声信号)を取得する。音声指示用イヤホン3は、主な機能構成として、音声出力部(顧客満足度通知部、関連キーワード通知部)103を有している。音声出力部103は、音声通知用の音声データに基づいて、音声を出力する。店員用端末5は、主な機能構成として、音声データ通信部105を有している。音声データ通信部105は、音声レベル判定機能にあるパワーフィルターにより音声の有無を判定し、所定の音声レベル以上(例えば、アンプ増幅後1.5v以上など)の音声データを管理サーバー15に送信する。また、店員発話区間特定機能により、発話検出部101の検出結果および音声取得部102の音声取得結果に基づいて店員発話区間を特定し、当該店員発話区間の発生を管理サーバー15に通知する。さらに、管理サーバー15から、音声通知用の音声データを受信する。なお、実際には、店員用端末5と管理サーバー15は、レシートプリンター13を介して通信を行うが、レシートプリンター13は単に情報を経由しているだけなので、図示を省略する。
The
レシートプリンター13は、主な機能構成として、変換データ送信部113を有している。変換データ送信部113は、POS端末12から出力されたレシートデータをXML形式に変換した変換データを、管理サーバー15に送信する。
The
管理サーバー15は、主な機能構成として、映像記録部151、顧客識別部152、会話録音部153、音声認識部154、顧客感情認識部155、顧客満足度算出部156、変換データ受信部158、満足キーワード記録部161、お勧めレベル算出部162、好印象レベル算出部163、音声データ生成部164、および管理サーバー用データベースDBを有している。
The
映像記録部151は、接客撮像部111から、映像データを取得し、これを管理サーバー用データベースDBに記録する。顧客識別部152は、映像データに含まれる顔特徴量に基づいて顧客を識別する。具体的には、予め顧客識別情報と顧客の顔特徴量を管理サーバー用データベースDB内に記憶しておき(図7の顧客情報記憶部81参照)、撮像された顧客の顔特徴量(店内カメラ11の撮像結果を解析して顔検出を行い、当該顔部分の画像を正規化して算出された顔特徴量)と、管理サーバー用データベースDBに記憶されている多数の顧客の顔特徴量とを照合し、それらの中から最も類似度の高い顧客であると判定する。なお、店員が店内に複数存在する場合は、店員と顧客との紐付けが必要となるため、店員についても、映像データに含まれる顔特徴量から識別しても良い。つまり、予め店員識別情報と店員の顔特徴量を管理サーバー用データベースDB内に記憶しておき、撮像された店員の顔特徴量と、管理サーバー用データベースDBに記憶されている各店員の顔特徴量とを照合し、それらの中から最も類似度の高い店員が接客を行っていると判定する。
The
会話録音部153は、店員と顧客の会話、すなわち音声データ通信部105から送信された音声データを録音する(管理サーバー用データベースDBに記録する)。音声認識部154は、会話録音部153により録音された録音データに含まれる店員および顧客の音声を認識する。当該音声認識部154には、音響分析部、音響モデル、言語モデル、単語辞書およびテキスト変換部が含まれる(いずれも図示省略)。当該音声認識部154は、これらを用いて、取得した音声信号を、テキスト情報に変換し、管理サーバー用データベースDBに記録する。
The
顧客感情認識部155は、会話に含まれる顧客の音声に基づいて、顧客の感情を認識する。具体的には、音声の強度、音声の発生速度(単位時間当たりのモーラ数など)、単語別の強度、音量、音声スペクトルなどの変化量に基づいて感情認識を行う。この場合、顧客感情認識部155は、発話検出部101の検出結果(音声データ通信部105により特定された店員発話区間)に基づいて、会話に含まれる音声が、店員の音声であるか顧客の音声であるかを判別する。また、顧客感情認識部155は、会話録音部153の録音データに含まれる顧客の発話区間ごとに感情認識を行う。このように、1フレーズごとに感情認識を行うことで、高精度な感情データを得ることができる。さらに、顧客発話区間と店員発話区間とが時間軸上で重複する重複区間を特定し、当該重複区間を「感情認識非対象区間」として、当該重複区間を除く顧客発話区間に対して感情認識を行う。このように、顧客の音声と店員の音声が混合しており正確な感情認識を行うことができない感情認識非対象区間(重複区間)を除いて感情認識を行うことで、誤認識を防止することができる。
The customer
顧客満足度算出部156は、顧客感情認識部155の認識結果に基づいて、顧客満足度を算出する。また、顧客感情認識部155が発話区間ごとに感情認識を行うことに伴い顧客満足度算出部156も、発話区間ごとに顧客満足度を算出する。
The customer
変換データ受信部158は、変換データ送信部113から送信された変換データを受信し、管理サーバー用データベースDBに記録する。なお、変換データは、上記の接客データとして記録する売り上げ実績に関する情報を得るために用いられる。したがって、変換データに含まれる情報の中から、レシート番号や合計金額など、売り上げの有無や売り上げ金額を特定可能な情報のみを抽出し、これを売り上げ実績として記録しても良いし、変換データの全てを管理サーバー用データベースDBに記録しても良い。
The conversion
満足キーワード記録部161は、顧客満足度が所定の閾値に達した会話区間の音声認識結果(テキスト情報)を、管理サーバー用データベースDB内のキーワードテーブル89と照合し、その照合結果に基づいて、顧客満足度の高いキーワード(満足キーワード)と、その関連情報とを、管理サーバー用データベースDBに記録する。なお、満足キーワードは、取扱商品を示す商品キーワードと、それ以外の非商品キーワードに分類されている。
The satisfaction
お勧めレベル算出部162は、満足キーワード記録部161によって記録した各商品キーワードのお勧めレベルを算出して、管理サーバー用データベースDBに記録する。好印象レベル算出部163は、満足キーワード記録部161によって記録した各非商品キーワードの好印象レベルを算出して、管理サーバー用データベースDBに記録する。お勧めレベルとは、各商品キーワードが示す各商品のお勧め度合いを示す数値である。一方、好印象レベルとは、各非商品キーワードが顧客に与える好印象の度合いを示す数値である。
The recommended level calculation unit 162 calculates the recommended level of each product keyword recorded by the satisfaction
音声データ生成部164は、管理サーバー用データベースDB内の各種データに基づいて、顧客満足度を通知するための満足度通知用の音声データと、お勧め商品や好印象キーワードを通知するためのキーワード通知用の音声データとを生成し、店員用端末5に送信する。
The voice
図7は、第1実施形態に係る管理サーバー用データベースDBの説明図である。管理サーバー用データベースDBは、顧客情報記憶部81、店員情報記憶部82、音声データ記憶部83、映像データ記憶部84、音声データ管理テーブル85、店員発話区間管理テーブル86、顧客発話区間管理テーブル87、顧客満足度保存テーブル92、テキスト情報記憶部88、キーワードテーブル(関連キーワード記憶部)89、商品種別キーワード記憶部90、満足キーワード管理テーブル(データベース)91として機能する。なお、管理サーバー用データベースDBは、店舗ごとに設けられても良いし、複数店舗のデータを一括管理するものであっても良い。
FIG. 7 is an explanatory diagram of the management server database DB according to the first embodiment. The management server database DB includes a customer
顧客情報記憶部81は、顧客識別情報(顧客IDなど)と、顧客の顔特徴量と、顧客データ(氏名、住所、電話番号、生年月日、性別などの個人情報を含む)と、を関連付けて記憶する。また、店員情報記憶部82は、店員識別情報(店員IDなど)と、店員の顔特徴量と、店員用端末5のMACアドレスと、を関連付けて記憶する。また、音声データ記憶部83は、会話録音部153により常時録音された音声データを記憶する。また、映像データ記憶部84は、接客撮像部111により常時撮像された映像データを記憶する。
The customer
また、音声データ管理テーブル85は、店員と顧客を区別することなく、取得した音声データを、連続する音声の区間(以下、「連続発話区間」と称する)ごとに記録したテーブルである(図8(a)参照))。また、店員発話区間管理テーブル86は、店員の発話区間を記録したテーブルである(図8(b)参照)。また、顧客発話区間管理テーブル87は、顧客の発話区間を記録したテーブルである(図8(c)参照)。 The voice data management table 85 is a table in which the acquired voice data is recorded for each continuous voice section (hereinafter referred to as “continuous speech section”) without distinguishing between the store clerk and the customer (FIG. 8). (See (a))). Further, the store clerk utterance section management table 86 is a table in which store section utterance sections are recorded (see FIG. 8B). The customer utterance section management table 87 is a table in which customer utterance sections are recorded (see FIG. 8C).
次に、図8を参照し、音声データ管理テーブル85、店員発話区間管理テーブル86および顧客発話区間管理テーブル87について説明する。図8(a)は、音声データ管理テーブル85の一例を示す図である。音声データ管理テーブル85は、店員と顧客の音声を区別しない連続する音声の区間である連続発話区間(少なくとも1の発話区間が含まれる区間)ごとに付与される音声データNo.と、連続発話区間の開始時間に相当する録音開始時間と、連続発話区間の終了時間に相当する録音終了時間と、顧客の発声に基づく音声データか、店員の発生に基づく音声データか、または両方の発声に基づく音声データかを示す重複フラグと、音声データの保存先アドレスと、を関連付けたものである。例えば、音声データNo.201の音声データは、12時36分03秒を開始時間とし12時36分16秒を終了時間とする連続発話区間であり、少なくとも一部の区間において、顧客の音声と店員の音声が重複していることを示している。
Next, the voice data management table 85, the store clerk utterance section management table 86, and the customer utterance section management table 87 will be described with reference to FIG. FIG. 8A shows an example of the audio data management table 85. The voice data management table 85 includes voice data No. assigned to each continuous utterance section (a section including at least one utterance section) which is a continuous voice section that does not distinguish between the clerk and the customer's voice. Recording start time corresponding to the start time of the continuous utterance section, recording end time corresponding to the end time of the continuous utterance section, voice data based on the customer's utterance, voice data based on the occurrence of the store clerk, or both The duplication flag indicating whether the voice data is based on the utterance of the voice and the storage address of the voice data are associated with each other. For example, voice data No. The
図8(b)は、店員発話区間管理テーブル86の一例を示す図である。店員発話区間管理テーブル86は、発話区間ごとに付与される店員発話No.と、発話区間の開始時間である店員発話開始時間と、発話区間の終了時間である店員発話終了時間と、どの話し掛け区間に属するかを示す話し掛けNo.と、顧客の発声との重複区間の開始時間である重複開始時間と、顧客の発声との重複区間の終了時間である重複終了時間と、を関連付けたものである。例えば、店員発話No.100と店員発話No.101の発話区間は、インターバルが所定時間(例えば、3秒)未満であるため、一連の話し掛け区間と看做され、同一の話し掛けNo.が付加されている。また、店員発話No.100の発話区間は、その区間全体が顧客の発生と重複していることを示している。
FIG. 8B is a diagram showing an example of the store clerk utterance section management table 86. The store clerk utterance section management table 86 includes a store clerk utterance number assigned to each utterance section. , The clerk utterance start time which is the start time of the utterance section, the clerk utterance end time which is the end time of the utterance section, and the talk No. indicating which talk section belongs to. And the overlap start time, which is the start time of the overlapping section with the customer utterance, and the overlap end time, which is the end time of the overlap section with the customer utterance. For example, clerk utterance No. 100 and the clerk utterance No. The
図8(c)は、顧客発話区間管理テーブル87の一例を示す図である。顧客発話区間管理テーブル87は、発話区間ごとに付与される顧客発話No.と、発話区間の開始時間である顧客発話開始時間と、発話区間の終了時間である顧客発話終了時間と、どの話し掛け区間に属するかを示す話し掛けNo.と、店員の発声との重複区間の開始時間である重複開始時間と、店員の発声との重複区間の終了時間である重複終了時間と、を関連付けたものである。例えば、顧客発話No.101と顧客発話No.102の発話区間は、インターバルが所定時間(例えば、3秒)を超えているため、異なる話し掛け区間と看做され、異なる話し掛けNo.が付加されている。また、顧客発話No.100の発話区間は、13秒の区間長さのうち6秒間が店員の発生と重複していることを示している。
FIG. 8C is a diagram showing an example of the customer utterance section management table 87. The customer utterance section management table 87 includes a customer utterance No. assigned to each utterance section. , The customer utterance start time that is the start time of the utterance section, the customer utterance end time that is the end time of the utterance section, and the talk No. indicating which talk section it belongs to. And the overlap start time, which is the start time of the overlapping section with the clerk's utterance, and the overlap end time, which is the end time of the overlap section, with the clerk's utterance. For example, customer utterance No. 101 and customer utterance no. The
次に、図9ないし図12を参照して、顧客満足度保存テーブル92、キーワードテーブル89および満足キーワード管理テーブル91について説明する。図9(a)は、顧客満足度保存テーブル92の一例を示した図である。図9(a)に示すように、顧客満足度保存テーブル92は、顧客ごと、且つ会話区間ごとの顧客満足度を記憶するものであり、顧客識別情報と、顧客の氏名と、会話区間の開始時間および終了時間と、顧客満足度と、を関連付けて記憶している。 Next, the customer satisfaction storage table 92, the keyword table 89, and the satisfaction keyword management table 91 will be described with reference to FIGS. FIG. 9A is a diagram showing an example of the customer satisfaction degree storage table 92. As shown in FIG. 9A, the customer satisfaction storage table 92 stores customer satisfaction for each customer and for each conversation section. The customer identification information, the customer's name, and the start of the conversation section are stored. Time and end time are stored in association with customer satisfaction.
キーワードテーブル89は、商品キーワード(商品名称)を記憶する商品キーワード用テーブル89aと、非商品キーワードを記憶する非商品キーワード用テーブル89bと、を有している。図10は、商品キーワード用テーブル89aの一例を示した図である。商品キーワード用テーブル89aは、取扱商品を示す商品キーワード(商品名称:関連キーワード)と、当該取扱商品が該当する商品種別を示す複数の商品種別キーワード(商品種別:音声キーワード)と、を関連付けて記憶している。各商品キーワードには、「品目」、「サイズ」、「色」、「形状」および「加工方法」といった項目毎に1以上の商品種別キーワードが登録されている。例えば、商品キーワード「ストレッチスリムフィットシャツ」に対し、「品目」として、「ワイシャツ」、「長袖シャツ」、「シャツ」が、「サイズ」として、「S」、「M」、「L」等が、色として、「OFF」、「WHITE」、「LIGHT」、「GRAY」等が、「形状」として、「スリム」、「フィット」、「細め」等が、「加工方法」として、「イージーケアー」、「形状記憶」、「ストレッチ」等が、商品種別キーワードとして、関連付けて記憶されている。項目別の各商品種別キーワードには、取扱商品との関連の度合いを示す関連レベルが設定されている。例えば、「ワイシャツ」、「長袖シャツ」には、「レベル3」が設定され、「シャツ」には、「レベル2」が設定されている。また、各項目には、配点が付加されており、各関連レベルには、係数が付加されている。これらは、後述のマッチング度を算出する際に用いられる。
The keyword table 89 includes a product keyword table 89a for storing product keywords (product names) and a non-product keyword table 89b for storing non-product keywords. FIG. 10 is a diagram illustrating an example of the product keyword table 89a. The product keyword table 89a stores a product keyword (product name: related keyword) indicating a handled product and a plurality of product type keywords (product type: voice keyword) indicating a product type to which the handled product is associated with each other. is doing. In each product keyword, one or more product type keywords are registered for each item such as “item”, “size”, “color”, “shape”, and “processing method”. For example, for the product keyword “stretch slim fit shirt”, “item” is “shirt”, “long sleeve shirt”, “shirt”, and “size” is “S”, “M”, “L”, etc. , “OFF”, “WHITE”, “LIGHT”, “GRAY”, etc. as colors, “Slim”, “fit”, “narrow”, etc. as “shape”, “Easy care” ”,“ Shape memory ”,“ stretch ”, and the like are stored in association with each other as product type keywords. In each item type keyword for each item, an association level indicating the degree of association with the handling item is set. For example, “
図11は、非商品キーワード用テーブル89bの一例を示した図である。非商品キーワード用テーブル89bは、カテゴリー別に非商品キーワードを記録したテーブルである。カテゴリーとして、「人間関係」、「勤務先・通学先関連」、「趣味関連」、「イベント関連」、「身分関連」、「地名関連」、「日時関連」といったメインカテゴリーと、その各サブカテゴリーと、を有しており、非商品キーワード用テーブル89bは、メインカテゴリーごとのテーブルによって構成されている。例えば、メインカテゴリー「人間関係」は、「家族」「友人」といった第1サブカテゴリーを有し、さらに、第1サブカテゴリー「家族」は、「父親」「母親」「兄」等といった第2サブカテゴリーを有している。「人間関係」−「家族」−「父親」のカテゴリーには、「父親」「お父さん」「父」「親父」といった非商品キーワードが登録されている。他のカテゴリーにおいても同様に、サブカテゴリーがあり、また、非商品キーワードが複数登録されている。 FIG. 11 is a diagram showing an example of the non-product keyword table 89b. The non-product keyword table 89b is a table in which non-product keywords are recorded for each category. Main categories such as “Human relations”, “Working / commuting related”, “Hobby related”, “Event related”, “Identity related”, “Location name related”, “Date related”, and their subcategories The non-product keyword table 89b is configured by a table for each main category. For example, the main category “Human relations” has a first subcategory such as “Family” and “Friends”, and the first subcategory “Family” is a second subcategory such as “Father”, “Mother”, “Brother”, etc. Has a category. Non-product keywords such as “father”, “dad”, “father”, “father” are registered in the category of “human relation”-“family”-“father”. Similarly, in other categories, there are subcategories, and a plurality of non-product keywords are registered.
テキスト情報記憶部88は、音声認識部154による音声認識結果として得られたテキスト情報を記憶する。商品種別キーワード記憶部90は、後述のキーワード記録処理の際、抽出した商品種別キーワードを記憶する。
The text information storage unit 88 stores text information obtained as a speech recognition result by the
満足キーワード管理テーブル91は、顧客(顧客識別情報)毎に生成されるものであり、商品満足キーワード管理テーブル91aと、非商品満足キーワード管理テーブル91bと、を有している。図12(a)は、商品満足キーワード管理テーブル91aの一例を示した図である。商品満足キーワード管理テーブル91aは、満足キーワード記録部161によって記録された商品キーワードと、その関連情報とを関連付けて記憶するテーブルである。厳密には、商品満足キーワード管理テーブル91aは、複数回、同じ商品キーワードを記録する場合、統合して記録するものであり、複数の商品キーワードと、当該各商品キーワードの、品目、お勧めレベル、複数回の記録処理に亘るマッチング度の平均値、記録回数、複数の記録処理に亘る顧客満足度の平均値、最終発声年月日、購入済みフラグの有無、発話済みフラグの有無および発話経過時間を記録する。なお、複数回の記録処理に亘るマッチング度の平均値、複数の記録処理に亘る顧客満足度の平均値、最終発声年月日、購入済みフラグの有無、発話済みフラグの有無および発話経過時間については、後述する。
The satisfaction keyword management table 91 is generated for each customer (customer identification information), and includes a product satisfaction keyword management table 91a and a non-product satisfaction keyword management table 91b. FIG. 12A shows an example of the product satisfaction keyword management table 91a. The product satisfaction keyword management table 91a is a table that stores the product keywords recorded by the satisfaction
図12(b)は、非商品満足キーワード管理テーブル91bの一例を示した図である。非商品満足キーワード管理テーブル91bは、第1キーワードの非商品キーワードと第2キーワードの非商品キーワードとの組ごとに、その関連情報を記憶し、また複数回、同じ非商品キーワードの組を記録する場合、統合して記録するテーブルである。非商品満足キーワード管理テーブル91bは、第1キーワードの非商品キーワードと、第2キーワードの非商品キーワードと、この非商品キーワードの組に対する、好印象レベル、記録回数、複数回の記録処理に亘る顧客満足度の平均値と、最終発声年月日と、発話済みフラグの有無と、を記憶している。 FIG. 12B is a diagram illustrating an example of the non-commodity satisfaction keyword management table 91b. The non-product satisfaction keyword management table 91b stores the related information for each set of the non-product keyword of the first keyword and the non-product keyword of the second keyword, and records the same set of non-product keywords a plurality of times. In this case, it is a table that records in an integrated manner. The non-commodity satisfaction keyword management table 91b includes a non-product keyword of the first keyword, a non-product keyword of the second keyword, and a customer who has a good impression level, the number of times of recording, and a plurality of recording processes for the set of non-product keywords. The average value of satisfaction, the last utterance date, and the presence / absence of a spoken flag are stored.
次に、図13のフローチャートを参照し、音声データ保存処理について説明する。なお、上記のとおり、店員用端末5と管理サーバー15は、レシートプリンター13を介して通信を行うが、レシートプリンター13は単に情報を経由しているだけなので、図示を省略する。
Next, the audio data storing process will be described with reference to the flowchart of FIG. As described above, the
店員用端末5は、音声取得用マイク2から音声信号(音声)を取得すると(S11)(音声データ取得工程)、音声レベル判定機能のパワーフィルターにより音声レベルを判定する(S12)。ここで、音声レベルが所定レベル以上の場合、音声「有」と判定し、メモリ26内の音声データ保存領域(図示省略)に音声データのバッファリングを開始する(S13)。また、このとき、音声データ保存領域に録音開始時間を記録する。
When the
続いて、音声信号を受信しなくなると、録音終了時間を確定して音声データ保存領域に記録すると共に、バッファリングを終了する(S14)。その後、管理サーバー15に対して、音声データの送信を宣言し(S15)、音声データ保存領域にバッファリングされた音声データを、録音開始時間および録音終了時間と共に送信する(S16)。 Subsequently, when no audio signal is received, the recording end time is determined and recorded in the audio data storage area, and the buffering is ended (S14). Thereafter, transmission of audio data is declared to the management server 15 (S15), and the audio data buffered in the audio data storage area is transmitted together with the recording start time and recording end time (S16).
管理サーバー15(制御部53)は、店員用端末5から音声データを受信すると(S17)、音声データ管理テーブル85(図8(a)参照)に、一意に定めた音声データNo.と、録音開始時間および録音終了時間を登録する(S18)。また、音声データ管理テーブル85で指定された音声データ保存先(所定のフォルダ)に、音声データを保存する(S19)。 When the management server 15 (control unit 53) receives the voice data from the store clerk terminal 5 (S17), the voice data No. 5 uniquely determined in the voice data management table 85 (see FIG. 8A). Then, the recording start time and recording end time are registered (S18). Also, the audio data is stored in the audio data storage destination (predetermined folder) designated in the audio data management table 85 (S19).
次に、図14ないし図17のフローチャートを参照し、接客区間特定処理の一連の流れについて説明する。図14は、メイン処理(接客区間特定処理)を示すフローチャートであり、図15ないし図17は、そのサブルーチンを示すフローチャートである。図14に示すように、管理サーバー15(制御部53)は、まず店員話し掛け区間を特定した後(S21)、店員話し掛け区間の後に発生した顧客話し掛け区間Bを特定する(S22)と共に、店員話し掛け区間の前に発生した顧客話し掛け区間Aを特定する(S23)。これらS21〜S23の工程により、会話区間を特定する(S24,図5(a)参照)。また、S21〜S24を繰り返すことにより、接客区間を特定する(S25,図5(b)参照)。 Next, with reference to the flowcharts of FIGS. 14 to 17, a series of flow of the service area identification process will be described. FIG. 14 is a flowchart showing the main process (service section identification process), and FIGS. 15 to 17 are flowcharts showing the subroutine. As shown in FIG. 14, the management server 15 (the control unit 53) first specifies the store clerk talk section (S21), then specifies the customer talk section B generated after the store clerk talk section (S22), and also stores the store clerk talk. The customer talk section A that occurred before the section is specified (S23). Through these steps S21 to S23, a conversation section is specified (S24, see FIG. 5A). Further, by repeating S21 to S24, the customer service section is specified (S25, see FIG. 5B).
次に、図15のフローチャートを参照し、図14のS21に相当する店員話し掛け区間特定処理について説明する。店員用端末5は、体導音センサー1からその検出データを取得すると(S31)、店員発話区間特定機能のパワーフィルターにより検出レベルを判定し、所定レベル以上の場合、その検出時間を店員発話区間開始時間として確定し、メモリ26内に記録する(S32)。続いて、音声レベル判定機能のパワーフィルターにより音声レベルを判定し、所定レベル以上の場合、音声発話による検出データであることを確定する(S33)。なお、フローチャートには特に図示しないが、検出レベルまたは音声レベルが所定レベル未満の場合は、処理を終了する。音声発話による検出データであることを確定する。また、音声発話による検出データであることを確定すると、音声発話に続く無音声区間から店員発話区間終了時間を確定し、メモリ26内に記録する。その後、管理サーバー15に対して、店員発話区間の発生通知を行う(S34)。このとき、メモリ26内に記録されている店員発話区間開始時間および店員発話区間終了時間も送信する。
Next, with reference to the flowchart of FIG. 15, the clerk talk section specifying process corresponding to S21 of FIG. 14 will be described. When the
一方、管理サーバー15(制御部53)は、店員用端末5から店員発話区間の発生通知を受信すると(S35)、店員発話区間管理テーブル86(図8(b)参照)に、一意に定めた店員発話データNo.と、店員話し掛け区間ごとに定めた店員話し掛けNo.と、店員発話開始時間および店員発話終了時間を登録する(S36)。その後、所定時間内に次の店員発話区間の発生通知を受信したか否かを判別し(S37)、受信した場合は(S37:Yes)、一意に定めた店員発話データNo.と、上記と同じ店員話し掛けNo.と、店員発話開始時間および店員発話終了時間を登録する(S36)。これにより、前に発生した店員発話区間と今回発生した店員発話区間とを、一連の話し掛け区間として定義することができる。なお、所定時間内に次の店員発話区間の発生通知を受信しなかった場合は(S37:No)、店員による一連の話し掛け区間が終了したとして、処理を終了する。 On the other hand, when the management server 15 (control unit 53) receives the notification of the occurrence of the store clerk utterance section from the store clerk terminal 5 (S35), the management server 15 (control unit 53) is uniquely defined in the store clerk utterance section management table 86 (see FIG. 8B). Sales clerk utterance data No. And the clerk talk number set for each clerk talk section. Then, the clerk utterance start time and the clerk utterance end time are registered (S36). Thereafter, it is determined whether or not a notification of occurrence of the next clerk utterance section is received within a predetermined time (S37). If received (S37: Yes), the clerk utterance data No. And the same clerk Talk No. Then, the clerk utterance start time and the clerk utterance end time are registered (S36). Thereby, the salesclerk utterance section generated before and the salesclerk utterance section generated this time can be defined as a series of talk sections. Note that, when the occurrence notification of the next clerk utterance section is not received within a predetermined time (S37: No), the process is terminated assuming that a series of talk sections by the clerk is over.
次に、図16のフローチャートを参照し、図14のS22に相当する顧客話し掛け区間B特定処理について説明する。管理サーバー15(制御部53)は、店員による一連の話し掛け区間の特定が終了した後、音声データ管理テーブル85を参照し、最後の店員発話区間の店員発話終了時間から所定時間内に音声データが存在するか否かを判別する(S41)。ここで、音声データが存在しない場合は(S41:No)、顧客話し掛け区間Bは存在しないものとして処理を終了する。また、音声データが存在する場合は(S41:Yes)、音声データ管理テーブル85から、その音声データの録音開始時間と録音終了時間を読み込み、一意に定めた顧客発話No.と、顧客話し掛け区間ごとに定めた顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を顧客発話区間管理テーブル87に登録する(S42)。その後、音声データ管理テーブル85を参照し、最後の顧客発話区間の顧客発話終了時間から所定時間内に音声データが存在するか否かを判別し(S43)、存在する場合は(S43:Yes)、一意に定めた顧客発話No.と、上記と同じ顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を登録する(S42)。これにより、前に発生した顧客発話区間と今回発生した顧客発話区間とを、一連の話し掛け区間として定義することができる。なお、最後の顧客発話区間の顧客発話終了時間から所定時間内に音声データが存在しない場合は(S43:No)、顧客によるその後の話し掛け区間は存在しないと看做して、処理を終了する。 Next, with reference to the flowchart of FIG. 16, the customer talk section B specifying process corresponding to S22 of FIG. 14 will be described. The management server 15 (the control unit 53) refers to the voice data management table 85 after the end of identification of a series of talk sections by the clerk, and the voice data is stored within a predetermined time from the clerk utterance end time of the last clerk utterance section. It is determined whether or not it exists (S41). Here, when there is no voice data (S41: No), it is determined that the customer talk section B does not exist, and the process ends. If the voice data exists (S41: Yes), the recording start time and the recording end time of the voice data are read from the voice data management table 85, and the uniquely defined customer utterance number. And customer talk No. determined for each customer talk section. Then, the customer utterance start time and customer utterance end time are registered in the customer utterance section management table 87 (S42). Thereafter, referring to the voice data management table 85, it is determined whether or not voice data exists within a predetermined time from the customer utterance end time of the last customer utterance section (S43), and if present (S43: Yes). Unique customer utterance No. And the same customer talk number as above. The customer utterance start time and customer utterance end time are registered (S42). Thereby, the customer utterance section generated before and the customer utterance section generated this time can be defined as a series of talk sections. If there is no voice data within a predetermined time from the customer utterance end time of the last customer utterance section (S43: No), it is considered that there is no subsequent talk section by the customer, and the process is terminated.
次に、図17のフローチャートを参照し、図14のS23に相当する顧客話し掛け区間A特定処理について説明する。管理サーバー15(制御部53)は、顧客話し掛け区間Bの特定が終了した後、顧客発話区間管理テーブル87を参照し、図15の処理にて特定された店員発話区間の店員発話開始時間から所定時間前までに、既に顧客発話No.が与えられた顧客発話区間が存在するか否かを判別する(S51)。ここで、顧客発話区間が存在する場合は(S51:Yes)、顧客の話し掛け区間特定処理が既に終了しているものと看做し、処理を終了する。また、既に顧客発話No.が与えられた顧客発話区間が存在しない場合は(S51:No)、音声データ管理テーブル85を参照し、店員発話区間の店員発話開始時間から所定時間前までに、未処理の音声データが存在するか否かを判別する(S52)。ここで、未処理の音声データが存在しない場合は(S52:No)、顧客話し掛け区間Aが存在しないものと看做し、処理を終了する。また、未処理の音声データが存在する場合は(S52:Yes)、その音声データの録音開始時間と録音終了時間を読み込み、一意に定めた顧客発話No.と、顧客話し掛け区間ごとに定めた顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を顧客発話区間管理テーブル87に登録する(S53)。 Next, with reference to the flowchart of FIG. 17, the customer talk section A specifying process corresponding to S23 of FIG. 14 will be described. The management server 15 (control unit 53) refers to the customer utterance section management table 87 after the identification of the customer conversation section B is completed, and determines from the clerk utterance start time of the clerk utterance section specified in the processing of FIG. Before the time, customer utterance No. It is determined whether or not there is a customer utterance section given (S51). Here, when the customer utterance section exists (S51: Yes), it is considered that the customer's talk section specifying process has already ended, and the process is ended. In addition, the customer utterance No. Is not present (S51: No), the voice data management table 85 is referred to, and unprocessed voice data exists before a predetermined time from the clerk utterance start time of the clerk utterance section. Is determined (S52). Here, when there is no unprocessed voice data (S52: No), it is considered that the customer talk section A does not exist, and the process is terminated. If unprocessed voice data exists (S52: Yes), the recording start time and recording end time of the voice data are read, and the customer utterance No. And customer talk No. determined for each customer talk section. Then, the customer utterance start time and the customer utterance end time are registered in the customer utterance section management table 87 (S53).
その後、音声データ管理テーブル85を参照し、登録した顧客発話区間の顧客発話開始時間から所定時間前までに未処理の音声データが存在するか否かを判別し(S54)、存在する場合は(S54:Yes)、その音声データの録音開始時間と録音終了時間を読み込み、一意に定めた顧客発話No.と、上記と同じ顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を登録する(S54)。これにより、前に登録した顧客発話区間と今回特定した顧客発話区間とを、一連の話し掛け区間として定義することができる。なお、登録した顧客発話区間の顧客発話開始時間から所定時間前までに未処理の音声データが存在しない場合は(S54:No)、顧客によるそれ以前の話し掛け区間は存在しないと看做して、処理を終了する。 Thereafter, referring to the voice data management table 85, it is determined whether or not there is unprocessed voice data from the customer utterance start time of the registered customer utterance section to a predetermined time before (S54). S54: Yes), the recording start time and recording end time of the voice data are read, and the customer utterance No. uniquely determined is read. And the same customer talk number as above. Then, the customer utterance start time and customer utterance end time are registered (S54). Thereby, the customer utterance section registered previously and the customer utterance section specified this time can be defined as a series of talk sections. If there is no unprocessed voice data from the customer utterance start time of the registered customer utterance section to a predetermined time before (S54: No), it is considered that there is no previous talk section by the customer, The process ends.
以上、図13ないし図17の処理により、音声データ管理テーブル85、店員発話区間管理テーブル86および顧客発話区間管理テーブル87への登録を行い、店員話し掛け区間、その前後における顧客話し掛け区間Aおよび顧客話し掛け区間Bを特定することができる。ここで、店員話し掛け区間と顧客話し掛け区間との重複区間の検出について簡単に説明する。管理サーバー15は、各話掛け区間を特定した後、店員発話区間管理テーブル86および顧客発話区間管理テーブル87を参照し、重複区間の検出と、各テーブル85,86,87への記録を行う。具体的には、まず、店員発話区間管理テーブル86を参照し、同一話し掛けNo.の最も早い店員発話開始時間と最も遅い店員発話終了時間を、店員話し掛け区間の開始時間と終了時間に設定する。同様に、顧客発話区間管理テーブル87を参照し、同一話し掛けNo.の最も早い顧客発話開始時間と最も遅い顧客発話終了時間を、顧客話し掛け区間の開始時間と終了時間に設定する。そして、店員話し掛け区間と顧客話し掛け区間とに重複区間が存在しないかを判定し、存在する場合は、店員発話区間管理テーブル86および顧客発話区間管理テーブル87に、重複区間(重複開始時間および重複終了時間)を登録すると共に、音声データ管理テーブル85に重複フラグを立てる(図8(a)の重複フラグ欄における「客・店」に相当)。
As described above, the voice data management table 85, the clerk utterance section management table 86, and the customer utterance section management table 87 are registered by the processing shown in FIGS. The section B can be specified. Here, the detection of the overlap section between the store clerk talk section and the customer talk section will be briefly described. After identifying each talking section, the
次に、図18のフローチャートを参照し、満足度通知処理について説明する。この満足度通知処理は、会話区間を特定する都度、すなわち会話区間の終了ごとに行われるものであり、顧客満足度をリアルタイムで通知するものである。図18に示すように、まず、管理サーバー15(制御部53)は、顧客発話区間管理テーブル87により、特定した会話区間に含まれる各顧客発話区間を抽出し(S61)、音声データ管理テーブル85により、各顧客発話区間の音声データを抽出する(S62)(音声データ抽出部)(音声データ抽出工程)。 Next, the satisfaction degree notification process will be described with reference to the flowchart of FIG. This satisfaction notification process is performed every time a conversation section is specified, that is, every time a conversation section ends, and notifies customer satisfaction in real time. As shown in FIG. 18, first, the management server 15 (control unit 53) extracts each customer utterance section included in the specified conversation section from the customer utterance section management table 87 (S61), and the voice data management table 85. Thus, the voice data of each customer utterance section is extracted (S62) (voice data extraction unit) (voice data extraction step).
各顧客発話区間の音声データを抽出したら、顧客感情認識部155により、当該顧客発話区間ごとの音声データに基づいて、当該発話区間ごとに感情認識を行う(S63)。その後、顧客満足度算出部156により、顧客感情認識部155の認識結果に基づいて、各顧客発話区間の顧客満足度を算出する(S64)(個別満足度算出部)。各顧客発話区間の顧客満足度を算出したら、これに基づいて、当該会話区間の顧客満足度を算出する(S65)(区間満足度算出工程)(顧客満足度算出工程)。具体的には、算出した各顧客発話区間の顧客満足度における平均値を、会話区間の顧客満足度として算出する。
After extracting the voice data of each customer utterance section, the customer
会話区間の顧客満足度を算出したら、算出した顧客満足度を、当該会話区間の情報と共に、顧客満足度保存テーブル92に記録する(S66)。具体的には、算出した顧客満足度を、顧客識別情報と、顧客の氏名と、会話区間の開始時刻および終了時刻と関連付けて記録する。なお、顧客識別情報は、顧客識別部152により会話区間において会話する顧客を識別した結果に基づくものであり、顧客の氏名は、当該顧客識別情報に対応する顧客の名称を、顧客情報記憶部81から抽出する。
When the customer satisfaction level of the conversation section is calculated, the calculated customer satisfaction level is recorded in the customer satisfaction storage table 92 together with the information of the conversation section (S66). Specifically, the calculated customer satisfaction is recorded in association with the customer identification information, the customer's name, and the start time and end time of the conversation section. The customer identification information is based on the result of identifying the customer who has a conversation in the conversation section by the
算出した会話区間の顧客満足度を記録したら、当該顧客満足度に基づく満足度通知用のテキストデータを生成する(S67)。具体的には、満足度通知用のテキストデータとして、会話区間の顧客満足度を通知するメッセージ、例えば、顧客満足度が「50」である場合、「顧客満足度『50』」というメッセージのテキストデータを生成する。テキストデータを生成したら、音声データ生成部により、当該テキストデータに基づいて、そのメッセージを発声する満足度通知用の音声データを生成する(S68)。満足度通知用の音声データを生成したら、音声データ通信部105により、当該音声データを店員用端末5に送信する(S69)。
When the calculated customer satisfaction level of the conversation section is recorded, text data for satisfaction level notification based on the customer satisfaction level is generated (S67). Specifically, as text data for notifying satisfaction, a message for notifying customer satisfaction in the conversation section, for example, when the customer satisfaction is “50”, the text of the message “customer satisfaction“ 50 ”” Generate data. When the text data is generated, the voice data generation unit generates voice data for satisfaction notification that utters the message based on the text data (S68). If the voice data for satisfaction degree notification is generated, the voice
店員用端末5を介して、満足度通知用の音声データを受信した音声指示用イヤホン3は、満足度通知用の音声データを出力して(S70)、当該会話区間の顧客満足度を店員に通知する(満足度通知工程)。これにより本処理を終了する。
The
次に、図19のフローチャートを参照し、キーワード記録処理について説明する。このキーワード記録処理は、満足キーワード管理テーブル91を、接客区間ごとにリアルタイムで更新する処理である。すなわち、1接客区間を特定する都度に、接客区間単位でキーワード記録処理を行う。まず、管理サーバー15(制御部53)は、顧客満足度保存テーブル92から、上記接客区間特定処理で特定した接客区間内の各会話区間における顧客満足度を抽出する(S81)。各会話区間の顧客満足度を抽出したら、顧客満足度が所定の閾値(例えば、70)に達した会話区間を抽出する(S82)(区間特定部)。当該会話区間が抽出されなかった場合(S83:No)には、本処理を終了する。 Next, the keyword recording process will be described with reference to the flowchart of FIG. This keyword recording process is a process of updating the satisfaction keyword management table 91 in real time for each customer service section. That is, every time a customer service section is specified, a keyword recording process is performed for each service section. First, the management server 15 (control unit 53) extracts the customer satisfaction in each conversation section in the customer service section specified by the customer service section specifying process from the customer satisfaction storage table 92 (S81). When the customer satisfaction level of each conversation section is extracted, a conversation section in which the customer satisfaction level reaches a predetermined threshold (for example, 70) is extracted (S82) (section specifying unit). If the conversation section has not been extracted (S83: No), this process ends.
顧客満足度が所定の閾値に達した会話区間を1以上抽出した場合(S83:Yes)には、音声データ管理テーブル85により、抽出した各会話区間に含まれる全発話区間の音声データ(区間データ)を抽出する(S84)。その後、抽出した各発話区間の音声データに対し、音声認識部154により音声認識を行い、音声認識結果として得られたテキスト情報をテキスト情報記憶部88に記憶する(S85)。
When one or more conversation sections whose customer satisfaction level has reached a predetermined threshold are extracted (S83: Yes), the voice
発話区間ごとのテキスト情報を抽出・記憶したら、当該テキスト情報に基づいて、発話区間ごとのキーワード処理を行う(S86)。ここで図20を参照し、発話区間ごとのキーワード処理(S86)について詳しく説明する。 After the text information for each utterance section is extracted and stored, keyword processing for each utterance section is performed based on the text information (S86). Here, the keyword processing (S86) for each utterance section will be described in detail with reference to FIG.
図20に示すように、管理サーバー15(制御部53)は、まず、商品キーワード用テーブル89aに登録された商品種別キーワードから、発話区間ごとのテキスト情報に含まれる1以上の商品種別キーワードを抽出する(S91)(音声キーワード抽出部)。例えば、「私、ボタンダウンのシャツが好きなんですよ」という発言の音声データに基づき、「ボタンダウン」および「シャツ」という商品種別キーワードを抽出して、商品種別キーワード記憶部90に記憶する。いずれの商品種別キーワードも抽出されなかった場合(S92:No)には、後述の非商品キーワードの抽出処理(S99〜S102)に移行する。
As shown in FIG. 20, the management server 15 (control unit 53) first extracts one or more product type keywords included in the text information for each utterance section from the product type keywords registered in the product keyword table 89a. (S91) (voice keyword extraction unit). For example, product type keywords “button down” and “shirt” are extracted and stored in the product type
一方、1以上の商品種別キーワードが抽出された場合(S92:Yes)には、抽出した1以上の商品種別キーワードに基づいて、商品キーワード用テーブル89aに記憶された1以上の商品キーワードを抽出する(S93)(関連キーワード抽出部)(キーワード抽出工程)。具体的には、商品キーワード用テーブル89aにおいて、当該1以上の商品種別キーワードを関連付けて記憶している商品キーワード(特定商品名称)を抽出する。例えば、商品種別キーワードとして、「ボタンダウン」および「シャツ」という商品種別キーワードが抽出された場合には、これを商品種別キーワードとして記憶した商品キーワード「ファインオックスフォードシャツ」を抽出する。なお、同一項目に属する複数の商品種別キーワードが抽出された場合には、関連レベルや抽出数に基づいて、いずれか1の商品種別キーワードを参考キーワードとする。また、上記1以上の商品種別キーワードを関連付けて記憶した商品キーワードが複数存在する場合には、複数の商品キーワードを抽出する。 On the other hand, when one or more product type keywords are extracted (S92: Yes), one or more product keywords stored in the product keyword table 89a are extracted based on the extracted one or more product type keywords. (S93) (Related Keyword Extraction Unit) (Keyword Extraction Step). Specifically, in the product keyword table 89a, a product keyword (specific product name) stored in association with the one or more product type keywords is extracted. For example, when the product type keywords “button down” and “shirt” are extracted as the product type keywords, the product keyword “fine Oxford shirt” stored as the product type keywords is extracted. When a plurality of product type keywords belonging to the same item are extracted, any one product type keyword is set as a reference keyword based on the relation level and the number of extractions. Further, when there are a plurality of product keywords stored in association with the one or more product type keywords, a plurality of product keywords are extracted.
1以上の商品キーワードを抽出したら、当該各商品キーワードのマッチング度を算出する(S94)。マッチング度は、抽出した上記1以上の商品種別キーワードの組が、当該各商品キーワードを示すものであったか否かの度合いを示す数値である。具体的には、抽出した各商品種別キーワードに対し、当該各商品種別キーワードが属する項目の配点と、当該各商品種別キーワードの関連レベルにおける係数とを乗算し、その全商品種別キーワードの乗算値を合計した数値を、マッチング度とする(マッチング度=Σ{項目の配点×関連レベルの係数})。 When one or more product keywords are extracted, the matching degree of each product keyword is calculated (S94). The degree of matching is a numerical value indicating the degree of whether or not the set of the one or more product type keywords extracted indicates each product keyword. Specifically, for each extracted product type keyword, the score of the item to which each product type keyword belongs is multiplied by the coefficient at the relevant level of each product type keyword, and the multiplication value of all the product type keywords is obtained. The total numerical value is used as the matching degree (matching degree = Σ {scoring of item × related level coefficient}).
抽出した各商品キーワードのマッチング度を算出したら、各商品キーワードのマッチング度が所定の閾値に達しているか否かを判別する(S95)。抽出した各商品キーワードのマッチング度が、いずれも所定の閾値に達しなかった場合(S96:No)には、後述の非商品キーワード抽出処理(S99〜S102)に移行する。一方、いずれかの商品キーワードが所定の閾値に達している場合(S96:Yes)には、お勧めレベル算出部162により、所定の閾値に達した商品キーワードのお勧めレベルを算出する(S97)。具体的には、以下の式に示すように、お勧めレベルを、複数回の記録処理に亘るマッチング度の平均値と、複数回の記録処理に亘る顧客満足度の平均値と、記録回数と、に基づいて算出する(お勧めレベル=A・(平均マッチング度)×B・(平均顧客満足度−50)×C・(抽出数)(0≦(A,B,C)≦1)。ここにいう「複数回の記録処理に亘るマッチング度の平均値」(平均マッチング度)とは、本キーワード処理による当該キーワードに対し算出したマッチング度と、過去のキーワード処理において当該キーワードを記録した際に算出した各マッチング度との平均値を示すものである。また、「複数回の記録処理に亘る顧客満足度の平均値」(平均顧客満足度)とは、本キーワード処理において当該キーワードを抽出した発話区間の顧客満足度と、過去のキーワード処理において当該キーワードを抽出した発話区間の各顧客満足度との平均値を示すものである。なお、過去に一度も当該キーワードを記録していない場合には、本キーワード処理のマッチング度、発話区間の顧客満足度をそのまま、上記各値とする。 Once the degree of matching of each extracted product keyword is calculated, it is determined whether or not the degree of matching of each product keyword has reached a predetermined threshold (S95). When the degree of matching of each extracted product keyword does not reach the predetermined threshold value (S96: No), the process proceeds to a non-product keyword extraction process (S99 to S102) described later. On the other hand, if any of the product keywords has reached the predetermined threshold (S96: Yes), the recommended level calculation unit 162 calculates the recommended level of the product keyword that has reached the predetermined threshold (S97). . Specifically, as shown in the following formula, the recommended level is determined based on the average value of the matching degree over a plurality of recording processes, the average value of customer satisfaction over the plurality of recording processes, and the number of recordings. (Recommended level = A · (average matching degree) × B · (average customer satisfaction−50) × C · (number of extractions) (0 ≦ (A, B, C) ≦ 1)). The “average value of matching degree over a plurality of recording processes” (average matching degree) here means the degree of matching calculated for the keyword by this keyword process and the keyword recorded in the past keyword process. In addition, the average value of each matching degree calculated in the above is shown, and “average value of customer satisfaction over a plurality of recording processes” (average customer satisfaction) is the keyword extracted in this keyword processing. Utterance interval The average value of the customer satisfaction and the customer satisfaction of each utterance section from which the keyword was extracted in the past keyword processing.If the keyword has never been recorded in the past, The matching value of this keyword processing and the customer satisfaction level of the utterance section are used as the above values as they are.
その後、満足キーワード記録部161により、当該各商品キーワードを満足キーワードとして、その関連情報に関連付けて、商品満足キーワード管理テーブル91aに記録する(S98)。具体的には、関連情報として、当該各商品キーワードの品目、お勧めレベル、複数回の記録処理に亘るマッチング度の平均値、記録回数、複数回の記録処理に亘る顧客満足度の平均値、最終発話年月日、購入済みフラグの有無、発話済みフラグの有無および発話経過時間を記録する。購入済みフラグの有無は、当該商品キーワードの商品が購入済みか否かを示すものであり、レシートプリンター13からの変換データを参照し、これに基づいて記録する。最終発声年月日は、最後に発声した日付を示し、発話済みフラグの有無は、現日付(今日の日付)において当該商品キーワードを店員または顧客が発声したか否かを示し、また発話経過時間とは、現日付において当該商品キーワードを発声した後の経過時間を示すものであり、音声データ記憶部83の音声データ(厳密には、現日付において特定した全接客区間における音声データを音声認識して得られたテキスト情報)に基づいて、これらを記録する。これにより、本処理を終了する。
Thereafter, the satisfaction
次に、非商品キーワード抽出処理(S99〜102)について説明する。非商品キーワード抽出処理では、まず、管理サーバー15(制御部53)は、非商品キーワード用テーブル89bに登録された非商品キーワードから、発話区間ごとのテキスト情報に含まれる非商品キーワードを抽出する(S99)。例えば、「先週、札幌のスキー場に行きました。」という発言の音声データに基づき、「先週」、「札幌」および「スキー場」という非商品キーワードを抽出する。いずれの非商品キーワードも抽出されなかった場合(S100:No)には、本処理を終了する。 Next, the non-product keyword extraction process (S99 to 102) will be described. In the non-product keyword extraction process, first, the management server 15 (control unit 53) extracts non-product keywords included in the text information for each utterance section from the non-product keywords registered in the non-product keyword table 89b ( S99). For example, non-product keywords such as “Last week”, “Sapporo”, and “Ski resort” are extracted based on voice data of a statement “I went to a ski resort in Sapporo last week”. If no non-product keyword is extracted (S100: No), this process is terminated.
一方、1以上の非商品キーワードが抽出された場合(S100:Yes)には、抽出した1以上の非商品キーワードから、第1キーワードと第2キーワードとを決定する(S101)。具体的には、まず、「人間関係」、「勤務先・通学先関連」、「趣味関連」の順に照合し、1の非商品キーワードが各メインカテゴリーに該当すると判定された場合には、判定された時点で、これを第1キーワードとして決定する。 On the other hand, when one or more non-product keywords are extracted (S100: Yes), the first keyword and the second keyword are determined from the extracted one or more non-product keywords (S101). Specifically, first, “personal relationships”, “work / school related”, and “hobby related” are collated in this order, and if it is determined that one non-product keyword falls into each main category, the determination is made. When this is done, this is determined as the first keyword.
第1キーワードを決定したら、続いて、第2キーワードを決定する。具体的には、第1キーワード以外の非商品キーワードを、「イベント関連」、「日時関連」、「身分関連」、「地名関連」の順に照会し、そのメインカテゴリーに該当するか否かを判別する。該当すると判別された時点で、該当した非商品キーワードを、第2キーワードとして決定する。なお、本フローチャートでは省略するが、第1キーワードもしくは第2キーワードに決定される非商品キーワードがなかった場合には、本処理を終了する。 If the first keyword is determined, then the second keyword is determined. Specifically, non-product keywords other than the first keyword are queried in the order of “event-related”, “date-time related”, “identity-related”, “place-name-related”, and whether or not it falls under the main category To do. When it is determined that it corresponds, the corresponding non-product keyword is determined as the second keyword. Although not shown in this flowchart, if there is no non-product keyword determined as the first keyword or the second keyword, this process ends.
第1キーワードと第2キーワードが決定したら、好印象レベル算出部163により、この非商品キーワードの組(第1キーワードおよび第2キーワードの組)に対する好印象レベルを算出する。具体的には、以下の式に示すように、複数回の記録処理に亘る顧客満足度の平均値と、記録回数とに基づいて算出する(好印象レベル=B・(平均顧客満足度―50)×C・(抽出数)(0≦(B,C)≦1))。その後、当該非商品キーワードの組を満足キーワードとして、その関連情報に関連付けて、非商品満足キーワード管理テーブル91bに記録する(S102)。関連情報として、好印象レベル、記録回数、複数回の記録に亘る顧客満足度の平均値、最終発声年月日および発話済みフラグの有無を記録する。この発話区間ごとの本キーワード処理(S86)によって、キーワード記録処理を終了する。
When the first keyword and the second keyword are determined, the good impression
次に図21のフローチャートを参照し、お奨め商品通知処理について説明する。お奨め商品通知処理は、接客区間の開始時(接客区間終了後の次の音声データを取得した際)に行われる。図19に示すように、管理サーバー15(制御部53)は、音声データ生成部164により、商品満足キーワード管理テーブル91aを参照し、キーワード通知用のテキストデータを生成する(S111)。具体的には、商品満足キーワード管理テーブル91aから、購入フラグおよび発話フラグがなく、且つ現時点でお奨めレベルが最も高い商品キーワードを抽出し、それを付加したメッセージ、例えば、「お奨め商品は、『ストレッチスリムシャツ』です。」というメッセージのテキストデータを作成する。次に、当該テキストデータに基づいて、そのメッセージを発声するキーワード通知用の音声データを生成する(S112)。キーワード通知用の音声データを生成したら、音声データ通信部105により、当該音声データを店員用端末5に送信する(S113)。店員用端末5を介して、キーワード通知用の音声データを受信した音声指示用イヤホン3は、当該キーワード通知用の音声データを出力する。これによって、お奨め商品を店員に通知する(S114)。これにより本処理を終了する。
Next, the recommended product notification process will be described with reference to the flowchart of FIG. The recommended product notification process is performed at the start of the service section (when the next voice data after the end of the service section is acquired). As shown in FIG. 19, the management server 15 (control unit 53) refers to the product satisfaction keyword management table 91a by the voice
次に図22のフローチャートを参照し、好印象キーワード通知処理について説明する。好印象キーワード通知処理は、お勧め商品通知処理と同様、接客区間の開始時(接客区間終了後の次の音声データを取得した際)に行われる。図22に示すように、管理サーバー15(制御部53)は、非商品満足キーワード管理テーブル91bを参照し、キーワード通知用のテキストデータを生成する(S116)。具体的には、非商品満足キーワード管理テーブル91bから、発話フラグがなく、且つ現時点で好印象レベルが最も高い非商品キーワードの組を抽出し、これを付加したメッセージ、例えば、「子供」が第1キーワード、「誕生日会」が第2キーワードである場合、「好印象キーワードは、『子供』の『誕生日会』です。」というメッセージのテキストデータを生成する。次に、当該テキストデータに基づいて、そのメッセージを発声するキーワード通知用の音声データを生成する(S117)。音声データ通信部105により、音声データを生成したら、当該音声データを店員用端末5に送信する(S118)。店員用端末5を介してキーワード通知用の音声データを受信した音声指示用イヤホン3は、当該キーワード通知用の音声データを出力する(S119)。これによって、好印象キーワードを店員に通知する。これにより本処理を終了する。
Next, the good impression keyword notification process will be described with reference to the flowchart of FIG. Like the recommended product notification process, the good impression keyword notification process is performed at the start of the service section (when the next voice data after the end of the service section is acquired). As shown in FIG. 22, the management server 15 (control unit 53) refers to the non-commodity satisfaction keyword management table 91b and generates text data for keyword notification (S116). Specifically, a set of non-product keywords having no utterance flag and the highest favorable impression level at the present time is extracted from the non-product satisfaction keyword management table 91b, and a message to which this is added, for example, “child” is the first. When one keyword, “Birthday Party” is the second keyword, text data of a message “The good impression keyword is“ Birthday Party ”of“ Children ”.” Is generated. Next, based on the text data, keyword notification voice data for generating the message is generated (S117). When the voice data is generated by the voice
[第2実施形態]
次に、図23ないし図26を参照して第2実施形態の接客支援システムSYについて特に異なる部分のみについて説明する。本実施形態の接客支援システムSYでは、管理サーバー15は、図4の構成に加え、会話区間ごとの話題キーワードを抽出し、当該話題キーワードが変化しない会話区間の集合体を、話題区間として特定する話題区間特定機能と、話題区間単位の顧客満足度を通知する話題区間満足度通知機能と、を備えている。また、図23に示すように、管理サーバー15は、図6の構成に加え、話題区間を特定する話題区間特定部203を有している。さらに、図24に示すように、管理サーバー用データベースDBは、図7の機能に加え、区間データ記憶部93として機能する。図9(b)に示すように、顧客満足度保存テーブル92は、図9(a)のデータに加え、話題区間単位の顧客満足度を記憶する。なお、話題キーワードは、1会話区間内で話題となったキーワードであり、話題区間は、当該話題キーワードに変化のない連続する会話区間の集合体とする。
[Second Embodiment]
Next, with reference to FIGS. 23 to 26, only a different part of the customer service support system SY of the second embodiment will be described. In the customer service support system SY of the present embodiment, the
ここで図25のフローチャートを参照し、話題区間特定処理について説明する。この話題区間特定処理は、会話区間の集合体である話題区間を特定する処理であるため、接客区間特定処理において会話区間を特定する都度、所定のループ処理(S122〜S137)を行って、話題区間を特定するものである。 Here, the topic section specifying process will be described with reference to the flowchart of FIG. Since the topic section specifying process is a process for specifying a topic section that is an aggregate of conversation sections, each time a conversation section is specified in the customer service section specifying process, a predetermined loop process (S122 to S137) is performed. It specifies the section.
図25に示すように、管理サーバー15(制御部53)は、会話区間が特定されると(S121:Yes)、特定された会話区間を、対象の会話区間としてループ処理(S122〜S137)を行う。なお、1つ前のループ処理で対象となった会話区間を、以下、前回の会話区間と呼称する。ループ処理では、まず、図20(S91〜S98)と同様の方法で、対象の会話区間に含まれる各発話区間の商品キーワードを抽出する(S122)。具体的には、まず、音声データ管理テーブル85により、会話区間に含まれる各発話区間の音声データを抽出する。各発話区間の音声データを抽出したら、音声認識部154により、当該音声データの音声認識を行う。その後、音声認識部154の音声認識結果として得られたテキスト情報を、テキスト情報記憶部88に記憶する。テキスト情報を抽出・記憶したら、商品キーワード用テーブル89aから、テキスト情報に含まれる1以上の商品種別キーワード(音声キーワード)を抽出する(音声キーワード抽出部)。その後、抽出した1以上の商品種別キーワード(関連キーワード)に基づいて、商品キーワードを抽出する。
As shown in FIG. 25, when the conversation section is specified (S121: Yes), the management server 15 (control unit 53) performs loop processing (S122 to S137) with the specified conversation section as the target conversation section. Do. The conversation section targeted in the previous loop process is hereinafter referred to as the previous conversation section. In the loop processing, first, product keywords of each utterance section included in the target conversation section are extracted by the same method as in FIG. 20 (S91 to S98) (S122). Specifically, first, the voice data of each utterance section included in the conversation section is extracted by the voice data management table 85. When the voice data of each utterance section is extracted, the
次に、図20(S99〜S102)と同様の方法で、当該会話区間に含まれる各発話区間において、非商品キーワードの組を抽出する(S123)(単位キーワード抽出部)。具体的には、非商品キーワード用テーブル89bにより、上記テキスト情報に含まれる1以上の非商品キーワードを抽出する。その後、抽出した非商品キーワードから、第1キーワードと第2キーワードとを決定することで、非商品キーワードの組を抽出する。 Next, in the same method as in FIG. 20 (S99 to S102), a set of non-product keywords is extracted in each utterance section included in the conversation section (S123) (unit keyword extraction unit). Specifically, one or more non-product keywords included in the text information are extracted from the non-product keyword table 89b. After that, by determining the first keyword and the second keyword from the extracted non-product keywords, a set of non-product keywords is extracted.
これらによって、会話区間全体として、いずれかのキーワード(商品キーワードもしくは非商品キーワードの組)が抽出された場合(S124:Yes)には、会話区間全体における、商品キーワードと、非商品キーワードの組と、の抽出数を比較する(S125)。非商品キーワードの組の抽出数が多い場合(S126:B)には、抽出した1以上の非商品キーワードの組のうち、最も抽出数の多い非商品キーワードの組を話題キーワードに決定する(S127)。一方、商品キーワードの抽出数が多い場合(S126:A)には、抽出した1以上の商品キーワードの各マッチング度を算出する(S128)。抽出した1以上の商品キーワードのうち、マッチング度が所定の閾値を超える商品キーワードがある場合(S129:Yes)には、当該商品キーワードを話題キーワードに決定する(S130)。 As a result, when any keyword (a combination of product keyword or non-product keyword) is extracted as the entire conversation section (S124: Yes), the combination of the product keyword and the non-product keyword in the entire conversation section The extracted numbers are compared (S125). When the number of extracted non-product keyword sets is large (S126: B), the set of non-product keywords with the largest number of extracted non-product keyword sets is determined as the topic keyword (S127). ). On the other hand, when the number of product keywords extracted is large (S126: A), each matching degree of one or more extracted product keywords is calculated (S128). If there is a product keyword whose matching degree exceeds a predetermined threshold among the extracted one or more product keywords (S129: Yes), the product keyword is determined as a topic keyword (S130).
いずれのキーワード(商品キーワードもしくは非商品キーワードの組)も抽出されなかった場合(S124:No)や、マッチング度が所定の閾値を越える商品キーワードがないと判定された場合(S129:No)には、前回の会話区間における話題キーワードを、当該会話区間の話題キーワードに決定する(S131)。 When no keywords (a combination of product keywords or non-product keywords) are extracted (S124: No), or when it is determined that there is no product keyword with a matching degree exceeding a predetermined threshold (S129: No) The topic keyword in the previous conversation section is determined as the topic keyword in the conversation section (S131).
対象の会話区間の話題キーワードを決定したら、対象の会話区間の話題キーワードと、前回の会話区間の話題キーワードとが同一であるか否かを判別する(S132)。話題キーワードが同一である場合(S133:Yes)には、区間データ記憶部93に会話区間(厳密には、会話区間の開始時間および終了時間)を記録して(S134)、本ループ処理を終了する(会話区間の特定待ち状態(S121)に戻る)。一方、話題キーワードが同一でない場合には、話題区間特定部203により、区間データ記憶部93に記憶した1以上の会話区間の集合体を、1話題区間として特定する(S135)。その後、区間データ記憶部93内の全ての会話区間を削除する(S136)と共に、今回対象となった会話区間を区間データ記憶部93に記録して(S137)、ループ処理を終了する(会話区間の特定待ち状態(S121)に戻る)。このように、区間データ記憶部93に記憶した会話区間の集合体を、話題区間として順に特定していく。
When the topic keyword of the target conversation section is determined, it is determined whether or not the topic keyword of the target conversation section is the same as the topic keyword of the previous conversation section (S132). When the topic keywords are the same (S133: Yes), the conversation section (strictly speaking, the start time and end time of the conversation section) is recorded in the section data storage unit 93 (S134), and this loop processing is terminated. (Returns to the conversation waiting state (S121)). On the other hand, if the topic keywords are not the same, the topic
次に、図26のフローチャートを参照し、話題区間満足度通知処理について説明する。この話題区間満足度通知処理は、話題区間を特定する都度、すなわち話題区間の終了ごとに行われるものである。図26に示すように、まず、管理サーバー15(制御部53)は、顧客満足度保存テーブル92により、話題区間に含まれる各会話区間の顧客満足度を抽出する(S141)。次に、抽出した各会話区間の顧客満足度に基づいて、話題区間の顧客満足度を算出する(S142)(区間満足度算出部)。具体的には、抽出した各会話区間の顧客満足度における平均値を、話題区間の顧客満足度として算出する。 Next, the topic section satisfaction degree notification process will be described with reference to the flowchart of FIG. This topic section satisfaction degree notification process is performed every time a topic section is specified, that is, every time a topic section ends. As shown in FIG. 26, first, the management server 15 (the control unit 53) extracts the customer satisfaction of each conversation section included in the topic section using the customer satisfaction storage table 92 (S141). Next, based on the extracted customer satisfaction of each conversation section, the customer satisfaction of the topic section is calculated (S142) (section satisfaction calculation unit). Specifically, the average value of the customer satisfaction levels of each extracted conversation section is calculated as the customer satisfaction level of the topic section.
話題区間の顧客満足度を算出したら、算出した当該顧客満足度に基づく満足度通知用のテキストデータを生成する(S143)。具体的には、満足度通知用のテキストデータとして、話題区間の顧客満足度を通知するメッセージ、例えば、顧客満足度が「40」である場合、「話題区間の顧客満足度『40』」というメッセージのテキストデータを生成する。テキストデータを生成したら、音声データ生成部164により、当該テキストデータに基づいて、そのメッセージを発声する満足度通知用の音声データを生成する(S144)。満足度通知用の音声データを生成したら、音声データ通信部105により、当該音声データを店員用端末5に送信する(S145)。
When the customer satisfaction level of the topic section is calculated, text data for satisfaction notification based on the calculated customer satisfaction level is generated (S143). Specifically, as text data for notifying the satisfaction level, a message for notifying the customer satisfaction level of the topic section, for example, when the customer satisfaction level is “40”, “customer satisfaction level of the topic section“ 40 ””. Generate text data for the message. After the text data is generated, the voice
店員用端末5を介して、満足度通知用の音声データを受信した音声指示用イヤホン3は、満足度通知用の音声データを出力して(S146)、当該話題区間の顧客満足度を店員に通知する。これにより本処理を終了する。
The
以上の各実施形態によれば、店員と顧客との会話における音声データに基づいて、顧客満足度を算出し、算出した顧客満足度を店員に通知することにより、店員に顧客満足度を認識させることができる。ゆえに、店員の接客能力を向上させることができる。 According to each embodiment described above, the customer satisfaction is calculated by calculating the customer satisfaction based on the voice data in the conversation between the store clerk and the customer and notifying the store clerk of the calculated customer satisfaction. be able to. Therefore, the customer service ability of the store clerk can be improved.
また、顧客満足度を示す音声を出力することで、顧客満足度を簡単な構成で且つ容易に通知することができる。 Further, by outputting a voice indicating customer satisfaction, it is possible to easily notify customer satisfaction with a simple configuration.
さらに、音声データ取得部をウェアラブル装置である音声取得用マイク2で構成することにより、店員の音声を効率よく取得できる。また、満足度通知部をウェアラブル装置である音声指示用イヤホン3で構成することで、店員のみに顧客満足度を通知できるため、顧客に不快な思いをさせることがない。ここにいう「ウェアラブル装置」とは、店員の人体や衣服に装着可能な装置の意である。
Furthermore, by configuring the voice data acquisition unit with the
またさらに、所定の閾値に達した発話区間を特定し、特定した発話区間の音声データに含まれる音声キーワード(商品種別キーワード)を抽出すると共に、それに関連する関連キーワード(商品キーワード)を抽出して店員に通知することにより、どんなキーワードが、顧客にとって好評であるかを店員に容易に認識させることができる。また、音声キーワードをそのまま通知せず、それに関連する関連キーワードを通知するため、音声キーワードを関連キーワードに統合して、通知することができる。すなわち、店員からすれば、音声キーワードを分析して、関連キーワードに統合する思考が省けるため、接客効率を向上することができる。なお、商品の略称をキーワードテーブル89に記憶し、商品の略称を、商品キーワードに統合して通知する構成であっても良い。 Furthermore, the utterance section that reaches the predetermined threshold is specified, and the voice keyword (product type keyword) included in the voice data of the specified utterance section is extracted, and the related keyword (product keyword) related thereto is extracted. By notifying the store clerk, the store clerk can easily recognize what keywords are popular with customers. Further, since the voice keyword is not notified as it is, and the related keyword related thereto is notified, the voice keyword can be integrated into the related keyword and notified. That is, since the store clerk can omit the thought of analyzing the voice keyword and integrating it into the related keyword, the customer service efficiency can be improved. The abbreviation of the product may be stored in the keyword table 89, and the abbreviation of the product may be integrated into the product keyword and notified.
また、上記第1実施形態の構成によれば、話し掛け区間が途切れない会話区間の終了ごとに、会話区間単位の顧客満足度を通知するため、会話が途切れた後に、顧客満足度が通知される。そのため、顧客との会話が、顧客満足度の通知によって阻害されることがない。また、話し掛け区間が途切れない区間を1単位として、顧客満足度を算出するため、店員が、どの区間の顧客満足度が通知されたかを認識しやすい。 In addition, according to the configuration of the first embodiment, the customer satisfaction level is notified after the conversation is interrupted because the customer satisfaction level in units of the conversation interval is notified at the end of the conversation interval where the conversation interval is not interrupted. . Therefore, the conversation with the customer is not hindered by the notification of customer satisfaction. In addition, since the customer satisfaction is calculated with a section where the talking section is not interrupted as one unit, the store clerk can easily recognize which section of the customer satisfaction is notified.
また、上記第2実施形態の構成によれば、話題区間の終了ごとに、話題区間単位の顧客満足度を通知することにより、どの話題が顧客に好評・不評であったかを容易に認識することができる。 In addition, according to the configuration of the second embodiment, it is possible to easily recognize which topic was popular or unpopular with the customer by notifying the customer satisfaction level in units of topic section at the end of the topic section. it can.
なお、上記各実施形態においては、会話区間終了ごとや話題区間終了ごとに当該区間の顧客満足度を算出して通知する構成であったが、顧客発話区間終了ごと、もしくは顧客話し掛け区間終了ごとに、当該区間の顧客満足度を算出して通知する構成であっても良いし、接客区間終了ごとに、当該区間の顧客満足度を算出し、通知する構成であっても良い。さらに、接客区間の終了ごとに、話題区間ごとの、もしくは会話区間ごとの顧客満足度を通知する構成や、話題区間の終了ごとに、会話区間ごとの顧客満足度を通知する構成であっても良い。 In each of the above embodiments, the customer satisfaction level of the section is calculated and notified at the end of the conversation section or at the end of the topic section. However, at each end of the customer utterance section or at the end of the customer talk section The customer satisfaction degree of the section may be calculated and notified, or the customer satisfaction degree of the section may be calculated and notified at the end of the customer service section. Furthermore, at the end of the customer service section, a configuration for notifying customer satisfaction for each topic section or for each conversation section, or for a configuration for notifying customer satisfaction for each conversation section for each end of the topic section good.
なお、上記各実施形態においては、関連キーワードとして、商品キーワードを記憶する構成であったが、関連キーワードとして、商品種別キーワード(商品種別)を記憶し、音声キーワードとして、商品キーワードを記憶する構成であっても良い。かかる場合、商品キーワードを音声キーワードとして取得した際、それが属する商品種別キーワードに統合して通知することができる。例えば、「ストレッチスリムフィットシャツ」や「ファインオックスフォードシャツ」といった商品キーワードを取得した際、それが属する商品種別の商品種別キーワードである「シャツ」を通知する。またさらに、関連キーワードとして、キャッチコピーを記憶し、音声キーワードとして、類視表現の複数のキャッチコピーを記憶する構成であっても良い。かかる場合、類似表現のキャッチコピーを取得した際、それら1のキャッチコピーに統合して通知することができる。キャッチコピーとは、接客する際の宣伝文句であり、例えば、「似合う」「お似合い」「似合います」といった類似表現のキャッチコピーを取得した際、「似合う」を通知する。 In each of the above embodiments, the product keyword is stored as the related keyword. However, the product type keyword (product type) is stored as the related keyword, and the product keyword is stored as the voice keyword. There may be. In such a case, when a product keyword is acquired as an audio keyword, it can be notified by being integrated with the product type keyword to which it belongs. For example, when a product keyword such as “stretch slim fit shirt” or “fine oxford shirt” is acquired, a “shirt” that is a product type keyword of the product type to which the product keyword belongs is notified. Furthermore, a configuration may be used in which catch phrases are stored as related keywords and a plurality of catch phrases of analogy expressions are stored as voice keywords. In such a case, when a catch phrase of a similar expression is acquired, it can be notified by being integrated with the catch phrase of the one. A catch phrase is an advertising phrase for customer service. For example, when a catch phrase having a similar expression such as “satisfying”, “satisfying”, “satisfying” is acquired, “satisfying” is notified.
また、上記各実施形態においては、管理サーバー15で顧客満足度を通知するメッセージの音声データを生成し、音声指示用イヤホン3によって、これを出力することで、店員に顧客満足度を通知する構成であったが、予め複数の音声パターンを記憶しておき、顧客満足度に応じて、複数の音声パターンの中から1の音声パターンを選択的に出力して、顧客満足度を通知する構成であっても良い。例えば、顧客満足度レベルとして、顧客満足度を段階的に区分し、顧客満足度レベルごとのビープ音パターンを記憶する音声パターンテーブル(図27参照)を有し、算出した顧客満足度に応じたビープ音パターンを出力して、顧客満足度を通知する。なお、図示省略したが、ビープ音パターンとして、顧客レベル1に対し、「ピ」というパターンを、顧客レベル5に対し、「ピ・ピ・ピ・ピ・ピ」というビープ音パターンを対応付けて記憶する。
Further, in each of the above embodiments, the
さらに、上記各実施形態においては、音声指示用イヤホン3による音声出力によって、顧客満足度を店員に通知する構成であったが、顧客満足度を示す満足度通知用のテキストデータ(文字列)を表示して、顧客満足度を店員に通知する構成であっても良い。例えば、店員が装着するヘッドマウントディスプレイによって、テキストデータを表示するものであっても良いし、電子ペーパーを利用したブレスレッド状の表示機器によって、テキストデータを表示する構成であっても良い。また、飲食業のような業態であれば、注文用のハンディターミナルの表示画面に、当該テキストデータを表示する構成であっても良いし、時計・宝石店のようなカウンター越しに接客を行う業態であれば、カウンターの下に小型のディスプレイを設置して、当該テキストデータを表示する構成であっても良い。
Further, in each of the above-described embodiments, the customer satisfaction is notified to the store clerk by voice output from the
また、さらに、顧客満足度に応じた振動によって、顧客満足度を通知する構成であっても良い。例えば、店員用端末5に搭載するバイブレーション機能や別体のバイブレーターにより、その顧客満足度に応じた振動によって、顧客満足度を通知する。
Furthermore, the structure which notifies customer satisfaction by the vibration according to customer satisfaction may be sufficient. For example, the customer satisfaction is notified by vibration according to the customer satisfaction by a vibration function or a separate vibrator mounted on the
なお、上記各実施形態においては、発話区間の顧客満足度の平均値を、会話区間の顧客満足度としたが、顧客満足度の統計量であればこれに限るものではなく、例えば、発話区間の顧客満足度の最大値、中央値、最小値、標準偏差等を、会話区間の顧客満足度としても良い。話題区間の顧客満足度を算出する場合においても同様である。 In each of the above embodiments, the average value of the customer satisfaction in the utterance section is the customer satisfaction in the conversation section. However, the average value of the customer satisfaction is not limited to this, for example, the utterance section The maximum value, median value, minimum value, standard deviation, etc. of customer satisfaction may be used as the customer satisfaction level of the conversation section. The same applies to the case of calculating customer satisfaction in the topic section.
3:音声指示用イヤホン、 15:管理サーバー、 53:制御部、 102:音声取得部、 103:音声出力部、 154:音声認識部、 156:顧客満足度算出部、 203:話題区間特定部、 SY:接客支援システム 3: voice instruction earphone, 15: management server, 53: control unit, 102: voice acquisition unit, 103: voice output unit, 154: voice recognition unit, 156: customer satisfaction calculation unit, 203: topic section identification unit, SY: Customer service support system
Claims (12)
取得した前記音声データから前記顧客の音声データを抽出する音声データ抽出部と、
抽出した前記顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出部と、
前記顧客満足度算出部により算出された顧客満足度を、前記店員に通知する満足度通知部と、を備えたことを特徴とする接客支援装置。 An audio data acquisition unit for acquiring audio data in a conversation between a store clerk and a customer;
An audio data extraction unit for extracting the customer's audio data from the acquired audio data;
A customer satisfaction calculation unit for calculating customer satisfaction based on the extracted voice data of the customer;
A customer service support apparatus, comprising: a satisfaction notifying unit that notifies the store clerk of the customer satisfaction calculated by the customer satisfaction calculating unit.
連続する音声の区間を1発話区間としたとき、当該発話区間ごとに前記顧客満足度を算出する個別満足度算出部と、
所定時間以上途切れないまま繰り返される前記店員または前記顧客の前記発話区間の集合体を1話し掛け区間、前記店員と前記顧客の前記話し掛け区間が所定時間以上途切れないまま交互に繰り返される前記話し掛け区間の集合体を1会話区間としたとき、前記会話区間ごとの前記顧客満足度の統計量を、前記会話区間単位の顧客満足度として算出する区間満足度算出部と、を有し、
前記満足度通知部は、前記会話区間の終了ごとに、前記会話区間単位の前記顧客満足度を通知することを特徴とする請求項1ないし6のいずれかに記載の接客支援装置。 The customer satisfaction calculation unit
When a continuous speech section is defined as one utterance section, an individual satisfaction calculation unit that calculates the customer satisfaction for each utterance section;
A set of the utterance sections of the store clerk or the customer that is repeated without interruption for a predetermined time or more, and a set of the conversation sections that the clerk of the store clerk and the customer repeats alternately without interruption for a predetermined time or more. When the body is one conversation section, a section satisfaction degree calculation unit that calculates the customer satisfaction statistic for each conversation section as a customer satisfaction degree for each conversation section, and
The customer service support apparatus according to claim 1, wherein the satisfaction level notification unit notifies the customer satisfaction level in units of the conversation section at each end of the conversation section.
前記音声データに含まれる、連続する音声の区間である会話区間のうち、前記顧客満足度が、所定の閾値に達した会話区間を特定する区間特定部と、
特定した前記会話区間の音声データを音声認識する音声認識部と、
前記音声認識部の認識結果に基づいて、前記会話区間の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、
前記関連キーワード記憶部から、抽出した前記音声キーワードに関連する関連キーワードを抽出する関連キーワード抽出部と、
抽出した前記関連キーワードを前記店員に通知する関連キーワード通知部と、を更に備えたことを特徴とする請求項7に記載の接客支援装置。 A related keyword storage unit for storing related keywords related to a predetermined voice keyword;
Among conversation sections that are continuous voice sections included in the voice data, a section identifying unit that identifies a conversation section in which the customer satisfaction has reached a predetermined threshold;
A voice recognition unit that recognizes voice data of the identified conversation section;
A speech keyword extraction unit that extracts speech keywords included in the speech data of the conversation section based on a recognition result of the speech recognition unit;
A related keyword extraction unit that extracts a related keyword related to the extracted voice keyword from the related keyword storage unit;
The service support apparatus according to claim 7, further comprising a related keyword notification unit that notifies the salesclerk of the extracted related keyword.
連続する音声の区間を1発話区間としたとき、当該発話区間単位で、前記音声データを音声認識する音声認識部と、
前記音声認識部の認識結果に基づいて、前記店員および前記顧客の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、
前記話題キーワード記憶部を参照して、前記発話区間ごとに抽出した前記音声キーワードに対応する前記話題キーワードを特定し、当該話題キーワードが属する分類が変化しない前記発話区間の集合体を、話題区間として特定する話題区間特定部と、を更に備え、
前記満足度算出部は、
前記発話区間ごとに前記顧客満足度を算出する個別満足度算出部と、
前記話題区間ごとの前記顧客満足度の統計量を、前記話題区間単位の顧客満足度として算出する区間満足度算出部と、を有し、
前記満足度通知部は、前記話題区間の終了ごとに、前記話題区間単位の前記顧客満足度を通知することを特徴とする請求項1ないし6のいずれかに記載の接客支援装置。 A topic keyword storage unit for storing topic keywords classified by topic;
When a continuous speech segment is defined as one speech segment, a speech recognition unit that recognizes the speech data in speech units,
A speech keyword extraction unit that extracts speech keywords included in speech data of the clerk and the customer based on a recognition result of the speech recognition unit;
Referring to the topic keyword storage unit, the topic keyword corresponding to the voice keyword extracted for each utterance section is identified, and a set of the utterance sections in which the classification to which the topic keyword belongs does not change is defined as a topic section. A topic section identifying unit to identify,
The satisfaction calculation unit
An individual satisfaction calculation unit for calculating the customer satisfaction for each utterance section;
A section satisfaction calculation unit that calculates the customer satisfaction statistic for each topic section as the customer satisfaction of the topic section;
The customer service support device according to claim 1, wherein the satisfaction degree notification unit notifies the customer satisfaction degree in units of the topic section every time the topic section ends.
前記接客支援装置は、店員と顧客との会話における音声データを取得する音声データ取得工程と、
取得した前記音声データから前記顧客を抽出する音声データ抽出工程と、
抽出した前記顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出工程と、
前記顧客満足度算出工程により算出された顧客満足度を、前記店員に通知する満足度通知工程と、を実行することを特徴とする接客支援方法。 A customer service support method for a customer service support device for supporting customer service by a store clerk,
The customer support device is a voice data acquisition step of acquiring voice data in a conversation between a store clerk and a customer;
A voice data extraction step of extracting the customer from the acquired voice data;
A customer satisfaction calculation step of calculating customer satisfaction based on the extracted voice data of the customer;
A customer service support method, comprising: performing a customer satisfaction level calculation step of notifying the customer clerk of the customer satisfaction level calculated by the customer satisfaction level calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088388A JP2011221683A (en) | 2010-04-07 | 2010-04-07 | Customer service support device, customer service support method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088388A JP2011221683A (en) | 2010-04-07 | 2010-04-07 | Customer service support device, customer service support method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011221683A true JP2011221683A (en) | 2011-11-04 |
Family
ID=45038618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010088388A Withdrawn JP2011221683A (en) | 2010-04-07 | 2010-04-07 | Customer service support device, customer service support method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011221683A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014140848A2 (en) * | 2013-03-15 | 2014-09-18 | Toshiba Global Commerce Solutions Holdings Corporation | Systems and methods for providing retail process analytics information based on physiological indicator data |
JP2015011712A (en) * | 2013-06-28 | 2015-01-19 | アザパ アールアンドディー アメリカズ インク | Digital information gathering and analyzing method and apparatus |
JP2016103081A (en) * | 2014-11-27 | 2016-06-02 | Kddi株式会社 | Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program |
JP2016206736A (en) * | 2015-04-16 | 2016-12-08 | 日本電気株式会社 | Customer service data processing device and customer service data processing method |
KR101815488B1 (en) * | 2016-11-30 | 2018-01-05 | 주식회사 브이오엠 | Sales promotion system using voice information and method using the same |
JP2019191795A (en) * | 2018-04-23 | 2019-10-31 | 和夫 金子 | Customer service support system |
JP2020027441A (en) * | 2018-08-10 | 2020-02-20 | Regain Group株式会社 | Business proposal system, business proposal program, and business proposal method |
JP2020160336A (en) * | 2019-03-27 | 2020-10-01 | 株式会社博報堂Dyホールディングス | Evaluation system, evaluation method, and computer program |
JP2021039537A (en) * | 2019-09-03 | 2021-03-11 | Kddi株式会社 | Response evaluation device, response evaluation method and computer program |
CN113240453A (en) * | 2021-04-21 | 2021-08-10 | 福建神笔马良智能科技股份有限公司 | Commodity sales dynamic pushing management system based on block chain |
JP2022081050A (en) * | 2020-11-19 | 2022-05-31 | トヨタ自動車株式会社 | Utterance evaluation system, utterance evaluation method, and program |
JP7501065B2 (en) | 2020-04-13 | 2024-06-18 | 大日本印刷株式会社 | Behavior management device, behavior management program, behavior management system, and behavior analysis device |
-
2010
- 2010-04-07 JP JP2010088388A patent/JP2011221683A/en not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014140848A2 (en) * | 2013-03-15 | 2014-09-18 | Toshiba Global Commerce Solutions Holdings Corporation | Systems and methods for providing retail process analytics information based on physiological indicator data |
WO2014140848A3 (en) * | 2013-03-15 | 2015-01-22 | Toshiba Global Commerce Solutions Holdings Corporation | Systems and methods for providing retail process analytics information based on physiological indicator data |
JP2015011712A (en) * | 2013-06-28 | 2015-01-19 | アザパ アールアンドディー アメリカズ インク | Digital information gathering and analyzing method and apparatus |
JP2016103081A (en) * | 2014-11-27 | 2016-06-02 | Kddi株式会社 | Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program |
JP2016206736A (en) * | 2015-04-16 | 2016-12-08 | 日本電気株式会社 | Customer service data processing device and customer service data processing method |
KR101815488B1 (en) * | 2016-11-30 | 2018-01-05 | 주식회사 브이오엠 | Sales promotion system using voice information and method using the same |
JP2019191795A (en) * | 2018-04-23 | 2019-10-31 | 和夫 金子 | Customer service support system |
JP2020027441A (en) * | 2018-08-10 | 2020-02-20 | Regain Group株式会社 | Business proposal system, business proposal program, and business proposal method |
JP2020160336A (en) * | 2019-03-27 | 2020-10-01 | 株式会社博報堂Dyホールディングス | Evaluation system, evaluation method, and computer program |
JP2021039537A (en) * | 2019-09-03 | 2021-03-11 | Kddi株式会社 | Response evaluation device, response evaluation method and computer program |
JP7195236B2 (en) | 2019-09-03 | 2022-12-23 | Kddi株式会社 | Response evaluation device, response evaluation method, and computer program |
JP7501065B2 (en) | 2020-04-13 | 2024-06-18 | 大日本印刷株式会社 | Behavior management device, behavior management program, behavior management system, and behavior analysis device |
JP2022081050A (en) * | 2020-11-19 | 2022-05-31 | トヨタ自動車株式会社 | Utterance evaluation system, utterance evaluation method, and program |
JP7354992B2 (en) | 2020-11-19 | 2023-10-03 | トヨタ自動車株式会社 | Comment evaluation system, comment evaluation method, and program |
CN113240453A (en) * | 2021-04-21 | 2021-08-10 | 福建神笔马良智能科技股份有限公司 | Commodity sales dynamic pushing management system based on block chain |
CN113240453B (en) * | 2021-04-21 | 2024-05-28 | 福建神笔马良智能科技股份有限公司 | Dynamic commodity sales promotion management system based on block chain |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011221683A (en) | Customer service support device, customer service support method, and program | |
JP2011221891A (en) | Keyword recording device, customer service support device, keyword recording method and program | |
JP5533219B2 (en) | Hospitality data recording device | |
JP5477153B2 (en) | Service data recording apparatus, service data recording method and program | |
JP2011210133A (en) | Satisfaction degree calculation method, satisfaction degree calculation device and program | |
JP6596899B2 (en) | Service data processing apparatus and service data processing method | |
US20110282662A1 (en) | Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium | |
CN106782615B (en) | Voice data emotion detection method, device and system | |
US9418344B2 (en) | In-store communication, service and data collection system | |
US20190147228A1 (en) | System and method for human emotion and identity detection | |
EP2343676A2 (en) | Degree of fraud calculating device, control method for a degree of fraud calculating device, and store surveillance system | |
JP2016021044A (en) | Customer service evaluation device, customer service evaluation system, and customer service evaluation method | |
JP2011210100A (en) | Customer service data recording device, customer service data recording method and program | |
US20140019199A1 (en) | Automatically evaluating customer satisfaction | |
JP2011237966A (en) | Customer service support device, customer service support method and program | |
WO2020090117A1 (en) | Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning | |
KR20080057030A (en) | Apparatus and method for image communication inserting emoticon | |
CN114168644A (en) | Interaction method, equipment and system for exhibition scene | |
JP7513161B2 (en) | Information processing system, customer identification device, information processing method and program | |
JP7092035B2 (en) | Information processing equipment and information processing method | |
JP2011221627A (en) | Customer service support device, customer service support method and program | |
JP5604410B2 (en) | Information processing apparatus and program | |
JP2011113442A (en) | Apparatus for determining accounting processing, method for controlling the apparatus, and program | |
US20230368792A1 (en) | Information processing system, information processing method, and storage medium | |
JP6647485B1 (en) | Commodity payment system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130702 |