JP2011221683A - Customer service support device, customer service support method, and program - Google Patents

Customer service support device, customer service support method, and program Download PDF

Info

Publication number
JP2011221683A
JP2011221683A JP2010088388A JP2010088388A JP2011221683A JP 2011221683 A JP2011221683 A JP 2011221683A JP 2010088388 A JP2010088388 A JP 2010088388A JP 2010088388 A JP2010088388 A JP 2010088388A JP 2011221683 A JP2011221683 A JP 2011221683A
Authority
JP
Japan
Prior art keywords
customer
section
satisfaction
keyword
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010088388A
Other languages
Japanese (ja)
Inventor
Tetsuo Ozawa
哲雄 小沢
Junichi Yoshizawa
潤一 吉澤
Masashi Aonuma
正志 青沼
孝 ▲浜▼
Takashi Hama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010088388A priority Critical patent/JP2011221683A/en
Publication of JP2011221683A publication Critical patent/JP2011221683A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a salesclerk to recognize customer satisfaction level in real time and improve customer service skills of the salesclerk.SOLUTION: A customer service support device comprises: a voice acquisition part 102 which acquires voice data in conversation between a salesclerk and a customer; a voice data extracting part which extracts the voice data of the customer from the acquired voice data; a customer satisfaction level calculation part 156 which calculates the customer satisfaction level based on the extracted voice data of the customer; and a voice output part 103 which notifies of the salesclerk the customer satisfaction level calculated by the calculation part 156.

Description

本発明は、店員による接客を支援する接客支援装置、接客支援方法およびプログラムに関するものである。   The present invention relates to a customer service support device, a customer service support method, and a program for supporting customer service by a store clerk.

従来、小売店などの店舗では、販売促進を目的として、顧客データや売り上げデータを収集し、マーケティングデータとして利用する試みが行われている。例えば、特許文献1では、POSデータの分析から消費者の併売傾向を数量的に的確に把握し、販売促進に反映させることができるマーケティングデータ収集分析技術が提案されている。   Conventionally, in stores such as retail stores, attempts have been made to collect customer data and sales data and use them as marketing data for the purpose of sales promotion. For example, Patent Document 1 proposes a marketing data collection / analysis technique that can accurately grasp a consumer's co-sale tendency from the analysis of POS data and reflect it in sales promotion.

特開2007−94592号公報JP 2007-94592 A

ところで、マーケティングの分野では、生産性や効率を多少犠牲にしてでも顧客満足度を高めた方が消費者のリピーター化などを通じて結果的には良いと言われている。すなわち、店員による接客では、顧客満足度を認識することが求められている。販売能力の高い店員は、顧客との会話から、当該顧客の顧客満足度を推測し、その推測に基づいて、会話を継続したり会話内容を変更したりする。これによって、顧客の購買意欲を向上させることができる。また、認識した顧客満足度に基づいて、顧客満足度が向上する接客方法を学習し、これが接客能力の向上の一因となっている。
しかしながら、このような顧客満足度の認識方法では、店員の勘や分析能力に頼らざるを得ず、店員によっては、顧客満足度を認識することができないという問題があった。
By the way, in the field of marketing, it is said that it is better to increase customer satisfaction at the expense of productivity and efficiency through consumer repeaters. That is, in customer service by a store clerk, it is required to recognize customer satisfaction. A salesclerk with high sales ability estimates the customer satisfaction level of the customer from the conversation with the customer, and continues the conversation or changes the content of the conversation based on the estimation. Thereby, the customer's willingness to purchase can be improved. Further, based on the recognized customer satisfaction, a customer service method for improving customer satisfaction is learned, which contributes to improvement of customer service ability.
However, such a method for recognizing customer satisfaction has to rely on the clerk's intuition and analysis ability, and depending on the clerk, the customer satisfaction cannot be recognized.

本発明は、店員に、顧客満足度をリアルタイムで認識させることで、店員の接客能力を向上させることができる接客支援装置、接客支援方法およびプログラムに関するものである。   The present invention relates to a customer service support device, a customer service support method, and a program capable of improving the customer service capability of a store clerk by making a store clerk recognize customer satisfaction in real time.

本発明の接客支援装置は、店員と顧客との会話における音声データを取得する音声データ取得部と、取得した音声データから顧客の音声データを抽出する音声データ抽出部と、抽出した顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出部と、顧客満足度算出部により算出された顧客満足度を、店員に通知する満足度通知部と、を備えたことを特徴とする。   The customer service support apparatus of the present invention includes a voice data acquisition unit that acquires voice data in a conversation between a store clerk and a customer, a voice data extraction unit that extracts customer voice data from the acquired voice data, and the extracted customer voice data A customer satisfaction calculation unit for calculating customer satisfaction, and a satisfaction notification unit for notifying the store clerk of the customer satisfaction calculated by the customer satisfaction calculation unit.

本発明の接客支援方法は、店員による接客を支援する接客支援装置の接客支援方法であって、接客支援装置は、店員と顧客との会話における音声データを取得する音声データ取得工程と、取得した音声データから顧客を抽出する音声データ抽出工程と、抽出した顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出工程と、顧客満足度算出工程により算出された顧客満足度を、店員に通知する満足度通知工程と、を実行することを特徴とする。   The customer service support method of the present invention is a customer service support method for a customer service support device that supports customer service by a store clerk, and the customer service support device acquires a voice data acquisition step for acquiring voice data in a conversation between a store clerk and a customer. The voice data extraction process for extracting customers from the voice data, the customer satisfaction calculation process for calculating customer satisfaction based on the extracted customer voice data, and the customer satisfaction calculated by the customer satisfaction calculation process, And a satisfaction notifying step for notifying the store clerk.

これらの構成によれば、店員と顧客との会話における音声データに基づいて、顧客満足度を算出し、算出した顧客満足度を店員に通知することにより、店員に顧客満足度を認識させることができる。ゆえに、店員の接客能力を向上させることができる。   According to these configurations, it is possible to make the clerk recognize the customer satisfaction by calculating the customer satisfaction based on the voice data in the conversation between the clerk and the customer, and notifying the calculated customer satisfaction to the clerk. it can. Therefore, the customer service ability of the store clerk can be improved.

上記の接客支援装置において、満足度通知部は、顧客満足度を示す音声を出力することで、顧客満足度を通知することが好ましい。   In the customer service support apparatus described above, it is preferable that the satisfaction notifying unit notifies the customer satisfaction by outputting a voice indicating the customer satisfaction.

この場合、満足度通知部は、顧客満足度算出部により算出された顧客満足度に応じて、複数の音声パターンの中から1の音声パターンを選択的に出力することで、顧客満足度を通知することが好ましい。   In this case, the satisfaction notifying unit notifies the customer satisfaction by selectively outputting one voice pattern from a plurality of voice patterns according to the customer satisfaction calculated by the customer satisfaction calculating unit. It is preferable to do.

この場合、満足度通知部は、顧客満足度を示す文字列を表示することで、顧客満足度を通知することが好ましい。   In this case, it is preferable that the satisfaction notifying unit notifies the customer satisfaction by displaying a character string indicating the customer satisfaction.

この場合、満足度通知部は、顧客満足度に応じた振動によって、顧客満足度を通知することが好ましい。   In this case, it is preferable that the satisfaction notifying unit notifies the customer satisfaction by vibration according to the customer satisfaction.

これらの構成によれば、顧客満足度を簡単な構成で且つ容易に通知することができる。   According to these configurations, customer satisfaction can be easily notified with a simple configuration.

この場合、音声データ取得部および満足度通知部は、店員に装着したウェアラブル装置で構成されていることが好ましい。   In this case, it is preferable that the voice data acquisition unit and the satisfaction notification unit are configured by a wearable device attached to a store clerk.

この構成によれば、音声データ取得部をウェアラブル装置で構成することにより、店員の音声を効率よく取得できる。また、満足度通知部をウェアラブル装置で構成することで、イヤホン等を介し店員のみに顧客満足度を通知できるため、顧客に不快な思いをさせることがない。なお、ここにいう「ウェアラブル装置」とは、店員の人体や衣服に装着可能な装置の意である。   According to this configuration, the voice of the clerk can be efficiently acquired by configuring the voice data acquisition unit with the wearable device. Further, by configuring the satisfaction notification unit with a wearable device, the customer satisfaction can be notified only to the store clerk via the earphone or the like, so that the customer does not feel uncomfortable. Here, the “wearable device” means a device that can be worn on a store clerk's body or clothes.

この場合、顧客満足度算出部は、連続する音声の区間を1発話区間としたとき、当該発話区間ごとに顧客満足度を算出する個別満足度算出部と、所定時間以上途切れないまま繰り返される店員または顧客の発話区間の集合体を1話し掛け区間、店員と顧客の話し掛け区間が所定時間以上途切れないまま交互に繰り返される話し掛け区間の集合体を1会話区間としたとき、会話区間ごとの顧客満足度の統計量を、会話区間単位の顧客満足度として算出する区間満足度算出部と、を有し、満足度通知部は、会話区間の終了ごとに、会話区間単位の顧客満足度を通知することが好ましい。   In this case, the customer satisfaction calculation unit, when a continuous speech section is set as one utterance section, an individual satisfaction calculation section that calculates customer satisfaction for each utterance section, and a clerk who is repeated without interruption for a predetermined time or more Alternatively, customer satisfaction for each conversation section, where a group of customer utterance sections is one conversation section, and a group of talk sections that are repeated alternately without interruption between the store clerk and the customer is a conversation section. And a section satisfaction calculation unit that calculates customer statistic of each as a conversation section, and the satisfaction notification section notifies the customer satisfaction of each conversation section at the end of the conversation section. Is preferred.

この構成によれば、話し掛け区間が途切れない会話区間の終了ごとに、会話区間単位の顧客満足度を通知するため、会話が途切れた後に、顧客満足度が通知される。そのため、顧客との会話が、顧客満足度の通知によって阻害されることがない。また、話し掛け区間が途切れない区間を1単位として、顧客満足度を算出するため、店員が、どの区間の顧客満足度が通知されたかを認識しやすい。   According to this configuration, at the end of the conversation section where the talking section is not interrupted, the customer satisfaction is notified in units of the conversation section, so that the customer satisfaction is notified after the conversation is interrupted. Therefore, the conversation with the customer is not hindered by the notification of customer satisfaction. In addition, since the customer satisfaction is calculated with a section where the talking section is not interrupted as one unit, the store clerk can easily recognize which section of the customer satisfaction is notified.

この場合、所定の音声キーワードに関連する関連キーワードを記憶する関連キーワード記憶部と、音声データに含まれる、連続する音声の区間である発話区間のうち、顧客満足度が、所定の閾値に達した発話区間を特定する区間特定部と、特定した発話区間の音声データを音声認識する音声認識部と、音声認識部の認識結果に基づいて、発話区間の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、関連キーワード記憶部から、抽出した音声キーワードに関連する関連キーワードを抽出する関連キーワード抽出部と、抽出した関連キーワードを店員に通知する関連キーワード通知部と、を更に備えたことが好ましい。   In this case, the customer satisfaction level has reached a predetermined threshold among the related keyword storage unit that stores the related keyword related to the predetermined voice keyword and the utterance section that is a continuous voice section included in the voice data. A voice identification unit for identifying a voice segment, a voice recognition unit for voice recognition of voice data of the voiced speech segment, and a voice for extracting a voice keyword included in the voice data of the voice segment based on the recognition result of the voice recognition unit A keyword extraction unit; a related keyword extraction unit that extracts a related keyword related to the extracted voice keyword from the related keyword storage unit; and a related keyword notification unit that notifies the clerk of the extracted related keyword. preferable.

この場合、関連キーワード記憶部は、関連キーワードとして、音声キーワードにより推定される商品の商品名称、当該商品の商品種別およびキャッチコピーのいずれか少なくとも1つを記憶していることが好ましい。   In this case, the related keyword storage unit preferably stores at least one of the product name of the product estimated by the voice keyword, the product type of the product, and a catch phrase as the related keyword.

これらの構成によれば、どんなキーワードが、顧客にとって好評であるかを容易に認識することができる。また、音声キーワードをそのまま通知せず、それに関連する関連キーワードを通知するため、例えば、同じものを示すキーワードを、関連キーワードに統合して、通知することができる。すなわち、店員からすれば、キーワードを分析して、関連キーワードに統合する思考が省けるため、接客効率を向上することができる。また、関連キーワードとして、商品名称を記憶することで、例えば、商品の略称や、商品種別を音声キーワードとして取得した際、それらが示す商品名称に統合して通知することができる。さらに、関連キーワードとして、商品種別を記憶することで、商品名称を音声キーワードとして取得した際、それが属する商品種別に統合して通知することができる。またさらに、関連キーワードとして、キャッチコピーを記憶することで、類似表現のキャッチコピーを取得した際、それら1のキャッチコピーに統合して通知することができる。   According to these configurations, it is possible to easily recognize what keywords are popular with customers. Moreover, since the voice keyword is not notified as it is and the related keyword related thereto is notified, for example, the keyword indicating the same thing can be integrated into the related keyword and notified. That is, since the store clerk can omit the thought of analyzing the keywords and integrating them into related keywords, the customer service efficiency can be improved. Further, by storing the product name as the related keyword, for example, when the abbreviation of the product or the product type is acquired as the voice keyword, the product name indicated by them can be integrated and notified. Further, by storing the product type as the related keyword, when the product name is acquired as the voice keyword, it can be integrated and notified to the product type to which the product name belongs. Furthermore, by storing a catch phrase as a related keyword, when a catch phrase of a similar expression is acquired, it can be integrated and notified to the one catch phrase.

この場合、話題ごとに分類された話題キーワードを記憶する話題キーワード記憶部と、連続する音声の区間を1発話区間としたとき、当該発話区間単位で、音声データを音声認識する音声認識部と、音声認識部の認識結果に基づいて、店員および顧客の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、話題キーワード記憶部を参照して、発話区間ごとに抽出した音声キーワードに対応する話題キーワードを特定し、当該話題キーワードが属する分類が変化しない発話区間の集合体を、話題区間として特定する話題区間特定部と、を更に備え、満足度算出部は、発話区間ごとに顧客満足度を算出する個別満足度算出部と、話題区間ごとの顧客満足度の統計量を、話題区間単位の顧客満足度として算出する区間満足度算出部と、を有し、満足度通知部は、話題区間の終了ごとに、話題区間単位の顧客満足度を通知することが好ましい。   In this case, a topic keyword storage unit that stores topic keywords classified for each topic, and a speech recognition unit that recognizes speech data in units of the speech segment when a continuous speech segment is defined as one speech segment; Based on the recognition result of the voice recognition unit, the voice keyword extraction unit that extracts the voice keyword included in the voice data of the clerk and the customer and the topic keyword storage unit are referred to, and the voice keyword extracted for each utterance section is supported. A topic segment identifying unit that identifies a topic keyword and identifies a group of utterance segments to which the classification to which the topic keyword belongs does not change as a topic segment, and the satisfaction degree calculation unit is a customer satisfaction level for each utterance segment Individual satisfaction calculation unit that calculates statistic and section satisfaction calculation that calculates customer satisfaction statistics for each topic section as customer satisfaction for each topic section Includes a part, the satisfaction notifying unit, for each end of the topic section, it is preferable to notify the customer satisfaction topic section units.

この構成によれば、話題区間の終了ごとに、話題区間単位の顧客満足度を通知することにより、どの話題が顧客に好評・不評であったかを容易に認識することができる。   According to this configuration, it is possible to easily recognize which topic was popular or unpopular with the customer by notifying the customer satisfaction level in units of topic sections at the end of the topic section.

本発明のプログラムは、コンピューターに、上記の接客支援方法における各工程を実行させることを特徴とする。   The program of the present invention causes a computer to execute each step in the customer service support method.

この構成によれば、コンピューターに本プログラムを搭載するだけで、上記の接客支援方法における各工程を実行させることができる。   According to this configuration, each process in the customer service support method can be executed simply by installing the program on a computer.

第1実施形態に係る接客支援システムのシステム構成図である。1 is a system configuration diagram of a customer service support system according to a first embodiment. 店員用端末の制御ブロック図である。It is a control block diagram of the terminal for shop assistants. レシートプリンターの制御ブロック図である。It is a control block diagram of a receipt printer. 管理サーバーの制御ブロック図である。It is a control block diagram of a management server. 発話区間、話し掛け区間、会話区間および接客区間の説明図である。It is explanatory drawing of a speech section, a talk section, a conversation section, and a customer service section. 第1実施形態に係る接客支援システムの機能ブロック図である。It is a functional block diagram of the customer service support system concerning a 1st embodiment. 第1実施形態に係る管理サーバー用データベースの説明図である。It is explanatory drawing of the database for management servers which concerns on 1st Embodiment. 音声データ管理テーブル、店員発話区間管理テーブル、顧客発話区間管理テーブルの一例を示す図である。It is a figure which shows an example of an audio | voice data management table, a salesclerk utterance area management table, and a customer utterance area management table. 第1実施形態に係る顧客満足度保存テーブルの一例(a)、および第2実施形態に係る顧客満足度保存テーブルの一例(b)を示す図である。It is a figure which shows an example (a) of the customer satisfaction preservation | save table which concerns on 1st Embodiment, and an example (b) of a customer satisfaction preservation | save table which concerns on 2nd Embodiment. 商品キーワード用テーブルの一例を示す図である。It is a figure which shows an example of the table for goods keywords. 非商品キーワード用テーブルの一例を示す図である。It is a figure which shows an example of the table for non-commodity keywords. 商品満足キーワード管理テーブル、非商品満足キーワード管理テーブルの一例を示す図である。It is a figure which shows an example of a merchandise satisfaction keyword management table and a non-commodity satisfaction keyword management table. 第1実施形態に係る音声データ保存処理を示すフローチャートである。It is a flowchart which shows the audio | voice data preservation | save process which concerns on 1st Embodiment. 第1実施形態に係る接客区間特定処理を示すフローチャートである。It is a flowchart which shows the service area specific process which concerns on 1st Embodiment. 第1実施形態に係る店員話し掛け区間特定処理を示すフローチャートである。It is a flowchart which shows the shop assistant talk area specific process which concerns on 1st Embodiment. 第1実施形態に係る顧客話し掛け区間B特定処理を示すフローチャートである。It is a flowchart which shows the customer talk area B specific process which concerns on 1st Embodiment. 第1実施形態に係る顧客話し掛け区間A特定処理を示すフローチャートである。It is a flowchart which shows the customer talk area A specific process which concerns on 1st Embodiment. 第1実施形態に係る満足度通知処理を示すフローチャートである。It is a flowchart which shows the satisfaction notification process which concerns on 1st Embodiment. 第1実施形態に係るキーワード記録処理を示すフローチャートである。It is a flowchart which shows the keyword recording process which concerns on 1st Embodiment. 第1実施形態に係る発話区間ごとのキーワード処理を示すフローチャートである。It is a flowchart which shows the keyword process for every speech area which concerns on 1st Embodiment. 第1実施形態に係るお勧め商品通知処理を示すフローチャートである。It is a flowchart which shows the recommended goods notification process which concerns on 1st Embodiment. 第1実施形態に係る好印象キーワード通知処理を示すフローチャートである。It is a flowchart which shows the favorable impression keyword notification process which concerns on 1st Embodiment. 第2実施形態に係る接客支援システムの機能ブロック図である。It is a functional block diagram of the customer service support system which concerns on 2nd Embodiment. 第2実施形態に係る管理サーバー用データベースの説明図である。It is explanatory drawing of the database for management servers which concerns on 2nd Embodiment. 第2実施形態に係る話題区間特定処理を示したフローチャートである。It is the flowchart which showed the topic area specific process which concerns on 2nd Embodiment. 第2実施形態に係る話題区間満足度通知処理を示したフローチャートである。It is the flowchart which showed the topic area satisfaction notification process which concerns on 2nd Embodiment. 音声パターンテーブルの一例を示した図である。It is the figure which showed an example of the audio | voice pattern table.

[第1実施形態]
以下、添付の図面を参照し、本発明の接客支援装置、接客支援方法およびプログラムについて説明する。なお、以下に示す各実施形態では、本発明の接客支援装置を、接客支援システムSYに適用した場合について例示する。当該接客支援システムSYは、小売業、飲食業およびサービス業などに関する店舗や会場内において、顧客の感情認識を行い、その結果を顧客満足度の向上や売り上げ向上に生かすべく構築されたものである。そこで、以下の実施形態では、衣料品店の店舗内において、店員に接客されている顧客の感情認識を行う場合を例示する。
[First Embodiment]
Hereinafter, a customer service support device, a customer service support method, and a program according to the present invention will be described with reference to the accompanying drawings. In the following embodiments, the case where the customer service support device of the present invention is applied to the customer service support system SY is illustrated. The customer service support system SY is constructed to recognize customer emotions in stores and venues related to retail, restaurant and service industries, and to utilize the results for improving customer satisfaction and sales. Therefore, in the following embodiment, the case of performing emotion recognition of a customer who is serving a store clerk in a clothing store is illustrated.

図1は、第1実施形態に係る接客支援システムSYのシステム構成図である。同図に示すように、接客支援システムSYは、店員に装着された体導音センサー1、音声取得用マイク2、音声指示用イヤホン3、および店員用端末5と、店舗の入り口および店内各所に配置された店内カメラ11(同図では、1台のみ図示)と、レジカウンター14に設置されたPOS(Point Of Sales)端末12およびレシートプリンター13と、店舗のバックヤードに設置された管理サーバー15および表示端末16と、から成る。   FIG. 1 is a system configuration diagram of a customer service support system SY according to the first embodiment. As shown in the figure, the customer service support system SY is provided at the body entrance sensor 1, the voice acquisition microphone 2, the voice instruction earphone 3, and the store clerk terminal 5 that are attached to the store clerk, and at the store entrance and in the store. An in-store camera 11 (only one is shown in the figure), a POS (Point Of Sales) terminal 12 and a receipt printer 13 installed in the checkout counter 14, and a management server 15 installed in the backyard of the store And a display terminal 16.

体導音センサー1は、店員の頭頚部に装着され、店員の音声が骨や肉を伝わって体表に届く体導音を検出する。本実施形態では、音声取得用マイク2により取得された音声が、店員のものであるか顧客のものであるかを識別するために用いられる。音声取得用マイク2は、店員の制服(胸元近傍)に取り付けられ、店員および顧客の音声を取得する。なお、体導音センサー1および音声取得用マイク2に代えて、店員と顧客に対してそれぞれ指向性を有するマイクを用いても良い。すなわち、店員音声取得用と顧客音声取得用との2つのマイクを使用し、いずれのマイクで取得されたかによって、店員の音声と顧客の音声を識別しても良い。   The body-conducting sound sensor 1 is mounted on the head and neck of the store clerk, and detects the body-conducted sound that the store clerk's voice reaches the body surface through bones and meat. In the present embodiment, the voice acquired by the voice acquisition microphone 2 is used to identify whether it is that of a store clerk or a customer. The voice acquisition microphone 2 is attached to the clerk's uniform (near the chest) and acquires the clerk's and customer's voices. In place of the body-conducting sound sensor 1 and the voice acquisition microphone 2, microphones having directivity for the store clerk and the customer may be used. In other words, the clerk's voice and the customer's voice may be identified by using two microphones, one for obtaining the clerk's voice and the other for obtaining the customer's voice.

音声指示用イヤホン3は、店員の耳に取り付けられ、音声通知用の音声データに基づく音声を出力する。具体的には、音声通知用の音声データとして、顧客満足度を示すメッセージ、並びにお勧め商品や好印象のキーワードを通知するメッセージを通知する。例えば、顧客満足度を示すメッセージとして、「顧客満足度 50」等のメッセージを通知し、お勧め商品や好印象のキーワードを通知するメッセージをとして、「お勧め商品は、ストレッチスリムフィットシャツです。」や「好印象のキーワードは、子供の誕生日会です。」等のメッセージを、音声出力する。   The voice instruction earphone 3 is attached to a store clerk's ear, and outputs voice based on voice data for voice notification. Specifically, as voice data for voice notification, a message indicating customer satisfaction and a message notifying a recommended product or a good impression keyword are notified. For example, as a message indicating customer satisfaction, a message such as “customer satisfaction 50” is notified, and as a message indicating a recommended product or a good impression keyword, “the recommended product is a stretch slim fit shirt. "And" The keyword of good impression is a birthday party for children. "

店員用端末5は、店員の制服(ベルトなど)に取り付けられ、専用ケーブルを介して体導音センサー1および音声取得用マイク2の出力データを取得すると共に、音声指示用イヤホン3に、管理サーバー15からの音声通知用の音声データを出力する。また、レシートプリンター13との無線通信機能を有しており、当該レシートプリンター13を介して、管理サーバー15と情報の授受を行う。   The clerk terminal 5 is attached to the clerk's uniform (belt or the like), acquires output data of the body conduction sensor 1 and the voice acquisition microphone 2 via a dedicated cable, and is connected to the voice instruction earphone 3 to the management server. The voice data for voice notification from 15 is output. In addition, it has a wireless communication function with the receipt printer 13, and exchanges information with the management server 15 via the receipt printer 13.

店内カメラ11は、店内各所の天井などに設けられ、来店した顧客、並びに接客中の店員および顧客を撮像する。なお、店内カメラ11としては、CCDカメラやPTZ(Pan Tilt Zoom)カメラを採用可能である。   The in-store camera 11 is provided on the ceiling of each place in the store and captures images of customers who have come to the store as well as salesclerks and customers who are serving customers. As the in-store camera 11, a CCD camera or a PTZ (Pan Tilt Zoom) camera can be used.

POS端末12は、一般的なレジスターの構成を有しており、POSアプリケーションにしたがって会計処理を行う。また、不図示のバーコードスキャナーまたはキーボードから商品コードを取得し、商品マスタ18を参照して、会計レシートR(図3参照)に印刷するためのレシートデータを生成する。   The POS terminal 12 has a general register configuration, and performs accounting processing according to the POS application. Further, a product code is obtained from a bar code scanner or a keyboard (not shown), and receipt data for printing on the accounting receipt R (see FIG. 3) is generated with reference to the product master 18.

レシートプリンター13は、POS端末12と専用ケーブルを介して接続され、POS端末12から取得したレシート印刷データをレシート用紙に印刷する。また、レシートプリンター13は、店員用端末5との無線通信機能および管理サーバー15との有線通信機能を有している。このように、レシートプリンター13を主幹として各種情報の入出力を行うことで(レシートプリンター13が、取得した各種情報をフィルタリングして必要な情報を出力することで)、POS基幹ネットワーク(POS端末12を主幹としたネットワーク)のトラフィックに影響を与えることがない。また、既存のPOSシステムに本発明を適用する際、POS基幹ネットワーク自体の変更が不要となる。   The receipt printer 13 is connected to the POS terminal 12 via a dedicated cable, and prints receipt print data acquired from the POS terminal 12 on receipt paper. The receipt printer 13 has a wireless communication function with the clerk terminal 5 and a wired communication function with the management server 15. In this way, by inputting / outputting various information with the receipt printer 13 as the main (the receipt printer 13 filters the acquired various information and outputs necessary information), the POS backbone network (POS terminal 12). Network) is not affected. Further, when applying the present invention to an existing POS system, it is not necessary to change the POS backbone network itself.

管理サーバー15は、レシートプリンター13と、イントラネット等のネットワーク19を介して接続されており、当該レシートプリンター13を介して、店員用端末5と各種情報の授受を行う。また、店員用端末5から取得した音声データを初めとする各種データに基づいて、音声認識、感情認識および顧客満足度の算出などを行う。また、算出した顧客満足度などに基づいた音声通知用の音声データを生成する。   The management server 15 is connected to the receipt printer 13 via a network 19 such as an intranet, and exchanges various information with the clerk terminal 5 via the receipt printer 13. Further, based on various data such as voice data acquired from the clerk terminal 5, voice recognition, emotion recognition, and customer satisfaction are calculated. Also, voice data for voice notification based on the calculated customer satisfaction is generated.

次に、図2ないし図4を参照し、店員用端末5、レシートプリンター13および管理サーバー15のハードウェア構成について説明する。図2は、店員用端末5の制御ブロック図である。店員用端末5は、レシートプリンター13との無線通信機能を実現するための無線LANアンテナ21、無線LANRF(Radio Frequency)部22、無線LAN変復調部23および無線LANベースバンド部24を有している。無線LANベースバンド部24は、店員用端末5を識別するためのMACアドレスを記憶している。また、店員用端末5は、体導音センサー1の検出結果を得るためのアンプ部28およびA/Dコンバーター29と、音声取得用マイク2によって取得された音声データを得るためのアンプ部32およびA/Dコンバーター33と、音声指示用イヤホン3に対し音声通知用の音声データを出力するためのアンプ部35およびD/Aコンバーター36と、を有している。また、店員用端末5は、各部の統括制御を行う制御部25と、ファームウェアを初めとする各種データを記憶するメモリ26と、電力供給を行うバッテリー34と、を有している。制御部25は、A/Dコンバーター29およびA/Dコンバーター33から取得したデータに基づいて、店員の発話区間(連続する音声の時間帯)を特定する店員発話区間特定機能と、A/Dコンバーター33から取得したデータに基づいて、音声レベルを判定する音声レベル判定機能と、を有している。   Next, the hardware configuration of the clerk terminal 5, the receipt printer 13, and the management server 15 will be described with reference to FIGS. FIG. 2 is a control block diagram of the clerk terminal 5. The clerk terminal 5 includes a wireless LAN antenna 21, a wireless LAN RF (Radio Frequency) unit 22, a wireless LAN modem unit 23, and a wireless LAN baseband unit 24 for realizing a wireless communication function with the receipt printer 13. . The wireless LAN baseband unit 24 stores a MAC address for identifying the clerk terminal 5. In addition, the store clerk terminal 5 includes an amplifier unit 28 and an A / D converter 29 for obtaining the detection result of the body-conducting sound sensor 1, and an amplifier unit 32 for obtaining the audio data acquired by the audio acquisition microphone 2. An A / D converter 33, an amplifier unit 35 for outputting voice data for voice notification to the voice instruction earphone 3, and a D / A converter 36 are provided. Further, the store clerk terminal 5 includes a control unit 25 that performs overall control of each unit, a memory 26 that stores various data including firmware, and a battery 34 that supplies power. Based on the data acquired from the A / D converter 29 and the A / D converter 33, the control unit 25 specifies a store clerk utterance section specifying function for specifying a clerk utterance section (continuous voice time zone), and an A / D converter. And a sound level determination function for determining a sound level based on the data acquired from 33.

続いて、図3は、レシートプリンター13の制御ブロック図である。レシートプリンター13は、店員用端末5との無線通信機能を実現するための無線LANアンテナ41、無線LANRF部42、無線LAN変復調部43および無線LANベースバンド部44を有している。無線LANベースバンド部44は、レシートプリンター13を識別するためのMACアドレスを記憶している。また、レシートプリンター13は、POS端末12からレシートデータが入力される入力I/F部45と、文字パターンを記憶するCG−ROM46と、各部の統括制御を行う制御部47と、印刷ヘッド、ヘッド駆動機構およびレシート用紙搬送機構などを含む印刷機構48と、管理サーバー15と有線LANを介して接続される有線LANI/F部49と、を有している。   Next, FIG. 3 is a control block diagram of the receipt printer 13. The receipt printer 13 includes a wireless LAN antenna 41, a wireless LAN RF unit 42, a wireless LAN modem unit 43, and a wireless LAN baseband unit 44 for realizing a wireless communication function with the clerk terminal 5. The wireless LAN baseband unit 44 stores a MAC address for identifying the receipt printer 13. The receipt printer 13 includes an input I / F unit 45 to which receipt data is input from the POS terminal 12, a CG-ROM 46 that stores character patterns, a control unit 47 that performs overall control of each unit, a print head, a head A printing mechanism 48 including a driving mechanism and a receipt paper transport mechanism, and a wired LAN I / F unit 49 connected to the management server 15 via a wired LAN are provided.

制御部47は、所定のコマンドを含むレシートデータの解析や、会計レシートRに印刷するための印刷データの生成などを行うメイン処理部47aと、本実施形態特有の構成であるレシートデータ意味解析部47bと、を有している。レシートデータ意味解析部47bは、レシートデータから、POS端末12の端末番号、レシート番号、商品コード、商品名称、商品単価、金額、オペレーター氏名などを認識し、上位システムとなる管理サーバー15が解釈可能な所定のデータ形式(例えば、XML形式)に変換する。なお、当該レシートデータの認識結果を所定のデータ形式に変換したものを、以下「変換データ」と称する。また、制御部47は、店員用端末5から無線LANを介して受信した音声データ(無線LANベースバンド部44から取得した音声データ)を、有線LANI/F部49を介して、管理サーバー15に転送する。   The control unit 47 includes a main processing unit 47a that performs analysis of receipt data including a predetermined command, generation of print data to be printed on the accounting receipt R, and a receipt data semantic analysis unit that is a configuration unique to the present embodiment. 47b. The receipt data semantic analysis unit 47b recognizes the terminal number of the POS terminal 12, the receipt number, the product code, the product name, the product unit price, the amount of money, the operator name, and the like from the receipt data, and can be interpreted by the management server 15 serving as the host system. To a predetermined data format (for example, XML format). In addition, what converted the recognition result of the receipt data into a predetermined data format is hereinafter referred to as “converted data”. In addition, the control unit 47 transmits the audio data received from the store clerk terminal 5 via the wireless LAN (audio data acquired from the wireless LAN baseband unit 44) to the management server 15 via the wired LAN I / F unit 49. Forward.

続いて、図4は、管理サーバー15の制御ブロック図である。管理サーバー15は、レシートプリンター13から、音声データおよび変換データを取得すると共に、店内カメラ11から映像データを取得するための有線LANI/F部51と、表示端末16に各種情報を表示させるための表示処理部52と、マウスやキーボードなどの入力装置55から入力データを取得すると共に各部の統括制御を行う制御部53と、各種情報を記憶する記憶部54と、を有している。制御部53は、取得した音声データに基づいて、会話区間(店員と顧客との会話の1単位区間)を特定する会話区間特定機能と、会話区間あたりの顧客満足度を算出する満足度算出機能と、顧客満足度が高い会話区間の音声データに基づいて、顧客満足度が高いキーワード(満足キーワード)を記録する満足キーワード記録機能と、算出した顧客満足度や記録した満足キーワードに基づいて、音声通知用の音声データを生成する音声データ生成機能と、を有している。   Next, FIG. 4 is a control block diagram of the management server 15. The management server 15 acquires audio data and conversion data from the receipt printer 13 and also displays a variety of information on the display terminal 16 and the wired LAN I / F unit 51 for acquiring video data from the in-store camera 11. The display processing unit 52 includes a control unit 53 that acquires input data from an input device 55 such as a mouse and a keyboard and performs overall control of each unit, and a storage unit 54 that stores various types of information. The control unit 53 has a conversation section specifying function for specifying a conversation section (one unit section of a conversation between a store clerk and a customer) based on the acquired voice data, and a satisfaction calculation function for calculating a customer satisfaction per conversation section. And a satisfaction keyword recording function that records keywords (satisfaction keywords) with high customer satisfaction based on voice data of conversation sections with high customer satisfaction, and voices based on the calculated customer satisfaction and recorded satisfaction keywords. A voice data generation function for generating voice data for notification.

次に、図5を参照し、各区間の定義について説明する。上記のとおり、同一人物による連続する音声の区間、つまりブレス(息継ぎ)などが入らない1フレーズの区間を「発話区間」と称する。本実施形態では、当該発話区間単位で、感情認識や音声認識を行う。また、図5(a)に示すように、所定時間以上途切れないまま繰り返される店員または顧客の発話区間の集合体を「話し掛け区間」と称する。つまり、インターバルが所定時間X未満となる1以上の発話区間の集合体を言う(但し、XはX>0となる定数)。同図の例は、店員の話し掛け区間(以下、「店員話し掛け区間」と称する)、並びに当該店員の話し掛け区間に前後する2つの顧客の話し掛け区間(以下、「顧客話し掛け区間」と称する)が、いずれも2つの発話区間から成る場合を示している。   Next, the definition of each section will be described with reference to FIG. As described above, a continuous voice section by the same person, that is, a one-phrase section in which no breath (breathing) or the like is entered is referred to as an “utterance section”. In the present embodiment, emotion recognition and voice recognition are performed for each utterance section. Further, as shown in FIG. 5A, a collection of clerk or customer utterance sections that are repeated without interruption for a predetermined time or longer is referred to as a “talking section”. That is, it refers to a set of one or more utterance sections whose interval is less than the predetermined time X (where X is a constant that satisfies X> 0). In the example shown in the figure, a store clerk talk section (hereinafter referred to as “store clerk talk section”) and two customer talk sections (hereinafter referred to as “customer talk section”) around the store clerk talk section. Both cases show a case of two utterance sections.

また、同じく図5(a)に示すように、店員と顧客の話し掛け区間が所定時間以上途切れないまま交互に繰り返される話し掛け区間の集合体を「会話区間」と称する。つまり、インターバルが所定時間Y未満となる1以上の発話区間の集合体を言う(但し、YはY>Xとなる定数)。なお、本実施形態では、店員話し掛け区間を中心とした前後の顧客話し掛け区間の集合体(すなわち最低1つ、最大3つの話し掛け区間の集合体)を「1会話パターン」=「1会話区間」と定義する。   Similarly, as shown in FIG. 5A, a group of talking sections in which the talking sections of the store clerk and the customer are alternately repeated without being interrupted for a predetermined time or longer are referred to as “conversation sections”. That is, it refers to a collection of one or more utterance sections whose interval is less than the predetermined time Y (where Y is a constant such that Y> X). In the present embodiment, a group of customer talk sections before and after the store staff talk section (that is, a collection of at least one and up to three talk sections) is expressed as “one conversation pattern” = “one conversation section”. Define.

また、図5(b)に示すように、所定時間以上途切れないまま繰り返される会話区間の集合体を「接客区間」と称する。つまり、インターバルが所定時間Z未満となる1以上の会話区間の集合体を言う(但し、ZはZ>Yとなる定数)。同図の例は、2つの会話区間から成る接客区間1と、3つの会話区間から成る接客区間2と、を示している。このように、接客区間に含まれる会話区間の数は任意である。   In addition, as shown in FIG. 5B, a collection of conversation sections that are repeated without interruption for a predetermined time or longer is referred to as a “service section”. That is, it refers to an aggregate of one or more conversation sections whose interval is less than the predetermined time Z (where Z is a constant such that Z> Y). The example of the figure shows a service section 1 composed of two conversation sections and a service section 2 composed of three conversation sections. Thus, the number of conversation sections included in the customer service section is arbitrary.

次に、図6および図7を参照し、第1実施形態に係る接客支援システムSYの機能構成について説明する。図6は、接客支援システムSYのブロック図である。店内カメラ11は、主な機能構成として、接客撮像部111を有している。接客撮像部111は、店員および顧客を含む接客状況を撮像する。本実施形態において、接客撮像部111は常時撮像を行っており、その映像データは、随時管理サーバー15に出力される。   Next, with reference to FIG. 6 and FIG. 7, the functional configuration of the customer service support system SY according to the first embodiment will be described. FIG. 6 is a block diagram of the customer service support system SY. The in-store camera 11 has a customer service imaging unit 111 as a main functional configuration. The customer service imaging unit 111 captures a customer service situation including a clerk and a customer. In the present embodiment, the customer service imaging unit 111 always performs imaging, and the video data is output to the management server 15 as needed.

体導音センサー1は、主な機能構成として、発話検出部101を有している。発話検出部101は、体導音に基づいて、店員が発話したこと、およびその発話区間を検出する。音声取得用マイク2は、主な機能構成として、音声取得部(音声データ取得部)102を有している。音声取得部102は、店員および顧客の音声(音声信号)を取得する。音声指示用イヤホン3は、主な機能構成として、音声出力部(顧客満足度通知部、関連キーワード通知部)103を有している。音声出力部103は、音声通知用の音声データに基づいて、音声を出力する。店員用端末5は、主な機能構成として、音声データ通信部105を有している。音声データ通信部105は、音声レベル判定機能にあるパワーフィルターにより音声の有無を判定し、所定の音声レベル以上(例えば、アンプ増幅後1.5v以上など)の音声データを管理サーバー15に送信する。また、店員発話区間特定機能により、発話検出部101の検出結果および音声取得部102の音声取得結果に基づいて店員発話区間を特定し、当該店員発話区間の発生を管理サーバー15に通知する。さらに、管理サーバー15から、音声通知用の音声データを受信する。なお、実際には、店員用端末5と管理サーバー15は、レシートプリンター13を介して通信を行うが、レシートプリンター13は単に情報を経由しているだけなので、図示を省略する。   The body sound sensor 1 has an utterance detection unit 101 as a main functional configuration. The utterance detection unit 101 detects that the clerk uttered and the utterance section based on the body conduction sound. The voice acquisition microphone 2 has a voice acquisition unit (voice data acquisition unit) 102 as a main functional configuration. The voice acquisition unit 102 acquires the voice (voice signal) of the clerk and the customer. The voice instruction earphone 3 has a voice output unit (customer satisfaction notification unit, related keyword notification unit) 103 as a main functional configuration. The voice output unit 103 outputs voice based on voice data for voice notification. The clerk terminal 5 has an audio data communication unit 105 as a main functional configuration. The audio data communication unit 105 determines the presence or absence of audio using a power filter in the audio level determination function, and transmits audio data of a predetermined audio level or higher (for example, 1.5 v or higher after amplifier amplification) to the management server 15. . Further, the salesclerk utterance section specifying function specifies a salesclerk utterance section based on the detection result of the utterance detection unit 101 and the voice acquisition result of the voice acquisition unit 102, and notifies the management server 15 of the occurrence of the clerk utterance section. Furthermore, voice data for voice notification is received from the management server 15. Actually, the clerk terminal 5 and the management server 15 communicate with each other via the receipt printer 13. However, the receipt printer 13 simply passes information, and is not shown.

レシートプリンター13は、主な機能構成として、変換データ送信部113を有している。変換データ送信部113は、POS端末12から出力されたレシートデータをXML形式に変換した変換データを、管理サーバー15に送信する。   The receipt printer 13 has a conversion data transmission unit 113 as a main functional configuration. The conversion data transmission unit 113 transmits the conversion data obtained by converting the receipt data output from the POS terminal 12 into the XML format to the management server 15.

管理サーバー15は、主な機能構成として、映像記録部151、顧客識別部152、会話録音部153、音声認識部154、顧客感情認識部155、顧客満足度算出部156、変換データ受信部158、満足キーワード記録部161、お勧めレベル算出部162、好印象レベル算出部163、音声データ生成部164、および管理サーバー用データベースDBを有している。   The management server 15 includes a video recording unit 151, a customer identification unit 152, a conversation recording unit 153, a voice recognition unit 154, a customer emotion recognition unit 155, a customer satisfaction calculation unit 156, a converted data reception unit 158, as main functional configurations. A satisfaction keyword recording unit 161, a recommended level calculation unit 162, a good impression level calculation unit 163, an audio data generation unit 164, and a management server database DB are provided.

映像記録部151は、接客撮像部111から、映像データを取得し、これを管理サーバー用データベースDBに記録する。顧客識別部152は、映像データに含まれる顔特徴量に基づいて顧客を識別する。具体的には、予め顧客識別情報と顧客の顔特徴量を管理サーバー用データベースDB内に記憶しておき(図7の顧客情報記憶部81参照)、撮像された顧客の顔特徴量(店内カメラ11の撮像結果を解析して顔検出を行い、当該顔部分の画像を正規化して算出された顔特徴量)と、管理サーバー用データベースDBに記憶されている多数の顧客の顔特徴量とを照合し、それらの中から最も類似度の高い顧客であると判定する。なお、店員が店内に複数存在する場合は、店員と顧客との紐付けが必要となるため、店員についても、映像データに含まれる顔特徴量から識別しても良い。つまり、予め店員識別情報と店員の顔特徴量を管理サーバー用データベースDB内に記憶しておき、撮像された店員の顔特徴量と、管理サーバー用データベースDBに記憶されている各店員の顔特徴量とを照合し、それらの中から最も類似度の高い店員が接客を行っていると判定する。   The video recording unit 151 acquires video data from the customer service imaging unit 111 and records it in the management server database DB. The customer identifying unit 152 identifies a customer based on the facial feature amount included in the video data. Specifically, customer identification information and customer face feature amounts are stored in advance in the management server database DB (see the customer information storage unit 81 in FIG. 7), and the captured customer face feature amounts (in-store camera) 11 is obtained by analyzing the imaging result of 11 and performing face detection, and normalizing the image of the face part), and facial features of many customers stored in the management server database DB. Collate and determine that the customer is the most similar among them. Note that when there are a plurality of store clerk in the store, it is necessary to associate the store clerk with the customer, so the store clerk may also be identified from the facial feature amount included in the video data. That is, the clerk identification information and the clerk face feature amount are stored in the management server database DB in advance, and the captured clerk face feature amount and each clerk face feature stored in the management server database DB are stored. The quantity is collated, and it is determined that the store clerk with the highest degree of similarity is serving customers.

会話録音部153は、店員と顧客の会話、すなわち音声データ通信部105から送信された音声データを録音する(管理サーバー用データベースDBに記録する)。音声認識部154は、会話録音部153により録音された録音データに含まれる店員および顧客の音声を認識する。当該音声認識部154には、音響分析部、音響モデル、言語モデル、単語辞書およびテキスト変換部が含まれる(いずれも図示省略)。当該音声認識部154は、これらを用いて、取得した音声信号を、テキスト情報に変換し、管理サーバー用データベースDBに記録する。   The conversation recording unit 153 records the conversation between the clerk and the customer, that is, the voice data transmitted from the voice data communication unit 105 (records it in the management server database DB). The voice recognition unit 154 recognizes the voices of the clerk and the customer included in the recorded data recorded by the conversation recording unit 153. The speech recognition unit 154 includes an acoustic analysis unit, an acoustic model, a language model, a word dictionary, and a text conversion unit (all not shown). The voice recognition unit 154 uses these to convert the acquired voice signal into text information and record it in the management server database DB.

顧客感情認識部155は、会話に含まれる顧客の音声に基づいて、顧客の感情を認識する。具体的には、音声の強度、音声の発生速度(単位時間当たりのモーラ数など)、単語別の強度、音量、音声スペクトルなどの変化量に基づいて感情認識を行う。この場合、顧客感情認識部155は、発話検出部101の検出結果(音声データ通信部105により特定された店員発話区間)に基づいて、会話に含まれる音声が、店員の音声であるか顧客の音声であるかを判別する。また、顧客感情認識部155は、会話録音部153の録音データに含まれる顧客の発話区間ごとに感情認識を行う。このように、1フレーズごとに感情認識を行うことで、高精度な感情データを得ることができる。さらに、顧客発話区間と店員発話区間とが時間軸上で重複する重複区間を特定し、当該重複区間を「感情認識非対象区間」として、当該重複区間を除く顧客発話区間に対して感情認識を行う。このように、顧客の音声と店員の音声が混合しており正確な感情認識を行うことができない感情認識非対象区間(重複区間)を除いて感情認識を行うことで、誤認識を防止することができる。   The customer emotion recognition unit 155 recognizes the customer's emotion based on the customer's voice included in the conversation. Specifically, emotion recognition is performed based on the amount of change in voice intensity, voice generation speed (number of mora per unit time, etc.), word-by-word intensity, volume, and voice spectrum. In this case, the customer emotion recognition unit 155 determines whether the voice included in the conversation is the voice of the clerk based on the detection result of the utterance detection unit 101 (the clerk utterance section specified by the voice data communication unit 105). Determine if it is voice. Further, the customer emotion recognition unit 155 performs emotion recognition for each customer utterance section included in the recording data of the conversation recording unit 153. Thus, highly accurate emotion data can be obtained by performing emotion recognition for each phrase. Further, an overlapping section in which the customer utterance section and the clerk utterance section overlap on the time axis is specified, and the overlapping section is set as an “emotional recognition non-target section”, and emotion recognition is performed on the customer utterance section excluding the overlapping section. Do. In this way, misrecognition is prevented by performing emotion recognition except for emotion recognition non-target sections (overlapping sections) in which customer voice and store clerk voice are mixed and accurate emotion recognition cannot be performed. Can do.

顧客満足度算出部156は、顧客感情認識部155の認識結果に基づいて、顧客満足度を算出する。また、顧客感情認識部155が発話区間ごとに感情認識を行うことに伴い顧客満足度算出部156も、発話区間ごとに顧客満足度を算出する。   The customer satisfaction calculation unit 156 calculates customer satisfaction based on the recognition result of the customer emotion recognition unit 155. Further, as the customer emotion recognition unit 155 performs emotion recognition for each utterance section, the customer satisfaction calculation unit 156 also calculates the customer satisfaction for each utterance section.

変換データ受信部158は、変換データ送信部113から送信された変換データを受信し、管理サーバー用データベースDBに記録する。なお、変換データは、上記の接客データとして記録する売り上げ実績に関する情報を得るために用いられる。したがって、変換データに含まれる情報の中から、レシート番号や合計金額など、売り上げの有無や売り上げ金額を特定可能な情報のみを抽出し、これを売り上げ実績として記録しても良いし、変換データの全てを管理サーバー用データベースDBに記録しても良い。   The conversion data reception unit 158 receives the conversion data transmitted from the conversion data transmission unit 113 and records it in the management server database DB. The conversion data is used to obtain information related to sales results recorded as the customer service data. Therefore, from the information included in the conversion data, only information that can specify the presence / absence of sales and the sales amount, such as the receipt number and total amount, may be extracted and recorded as sales results, or the conversion data All may be recorded in the management server database DB.

満足キーワード記録部161は、顧客満足度が所定の閾値に達した会話区間の音声認識結果(テキスト情報)を、管理サーバー用データベースDB内のキーワードテーブル89と照合し、その照合結果に基づいて、顧客満足度の高いキーワード(満足キーワード)と、その関連情報とを、管理サーバー用データベースDBに記録する。なお、満足キーワードは、取扱商品を示す商品キーワードと、それ以外の非商品キーワードに分類されている。   The satisfaction keyword recording unit 161 collates the speech recognition result (text information) of the conversation section in which the customer satisfaction has reached a predetermined threshold with the keyword table 89 in the management server database DB, and based on the collation result, A keyword with high customer satisfaction (satisfaction keyword) and related information are recorded in the management server database DB. Note that the satisfaction keyword is classified into a product keyword indicating a handled product and a non-product keyword other than that.

お勧めレベル算出部162は、満足キーワード記録部161によって記録した各商品キーワードのお勧めレベルを算出して、管理サーバー用データベースDBに記録する。好印象レベル算出部163は、満足キーワード記録部161によって記録した各非商品キーワードの好印象レベルを算出して、管理サーバー用データベースDBに記録する。お勧めレベルとは、各商品キーワードが示す各商品のお勧め度合いを示す数値である。一方、好印象レベルとは、各非商品キーワードが顧客に与える好印象の度合いを示す数値である。   The recommended level calculation unit 162 calculates the recommended level of each product keyword recorded by the satisfaction keyword recording unit 161 and records it in the management server database DB. The good impression level calculation unit 163 calculates the good impression level of each non-product keyword recorded by the satisfaction keyword recording unit 161 and records it in the management server database DB. The recommended level is a numerical value indicating the recommended degree of each product indicated by each product keyword. On the other hand, the good impression level is a numerical value indicating the degree of good impression each non-product keyword gives to a customer.

音声データ生成部164は、管理サーバー用データベースDB内の各種データに基づいて、顧客満足度を通知するための満足度通知用の音声データと、お勧め商品や好印象キーワードを通知するためのキーワード通知用の音声データとを生成し、店員用端末5に送信する。   The voice data generation unit 164, based on various data in the management server database DB, voice data for notifying customer satisfaction and keywords for notifying recommended products and good impression keywords. Voice data for notification is generated and transmitted to the clerk terminal 5.

図7は、第1実施形態に係る管理サーバー用データベースDBの説明図である。管理サーバー用データベースDBは、顧客情報記憶部81、店員情報記憶部82、音声データ記憶部83、映像データ記憶部84、音声データ管理テーブル85、店員発話区間管理テーブル86、顧客発話区間管理テーブル87、顧客満足度保存テーブル92、テキスト情報記憶部88、キーワードテーブル(関連キーワード記憶部)89、商品種別キーワード記憶部90、満足キーワード管理テーブル(データベース)91として機能する。なお、管理サーバー用データベースDBは、店舗ごとに設けられても良いし、複数店舗のデータを一括管理するものであっても良い。   FIG. 7 is an explanatory diagram of the management server database DB according to the first embodiment. The management server database DB includes a customer information storage unit 81, a store clerk information storage unit 82, an audio data storage unit 83, a video data storage unit 84, an audio data management table 85, a store clerk utterance section management table 86, and a customer utterance section management table 87. , Customer satisfaction storage table 92, text information storage unit 88, keyword table (related keyword storage unit) 89, product type keyword storage unit 90, and satisfaction keyword management table (database) 91. The management server database DB may be provided for each store, or may collectively manage data of a plurality of stores.

顧客情報記憶部81は、顧客識別情報(顧客IDなど)と、顧客の顔特徴量と、顧客データ(氏名、住所、電話番号、生年月日、性別などの個人情報を含む)と、を関連付けて記憶する。また、店員情報記憶部82は、店員識別情報(店員IDなど)と、店員の顔特徴量と、店員用端末5のMACアドレスと、を関連付けて記憶する。また、音声データ記憶部83は、会話録音部153により常時録音された音声データを記憶する。また、映像データ記憶部84は、接客撮像部111により常時撮像された映像データを記憶する。   The customer information storage unit 81 associates customer identification information (customer ID and the like), customer face feature amounts, and customer data (including personal information such as name, address, telephone number, date of birth, and sex). Remember. The store clerk information storage unit 82 stores store clerk identification information (store clerk ID, etc.), the store clerk's facial feature quantity, and the MAC address of the store clerk terminal 5 in association with each other. In addition, the voice data storage unit 83 stores the voice data recorded by the conversation recording unit 153 at all times. In addition, the video data storage unit 84 stores video data always captured by the customer service imaging unit 111.

また、音声データ管理テーブル85は、店員と顧客を区別することなく、取得した音声データを、連続する音声の区間(以下、「連続発話区間」と称する)ごとに記録したテーブルである(図8(a)参照))。また、店員発話区間管理テーブル86は、店員の発話区間を記録したテーブルである(図8(b)参照)。また、顧客発話区間管理テーブル87は、顧客の発話区間を記録したテーブルである(図8(c)参照)。   The voice data management table 85 is a table in which the acquired voice data is recorded for each continuous voice section (hereinafter referred to as “continuous speech section”) without distinguishing between the store clerk and the customer (FIG. 8). (See (a))). Further, the store clerk utterance section management table 86 is a table in which store section utterance sections are recorded (see FIG. 8B). The customer utterance section management table 87 is a table in which customer utterance sections are recorded (see FIG. 8C).

次に、図8を参照し、音声データ管理テーブル85、店員発話区間管理テーブル86および顧客発話区間管理テーブル87について説明する。図8(a)は、音声データ管理テーブル85の一例を示す図である。音声データ管理テーブル85は、店員と顧客の音声を区別しない連続する音声の区間である連続発話区間(少なくとも1の発話区間が含まれる区間)ごとに付与される音声データNo.と、連続発話区間の開始時間に相当する録音開始時間と、連続発話区間の終了時間に相当する録音終了時間と、顧客の発声に基づく音声データか、店員の発生に基づく音声データか、または両方の発声に基づく音声データかを示す重複フラグと、音声データの保存先アドレスと、を関連付けたものである。例えば、音声データNo.201の音声データは、12時36分03秒を開始時間とし12時36分16秒を終了時間とする連続発話区間であり、少なくとも一部の区間において、顧客の音声と店員の音声が重複していることを示している。   Next, the voice data management table 85, the store clerk utterance section management table 86, and the customer utterance section management table 87 will be described with reference to FIG. FIG. 8A shows an example of the audio data management table 85. The voice data management table 85 includes voice data No. assigned to each continuous utterance section (a section including at least one utterance section) which is a continuous voice section that does not distinguish between the clerk and the customer's voice. Recording start time corresponding to the start time of the continuous utterance section, recording end time corresponding to the end time of the continuous utterance section, voice data based on the customer's utterance, voice data based on the occurrence of the store clerk, or both The duplication flag indicating whether the voice data is based on the utterance of the voice and the storage address of the voice data are associated with each other. For example, voice data No. The voice data 201 is a continuous utterance section having a start time of 12:36:03 and an end time of 12:36:16, and the customer's voice and the clerk's voice overlap in at least some of the sections. It shows that.

図8(b)は、店員発話区間管理テーブル86の一例を示す図である。店員発話区間管理テーブル86は、発話区間ごとに付与される店員発話No.と、発話区間の開始時間である店員発話開始時間と、発話区間の終了時間である店員発話終了時間と、どの話し掛け区間に属するかを示す話し掛けNo.と、顧客の発声との重複区間の開始時間である重複開始時間と、顧客の発声との重複区間の終了時間である重複終了時間と、を関連付けたものである。例えば、店員発話No.100と店員発話No.101の発話区間は、インターバルが所定時間(例えば、3秒)未満であるため、一連の話し掛け区間と看做され、同一の話し掛けNo.が付加されている。また、店員発話No.100の発話区間は、その区間全体が顧客の発生と重複していることを示している。   FIG. 8B is a diagram showing an example of the store clerk utterance section management table 86. The store clerk utterance section management table 86 includes a store clerk utterance number assigned to each utterance section. , The clerk utterance start time which is the start time of the utterance section, the clerk utterance end time which is the end time of the utterance section, and the talk No. indicating which talk section belongs to. And the overlap start time, which is the start time of the overlapping section with the customer utterance, and the overlap end time, which is the end time of the overlap section with the customer utterance. For example, clerk utterance No. 100 and the clerk utterance No. The utterance section 101 is considered as a series of talk sections because the interval is less than a predetermined time (for example, 3 seconds). Is added. In addition, clerk utterance No. 100 utterance segments indicate that the entire segment overlaps with the customer's occurrence.

図8(c)は、顧客発話区間管理テーブル87の一例を示す図である。顧客発話区間管理テーブル87は、発話区間ごとに付与される顧客発話No.と、発話区間の開始時間である顧客発話開始時間と、発話区間の終了時間である顧客発話終了時間と、どの話し掛け区間に属するかを示す話し掛けNo.と、店員の発声との重複区間の開始時間である重複開始時間と、店員の発声との重複区間の終了時間である重複終了時間と、を関連付けたものである。例えば、顧客発話No.101と顧客発話No.102の発話区間は、インターバルが所定時間(例えば、3秒)を超えているため、異なる話し掛け区間と看做され、異なる話し掛けNo.が付加されている。また、顧客発話No.100の発話区間は、13秒の区間長さのうち6秒間が店員の発生と重複していることを示している。   FIG. 8C is a diagram showing an example of the customer utterance section management table 87. The customer utterance section management table 87 includes a customer utterance No. assigned to each utterance section. , The customer utterance start time that is the start time of the utterance section, the customer utterance end time that is the end time of the utterance section, and the talk No. indicating which talk section it belongs to. And the overlap start time, which is the start time of the overlapping section with the clerk's utterance, and the overlap end time, which is the end time of the overlap section, with the clerk's utterance. For example, customer utterance No. 101 and customer utterance no. The utterance section 102 is regarded as a different talk section because the interval exceeds a predetermined time (for example, 3 seconds). Is added. In addition, customer utterance No. The 100 utterance sections indicate that 6 seconds out of the section length of 13 seconds overlap with the occurrence of the store clerk.

次に、図9ないし図12を参照して、顧客満足度保存テーブル92、キーワードテーブル89および満足キーワード管理テーブル91について説明する。図9(a)は、顧客満足度保存テーブル92の一例を示した図である。図9(a)に示すように、顧客満足度保存テーブル92は、顧客ごと、且つ会話区間ごとの顧客満足度を記憶するものであり、顧客識別情報と、顧客の氏名と、会話区間の開始時間および終了時間と、顧客満足度と、を関連付けて記憶している。   Next, the customer satisfaction storage table 92, the keyword table 89, and the satisfaction keyword management table 91 will be described with reference to FIGS. FIG. 9A is a diagram showing an example of the customer satisfaction degree storage table 92. As shown in FIG. 9A, the customer satisfaction storage table 92 stores customer satisfaction for each customer and for each conversation section. The customer identification information, the customer's name, and the start of the conversation section are stored. Time and end time are stored in association with customer satisfaction.

キーワードテーブル89は、商品キーワード(商品名称)を記憶する商品キーワード用テーブル89aと、非商品キーワードを記憶する非商品キーワード用テーブル89bと、を有している。図10は、商品キーワード用テーブル89aの一例を示した図である。商品キーワード用テーブル89aは、取扱商品を示す商品キーワード(商品名称:関連キーワード)と、当該取扱商品が該当する商品種別を示す複数の商品種別キーワード(商品種別:音声キーワード)と、を関連付けて記憶している。各商品キーワードには、「品目」、「サイズ」、「色」、「形状」および「加工方法」といった項目毎に1以上の商品種別キーワードが登録されている。例えば、商品キーワード「ストレッチスリムフィットシャツ」に対し、「品目」として、「ワイシャツ」、「長袖シャツ」、「シャツ」が、「サイズ」として、「S」、「M」、「L」等が、色として、「OFF」、「WHITE」、「LIGHT」、「GRAY」等が、「形状」として、「スリム」、「フィット」、「細め」等が、「加工方法」として、「イージーケアー」、「形状記憶」、「ストレッチ」等が、商品種別キーワードとして、関連付けて記憶されている。項目別の各商品種別キーワードには、取扱商品との関連の度合いを示す関連レベルが設定されている。例えば、「ワイシャツ」、「長袖シャツ」には、「レベル3」が設定され、「シャツ」には、「レベル2」が設定されている。また、各項目には、配点が付加されており、各関連レベルには、係数が付加されている。これらは、後述のマッチング度を算出する際に用いられる。   The keyword table 89 includes a product keyword table 89a for storing product keywords (product names) and a non-product keyword table 89b for storing non-product keywords. FIG. 10 is a diagram illustrating an example of the product keyword table 89a. The product keyword table 89a stores a product keyword (product name: related keyword) indicating a handled product and a plurality of product type keywords (product type: voice keyword) indicating a product type to which the handled product is associated with each other. is doing. In each product keyword, one or more product type keywords are registered for each item such as “item”, “size”, “color”, “shape”, and “processing method”. For example, for the product keyword “stretch slim fit shirt”, “item” is “shirt”, “long sleeve shirt”, “shirt”, and “size” is “S”, “M”, “L”, etc. , “OFF”, “WHITE”, “LIGHT”, “GRAY”, etc. as colors, “Slim”, “fit”, “narrow”, etc. as “shape”, “Easy care” ”,“ Shape memory ”,“ stretch ”, and the like are stored in association with each other as product type keywords. In each item type keyword for each item, an association level indicating the degree of association with the handling item is set. For example, “level 3” is set for “shirt” and “long sleeve shirt”, and “level 2” is set for “shirt”. In addition, a score is added to each item, and a coefficient is added to each related level. These are used when calculating the degree of matching described later.

図11は、非商品キーワード用テーブル89bの一例を示した図である。非商品キーワード用テーブル89bは、カテゴリー別に非商品キーワードを記録したテーブルである。カテゴリーとして、「人間関係」、「勤務先・通学先関連」、「趣味関連」、「イベント関連」、「身分関連」、「地名関連」、「日時関連」といったメインカテゴリーと、その各サブカテゴリーと、を有しており、非商品キーワード用テーブル89bは、メインカテゴリーごとのテーブルによって構成されている。例えば、メインカテゴリー「人間関係」は、「家族」「友人」といった第1サブカテゴリーを有し、さらに、第1サブカテゴリー「家族」は、「父親」「母親」「兄」等といった第2サブカテゴリーを有している。「人間関係」−「家族」−「父親」のカテゴリーには、「父親」「お父さん」「父」「親父」といった非商品キーワードが登録されている。他のカテゴリーにおいても同様に、サブカテゴリーがあり、また、非商品キーワードが複数登録されている。   FIG. 11 is a diagram showing an example of the non-product keyword table 89b. The non-product keyword table 89b is a table in which non-product keywords are recorded for each category. Main categories such as “Human relations”, “Working / commuting related”, “Hobby related”, “Event related”, “Identity related”, “Location name related”, “Date related”, and their subcategories The non-product keyword table 89b is configured by a table for each main category. For example, the main category “Human relations” has a first subcategory such as “Family” and “Friends”, and the first subcategory “Family” is a second subcategory such as “Father”, “Mother”, “Brother”, etc. Has a category. Non-product keywords such as “father”, “dad”, “father”, “father” are registered in the category of “human relation”-“family”-“father”. Similarly, in other categories, there are subcategories, and a plurality of non-product keywords are registered.

テキスト情報記憶部88は、音声認識部154による音声認識結果として得られたテキスト情報を記憶する。商品種別キーワード記憶部90は、後述のキーワード記録処理の際、抽出した商品種別キーワードを記憶する。   The text information storage unit 88 stores text information obtained as a speech recognition result by the speech recognition unit 154. The product type keyword storage unit 90 stores the extracted product type keyword in the keyword recording process described later.

満足キーワード管理テーブル91は、顧客(顧客識別情報)毎に生成されるものであり、商品満足キーワード管理テーブル91aと、非商品満足キーワード管理テーブル91bと、を有している。図12(a)は、商品満足キーワード管理テーブル91aの一例を示した図である。商品満足キーワード管理テーブル91aは、満足キーワード記録部161によって記録された商品キーワードと、その関連情報とを関連付けて記憶するテーブルである。厳密には、商品満足キーワード管理テーブル91aは、複数回、同じ商品キーワードを記録する場合、統合して記録するものであり、複数の商品キーワードと、当該各商品キーワードの、品目、お勧めレベル、複数回の記録処理に亘るマッチング度の平均値、記録回数、複数の記録処理に亘る顧客満足度の平均値、最終発声年月日、購入済みフラグの有無、発話済みフラグの有無および発話経過時間を記録する。なお、複数回の記録処理に亘るマッチング度の平均値、複数の記録処理に亘る顧客満足度の平均値、最終発声年月日、購入済みフラグの有無、発話済みフラグの有無および発話経過時間については、後述する。   The satisfaction keyword management table 91 is generated for each customer (customer identification information), and includes a product satisfaction keyword management table 91a and a non-product satisfaction keyword management table 91b. FIG. 12A shows an example of the product satisfaction keyword management table 91a. The product satisfaction keyword management table 91a is a table that stores the product keywords recorded by the satisfaction keyword recording unit 161 in association with the related information. Strictly speaking, the product satisfaction keyword management table 91a integrates and records the same product keyword when the same product keyword is recorded a plurality of times, and includes a plurality of product keywords and items, recommended levels, Average value of matching degree over multiple recording processes, number of recordings, average value of customer satisfaction across multiple recording processes, date of last utterance, presence of purchased flag, presence of uttered flag, and utterance elapsed time Record. Note that the average value of the matching level over multiple recording processes, the average value of customer satisfaction over multiple recording processes, the date of the last utterance, the presence / absence of a purchased flag, the presence / absence of an uttered flag, and the elapsed utterance time Will be described later.

図12(b)は、非商品満足キーワード管理テーブル91bの一例を示した図である。非商品満足キーワード管理テーブル91bは、第1キーワードの非商品キーワードと第2キーワードの非商品キーワードとの組ごとに、その関連情報を記憶し、また複数回、同じ非商品キーワードの組を記録する場合、統合して記録するテーブルである。非商品満足キーワード管理テーブル91bは、第1キーワードの非商品キーワードと、第2キーワードの非商品キーワードと、この非商品キーワードの組に対する、好印象レベル、記録回数、複数回の記録処理に亘る顧客満足度の平均値と、最終発声年月日と、発話済みフラグの有無と、を記憶している。   FIG. 12B is a diagram illustrating an example of the non-commodity satisfaction keyword management table 91b. The non-product satisfaction keyword management table 91b stores the related information for each set of the non-product keyword of the first keyword and the non-product keyword of the second keyword, and records the same set of non-product keywords a plurality of times. In this case, it is a table that records in an integrated manner. The non-commodity satisfaction keyword management table 91b includes a non-product keyword of the first keyword, a non-product keyword of the second keyword, and a customer who has a good impression level, the number of times of recording, and a plurality of recording processes for the set of non-product keywords. The average value of satisfaction, the last utterance date, and the presence / absence of a spoken flag are stored.

次に、図13のフローチャートを参照し、音声データ保存処理について説明する。なお、上記のとおり、店員用端末5と管理サーバー15は、レシートプリンター13を介して通信を行うが、レシートプリンター13は単に情報を経由しているだけなので、図示を省略する。   Next, the audio data storing process will be described with reference to the flowchart of FIG. As described above, the clerk terminal 5 and the management server 15 communicate with each other via the receipt printer 13, but the illustration is omitted because the receipt printer 13 simply passes information.

店員用端末5は、音声取得用マイク2から音声信号(音声)を取得すると(S11)(音声データ取得工程)、音声レベル判定機能のパワーフィルターにより音声レベルを判定する(S12)。ここで、音声レベルが所定レベル以上の場合、音声「有」と判定し、メモリ26内の音声データ保存領域(図示省略)に音声データのバッファリングを開始する(S13)。また、このとき、音声データ保存領域に録音開始時間を記録する。   When the clerk terminal 5 acquires the audio signal (audio) from the audio acquisition microphone 2 (S11) (audio data acquisition process), the clerk terminal 5 determines the audio level by the power filter of the audio level determination function (S12). Here, if the audio level is equal to or higher than the predetermined level, it is determined that the audio is “present”, and buffering of the audio data is started in the audio data storage area (not shown) in the memory 26 (S13). At this time, the recording start time is recorded in the audio data storage area.

続いて、音声信号を受信しなくなると、録音終了時間を確定して音声データ保存領域に記録すると共に、バッファリングを終了する(S14)。その後、管理サーバー15に対して、音声データの送信を宣言し(S15)、音声データ保存領域にバッファリングされた音声データを、録音開始時間および録音終了時間と共に送信する(S16)。   Subsequently, when no audio signal is received, the recording end time is determined and recorded in the audio data storage area, and the buffering is ended (S14). Thereafter, transmission of audio data is declared to the management server 15 (S15), and the audio data buffered in the audio data storage area is transmitted together with the recording start time and recording end time (S16).

管理サーバー15(制御部53)は、店員用端末5から音声データを受信すると(S17)、音声データ管理テーブル85(図8(a)参照)に、一意に定めた音声データNo.と、録音開始時間および録音終了時間を登録する(S18)。また、音声データ管理テーブル85で指定された音声データ保存先(所定のフォルダ)に、音声データを保存する(S19)。   When the management server 15 (control unit 53) receives the voice data from the store clerk terminal 5 (S17), the voice data No. 5 uniquely determined in the voice data management table 85 (see FIG. 8A). Then, the recording start time and recording end time are registered (S18). Also, the audio data is stored in the audio data storage destination (predetermined folder) designated in the audio data management table 85 (S19).

次に、図14ないし図17のフローチャートを参照し、接客区間特定処理の一連の流れについて説明する。図14は、メイン処理(接客区間特定処理)を示すフローチャートであり、図15ないし図17は、そのサブルーチンを示すフローチャートである。図14に示すように、管理サーバー15(制御部53)は、まず店員話し掛け区間を特定した後(S21)、店員話し掛け区間の後に発生した顧客話し掛け区間Bを特定する(S22)と共に、店員話し掛け区間の前に発生した顧客話し掛け区間Aを特定する(S23)。これらS21〜S23の工程により、会話区間を特定する(S24,図5(a)参照)。また、S21〜S24を繰り返すことにより、接客区間を特定する(S25,図5(b)参照)。   Next, with reference to the flowcharts of FIGS. 14 to 17, a series of flow of the service area identification process will be described. FIG. 14 is a flowchart showing the main process (service section identification process), and FIGS. 15 to 17 are flowcharts showing the subroutine. As shown in FIG. 14, the management server 15 (the control unit 53) first specifies the store clerk talk section (S21), then specifies the customer talk section B generated after the store clerk talk section (S22), and also stores the store clerk talk. The customer talk section A that occurred before the section is specified (S23). Through these steps S21 to S23, a conversation section is specified (S24, see FIG. 5A). Further, by repeating S21 to S24, the customer service section is specified (S25, see FIG. 5B).

次に、図15のフローチャートを参照し、図14のS21に相当する店員話し掛け区間特定処理について説明する。店員用端末5は、体導音センサー1からその検出データを取得すると(S31)、店員発話区間特定機能のパワーフィルターにより検出レベルを判定し、所定レベル以上の場合、その検出時間を店員発話区間開始時間として確定し、メモリ26内に記録する(S32)。続いて、音声レベル判定機能のパワーフィルターにより音声レベルを判定し、所定レベル以上の場合、音声発話による検出データであることを確定する(S33)。なお、フローチャートには特に図示しないが、検出レベルまたは音声レベルが所定レベル未満の場合は、処理を終了する。音声発話による検出データであることを確定する。また、音声発話による検出データであることを確定すると、音声発話に続く無音声区間から店員発話区間終了時間を確定し、メモリ26内に記録する。その後、管理サーバー15に対して、店員発話区間の発生通知を行う(S34)。このとき、メモリ26内に記録されている店員発話区間開始時間および店員発話区間終了時間も送信する。   Next, with reference to the flowchart of FIG. 15, the clerk talk section specifying process corresponding to S21 of FIG. 14 will be described. When the store clerk terminal 5 acquires the detection data from the body conduction sound sensor 1 (S31), the detection level is determined by the power filter of the store clerk utterance section specifying function. The start time is determined and recorded in the memory 26 (S32). Subsequently, the voice level is determined by the power filter of the voice level determination function, and if it is equal to or higher than the predetermined level, it is determined that the detection data is based on the voice utterance (S33). Although not particularly shown in the flowchart, when the detection level or the audio level is less than a predetermined level, the process is terminated. It is determined that the detection data is voice utterance. When it is determined that the detection data is based on voice utterance, the clerk utterance section end time is determined from the silent section following the voice utterance and recorded in the memory 26. Thereafter, the management server 15 is notified of the occurrence of the clerk utterance section (S34). At this time, the clerk utterance section start time and the clerk utterance section end time recorded in the memory 26 are also transmitted.

一方、管理サーバー15(制御部53)は、店員用端末5から店員発話区間の発生通知を受信すると(S35)、店員発話区間管理テーブル86(図8(b)参照)に、一意に定めた店員発話データNo.と、店員話し掛け区間ごとに定めた店員話し掛けNo.と、店員発話開始時間および店員発話終了時間を登録する(S36)。その後、所定時間内に次の店員発話区間の発生通知を受信したか否かを判別し(S37)、受信した場合は(S37:Yes)、一意に定めた店員発話データNo.と、上記と同じ店員話し掛けNo.と、店員発話開始時間および店員発話終了時間を登録する(S36)。これにより、前に発生した店員発話区間と今回発生した店員発話区間とを、一連の話し掛け区間として定義することができる。なお、所定時間内に次の店員発話区間の発生通知を受信しなかった場合は(S37:No)、店員による一連の話し掛け区間が終了したとして、処理を終了する。   On the other hand, when the management server 15 (control unit 53) receives the notification of the occurrence of the store clerk utterance section from the store clerk terminal 5 (S35), the management server 15 (control unit 53) is uniquely defined in the store clerk utterance section management table 86 (see FIG. 8B). Sales clerk utterance data No. And the clerk talk number set for each clerk talk section. Then, the clerk utterance start time and the clerk utterance end time are registered (S36). Thereafter, it is determined whether or not a notification of occurrence of the next clerk utterance section is received within a predetermined time (S37). If received (S37: Yes), the clerk utterance data No. And the same clerk Talk No. Then, the clerk utterance start time and the clerk utterance end time are registered (S36). Thereby, the salesclerk utterance section generated before and the salesclerk utterance section generated this time can be defined as a series of talk sections. Note that, when the occurrence notification of the next clerk utterance section is not received within a predetermined time (S37: No), the process is terminated assuming that a series of talk sections by the clerk is over.

次に、図16のフローチャートを参照し、図14のS22に相当する顧客話し掛け区間B特定処理について説明する。管理サーバー15(制御部53)は、店員による一連の話し掛け区間の特定が終了した後、音声データ管理テーブル85を参照し、最後の店員発話区間の店員発話終了時間から所定時間内に音声データが存在するか否かを判別する(S41)。ここで、音声データが存在しない場合は(S41:No)、顧客話し掛け区間Bは存在しないものとして処理を終了する。また、音声データが存在する場合は(S41:Yes)、音声データ管理テーブル85から、その音声データの録音開始時間と録音終了時間を読み込み、一意に定めた顧客発話No.と、顧客話し掛け区間ごとに定めた顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を顧客発話区間管理テーブル87に登録する(S42)。その後、音声データ管理テーブル85を参照し、最後の顧客発話区間の顧客発話終了時間から所定時間内に音声データが存在するか否かを判別し(S43)、存在する場合は(S43:Yes)、一意に定めた顧客発話No.と、上記と同じ顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を登録する(S42)。これにより、前に発生した顧客発話区間と今回発生した顧客発話区間とを、一連の話し掛け区間として定義することができる。なお、最後の顧客発話区間の顧客発話終了時間から所定時間内に音声データが存在しない場合は(S43:No)、顧客によるその後の話し掛け区間は存在しないと看做して、処理を終了する。   Next, with reference to the flowchart of FIG. 16, the customer talk section B specifying process corresponding to S22 of FIG. 14 will be described. The management server 15 (the control unit 53) refers to the voice data management table 85 after the end of identification of a series of talk sections by the clerk, and the voice data is stored within a predetermined time from the clerk utterance end time of the last clerk utterance section. It is determined whether or not it exists (S41). Here, when there is no voice data (S41: No), it is determined that the customer talk section B does not exist, and the process ends. If the voice data exists (S41: Yes), the recording start time and the recording end time of the voice data are read from the voice data management table 85, and the uniquely defined customer utterance number. And customer talk No. determined for each customer talk section. Then, the customer utterance start time and customer utterance end time are registered in the customer utterance section management table 87 (S42). Thereafter, referring to the voice data management table 85, it is determined whether or not voice data exists within a predetermined time from the customer utterance end time of the last customer utterance section (S43), and if present (S43: Yes). Unique customer utterance No. And the same customer talk number as above. The customer utterance start time and customer utterance end time are registered (S42). Thereby, the customer utterance section generated before and the customer utterance section generated this time can be defined as a series of talk sections. If there is no voice data within a predetermined time from the customer utterance end time of the last customer utterance section (S43: No), it is considered that there is no subsequent talk section by the customer, and the process is terminated.

次に、図17のフローチャートを参照し、図14のS23に相当する顧客話し掛け区間A特定処理について説明する。管理サーバー15(制御部53)は、顧客話し掛け区間Bの特定が終了した後、顧客発話区間管理テーブル87を参照し、図15の処理にて特定された店員発話区間の店員発話開始時間から所定時間前までに、既に顧客発話No.が与えられた顧客発話区間が存在するか否かを判別する(S51)。ここで、顧客発話区間が存在する場合は(S51:Yes)、顧客の話し掛け区間特定処理が既に終了しているものと看做し、処理を終了する。また、既に顧客発話No.が与えられた顧客発話区間が存在しない場合は(S51:No)、音声データ管理テーブル85を参照し、店員発話区間の店員発話開始時間から所定時間前までに、未処理の音声データが存在するか否かを判別する(S52)。ここで、未処理の音声データが存在しない場合は(S52:No)、顧客話し掛け区間Aが存在しないものと看做し、処理を終了する。また、未処理の音声データが存在する場合は(S52:Yes)、その音声データの録音開始時間と録音終了時間を読み込み、一意に定めた顧客発話No.と、顧客話し掛け区間ごとに定めた顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を顧客発話区間管理テーブル87に登録する(S53)。   Next, with reference to the flowchart of FIG. 17, the customer talk section A specifying process corresponding to S23 of FIG. 14 will be described. The management server 15 (control unit 53) refers to the customer utterance section management table 87 after the identification of the customer conversation section B is completed, and determines from the clerk utterance start time of the clerk utterance section specified in the processing of FIG. Before the time, customer utterance No. It is determined whether or not there is a customer utterance section given (S51). Here, when the customer utterance section exists (S51: Yes), it is considered that the customer's talk section specifying process has already ended, and the process is ended. In addition, the customer utterance No. Is not present (S51: No), the voice data management table 85 is referred to, and unprocessed voice data exists before a predetermined time from the clerk utterance start time of the clerk utterance section. Is determined (S52). Here, when there is no unprocessed voice data (S52: No), it is considered that the customer talk section A does not exist, and the process is terminated. If unprocessed voice data exists (S52: Yes), the recording start time and recording end time of the voice data are read, and the customer utterance No. And customer talk No. determined for each customer talk section. Then, the customer utterance start time and the customer utterance end time are registered in the customer utterance section management table 87 (S53).

その後、音声データ管理テーブル85を参照し、登録した顧客発話区間の顧客発話開始時間から所定時間前までに未処理の音声データが存在するか否かを判別し(S54)、存在する場合は(S54:Yes)、その音声データの録音開始時間と録音終了時間を読み込み、一意に定めた顧客発話No.と、上記と同じ顧客話し掛けNo.と、顧客発話開始時間および顧客発話終了時間を登録する(S54)。これにより、前に登録した顧客発話区間と今回特定した顧客発話区間とを、一連の話し掛け区間として定義することができる。なお、登録した顧客発話区間の顧客発話開始時間から所定時間前までに未処理の音声データが存在しない場合は(S54:No)、顧客によるそれ以前の話し掛け区間は存在しないと看做して、処理を終了する。   Thereafter, referring to the voice data management table 85, it is determined whether or not there is unprocessed voice data from the customer utterance start time of the registered customer utterance section to a predetermined time before (S54). S54: Yes), the recording start time and recording end time of the voice data are read, and the customer utterance No. uniquely determined is read. And the same customer talk number as above. Then, the customer utterance start time and customer utterance end time are registered (S54). Thereby, the customer utterance section registered previously and the customer utterance section specified this time can be defined as a series of talk sections. If there is no unprocessed voice data from the customer utterance start time of the registered customer utterance section to a predetermined time before (S54: No), it is considered that there is no previous talk section by the customer, The process ends.

以上、図13ないし図17の処理により、音声データ管理テーブル85、店員発話区間管理テーブル86および顧客発話区間管理テーブル87への登録を行い、店員話し掛け区間、その前後における顧客話し掛け区間Aおよび顧客話し掛け区間Bを特定することができる。ここで、店員話し掛け区間と顧客話し掛け区間との重複区間の検出について簡単に説明する。管理サーバー15は、各話掛け区間を特定した後、店員発話区間管理テーブル86および顧客発話区間管理テーブル87を参照し、重複区間の検出と、各テーブル85,86,87への記録を行う。具体的には、まず、店員発話区間管理テーブル86を参照し、同一話し掛けNo.の最も早い店員発話開始時間と最も遅い店員発話終了時間を、店員話し掛け区間の開始時間と終了時間に設定する。同様に、顧客発話区間管理テーブル87を参照し、同一話し掛けNo.の最も早い顧客発話開始時間と最も遅い顧客発話終了時間を、顧客話し掛け区間の開始時間と終了時間に設定する。そして、店員話し掛け区間と顧客話し掛け区間とに重複区間が存在しないかを判定し、存在する場合は、店員発話区間管理テーブル86および顧客発話区間管理テーブル87に、重複区間(重複開始時間および重複終了時間)を登録すると共に、音声データ管理テーブル85に重複フラグを立てる(図8(a)の重複フラグ欄における「客・店」に相当)。   As described above, the voice data management table 85, the clerk utterance section management table 86, and the customer utterance section management table 87 are registered by the processing shown in FIGS. The section B can be specified. Here, the detection of the overlap section between the store clerk talk section and the customer talk section will be briefly described. After identifying each talking section, the management server 15 refers to the store clerk utterance section management table 86 and the customer utterance section management table 87 to detect an overlapping section and record it in each table 85, 86, 87. Specifically, first, referring to the clerk utterance section management table 86, the same talk No. The earliest clerk utterance start time and the latest clerk utterance end time are set as the start time and end time of the clerk talk section. Similarly, referring to the customer utterance section management table 87, the same talk No. The earliest customer utterance start time and the latest customer utterance end time are set as the start time and end time of the customer talk section. Then, it is determined whether or not there is an overlapping section between the store clerk talk section and the customer talk section. Time) and a duplication flag is set in the audio data management table 85 (corresponding to “customer / store” in the duplication flag column in FIG. 8A).

次に、図18のフローチャートを参照し、満足度通知処理について説明する。この満足度通知処理は、会話区間を特定する都度、すなわち会話区間の終了ごとに行われるものであり、顧客満足度をリアルタイムで通知するものである。図18に示すように、まず、管理サーバー15(制御部53)は、顧客発話区間管理テーブル87により、特定した会話区間に含まれる各顧客発話区間を抽出し(S61)、音声データ管理テーブル85により、各顧客発話区間の音声データを抽出する(S62)(音声データ抽出部)(音声データ抽出工程)。   Next, the satisfaction degree notification process will be described with reference to the flowchart of FIG. This satisfaction notification process is performed every time a conversation section is specified, that is, every time a conversation section ends, and notifies customer satisfaction in real time. As shown in FIG. 18, first, the management server 15 (control unit 53) extracts each customer utterance section included in the specified conversation section from the customer utterance section management table 87 (S61), and the voice data management table 85. Thus, the voice data of each customer utterance section is extracted (S62) (voice data extraction unit) (voice data extraction step).

各顧客発話区間の音声データを抽出したら、顧客感情認識部155により、当該顧客発話区間ごとの音声データに基づいて、当該発話区間ごとに感情認識を行う(S63)。その後、顧客満足度算出部156により、顧客感情認識部155の認識結果に基づいて、各顧客発話区間の顧客満足度を算出する(S64)(個別満足度算出部)。各顧客発話区間の顧客満足度を算出したら、これに基づいて、当該会話区間の顧客満足度を算出する(S65)(区間満足度算出工程)(顧客満足度算出工程)。具体的には、算出した各顧客発話区間の顧客満足度における平均値を、会話区間の顧客満足度として算出する。   After extracting the voice data of each customer utterance section, the customer emotion recognition unit 155 performs emotion recognition for each utterance section based on the voice data for each customer utterance section (S63). Thereafter, the customer satisfaction calculation unit 156 calculates the customer satisfaction of each customer utterance section based on the recognition result of the customer emotion recognition unit 155 (S64) (individual satisfaction calculation unit). After calculating the customer satisfaction level of each customer utterance section, based on this, the customer satisfaction level of the conversation section is calculated (S65) (section satisfaction calculation step) (customer satisfaction calculation step). Specifically, the average value of the calculated customer satisfaction levels of each customer utterance section is calculated as the customer satisfaction level of the conversation section.

会話区間の顧客満足度を算出したら、算出した顧客満足度を、当該会話区間の情報と共に、顧客満足度保存テーブル92に記録する(S66)。具体的には、算出した顧客満足度を、顧客識別情報と、顧客の氏名と、会話区間の開始時刻および終了時刻と関連付けて記録する。なお、顧客識別情報は、顧客識別部152により会話区間において会話する顧客を識別した結果に基づくものであり、顧客の氏名は、当該顧客識別情報に対応する顧客の名称を、顧客情報記憶部81から抽出する。   When the customer satisfaction level of the conversation section is calculated, the calculated customer satisfaction level is recorded in the customer satisfaction storage table 92 together with the information of the conversation section (S66). Specifically, the calculated customer satisfaction is recorded in association with the customer identification information, the customer's name, and the start time and end time of the conversation section. The customer identification information is based on the result of identifying the customer who has a conversation in the conversation section by the customer identification unit 152, and the customer name is the customer name corresponding to the customer identification information. Extract from

算出した会話区間の顧客満足度を記録したら、当該顧客満足度に基づく満足度通知用のテキストデータを生成する(S67)。具体的には、満足度通知用のテキストデータとして、会話区間の顧客満足度を通知するメッセージ、例えば、顧客満足度が「50」である場合、「顧客満足度『50』」というメッセージのテキストデータを生成する。テキストデータを生成したら、音声データ生成部により、当該テキストデータに基づいて、そのメッセージを発声する満足度通知用の音声データを生成する(S68)。満足度通知用の音声データを生成したら、音声データ通信部105により、当該音声データを店員用端末5に送信する(S69)。   When the calculated customer satisfaction level of the conversation section is recorded, text data for satisfaction level notification based on the customer satisfaction level is generated (S67). Specifically, as text data for notifying satisfaction, a message for notifying customer satisfaction in the conversation section, for example, when the customer satisfaction is “50”, the text of the message “customer satisfaction“ 50 ”” Generate data. When the text data is generated, the voice data generation unit generates voice data for satisfaction notification that utters the message based on the text data (S68). If the voice data for satisfaction degree notification is generated, the voice data communication unit 105 transmits the voice data to the clerk terminal 5 (S69).

店員用端末5を介して、満足度通知用の音声データを受信した音声指示用イヤホン3は、満足度通知用の音声データを出力して(S70)、当該会話区間の顧客満足度を店員に通知する(満足度通知工程)。これにより本処理を終了する。   The voice instruction earphone 3 that has received the satisfaction degree notification voice data via the clerk terminal 5 outputs the satisfaction degree notification voice data (S70), and the customer satisfaction level of the conversation section is given to the clerk. Notify (satisfaction notification process). This is the end of this process.

次に、図19のフローチャートを参照し、キーワード記録処理について説明する。このキーワード記録処理は、満足キーワード管理テーブル91を、接客区間ごとにリアルタイムで更新する処理である。すなわち、1接客区間を特定する都度に、接客区間単位でキーワード記録処理を行う。まず、管理サーバー15(制御部53)は、顧客満足度保存テーブル92から、上記接客区間特定処理で特定した接客区間内の各会話区間における顧客満足度を抽出する(S81)。各会話区間の顧客満足度を抽出したら、顧客満足度が所定の閾値(例えば、70)に達した会話区間を抽出する(S82)(区間特定部)。当該会話区間が抽出されなかった場合(S83:No)には、本処理を終了する。   Next, the keyword recording process will be described with reference to the flowchart of FIG. This keyword recording process is a process of updating the satisfaction keyword management table 91 in real time for each customer service section. That is, every time a customer service section is specified, a keyword recording process is performed for each service section. First, the management server 15 (control unit 53) extracts the customer satisfaction in each conversation section in the customer service section specified by the customer service section specifying process from the customer satisfaction storage table 92 (S81). When the customer satisfaction level of each conversation section is extracted, a conversation section in which the customer satisfaction level reaches a predetermined threshold (for example, 70) is extracted (S82) (section specifying unit). If the conversation section has not been extracted (S83: No), this process ends.

顧客満足度が所定の閾値に達した会話区間を1以上抽出した場合(S83:Yes)には、音声データ管理テーブル85により、抽出した各会話区間に含まれる全発話区間の音声データ(区間データ)を抽出する(S84)。その後、抽出した各発話区間の音声データに対し、音声認識部154により音声認識を行い、音声認識結果として得られたテキスト情報をテキスト情報記憶部88に記憶する(S85)。   When one or more conversation sections whose customer satisfaction level has reached a predetermined threshold are extracted (S83: Yes), the voice data management section 85 extracts voice data (section data) of all utterance sections included in each extracted conversation section. ) Is extracted (S84). Thereafter, the speech recognition unit 154 performs speech recognition on the extracted speech data of each utterance section, and the text information obtained as a speech recognition result is stored in the text information storage unit 88 (S85).

発話区間ごとのテキスト情報を抽出・記憶したら、当該テキスト情報に基づいて、発話区間ごとのキーワード処理を行う(S86)。ここで図20を参照し、発話区間ごとのキーワード処理(S86)について詳しく説明する。   After the text information for each utterance section is extracted and stored, keyword processing for each utterance section is performed based on the text information (S86). Here, the keyword processing (S86) for each utterance section will be described in detail with reference to FIG.

図20に示すように、管理サーバー15(制御部53)は、まず、商品キーワード用テーブル89aに登録された商品種別キーワードから、発話区間ごとのテキスト情報に含まれる1以上の商品種別キーワードを抽出する(S91)(音声キーワード抽出部)。例えば、「私、ボタンダウンのシャツが好きなんですよ」という発言の音声データに基づき、「ボタンダウン」および「シャツ」という商品種別キーワードを抽出して、商品種別キーワード記憶部90に記憶する。いずれの商品種別キーワードも抽出されなかった場合(S92:No)には、後述の非商品キーワードの抽出処理(S99〜S102)に移行する。   As shown in FIG. 20, the management server 15 (control unit 53) first extracts one or more product type keywords included in the text information for each utterance section from the product type keywords registered in the product keyword table 89a. (S91) (voice keyword extraction unit). For example, product type keywords “button down” and “shirt” are extracted and stored in the product type keyword storage unit 90 based on voice data of a comment “I like a button-down shirt”. If no product type keyword is extracted (S92: No), the process proceeds to a non-product keyword extraction process (S99 to S102) described later.

一方、1以上の商品種別キーワードが抽出された場合(S92:Yes)には、抽出した1以上の商品種別キーワードに基づいて、商品キーワード用テーブル89aに記憶された1以上の商品キーワードを抽出する(S93)(関連キーワード抽出部)(キーワード抽出工程)。具体的には、商品キーワード用テーブル89aにおいて、当該1以上の商品種別キーワードを関連付けて記憶している商品キーワード(特定商品名称)を抽出する。例えば、商品種別キーワードとして、「ボタンダウン」および「シャツ」という商品種別キーワードが抽出された場合には、これを商品種別キーワードとして記憶した商品キーワード「ファインオックスフォードシャツ」を抽出する。なお、同一項目に属する複数の商品種別キーワードが抽出された場合には、関連レベルや抽出数に基づいて、いずれか1の商品種別キーワードを参考キーワードとする。また、上記1以上の商品種別キーワードを関連付けて記憶した商品キーワードが複数存在する場合には、複数の商品キーワードを抽出する。   On the other hand, when one or more product type keywords are extracted (S92: Yes), one or more product keywords stored in the product keyword table 89a are extracted based on the extracted one or more product type keywords. (S93) (Related Keyword Extraction Unit) (Keyword Extraction Step). Specifically, in the product keyword table 89a, a product keyword (specific product name) stored in association with the one or more product type keywords is extracted. For example, when the product type keywords “button down” and “shirt” are extracted as the product type keywords, the product keyword “fine Oxford shirt” stored as the product type keywords is extracted. When a plurality of product type keywords belonging to the same item are extracted, any one product type keyword is set as a reference keyword based on the relation level and the number of extractions. Further, when there are a plurality of product keywords stored in association with the one or more product type keywords, a plurality of product keywords are extracted.

1以上の商品キーワードを抽出したら、当該各商品キーワードのマッチング度を算出する(S94)。マッチング度は、抽出した上記1以上の商品種別キーワードの組が、当該各商品キーワードを示すものであったか否かの度合いを示す数値である。具体的には、抽出した各商品種別キーワードに対し、当該各商品種別キーワードが属する項目の配点と、当該各商品種別キーワードの関連レベルにおける係数とを乗算し、その全商品種別キーワードの乗算値を合計した数値を、マッチング度とする(マッチング度=Σ{項目の配点×関連レベルの係数})。   When one or more product keywords are extracted, the matching degree of each product keyword is calculated (S94). The degree of matching is a numerical value indicating the degree of whether or not the set of the one or more product type keywords extracted indicates each product keyword. Specifically, for each extracted product type keyword, the score of the item to which each product type keyword belongs is multiplied by the coefficient at the relevant level of each product type keyword, and the multiplication value of all the product type keywords is obtained. The total numerical value is used as the matching degree (matching degree = Σ {scoring of item × related level coefficient}).

抽出した各商品キーワードのマッチング度を算出したら、各商品キーワードのマッチング度が所定の閾値に達しているか否かを判別する(S95)。抽出した各商品キーワードのマッチング度が、いずれも所定の閾値に達しなかった場合(S96:No)には、後述の非商品キーワード抽出処理(S99〜S102)に移行する。一方、いずれかの商品キーワードが所定の閾値に達している場合(S96:Yes)には、お勧めレベル算出部162により、所定の閾値に達した商品キーワードのお勧めレベルを算出する(S97)。具体的には、以下の式に示すように、お勧めレベルを、複数回の記録処理に亘るマッチング度の平均値と、複数回の記録処理に亘る顧客満足度の平均値と、記録回数と、に基づいて算出する(お勧めレベル=A・(平均マッチング度)×B・(平均顧客満足度−50)×C・(抽出数)(0≦(A,B,C)≦1)。ここにいう「複数回の記録処理に亘るマッチング度の平均値」(平均マッチング度)とは、本キーワード処理による当該キーワードに対し算出したマッチング度と、過去のキーワード処理において当該キーワードを記録した際に算出した各マッチング度との平均値を示すものである。また、「複数回の記録処理に亘る顧客満足度の平均値」(平均顧客満足度)とは、本キーワード処理において当該キーワードを抽出した発話区間の顧客満足度と、過去のキーワード処理において当該キーワードを抽出した発話区間の各顧客満足度との平均値を示すものである。なお、過去に一度も当該キーワードを記録していない場合には、本キーワード処理のマッチング度、発話区間の顧客満足度をそのまま、上記各値とする。   Once the degree of matching of each extracted product keyword is calculated, it is determined whether or not the degree of matching of each product keyword has reached a predetermined threshold (S95). When the degree of matching of each extracted product keyword does not reach the predetermined threshold value (S96: No), the process proceeds to a non-product keyword extraction process (S99 to S102) described later. On the other hand, if any of the product keywords has reached the predetermined threshold (S96: Yes), the recommended level calculation unit 162 calculates the recommended level of the product keyword that has reached the predetermined threshold (S97). . Specifically, as shown in the following formula, the recommended level is determined based on the average value of the matching degree over a plurality of recording processes, the average value of customer satisfaction over the plurality of recording processes, and the number of recordings. (Recommended level = A · (average matching degree) × B · (average customer satisfaction−50) × C · (number of extractions) (0 ≦ (A, B, C) ≦ 1)). The “average value of matching degree over a plurality of recording processes” (average matching degree) here means the degree of matching calculated for the keyword by this keyword process and the keyword recorded in the past keyword process. In addition, the average value of each matching degree calculated in the above is shown, and “average value of customer satisfaction over a plurality of recording processes” (average customer satisfaction) is the keyword extracted in this keyword processing. Utterance interval The average value of the customer satisfaction and the customer satisfaction of each utterance section from which the keyword was extracted in the past keyword processing.If the keyword has never been recorded in the past, The matching value of this keyword processing and the customer satisfaction level of the utterance section are used as the above values as they are.

その後、満足キーワード記録部161により、当該各商品キーワードを満足キーワードとして、その関連情報に関連付けて、商品満足キーワード管理テーブル91aに記録する(S98)。具体的には、関連情報として、当該各商品キーワードの品目、お勧めレベル、複数回の記録処理に亘るマッチング度の平均値、記録回数、複数回の記録処理に亘る顧客満足度の平均値、最終発話年月日、購入済みフラグの有無、発話済みフラグの有無および発話経過時間を記録する。購入済みフラグの有無は、当該商品キーワードの商品が購入済みか否かを示すものであり、レシートプリンター13からの変換データを参照し、これに基づいて記録する。最終発声年月日は、最後に発声した日付を示し、発話済みフラグの有無は、現日付(今日の日付)において当該商品キーワードを店員または顧客が発声したか否かを示し、また発話経過時間とは、現日付において当該商品キーワードを発声した後の経過時間を示すものであり、音声データ記憶部83の音声データ(厳密には、現日付において特定した全接客区間における音声データを音声認識して得られたテキスト情報)に基づいて、これらを記録する。これにより、本処理を終了する。   Thereafter, the satisfaction keyword recording unit 161 records each product keyword as a satisfaction keyword in the product satisfaction keyword management table 91a in association with the related information (S98). Specifically, as related information, the item of each product keyword, the recommended level, the average value of the matching degree over a plurality of recording processes, the number of recordings, the average value of customer satisfaction over a plurality of recording processes, Record the date of the last utterance, the presence / absence of a purchased flag, the presence / absence of an uttered flag, and the elapsed utterance time. The presence / absence of the purchase flag indicates whether or not the product of the product keyword has been purchased, and is recorded based on the conversion data from the receipt printer 13 with reference to the conversion data. The last utterance date indicates the date of the last utterance, and the presence or absence of the utterance flag indicates whether or not the product keyword has been uttered by the clerk or customer on the current date (today's date), and the utterance elapsed time Indicates the elapsed time after the product keyword is uttered on the current date, and the voice data stored in the voice data storage unit 83 (strictly speaking, the voice data in the customer service section specified on the current date is voice-recognized. These are recorded on the basis of the text information obtained in the above. Thereby, this process is complete | finished.

次に、非商品キーワード抽出処理(S99〜102)について説明する。非商品キーワード抽出処理では、まず、管理サーバー15(制御部53)は、非商品キーワード用テーブル89bに登録された非商品キーワードから、発話区間ごとのテキスト情報に含まれる非商品キーワードを抽出する(S99)。例えば、「先週、札幌のスキー場に行きました。」という発言の音声データに基づき、「先週」、「札幌」および「スキー場」という非商品キーワードを抽出する。いずれの非商品キーワードも抽出されなかった場合(S100:No)には、本処理を終了する。   Next, the non-product keyword extraction process (S99 to 102) will be described. In the non-product keyword extraction process, first, the management server 15 (control unit 53) extracts non-product keywords included in the text information for each utterance section from the non-product keywords registered in the non-product keyword table 89b ( S99). For example, non-product keywords such as “Last week”, “Sapporo”, and “Ski resort” are extracted based on voice data of a statement “I went to a ski resort in Sapporo last week”. If no non-product keyword is extracted (S100: No), this process is terminated.

一方、1以上の非商品キーワードが抽出された場合(S100:Yes)には、抽出した1以上の非商品キーワードから、第1キーワードと第2キーワードとを決定する(S101)。具体的には、まず、「人間関係」、「勤務先・通学先関連」、「趣味関連」の順に照合し、1の非商品キーワードが各メインカテゴリーに該当すると判定された場合には、判定された時点で、これを第1キーワードとして決定する。   On the other hand, when one or more non-product keywords are extracted (S100: Yes), the first keyword and the second keyword are determined from the extracted one or more non-product keywords (S101). Specifically, first, “personal relationships”, “work / school related”, and “hobby related” are collated in this order, and if it is determined that one non-product keyword falls into each main category, the determination is made. When this is done, this is determined as the first keyword.

第1キーワードを決定したら、続いて、第2キーワードを決定する。具体的には、第1キーワード以外の非商品キーワードを、「イベント関連」、「日時関連」、「身分関連」、「地名関連」の順に照会し、そのメインカテゴリーに該当するか否かを判別する。該当すると判別された時点で、該当した非商品キーワードを、第2キーワードとして決定する。なお、本フローチャートでは省略するが、第1キーワードもしくは第2キーワードに決定される非商品キーワードがなかった場合には、本処理を終了する。   If the first keyword is determined, then the second keyword is determined. Specifically, non-product keywords other than the first keyword are queried in the order of “event-related”, “date-time related”, “identity-related”, “place-name-related”, and whether or not it falls under the main category To do. When it is determined that it corresponds, the corresponding non-product keyword is determined as the second keyword. Although not shown in this flowchart, if there is no non-product keyword determined as the first keyword or the second keyword, this process ends.

第1キーワードと第2キーワードが決定したら、好印象レベル算出部163により、この非商品キーワードの組(第1キーワードおよび第2キーワードの組)に対する好印象レベルを算出する。具体的には、以下の式に示すように、複数回の記録処理に亘る顧客満足度の平均値と、記録回数とに基づいて算出する(好印象レベル=B・(平均顧客満足度―50)×C・(抽出数)(0≦(B,C)≦1))。その後、当該非商品キーワードの組を満足キーワードとして、その関連情報に関連付けて、非商品満足キーワード管理テーブル91bに記録する(S102)。関連情報として、好印象レベル、記録回数、複数回の記録に亘る顧客満足度の平均値、最終発声年月日および発話済みフラグの有無を記録する。この発話区間ごとの本キーワード処理(S86)によって、キーワード記録処理を終了する。   When the first keyword and the second keyword are determined, the good impression level calculation unit 163 calculates the good impression level for the set of non-product keywords (the combination of the first keyword and the second keyword). More specifically, as shown in the following formula, calculation is made based on the average value of customer satisfaction over a plurality of recording processes and the number of times of recording (good impression level = B · (average customer satisfaction−50 ) × C · (number of extractions) (0 ≦ (B, C) ≦ 1)). Thereafter, the set of non-commodity keywords is recorded as a satisfaction keyword in the non-commodity satisfaction keyword management table 91b in association with the related information (S102). As related information, a good impression level, the number of times of recording, the average value of customer satisfaction over a plurality of times of recording, the date of last utterance, and the presence or absence of an uttered flag are recorded. The keyword recording process is terminated by this keyword process (S86) for each utterance section.

次に図21のフローチャートを参照し、お奨め商品通知処理について説明する。お奨め商品通知処理は、接客区間の開始時(接客区間終了後の次の音声データを取得した際)に行われる。図19に示すように、管理サーバー15(制御部53)は、音声データ生成部164により、商品満足キーワード管理テーブル91aを参照し、キーワード通知用のテキストデータを生成する(S111)。具体的には、商品満足キーワード管理テーブル91aから、購入フラグおよび発話フラグがなく、且つ現時点でお奨めレベルが最も高い商品キーワードを抽出し、それを付加したメッセージ、例えば、「お奨め商品は、『ストレッチスリムシャツ』です。」というメッセージのテキストデータを作成する。次に、当該テキストデータに基づいて、そのメッセージを発声するキーワード通知用の音声データを生成する(S112)。キーワード通知用の音声データを生成したら、音声データ通信部105により、当該音声データを店員用端末5に送信する(S113)。店員用端末5を介して、キーワード通知用の音声データを受信した音声指示用イヤホン3は、当該キーワード通知用の音声データを出力する。これによって、お奨め商品を店員に通知する(S114)。これにより本処理を終了する。   Next, the recommended product notification process will be described with reference to the flowchart of FIG. The recommended product notification process is performed at the start of the service section (when the next voice data after the end of the service section is acquired). As shown in FIG. 19, the management server 15 (control unit 53) refers to the product satisfaction keyword management table 91a by the voice data generation unit 164 and generates text data for keyword notification (S111). Specifically, from the product satisfaction keyword management table 91a, a product keyword that does not have a purchase flag and an utterance flag and has the highest recommended level at the present time is extracted, and a message to which it is added, for example, “Recommended product is Create text data for the message "It is a stretch slim shirt." Next, based on the text data, keyword notification voice data for generating the message is generated (S112). When the voice data for keyword notification is generated, the voice data communication unit 105 transmits the voice data to the clerk terminal 5 (S113). The voice instruction earphone 3 that has received the keyword notification voice data via the clerk terminal 5 outputs the keyword notification voice data. Thereby, the recommended product is notified to the store clerk (S114). This is the end of this process.

次に図22のフローチャートを参照し、好印象キーワード通知処理について説明する。好印象キーワード通知処理は、お勧め商品通知処理と同様、接客区間の開始時(接客区間終了後の次の音声データを取得した際)に行われる。図22に示すように、管理サーバー15(制御部53)は、非商品満足キーワード管理テーブル91bを参照し、キーワード通知用のテキストデータを生成する(S116)。具体的には、非商品満足キーワード管理テーブル91bから、発話フラグがなく、且つ現時点で好印象レベルが最も高い非商品キーワードの組を抽出し、これを付加したメッセージ、例えば、「子供」が第1キーワード、「誕生日会」が第2キーワードである場合、「好印象キーワードは、『子供』の『誕生日会』です。」というメッセージのテキストデータを生成する。次に、当該テキストデータに基づいて、そのメッセージを発声するキーワード通知用の音声データを生成する(S117)。音声データ通信部105により、音声データを生成したら、当該音声データを店員用端末5に送信する(S118)。店員用端末5を介してキーワード通知用の音声データを受信した音声指示用イヤホン3は、当該キーワード通知用の音声データを出力する(S119)。これによって、好印象キーワードを店員に通知する。これにより本処理を終了する。   Next, the good impression keyword notification process will be described with reference to the flowchart of FIG. Like the recommended product notification process, the good impression keyword notification process is performed at the start of the service section (when the next voice data after the end of the service section is acquired). As shown in FIG. 22, the management server 15 (control unit 53) refers to the non-commodity satisfaction keyword management table 91b and generates text data for keyword notification (S116). Specifically, a set of non-product keywords having no utterance flag and the highest favorable impression level at the present time is extracted from the non-product satisfaction keyword management table 91b, and a message to which this is added, for example, “child” is the first. When one keyword, “Birthday Party” is the second keyword, text data of a message “The good impression keyword is“ Birthday Party ”of“ Children ”.” Is generated. Next, based on the text data, keyword notification voice data for generating the message is generated (S117). When the voice data is generated by the voice data communication unit 105, the voice data is transmitted to the clerk terminal 5 (S118). The voice instruction earphone 3 that has received the keyword notification voice data via the clerk terminal 5 outputs the keyword notification voice data (S119). This notifies the store clerk of the good impression keyword. This is the end of this process.

[第2実施形態]
次に、図23ないし図26を参照して第2実施形態の接客支援システムSYについて特に異なる部分のみについて説明する。本実施形態の接客支援システムSYでは、管理サーバー15は、図4の構成に加え、会話区間ごとの話題キーワードを抽出し、当該話題キーワードが変化しない会話区間の集合体を、話題区間として特定する話題区間特定機能と、話題区間単位の顧客満足度を通知する話題区間満足度通知機能と、を備えている。また、図23に示すように、管理サーバー15は、図6の構成に加え、話題区間を特定する話題区間特定部203を有している。さらに、図24に示すように、管理サーバー用データベースDBは、図7の機能に加え、区間データ記憶部93として機能する。図9(b)に示すように、顧客満足度保存テーブル92は、図9(a)のデータに加え、話題区間単位の顧客満足度を記憶する。なお、話題キーワードは、1会話区間内で話題となったキーワードであり、話題区間は、当該話題キーワードに変化のない連続する会話区間の集合体とする。
[Second Embodiment]
Next, with reference to FIGS. 23 to 26, only a different part of the customer service support system SY of the second embodiment will be described. In the customer service support system SY of the present embodiment, the management server 15 extracts a topic keyword for each conversation section in addition to the configuration of FIG. 4, and identifies a set of conversation sections in which the topic keyword does not change as a topic section. It has a topic section identification function and a topic section satisfaction notification function for notifying customer satisfaction in units of topic sections. Further, as shown in FIG. 23, the management server 15 includes a topic section specifying unit 203 that specifies a topic section in addition to the configuration of FIG. Furthermore, as shown in FIG. 24, the management server database DB functions as a section data storage unit 93 in addition to the functions of FIG. As shown in FIG. 9B, the customer satisfaction storage table 92 stores customer satisfaction in units of topic sections in addition to the data in FIG. 9A. The topic keyword is a keyword that becomes a topic in one conversation section, and the topic section is a set of continuous conversation sections in which the topic keyword does not change.

ここで図25のフローチャートを参照し、話題区間特定処理について説明する。この話題区間特定処理は、会話区間の集合体である話題区間を特定する処理であるため、接客区間特定処理において会話区間を特定する都度、所定のループ処理(S122〜S137)を行って、話題区間を特定するものである。   Here, the topic section specifying process will be described with reference to the flowchart of FIG. Since the topic section specifying process is a process for specifying a topic section that is an aggregate of conversation sections, each time a conversation section is specified in the customer service section specifying process, a predetermined loop process (S122 to S137) is performed. It specifies the section.

図25に示すように、管理サーバー15(制御部53)は、会話区間が特定されると(S121:Yes)、特定された会話区間を、対象の会話区間としてループ処理(S122〜S137)を行う。なお、1つ前のループ処理で対象となった会話区間を、以下、前回の会話区間と呼称する。ループ処理では、まず、図20(S91〜S98)と同様の方法で、対象の会話区間に含まれる各発話区間の商品キーワードを抽出する(S122)。具体的には、まず、音声データ管理テーブル85により、会話区間に含まれる各発話区間の音声データを抽出する。各発話区間の音声データを抽出したら、音声認識部154により、当該音声データの音声認識を行う。その後、音声認識部154の音声認識結果として得られたテキスト情報を、テキスト情報記憶部88に記憶する。テキスト情報を抽出・記憶したら、商品キーワード用テーブル89aから、テキスト情報に含まれる1以上の商品種別キーワード(音声キーワード)を抽出する(音声キーワード抽出部)。その後、抽出した1以上の商品種別キーワード(関連キーワード)に基づいて、商品キーワードを抽出する。   As shown in FIG. 25, when the conversation section is specified (S121: Yes), the management server 15 (control unit 53) performs loop processing (S122 to S137) with the specified conversation section as the target conversation section. Do. The conversation section targeted in the previous loop process is hereinafter referred to as the previous conversation section. In the loop processing, first, product keywords of each utterance section included in the target conversation section are extracted by the same method as in FIG. 20 (S91 to S98) (S122). Specifically, first, the voice data of each utterance section included in the conversation section is extracted by the voice data management table 85. When the voice data of each utterance section is extracted, the voice recognition unit 154 performs voice recognition of the voice data. Thereafter, the text information obtained as a speech recognition result of the speech recognition unit 154 is stored in the text information storage unit 88. When the text information is extracted and stored, one or more product type keywords (voice keywords) included in the text information are extracted from the product keyword table 89a (voice keyword extraction unit). Thereafter, product keywords are extracted based on the extracted one or more product type keywords (related keywords).

次に、図20(S99〜S102)と同様の方法で、当該会話区間に含まれる各発話区間において、非商品キーワードの組を抽出する(S123)(単位キーワード抽出部)。具体的には、非商品キーワード用テーブル89bにより、上記テキスト情報に含まれる1以上の非商品キーワードを抽出する。その後、抽出した非商品キーワードから、第1キーワードと第2キーワードとを決定することで、非商品キーワードの組を抽出する。   Next, in the same method as in FIG. 20 (S99 to S102), a set of non-product keywords is extracted in each utterance section included in the conversation section (S123) (unit keyword extraction unit). Specifically, one or more non-product keywords included in the text information are extracted from the non-product keyword table 89b. After that, by determining the first keyword and the second keyword from the extracted non-product keywords, a set of non-product keywords is extracted.

これらによって、会話区間全体として、いずれかのキーワード(商品キーワードもしくは非商品キーワードの組)が抽出された場合(S124:Yes)には、会話区間全体における、商品キーワードと、非商品キーワードの組と、の抽出数を比較する(S125)。非商品キーワードの組の抽出数が多い場合(S126:B)には、抽出した1以上の非商品キーワードの組のうち、最も抽出数の多い非商品キーワードの組を話題キーワードに決定する(S127)。一方、商品キーワードの抽出数が多い場合(S126:A)には、抽出した1以上の商品キーワードの各マッチング度を算出する(S128)。抽出した1以上の商品キーワードのうち、マッチング度が所定の閾値を超える商品キーワードがある場合(S129:Yes)には、当該商品キーワードを話題キーワードに決定する(S130)。   As a result, when any keyword (a combination of product keyword or non-product keyword) is extracted as the entire conversation section (S124: Yes), the combination of the product keyword and the non-product keyword in the entire conversation section The extracted numbers are compared (S125). When the number of extracted non-product keyword sets is large (S126: B), the set of non-product keywords with the largest number of extracted non-product keyword sets is determined as the topic keyword (S127). ). On the other hand, when the number of product keywords extracted is large (S126: A), each matching degree of one or more extracted product keywords is calculated (S128). If there is a product keyword whose matching degree exceeds a predetermined threshold among the extracted one or more product keywords (S129: Yes), the product keyword is determined as a topic keyword (S130).

いずれのキーワード(商品キーワードもしくは非商品キーワードの組)も抽出されなかった場合(S124:No)や、マッチング度が所定の閾値を越える商品キーワードがないと判定された場合(S129:No)には、前回の会話区間における話題キーワードを、当該会話区間の話題キーワードに決定する(S131)。   When no keywords (a combination of product keywords or non-product keywords) are extracted (S124: No), or when it is determined that there is no product keyword with a matching degree exceeding a predetermined threshold (S129: No) The topic keyword in the previous conversation section is determined as the topic keyword in the conversation section (S131).

対象の会話区間の話題キーワードを決定したら、対象の会話区間の話題キーワードと、前回の会話区間の話題キーワードとが同一であるか否かを判別する(S132)。話題キーワードが同一である場合(S133:Yes)には、区間データ記憶部93に会話区間(厳密には、会話区間の開始時間および終了時間)を記録して(S134)、本ループ処理を終了する(会話区間の特定待ち状態(S121)に戻る)。一方、話題キーワードが同一でない場合には、話題区間特定部203により、区間データ記憶部93に記憶した1以上の会話区間の集合体を、1話題区間として特定する(S135)。その後、区間データ記憶部93内の全ての会話区間を削除する(S136)と共に、今回対象となった会話区間を区間データ記憶部93に記録して(S137)、ループ処理を終了する(会話区間の特定待ち状態(S121)に戻る)。このように、区間データ記憶部93に記憶した会話区間の集合体を、話題区間として順に特定していく。   When the topic keyword of the target conversation section is determined, it is determined whether or not the topic keyword of the target conversation section is the same as the topic keyword of the previous conversation section (S132). When the topic keywords are the same (S133: Yes), the conversation section (strictly speaking, the start time and end time of the conversation section) is recorded in the section data storage unit 93 (S134), and this loop processing is terminated. (Returns to the conversation waiting state (S121)). On the other hand, if the topic keywords are not the same, the topic section specifying unit 203 specifies a set of one or more conversation sections stored in the section data storage unit 93 as one topic section (S135). Thereafter, all the conversation sections in the section data storage section 93 are deleted (S136), and the conversation section targeted this time is recorded in the section data storage section 93 (S137), and the loop processing is terminated (conversation section). Return to the specific waiting state (S121). As described above, the aggregate of conversation sections stored in the section data storage unit 93 is sequentially identified as the topic section.

次に、図26のフローチャートを参照し、話題区間満足度通知処理について説明する。この話題区間満足度通知処理は、話題区間を特定する都度、すなわち話題区間の終了ごとに行われるものである。図26に示すように、まず、管理サーバー15(制御部53)は、顧客満足度保存テーブル92により、話題区間に含まれる各会話区間の顧客満足度を抽出する(S141)。次に、抽出した各会話区間の顧客満足度に基づいて、話題区間の顧客満足度を算出する(S142)(区間満足度算出部)。具体的には、抽出した各会話区間の顧客満足度における平均値を、話題区間の顧客満足度として算出する。   Next, the topic section satisfaction degree notification process will be described with reference to the flowchart of FIG. This topic section satisfaction degree notification process is performed every time a topic section is specified, that is, every time a topic section ends. As shown in FIG. 26, first, the management server 15 (the control unit 53) extracts the customer satisfaction of each conversation section included in the topic section using the customer satisfaction storage table 92 (S141). Next, based on the extracted customer satisfaction of each conversation section, the customer satisfaction of the topic section is calculated (S142) (section satisfaction calculation unit). Specifically, the average value of the customer satisfaction levels of each extracted conversation section is calculated as the customer satisfaction level of the topic section.

話題区間の顧客満足度を算出したら、算出した当該顧客満足度に基づく満足度通知用のテキストデータを生成する(S143)。具体的には、満足度通知用のテキストデータとして、話題区間の顧客満足度を通知するメッセージ、例えば、顧客満足度が「40」である場合、「話題区間の顧客満足度『40』」というメッセージのテキストデータを生成する。テキストデータを生成したら、音声データ生成部164により、当該テキストデータに基づいて、そのメッセージを発声する満足度通知用の音声データを生成する(S144)。満足度通知用の音声データを生成したら、音声データ通信部105により、当該音声データを店員用端末5に送信する(S145)。   When the customer satisfaction level of the topic section is calculated, text data for satisfaction notification based on the calculated customer satisfaction level is generated (S143). Specifically, as text data for notifying the satisfaction level, a message for notifying the customer satisfaction level of the topic section, for example, when the customer satisfaction level is “40”, “customer satisfaction level of the topic section“ 40 ””. Generate text data for the message. After the text data is generated, the voice data generation unit 164 generates voice data for satisfaction notification that utters the message based on the text data (S144). When the voice data for satisfaction level notification is generated, the voice data communication unit 105 transmits the voice data to the clerk terminal 5 (S145).

店員用端末5を介して、満足度通知用の音声データを受信した音声指示用イヤホン3は、満足度通知用の音声データを出力して(S146)、当該話題区間の顧客満足度を店員に通知する。これにより本処理を終了する。   The voice instruction earphone 3 that has received the satisfaction notification voice data via the salesclerk terminal 5 outputs the satisfaction notification voice data (S146), and the customer satisfaction of the topic section is given to the salesclerk. Notice. This is the end of this process.

以上の各実施形態によれば、店員と顧客との会話における音声データに基づいて、顧客満足度を算出し、算出した顧客満足度を店員に通知することにより、店員に顧客満足度を認識させることができる。ゆえに、店員の接客能力を向上させることができる。   According to each embodiment described above, the customer satisfaction is calculated by calculating the customer satisfaction based on the voice data in the conversation between the store clerk and the customer and notifying the store clerk of the calculated customer satisfaction. be able to. Therefore, the customer service ability of the store clerk can be improved.

また、顧客満足度を示す音声を出力することで、顧客満足度を簡単な構成で且つ容易に通知することができる。   Further, by outputting a voice indicating customer satisfaction, it is possible to easily notify customer satisfaction with a simple configuration.

さらに、音声データ取得部をウェアラブル装置である音声取得用マイク2で構成することにより、店員の音声を効率よく取得できる。また、満足度通知部をウェアラブル装置である音声指示用イヤホン3で構成することで、店員のみに顧客満足度を通知できるため、顧客に不快な思いをさせることがない。ここにいう「ウェアラブル装置」とは、店員の人体や衣服に装着可能な装置の意である。   Furthermore, by configuring the voice data acquisition unit with the voice acquisition microphone 2 that is a wearable device, the voice of the clerk can be efficiently acquired. Further, by configuring the satisfaction notification unit with the voice instruction earphone 3 that is a wearable device, only the store clerk can be notified of the customer satisfaction, so that the customer does not feel uncomfortable. The term “wearable device” as used herein refers to a device that can be worn on a store clerk's body or clothes.

またさらに、所定の閾値に達した発話区間を特定し、特定した発話区間の音声データに含まれる音声キーワード(商品種別キーワード)を抽出すると共に、それに関連する関連キーワード(商品キーワード)を抽出して店員に通知することにより、どんなキーワードが、顧客にとって好評であるかを店員に容易に認識させることができる。また、音声キーワードをそのまま通知せず、それに関連する関連キーワードを通知するため、音声キーワードを関連キーワードに統合して、通知することができる。すなわち、店員からすれば、音声キーワードを分析して、関連キーワードに統合する思考が省けるため、接客効率を向上することができる。なお、商品の略称をキーワードテーブル89に記憶し、商品の略称を、商品キーワードに統合して通知する構成であっても良い。   Furthermore, the utterance section that reaches the predetermined threshold is specified, and the voice keyword (product type keyword) included in the voice data of the specified utterance section is extracted, and the related keyword (product keyword) related thereto is extracted. By notifying the store clerk, the store clerk can easily recognize what keywords are popular with customers. Further, since the voice keyword is not notified as it is, and the related keyword related thereto is notified, the voice keyword can be integrated into the related keyword and notified. That is, since the store clerk can omit the thought of analyzing the voice keyword and integrating it into the related keyword, the customer service efficiency can be improved. The abbreviation of the product may be stored in the keyword table 89, and the abbreviation of the product may be integrated into the product keyword and notified.

また、上記第1実施形態の構成によれば、話し掛け区間が途切れない会話区間の終了ごとに、会話区間単位の顧客満足度を通知するため、会話が途切れた後に、顧客満足度が通知される。そのため、顧客との会話が、顧客満足度の通知によって阻害されることがない。また、話し掛け区間が途切れない区間を1単位として、顧客満足度を算出するため、店員が、どの区間の顧客満足度が通知されたかを認識しやすい。   In addition, according to the configuration of the first embodiment, the customer satisfaction level is notified after the conversation is interrupted because the customer satisfaction level in units of the conversation interval is notified at the end of the conversation interval where the conversation interval is not interrupted. . Therefore, the conversation with the customer is not hindered by the notification of customer satisfaction. In addition, since the customer satisfaction is calculated with a section where the talking section is not interrupted as one unit, the store clerk can easily recognize which section of the customer satisfaction is notified.

また、上記第2実施形態の構成によれば、話題区間の終了ごとに、話題区間単位の顧客満足度を通知することにより、どの話題が顧客に好評・不評であったかを容易に認識することができる。   In addition, according to the configuration of the second embodiment, it is possible to easily recognize which topic was popular or unpopular with the customer by notifying the customer satisfaction level in units of topic section at the end of the topic section. it can.

なお、上記各実施形態においては、会話区間終了ごとや話題区間終了ごとに当該区間の顧客満足度を算出して通知する構成であったが、顧客発話区間終了ごと、もしくは顧客話し掛け区間終了ごとに、当該区間の顧客満足度を算出して通知する構成であっても良いし、接客区間終了ごとに、当該区間の顧客満足度を算出し、通知する構成であっても良い。さらに、接客区間の終了ごとに、話題区間ごとの、もしくは会話区間ごとの顧客満足度を通知する構成や、話題区間の終了ごとに、会話区間ごとの顧客満足度を通知する構成であっても良い。   In each of the above embodiments, the customer satisfaction level of the section is calculated and notified at the end of the conversation section or at the end of the topic section. However, at each end of the customer utterance section or at the end of the customer talk section The customer satisfaction degree of the section may be calculated and notified, or the customer satisfaction degree of the section may be calculated and notified at the end of the customer service section. Furthermore, at the end of the customer service section, a configuration for notifying customer satisfaction for each topic section or for each conversation section, or for a configuration for notifying customer satisfaction for each conversation section for each end of the topic section good.

なお、上記各実施形態においては、関連キーワードとして、商品キーワードを記憶する構成であったが、関連キーワードとして、商品種別キーワード(商品種別)を記憶し、音声キーワードとして、商品キーワードを記憶する構成であっても良い。かかる場合、商品キーワードを音声キーワードとして取得した際、それが属する商品種別キーワードに統合して通知することができる。例えば、「ストレッチスリムフィットシャツ」や「ファインオックスフォードシャツ」といった商品キーワードを取得した際、それが属する商品種別の商品種別キーワードである「シャツ」を通知する。またさらに、関連キーワードとして、キャッチコピーを記憶し、音声キーワードとして、類視表現の複数のキャッチコピーを記憶する構成であっても良い。かかる場合、類似表現のキャッチコピーを取得した際、それら1のキャッチコピーに統合して通知することができる。キャッチコピーとは、接客する際の宣伝文句であり、例えば、「似合う」「お似合い」「似合います」といった類似表現のキャッチコピーを取得した際、「似合う」を通知する。   In each of the above embodiments, the product keyword is stored as the related keyword. However, the product type keyword (product type) is stored as the related keyword, and the product keyword is stored as the voice keyword. There may be. In such a case, when a product keyword is acquired as an audio keyword, it can be notified by being integrated with the product type keyword to which it belongs. For example, when a product keyword such as “stretch slim fit shirt” or “fine oxford shirt” is acquired, a “shirt” that is a product type keyword of the product type to which the product keyword belongs is notified. Furthermore, a configuration may be used in which catch phrases are stored as related keywords and a plurality of catch phrases of analogy expressions are stored as voice keywords. In such a case, when a catch phrase of a similar expression is acquired, it can be notified by being integrated with the catch phrase of the one. A catch phrase is an advertising phrase for customer service. For example, when a catch phrase having a similar expression such as “satisfying”, “satisfying”, “satisfying” is acquired, “satisfying” is notified.

また、上記各実施形態においては、管理サーバー15で顧客満足度を通知するメッセージの音声データを生成し、音声指示用イヤホン3によって、これを出力することで、店員に顧客満足度を通知する構成であったが、予め複数の音声パターンを記憶しておき、顧客満足度に応じて、複数の音声パターンの中から1の音声パターンを選択的に出力して、顧客満足度を通知する構成であっても良い。例えば、顧客満足度レベルとして、顧客満足度を段階的に区分し、顧客満足度レベルごとのビープ音パターンを記憶する音声パターンテーブル(図27参照)を有し、算出した顧客満足度に応じたビープ音パターンを出力して、顧客満足度を通知する。なお、図示省略したが、ビープ音パターンとして、顧客レベル1に対し、「ピ」というパターンを、顧客レベル5に対し、「ピ・ピ・ピ・ピ・ピ」というビープ音パターンを対応付けて記憶する。   Further, in each of the above embodiments, the management server 15 generates voice data of a message notifying the customer satisfaction, and outputs the voice data by the voice instruction earphone 3 to notify the customer clerk of the customer satisfaction. However, a plurality of voice patterns are stored in advance, one voice pattern is selectively output from the plurality of voice patterns according to customer satisfaction, and customer satisfaction is notified. There may be. For example, as the customer satisfaction level, the customer satisfaction level is classified step by step, and a voice pattern table (see FIG. 27) for storing a beep sound pattern for each customer satisfaction level is provided. According to the calculated customer satisfaction level A beep sound pattern is output to notify customer satisfaction. Although not shown, as a beep sound pattern, a pattern “pi” is associated with the customer level 1, and a beep sound pattern “pi pi pi pi pi” is associated with the customer level 5. Remember.

さらに、上記各実施形態においては、音声指示用イヤホン3による音声出力によって、顧客満足度を店員に通知する構成であったが、顧客満足度を示す満足度通知用のテキストデータ(文字列)を表示して、顧客満足度を店員に通知する構成であっても良い。例えば、店員が装着するヘッドマウントディスプレイによって、テキストデータを表示するものであっても良いし、電子ペーパーを利用したブレスレッド状の表示機器によって、テキストデータを表示する構成であっても良い。また、飲食業のような業態であれば、注文用のハンディターミナルの表示画面に、当該テキストデータを表示する構成であっても良いし、時計・宝石店のようなカウンター越しに接客を行う業態であれば、カウンターの下に小型のディスプレイを設置して、当該テキストデータを表示する構成であっても良い。   Further, in each of the above-described embodiments, the customer satisfaction is notified to the store clerk by voice output from the voice instruction earphone 3, but text data (character string) for satisfaction notification indicating the customer satisfaction is provided. It may be configured to display and notify the store clerk of customer satisfaction. For example, text data may be displayed by a head-mounted display worn by a store clerk, or text data may be displayed by a bracelet-shaped display device using electronic paper. In addition, if it is a business type such as the restaurant business, the text data may be displayed on the display screen of the handy terminal for ordering, or it may be a business type where customers are served through counters such as watches and jewelry stores. If so, a configuration may be adopted in which a small display is installed under the counter to display the text data.

また、さらに、顧客満足度に応じた振動によって、顧客満足度を通知する構成であっても良い。例えば、店員用端末5に搭載するバイブレーション機能や別体のバイブレーターにより、その顧客満足度に応じた振動によって、顧客満足度を通知する。   Furthermore, the structure which notifies customer satisfaction by the vibration according to customer satisfaction may be sufficient. For example, the customer satisfaction is notified by vibration according to the customer satisfaction by a vibration function or a separate vibrator mounted on the clerk terminal 5.

なお、上記各実施形態においては、発話区間の顧客満足度の平均値を、会話区間の顧客満足度としたが、顧客満足度の統計量であればこれに限るものではなく、例えば、発話区間の顧客満足度の最大値、中央値、最小値、標準偏差等を、会話区間の顧客満足度としても良い。話題区間の顧客満足度を算出する場合においても同様である。   In each of the above embodiments, the average value of the customer satisfaction in the utterance section is the customer satisfaction in the conversation section. However, the average value of the customer satisfaction is not limited to this, for example, the utterance section The maximum value, median value, minimum value, standard deviation, etc. of customer satisfaction may be used as the customer satisfaction level of the conversation section. The same applies to the case of calculating customer satisfaction in the topic section.

3:音声指示用イヤホン、 15:管理サーバー、 53:制御部、 102:音声取得部、 103:音声出力部、 154:音声認識部、 156:顧客満足度算出部、 203:話題区間特定部、 SY:接客支援システム   3: voice instruction earphone, 15: management server, 53: control unit, 102: voice acquisition unit, 103: voice output unit, 154: voice recognition unit, 156: customer satisfaction calculation unit, 203: topic section identification unit, SY: Customer service support system

Claims (12)

店員と顧客との会話における音声データを取得する音声データ取得部と、
取得した前記音声データから前記顧客の音声データを抽出する音声データ抽出部と、
抽出した前記顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出部と、
前記顧客満足度算出部により算出された顧客満足度を、前記店員に通知する満足度通知部と、を備えたことを特徴とする接客支援装置。
An audio data acquisition unit for acquiring audio data in a conversation between a store clerk and a customer;
An audio data extraction unit for extracting the customer's audio data from the acquired audio data;
A customer satisfaction calculation unit for calculating customer satisfaction based on the extracted voice data of the customer;
A customer service support apparatus, comprising: a satisfaction notifying unit that notifies the store clerk of the customer satisfaction calculated by the customer satisfaction calculating unit.
前記満足度通知部は、前記顧客満足度を示す音声を出力することで、前記顧客満足度を通知することを特徴とする請求項1に記載の接客支援装置。   The customer service support apparatus according to claim 1, wherein the satisfaction notifying unit notifies the customer satisfaction by outputting a voice indicating the customer satisfaction. 前記満足度通知部は、前記顧客満足度算出部により算出された前記顧客満足度に応じて、複数の音声パターンの中から1の音声パターンを選択的に出力することで、前記顧客満足度を通知することを特徴とする請求項2に記載の接客支援装置。   The satisfaction notification unit selectively outputs one voice pattern from a plurality of voice patterns according to the customer satisfaction calculated by the customer satisfaction calculation unit, thereby obtaining the customer satisfaction. The service support apparatus according to claim 2, wherein notification is provided. 前記満足度通知部は、前記顧客満足度を示す文字列を表示することで、前記顧客満足度を通知することを特徴とする請求項1に記載の接客支援装置。   The customer service support apparatus according to claim 1, wherein the satisfaction level notification unit notifies the customer satisfaction level by displaying a character string indicating the customer satisfaction level. 前記満足度通知部は、前記顧客満足度に応じた振動によって、前記顧客満足度を通知することを特徴とする請求項1に記載の接客支援装置。   The customer service support device according to claim 1, wherein the satisfaction notifying unit notifies the customer satisfaction by vibration according to the customer satisfaction. 前記音声データ取得部および前記満足度通知部は、前記店員に装着したウェアラブル装置で構成されていることを特徴とする請求項1ないし5のいずれかに記載の接客支援装置。   6. The customer service support device according to claim 1, wherein the voice data acquisition unit and the satisfaction notification unit are configured by a wearable device attached to the store clerk. 前記顧客満足度算出部は、
連続する音声の区間を1発話区間としたとき、当該発話区間ごとに前記顧客満足度を算出する個別満足度算出部と、
所定時間以上途切れないまま繰り返される前記店員または前記顧客の前記発話区間の集合体を1話し掛け区間、前記店員と前記顧客の前記話し掛け区間が所定時間以上途切れないまま交互に繰り返される前記話し掛け区間の集合体を1会話区間としたとき、前記会話区間ごとの前記顧客満足度の統計量を、前記会話区間単位の顧客満足度として算出する区間満足度算出部と、を有し、
前記満足度通知部は、前記会話区間の終了ごとに、前記会話区間単位の前記顧客満足度を通知することを特徴とする請求項1ないし6のいずれかに記載の接客支援装置。
The customer satisfaction calculation unit
When a continuous speech section is defined as one utterance section, an individual satisfaction calculation unit that calculates the customer satisfaction for each utterance section;
A set of the utterance sections of the store clerk or the customer that is repeated without interruption for a predetermined time or more, and a set of the conversation sections that the clerk of the store clerk and the customer repeats alternately without interruption for a predetermined time or more. When the body is one conversation section, a section satisfaction degree calculation unit that calculates the customer satisfaction statistic for each conversation section as a customer satisfaction degree for each conversation section, and
The customer service support apparatus according to claim 1, wherein the satisfaction level notification unit notifies the customer satisfaction level in units of the conversation section at each end of the conversation section.
所定の音声キーワードに関連する関連キーワードを記憶する関連キーワード記憶部と、
前記音声データに含まれる、連続する音声の区間である会話区間のうち、前記顧客満足度が、所定の閾値に達した会話区間を特定する区間特定部と、
特定した前記会話区間の音声データを音声認識する音声認識部と、
前記音声認識部の認識結果に基づいて、前記会話区間の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、
前記関連キーワード記憶部から、抽出した前記音声キーワードに関連する関連キーワードを抽出する関連キーワード抽出部と、
抽出した前記関連キーワードを前記店員に通知する関連キーワード通知部と、を更に備えたことを特徴とする請求項7に記載の接客支援装置。
A related keyword storage unit for storing related keywords related to a predetermined voice keyword;
Among conversation sections that are continuous voice sections included in the voice data, a section identifying unit that identifies a conversation section in which the customer satisfaction has reached a predetermined threshold;
A voice recognition unit that recognizes voice data of the identified conversation section;
A speech keyword extraction unit that extracts speech keywords included in the speech data of the conversation section based on a recognition result of the speech recognition unit;
A related keyword extraction unit that extracts a related keyword related to the extracted voice keyword from the related keyword storage unit;
The service support apparatus according to claim 7, further comprising a related keyword notification unit that notifies the salesclerk of the extracted related keyword.
前記関連キーワード記憶部は、前記関連キーワードとして、前記音声キーワードにより推定される商品の商品名称、当該商品の商品種別およびキャッチコピーのいずれか少なくとも1つを記憶していることを特徴とする請求項8に記載の接客支援装置。   The related keyword storage unit stores at least one of a product name of a product estimated by the voice keyword, a product type of the product, and a catch phrase as the related keyword. 8. A customer service support device according to 8. 話題ごとに分類された話題キーワードを記憶する話題キーワード記憶部と、
連続する音声の区間を1発話区間としたとき、当該発話区間単位で、前記音声データを音声認識する音声認識部と、
前記音声認識部の認識結果に基づいて、前記店員および前記顧客の音声データに含まれる音声キーワードを抽出する音声キーワード抽出部と、
前記話題キーワード記憶部を参照して、前記発話区間ごとに抽出した前記音声キーワードに対応する前記話題キーワードを特定し、当該話題キーワードが属する分類が変化しない前記発話区間の集合体を、話題区間として特定する話題区間特定部と、を更に備え、
前記満足度算出部は、
前記発話区間ごとに前記顧客満足度を算出する個別満足度算出部と、
前記話題区間ごとの前記顧客満足度の統計量を、前記話題区間単位の顧客満足度として算出する区間満足度算出部と、を有し、
前記満足度通知部は、前記話題区間の終了ごとに、前記話題区間単位の前記顧客満足度を通知することを特徴とする請求項1ないし6のいずれかに記載の接客支援装置。
A topic keyword storage unit for storing topic keywords classified by topic;
When a continuous speech segment is defined as one speech segment, a speech recognition unit that recognizes the speech data in speech units,
A speech keyword extraction unit that extracts speech keywords included in speech data of the clerk and the customer based on a recognition result of the speech recognition unit;
Referring to the topic keyword storage unit, the topic keyword corresponding to the voice keyword extracted for each utterance section is identified, and a set of the utterance sections in which the classification to which the topic keyword belongs does not change is defined as a topic section. A topic section identifying unit to identify,
The satisfaction calculation unit
An individual satisfaction calculation unit for calculating the customer satisfaction for each utterance section;
A section satisfaction calculation unit that calculates the customer satisfaction statistic for each topic section as the customer satisfaction of the topic section;
The customer service support device according to claim 1, wherein the satisfaction degree notification unit notifies the customer satisfaction degree in units of the topic section every time the topic section ends.
店員による接客を支援する接客支援装置の接客支援方法であって、
前記接客支援装置は、店員と顧客との会話における音声データを取得する音声データ取得工程と、
取得した前記音声データから前記顧客を抽出する音声データ抽出工程と、
抽出した前記顧客の音声データに基づいて、顧客満足度を算出する顧客満足度算出工程と、
前記顧客満足度算出工程により算出された顧客満足度を、前記店員に通知する満足度通知工程と、を実行することを特徴とする接客支援方法。
A customer service support method for a customer service support device for supporting customer service by a store clerk,
The customer support device is a voice data acquisition step of acquiring voice data in a conversation between a store clerk and a customer;
A voice data extraction step of extracting the customer from the acquired voice data;
A customer satisfaction calculation step of calculating customer satisfaction based on the extracted voice data of the customer;
A customer service support method, comprising: performing a customer satisfaction level calculation step of notifying the customer clerk of the customer satisfaction level calculated by the customer satisfaction level calculation step.
コンピューターに、請求項11に記載の接客支援方法における各工程を実行させるためのプログラム。   The program for making a computer perform each process in the customer service support method of Claim 11.
JP2010088388A 2010-04-07 2010-04-07 Customer service support device, customer service support method, and program Withdrawn JP2011221683A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010088388A JP2011221683A (en) 2010-04-07 2010-04-07 Customer service support device, customer service support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010088388A JP2011221683A (en) 2010-04-07 2010-04-07 Customer service support device, customer service support method, and program

Publications (1)

Publication Number Publication Date
JP2011221683A true JP2011221683A (en) 2011-11-04

Family

ID=45038618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010088388A Withdrawn JP2011221683A (en) 2010-04-07 2010-04-07 Customer service support device, customer service support method, and program

Country Status (1)

Country Link
JP (1) JP2011221683A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014140848A2 (en) * 2013-03-15 2014-09-18 Toshiba Global Commerce Solutions Holdings Corporation Systems and methods for providing retail process analytics information based on physiological indicator data
JP2015011712A (en) * 2013-06-28 2015-01-19 アザパ アールアンドディー アメリカズ インク Digital information gathering and analyzing method and apparatus
JP2016103081A (en) * 2014-11-27 2016-06-02 Kddi株式会社 Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program
JP2016206736A (en) * 2015-04-16 2016-12-08 日本電気株式会社 Customer service data processing device and customer service data processing method
KR101815488B1 (en) * 2016-11-30 2018-01-05 주식회사 브이오엠 Sales promotion system using voice information and method using the same
JP2019191795A (en) * 2018-04-23 2019-10-31 和夫 金子 Customer service support system
JP2020027441A (en) * 2018-08-10 2020-02-20 Regain Group株式会社 Business proposal system, business proposal program, and business proposal method
JP2020160336A (en) * 2019-03-27 2020-10-01 株式会社博報堂Dyホールディングス Evaluation system, evaluation method, and computer program
JP2021039537A (en) * 2019-09-03 2021-03-11 Kddi株式会社 Response evaluation device, response evaluation method and computer program
CN113240453A (en) * 2021-04-21 2021-08-10 福建神笔马良智能科技股份有限公司 Commodity sales dynamic pushing management system based on block chain
JP2022081050A (en) * 2020-11-19 2022-05-31 トヨタ自動車株式会社 Utterance evaluation system, utterance evaluation method, and program
JP7501065B2 (en) 2020-04-13 2024-06-18 大日本印刷株式会社 Behavior management device, behavior management program, behavior management system, and behavior analysis device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014140848A2 (en) * 2013-03-15 2014-09-18 Toshiba Global Commerce Solutions Holdings Corporation Systems and methods for providing retail process analytics information based on physiological indicator data
WO2014140848A3 (en) * 2013-03-15 2015-01-22 Toshiba Global Commerce Solutions Holdings Corporation Systems and methods for providing retail process analytics information based on physiological indicator data
JP2015011712A (en) * 2013-06-28 2015-01-19 アザパ アールアンドディー アメリカズ インク Digital information gathering and analyzing method and apparatus
JP2016103081A (en) * 2014-11-27 2016-06-02 Kddi株式会社 Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program
JP2016206736A (en) * 2015-04-16 2016-12-08 日本電気株式会社 Customer service data processing device and customer service data processing method
KR101815488B1 (en) * 2016-11-30 2018-01-05 주식회사 브이오엠 Sales promotion system using voice information and method using the same
JP2019191795A (en) * 2018-04-23 2019-10-31 和夫 金子 Customer service support system
JP2020027441A (en) * 2018-08-10 2020-02-20 Regain Group株式会社 Business proposal system, business proposal program, and business proposal method
JP2020160336A (en) * 2019-03-27 2020-10-01 株式会社博報堂Dyホールディングス Evaluation system, evaluation method, and computer program
JP2021039537A (en) * 2019-09-03 2021-03-11 Kddi株式会社 Response evaluation device, response evaluation method and computer program
JP7195236B2 (en) 2019-09-03 2022-12-23 Kddi株式会社 Response evaluation device, response evaluation method, and computer program
JP7501065B2 (en) 2020-04-13 2024-06-18 大日本印刷株式会社 Behavior management device, behavior management program, behavior management system, and behavior analysis device
JP2022081050A (en) * 2020-11-19 2022-05-31 トヨタ自動車株式会社 Utterance evaluation system, utterance evaluation method, and program
JP7354992B2 (en) 2020-11-19 2023-10-03 トヨタ自動車株式会社 Comment evaluation system, comment evaluation method, and program
CN113240453A (en) * 2021-04-21 2021-08-10 福建神笔马良智能科技股份有限公司 Commodity sales dynamic pushing management system based on block chain
CN113240453B (en) * 2021-04-21 2024-05-28 福建神笔马良智能科技股份有限公司 Dynamic commodity sales promotion management system based on block chain

Similar Documents

Publication Publication Date Title
JP2011221683A (en) Customer service support device, customer service support method, and program
JP2011221891A (en) Keyword recording device, customer service support device, keyword recording method and program
JP5533219B2 (en) Hospitality data recording device
JP5477153B2 (en) Service data recording apparatus, service data recording method and program
JP2011210133A (en) Satisfaction degree calculation method, satisfaction degree calculation device and program
JP6596899B2 (en) Service data processing apparatus and service data processing method
US20110282662A1 (en) Customer Service Data Recording Device, Customer Service Data Recording Method, and Recording Medium
CN106782615B (en) Voice data emotion detection method, device and system
US9418344B2 (en) In-store communication, service and data collection system
US20190147228A1 (en) System and method for human emotion and identity detection
EP2343676A2 (en) Degree of fraud calculating device, control method for a degree of fraud calculating device, and store surveillance system
JP2016021044A (en) Customer service evaluation device, customer service evaluation system, and customer service evaluation method
JP2011210100A (en) Customer service data recording device, customer service data recording method and program
US20140019199A1 (en) Automatically evaluating customer satisfaction
JP2011237966A (en) Customer service support device, customer service support method and program
WO2020090117A1 (en) Information processing device, information processing system, learning device, learned estimation model, and method for collecting data for learning
KR20080057030A (en) Apparatus and method for image communication inserting emoticon
CN114168644A (en) Interaction method, equipment and system for exhibition scene
JP7513161B2 (en) Information processing system, customer identification device, information processing method and program
JP7092035B2 (en) Information processing equipment and information processing method
JP2011221627A (en) Customer service support device, customer service support method and program
JP5604410B2 (en) Information processing apparatus and program
JP2011113442A (en) Apparatus for determining accounting processing, method for controlling the apparatus, and program
US20230368792A1 (en) Information processing system, information processing method, and storage medium
JP6647485B1 (en) Commodity payment system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130702