JP2023019732A - Apparatus for evaluating service provided by service provider, method and program to be executed on the apparatus - Google Patents

Apparatus for evaluating service provided by service provider, method and program to be executed on the apparatus Download PDF

Info

Publication number
JP2023019732A
JP2023019732A JP2021124681A JP2021124681A JP2023019732A JP 2023019732 A JP2023019732 A JP 2023019732A JP 2021124681 A JP2021124681 A JP 2021124681A JP 2021124681 A JP2021124681 A JP 2021124681A JP 2023019732 A JP2023019732 A JP 2023019732A
Authority
JP
Japan
Prior art keywords
service
service provider
data
evaluation value
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021124681A
Other languages
Japanese (ja)
Other versions
JP7033353B1 (en
Inventor
大輔 石井
Daisuke Ishii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CHIARA KK
Original Assignee
CHIARA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHIARA KK filed Critical CHIARA KK
Priority to JP2021124681A priority Critical patent/JP7033353B1/en
Application granted granted Critical
Publication of JP7033353B1 publication Critical patent/JP7033353B1/en
Publication of JP2023019732A publication Critical patent/JP2023019732A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an apparatus, method and program for evaluating a service to be provided by a service provider.SOLUTION: Processing to be executed in a server device for implementing a service evaluating method includes: a step of receiving visual data related to a service; a step of receiving voice data related to the service; a step of evaluating the service on the basis of the visual data and the voice data; and a step of executing processing for presenting a result of evaluating the service to a person who is provided with the service.SELECTED DRAWING: Figure 4

Description

本発明は、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラムに関する。 The present invention relates to a device for evaluating services provided by a service provider, a method and a program executed in the device.

従来から、商品を購入する前におよび/または商品の購入に関する契約を締結する前に、店員が客に対してその商品の詳細を説明するサービスが知られている。 2. Description of the Related Art Conventionally, a service is known in which a store clerk explains the details of a product to a customer before purchasing the product and/or before concluding a contract regarding the purchase of the product.

株式会社ノードプレース、“携帯ショップ店員の仕事内容・なり方・年収・資格などを解説”、[online]、[令和3年7月21日検索]、インターネット<URL:https://careergarden.jp/keitaishop-tenin/>Node Place Co., Ltd., “Explaining the work content, how to become a mobile shop clerk, annual income, qualifications, etc.”, [online], [searched on July 21, 2021], Internet <URL: https://careergarden. jp/keitaishop-tenin/>

しかしながら、商品を購入する前におよび/または商品の購入に関する契約を締結する前に、店員のサービスの良し悪し(例えば、商品の説明が十分であるのか、商品の購入に関連する契約の説明が正しいのか)を客が知る術はなかった。 However, prior to purchasing an item and/or concluding a contract for the purchase of an item, it is important to assess the quality of the service provided by the store clerk (e.g., whether the item description is sufficient, whether the contract related to the purchase of the item is adequately explained, etc.). There was no way for the customer to know if it was correct.

本発明は、上述した課題に鑑みてなされたものであり、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a device for evaluating services provided by a service provider, a method executed by the device, and a program.

本発明の1つの局面において、本発明の装置は、サービス提供者が提供するサービスを評価するための装置であり、前記装置は、前記サービスに関連する視覚データを受信する手段と、前記サービスに関連する音声データを受信する手段と、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段とを備える。 In one aspect of the present invention, the device of the present invention is a device for evaluating a service provided by a service provider, said device comprising means for receiving visual data relating to said service; means for receiving associated audio data; and means for performing an evaluation of said service based on said visual data and said audio data.

本発明の1つの実施形態では、前記音声データは、サービス被提供者に対して発話した前記サービス提供者の発話データと、前記サービス提供者に対して発話した前記サービス被提供者の発話データとを含み、前記視覚データは、前記サービス提供者が前記サービス被提供者に対して発話しているときの前記サービス提供者の顔を示す第1の画像データと、前記サービス被提供者が前記サービス提供者に対して発話しているときの前記サービス提供者の顔を示す第2の画像データとを含み、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記サービス提供者の発話データと前記サービス被提供者の発話データと前記第1の画像データと前記第2の画像データとに基づいて前記サービスの評価を実施する手段を含んでいてもよい。 In one embodiment of the present invention, the voice data includes speech data of the service provider speaking to the service recipient and speech data of the service recipient speaking to the service provider. wherein the visual data includes first image data showing the face of the service provider when the service provider is speaking to the service recipient; and second image data showing the face of the service provider when speaking to the provider, the means for performing an evaluation of the service based on the visual data and the audio data, comprising: Means may be included for evaluating the service based on the speech data of the service provider, the speech data of the service recipient, the first image data, and the second image data.

本発明の1つの実施形態では、前記装置は、前記サービス提供者の発話データと前記第1の画像データとに基づいて、前記サービス提供者が発話している間の前記サービスの第1の評価値を算出する手段と、前記サービス被提供者の発話データと前記第2の画像データとに基づいて、前記サービス被提供者が発話している間の前記サービスの第2の評価値を算出する手段とをさらに備え、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記第1の評価値と前記第2の評価値とに基づいて前記サービスの評価を実施する手段を含んでいてもよい。 In one embodiment of the invention, the device performs a first evaluation of the service while the service provider is speaking, based on the speech data of the service provider and the first image data. calculating a second evaluation value of the service while the service recipient is speaking, based on the service recipient's utterance data and the second image data; wherein the means for evaluating the service based on the visual data and the audio data evaluates the service based on the first evaluation value and the second evaluation value. may include means for

本発明の1つの実施形態では、前記第1の画像データおよび前記第2の画像データは、前記サービス提供者の顔の1つ以上のパーツに関連する顔パラメータを含み、前記第1の評価値を算出する手段は、前記サービス提供者の発話データと前記第1の画像データに含まれる顔パラメータとに基づいて前記第1の評価値を算出する手段を含み、前記第2の評価値を算出する手段は、前記サービス被提供者の発話データと前記第2の画像データに含まれる顔パラメータとに基づいて前記第2の評価値を算出する手段を含んでいてもよい。 In one embodiment of the present invention, said first image data and said second image data include facial parameters associated with one or more parts of said service provider's face, said first evaluation value includes means for calculating the first evaluation value based on speech data of the service provider and face parameters included in the first image data, and calculating the second evaluation value The means for calculating may include means for calculating the second evaluation value based on speech data of the service provider and face parameters included in the second image data.

本発明の1つの実施形態では、前記サービス提供者の発話データおよび前記サービス被提供者の発話データは、発話の音量、速度、トーン、および間隔のうちの少なくとも1つの音声パラメータを含み、前記第1の評価値を算出する手段は、前記サービス提供者の発話データの少なくとも1つの音声パラメータと前記第1の画像データとに基づいて前記第1の評価値を算出する手段を含み、前記第2の評価値を算出する手段は、前記サービス被提供者の発話データの少なくとも1つの音声パラメータと前記第2の画像データとに基づいて前記第2の評価値を算出する手段を含んでいてもよい。 In one embodiment of the present invention, the service provider's speech data and the service provider's speech data include at least one speech parameter of speech volume, rate, tone, and interval; The means for calculating one evaluation value includes means for calculating the first evaluation value based on at least one speech parameter of the speech data of the service provider and the first image data, The means for calculating the evaluation value of may include means for calculating the second evaluation value based on at least one speech parameter of the speech data of the service provider and the second image data .

本発明の1つの実施形態では、前記視覚データは、前記サービスに関連する書類の第3の画像データを含んでいてもよい。 In one embodiment of the invention, the visual data may include third image data of documents associated with the service.

本発明の1つの実施形態では、前記装置は、前記第3の画像データの光学的文字認識を実施するための手段をさらに備えていてもよい。 In one embodiment of the invention, said apparatus may further comprise means for performing optical character recognition of said third image data.

本発明の1つの実施形態では、前記装置は、前記光学的文字認識された第3の画像データに基づいて、前記書類に関連付けられた第3の評価値を算出する手段をさらに備え、前記サービスの評価の実施は、前記第3の評価値にさらに基づいてもよい。 In one embodiment of the present invention, the device further comprises means for calculating a third evaluation value associated with the document based on the optical character recognized third image data, and the service may be further based on the third evaluation value.

本発明の1つの実施形態では、前記装置は、言語非依存の態様で前記サービスの評価の結果をサービス被提供者に提示する手段をさらに備えていてもよい。 In one embodiment of the invention, the device may further comprise means for presenting the results of the evaluation of the service to the service provider in a language-independent manner.

本発明の1つの実施形態では、前記視覚データを受信する手段は、カメラを介して前記視覚データを受信する手段を含んでいてもよい。 In one embodiment of the invention, said means for receiving visual data may comprise means for receiving said visual data via a camera.

本発明の1つの実施形態では、前記音声データを受信する手段は、マイクを介して前記音声データを受信する手段を含んでいてもよい。 In one embodiment of the invention, said means for receiving audio data may include means for receiving said audio data via a microphone.

本発明の1つの実施形態では、前記装置は、サービス被提供者が装着するウェアラブルデバイスを含んでいてもよい。 In one embodiment of the invention, the apparatus may include a wearable device worn by the service provider.

本発明の1つの実施形態では、前記ウェアラブルデバイスは、前記サービス被提供者の眼に装着可能な眼鏡型ウェアラブルデバイスを含んでいてもよい。 In one embodiment of the present invention, the wearable device may include a glasses-type wearable device that can be worn on the eyes of the service provider.

本発明の1つの局面において、本発明の方法は、サービス提供者が提供するサービスを評価するための装置において実行される方法であり、前記装置は、プロセッサ部を備え、前記方法は、前記プロセッサ部が、前記サービスに関連する視覚データを受信することと、前記プロセッサ部が、前記サービスに関連する音声データを受信することと、前記プロセッサ部が、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することとを含む。 In one aspect of the present invention, the method of the present invention is a method performed in a device for evaluating a service provided by a service provider, said device comprising a processor unit, said method comprising: a unit receiving visual data associated with the service; the processor unit receiving audio data associated with the service; and conducting an evaluation of the service.

本発明の1つの局面において、本発明のプログラムは、サービス提供者が提供するサービスを評価するための装置において実行されるプログラムであり、前記装置は、プロセッサ部を備え、前記プログラムは、前記プロセッサ部によって実行されると、前記サービスに関連する視覚データを受信することと、前記サービスに関連する音声データを受信することと、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することとを少なくとも前記プロセッサ部に行わせる。 In one aspect of the present invention, a program of the present invention is a program executed in a device for evaluating services provided by a service provider, the device comprising a processor section, the program comprising the processor receiving visual data associated with the service; receiving audio data associated with the service; and performing an evaluation of the service based on the visual data and the audio data. and at least the processor unit.

本発明によれば、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラムを提供することが可能である。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a device for evaluating services provided by a service provider, a method executed in the device, and a program.

サービス提供者がサービス被提供者にサービスを提供している場面の一例を示すAn example of a scene in which a service provider provides a service to a service recipient ユーザ装置130によってサービス被提供者110に提示されるサービスの評価の結果の一例を示す1 shows an example of evaluation results of a service presented to the service provider 110 by the user device 130; 新しいサービス評価方法を実現するためのシステム200の構成の一例を示すAn example of the configuration of a system 200 for realizing a new service evaluation method is shown. データベース部240に格納されている情報の構成の一部を示すA part of the configuration of information stored in the database unit 240 is shown. サーバ装置210において実行される処理のフローの一例を示す1 shows an example of the flow of processing executed in the server device 210; 図4に示されるステップS403の処理の一例を示す4 shows an example of the processing of step S403 shown in FIG. 時系列に沿った評価値の変化の一例を示すShow an example of changes in evaluation values over time

以下、本明細書において用いられる用語を定義する。 The terms used in this specification are defined below.

本明細書において「サービス提供者」とは、サービスを提供する人をいい、「サービス被提供者」とはサービスを提供してもらう人をいうものとする。すなわち、サービスは、サービス提供者によってサービス被提供者に提供される。 In this specification, the term "service provider" refers to a person who provides a service, and the term "service recipient" refers to a person to whom a service is provided. That is, services are provided to service recipients by service providers.

また、本明細書における「サービス」は、任意のサービスであり得るが、代表的には、サービス提供者がサービス被提供者に実際に(物理的に)会った際にサービス提供者によって提供されるものであり得る。1つの実施形態では、サービス提供者は、サービス被提供者にディスプレイを介してリモートで「サービス」を提供してもよい。 Also, "service" herein can be any service, but is typically provided by the service provider when the service provider actually (physically) meets the service recipient. can be In one embodiment, a service provider may provide a "service" to a service recipient remotely via a display.

「サービス」の一例は、サービス提供者(例えば、店員)がサービス被提供者(例えば、客)に商品を説明する(必要に応じて、商品の説明の後、契約をする)サービスである。なお、本明細書において、商品は、物理的な物であってもよいし、物理的ではない役務であってもよい。 An example of a "service" is a service in which a service provider (e.g., store clerk) explains a product to a service recipient (e.g., a customer) (if necessary, a contract is made after the explanation of the product). In this specification, goods may be physical goods or non-physical services.

1.新しいサービス評価方法
出願人は、サービス提供者がサービス被提供者にサービスを提供しているときに(または提供した後に)サービス被提供者がサービスの良し悪しを判断することを可能にするために、サービス提供者のサービスの評価の結果をサービス被提供者に提供および/または提示するための新しいサービス評価手法を提案する。このような新しいサービス評価手法によれば、サービス被提供者は、例えば、サービス被提供者が装着しているユーザ装置(例えば、眼鏡型ウェアラブルデバイス)を用いて、サービス提供者のサービスに関連する視覚データ(例えば、サービス提供者の顔の画像データ)と、サービス提供者のサービスに関連する音声データ(例えば、サービス提供者とサービス被提供者との間の会話のデータ(すなわち、サービス提供者の発言内容を示す発話データおよびサービス被提供者の発言内容を示す発話データ))とを取得し、ユーザ装置と通信可能なサーバ装置に提供し、サーバ装置は、視覚データと音声データとに基づいてサービス提供者のサービスの評価を実施し、ユーザ装置は、サービス提供者のサービスの評価の結果をサービス被提供者に提供および/または提示することが可能である。
1. A new service evaluation method Applicant proposes a new service evaluation method to enable service recipients to judge the quality of the service when (or after) the service provider is providing the service to the service recipient. proposes a new service evaluation technique for providing and/or presenting the results of the evaluation of the service of the service provider to the service recipient. According to such a new service evaluation method, the service provider uses, for example, a user device (for example, a glasses-type wearable device) worn by the service provider to evaluate the service of the service provider. Visual data (e.g., image data of the service provider's face) and audio data associated with the service provider's services (e.g., conversational data between the service provider and the service recipient (i.e., the service provider utterance data indicating the utterance content of the service provider and the utterance data indicating the utterance content of the service provider)) and provided to a server device that can communicate with the user device, and the server device receives the visual data and the voice data based on the The user device can provide and/or present the results of the evaluation of the service provider's service to the service provider.

以下、図面を参照しながら、本発明の実施の形態を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1Aは、サービス提供者がサービス被提供者にサービスを提供している場面の一例を示す。 FIG. 1A shows an example of a scene in which a service provider is providing a service to a service recipient.

図1Aに示される実施形態では、サービス提供者100(例えば、店舗の店員)が、サービス被提供者110(例えば、店舗に訪れた客)に対して、対面した状態で、サービスに関連する書類120(例えば、商品に関連する契約書)を用いて、サービス(例えば、店舗において販売されている商品の詳細およびその商品に関連する契約を説明するサービス)を提供している。 In the embodiment shown in FIG. 1A, a service provider 100 (e.g., a store clerk) faces a service recipient 110 (e.g., a customer visiting a store) and submits documents related to the service. 120 (e.g., contracts relating to goods) are used to provide services (e.g., services describing details of goods sold in a store and contracts relating to those goods).

図1Aに示される実施形態では、サービス被提供者110がユーザ装置130(例えば、眼鏡型ウェアラブルデバイス)を装着している。サービス被提供者110は、ユーザ装置130(例えば、ユーザ装置130のマイク)を用いて、サービスに関連する音声(例えば、サービス被提供者110に対して発話したサービス提供者100の発話およびサービス提供者100に対して発話したサービス被提供者110の発話)を収音し、サービスに関連する音声データを入手する。サービスに関連する音声データは、サービスの評価のために使用される。 In the embodiment shown in FIG. 1A, the service recipient 110 is wearing a user device 130 (eg, a glasses-type wearable device). The service provider 110 uses the user device 130 (for example, the microphone of the user device 130) to use the voice related to the service (for example, the speech of the service provider 100 spoken to the service provider 110 and the service provision). The utterance of the service provider 110 uttered to the person 100) is picked up to obtain voice data related to the service. Service-related audio data is used for service evaluation.

図1Aに示される実施形態では、サービス被提供者110は、ユーザ装置130(例えば、ユーザ装置130のカメラ)を用いて、サービスに関連する画像(例えば、サービス提供者100の画像(例えば、サービス提供者100の顔の画像))を撮像し、サービスに関連する視覚データを入手する。サービスに関連する視覚データは、サービスの評価のために使用される。 In the embodiment shown in FIG. 1A, service provider 110 uses user device 130 (eg, a camera of user device 130) to capture images associated with the service (eg, images of service provider 100 (eg, service provider 100)). A face image)) of the provider 100 is captured to obtain visual data related to the service. Visual data associated with the service is used for service evaluation.

図1Aに示される実施形態では、サービス被提供者110は、ユーザ装置130(例えば、ユーザ装置130のカメラ)を用いて、書類120をさらに撮像し、書類120の画像データを入手してもよい。書類120の画像データは、サービスの評価のために使用され得る。 In the embodiment shown in FIG. 1A, the service recipient 110 may further image the document 120 using the user device 130 (eg, the camera of the user device 130) to obtain the image data of the document 120. . Image data of document 120 may be used for service evaluation.

サービス被提供者110は、サービスに関連する視覚データとサービスに関連する音声データと入手すると(または、サービスに関連する視覚データとサービスに関連する音声データと書類120の画像データとを入手すると)、サービスの評価の結果を見ることができる。サービスの評価の結果は、例えば、ユーザ装置130によってサービス被提供者110に提示される。これにより、サービス被提供者110は、サービス提供者100によって提供されるサービスの良し悪しを把握することができ、ひいては、商品の購入および/または商品に関連する契約を行うべきか否かを判断することができる。 When the service provider 110 obtains the visual data associated with the service and the audio data associated with the service (or obtains the visual data associated with the service, the audio data associated with the service, and the image data of the document 120), the service provider 110 , you can see the results of the evaluation of the service. The service evaluation result is presented to the service provider 110 by the user device 130, for example. As a result, the service provider 110 can grasp the quality of the service provided by the service provider 100, and can determine whether or not to purchase the product and/or make a contract related to the product. can do.

サービスの評価の結果は、サービスがサービス提供者100によってサービス被提供者110に提供されている間に(すなわち、リアルタイムで)サービス被提供者110に提示されてもよいし、サービスがサービス提供者100によってサービス被提供者110に提供された後に(すなわち、サービスの提供が完了した後に)サービス被提供者110に提示されてもよい。 The results of the evaluation of the service may be presented to the service recipient 110 while the service is being provided by the service provider 100 to the service recipient 110 (i.e., in real time), or may be presented to the service recipient 110 by the service provider. It may be presented to the service provider 110 after it has been provided by the service provider 100 to the service provider 110 (ie, after the provision of the service has been completed).

なお、図1Aに示される実施形態では、サービス提供者100とサービス被提供者110とが対面した状態でサービスを提供する例を説明したが、本発明はこれに限定されない。サービス提供者100は、例えば、サービス被提供者110からサービス提供者100(例えば、サービス提供者100の顔)が見える状態で、(例えば、ディスプレイを介して)リモートでサービスをサービス被提供者110に提供するようにしてもよい。 In the embodiment shown in FIG. 1A, the example in which the service provider 100 and the service recipient 110 face each other to provide the service has been described, but the present invention is not limited to this. The service provider 100 may, for example, remotely provide the service to the service provider 110 (eg, via a display) while the service provider 100 (eg, the face of the service provider 100) is visible to the service provider 110. may be provided to

また、図1Aに示される実施形態では、サービス被提供者110がユーザ装置130を装着している例を説明したが、本発明はこれに限定されない。ユーザ装置130は、サービス被提供者110が装着可能なものでなくてもよい。ユーザ装置130は、サービス被提供者110にサービスの評価の結果を提示することが可能である限りにおいて、任意の装置であり得る。 Also, in the embodiment shown in FIG. 1A, an example in which the service provider 110 wears the user device 130 has been described, but the present invention is not limited to this. User device 130 may not be wearable by service provider 110 . The user device 130 can be any device as long as it is capable of presenting the service provider 110 with the results of the evaluation of the service.

図1Bは、ユーザ装置130によってサービス被提供者110に提示されるサービスの評価の結果の一例を示す。 FIG. 1B shows an example of evaluation results of a service presented to service provider 110 by user device 130 .

図1Bに示される実施形態では、サービスの評価の結果が、2次元平面座標系とイラストの動きとを組み合わせた3次元の態様で表現されている。具体的には、図1Bに示される実施形態では、2次元平面座標系は、サービス提供者のサービスの「技術」に関連する評価を横軸にとり、かつ、「心」に関連する評価を縦軸にとって構成されている。また、イラストの動きは、サービス提供者のサービス提供中の発話の「聞き心地」に関連する評価を示している。イラストは、例えば、「聞き心地」に関連する評価値が10点満点中0~3点である場合には渦巻状に動き、「聞き心地」に関連する評価値が10点満点中3~5点である場合には三角形状に動き、「聞き心地」に関連する評価値が10点満点中5~8点である場合には横方向に動き、「聞き心地」に関連する評価値が10点満点中8~10点である場合には縦方向に動く。イラストの一例は、蜂であるが、これに限定されない。 In the embodiment shown in FIG. 1B, the service evaluation results are represented in a three-dimensional fashion combining a two-dimensional planar coordinate system and illustration movement. Specifically, in the embodiment shown in FIG. 1B, the two-dimensional planar coordinate system takes the "skill"-related rating of the service provider's service on the horizontal axis, and the "mind"-related rating on the vertical axis. configured for the axis. In addition, the movement of the illustration shows the evaluation related to the "listening comfort" of the service provider's speech during service provision. For example, when the evaluation value related to “listening comfort” is 0 to 3 out of 10, the illustration moves in a spiral shape, and the evaluation value related to “listening comfort” is 3 to 5 out of 10. If it is a point, it moves in a triangular shape, and if the evaluation value related to "listening comfort" is 5 to 8 points out of 10, it moves horizontally, and the evaluation value related to "listening comfort" is 10. If the score is 8 to 10 out of 10 points, it moves vertically. A non-limiting example of an illustration is a bee.

図1Bに示される実施形態では、サービス提供者のサービスの「技術」に関連する評価値が8点であり、サービス提供者のサービスの「心」に関連する評価値が9点であり、サービス提供者のサービス提供中の発話の「聞き心地」に関連する評価値が3点である。 In the embodiment shown in FIG. 1B, the service provider's rating associated with the "skill" of the service is 8 points, the service provider's rating associated with the "heart" of the service is 9 points, and the service provider's rating associated with the "mind" of the service is 9 points. The evaluation value related to the "comfort of hearing" of speech during service provision by the provider is 3 points.

図1Bに示されるように、サービスの評価の結果が、言語非依存の態様で(例えば、数値、イラスト、イラストの動き等を用いて)、サービス被提供者110に提示されることが好ましい。このように、サービスの評価の結果がサービス被提供者に言語非依存の態様で提示されることによって、サービス被提供者は、特定の言語(例えば、日本語、英語、中国語、韓国語、ロシア語等)を理解できなくとも、サービスの評価の結果(すなわち、サービスの良し悪し)を直感的に理解することができる。 As shown in FIG. 1B, the results of the service evaluation are preferably presented to the service provider 110 in a language-independent manner (eg, using numbers, illustrations, movement of illustrations, etc.). In this way, by presenting the results of the service evaluation to the service provider in a language-independent manner, the service provider can use a specific language (for example, Japanese, English, Chinese, Korean, (Russian, etc.), the user can intuitively understand the service evaluation results (that is, whether the service is good or bad).

なお、図1Bに示される実施形態では、2次元平面座標系とイラストの動きとを組み合わせた3次元の態様でサービスの評価の結果を提示する例を説明したが、本発明はこれに限定されない。サービスの評価の結果は、より単純に、ランク形式で(例えば、5段階評価形式で)サービス被提供者に提示されてもよいし、数値(例えば、パーセンテージ)を用いてサービス被提供者に提示されてもよい。 In the embodiment shown in FIG. 1B, an example of presenting service evaluation results in a three-dimensional mode that combines a two-dimensional coordinate system and illustration movement has been described, but the present invention is not limited to this. . The results of the service evaluation may be presented to the service recipient more simply in a rank format (e.g., in a 5-point evaluation format), or may be presented to the service recipient using a numerical value (e.g., percentage). may be

2.新しいサービス評価方法を実現するためのシステム構成
図2は、新しいサービス評価方法を実現するためのシステム200の構成の一例を示す。
2. System Configuration for Realizing the New Service Evaluation Method FIG. 2 shows an example of the configuration of a system 200 for realizing the new service evaluation method.

システム200は、サーバ装置210と、サービス被提供者によって使用されるユーザ装置220~220とを備える。サーバ装置210は、インターネット230を介して、ユーザ装置220~220のそれぞれと通信可能なように構成されている。ここで、Nは、1以上の整数である。 The system 200 comprises a server device 210 and user devices 220 1 to 220 N used by service providers. Server device 210 is configured to be able to communicate with each of user devices 220 1 to 220 N via Internet 230 . Here, N is an integer of 1 or more.

図2に示される実施形態では、サーバ装置210は、インターフェース部211と、1つ以上のCPU(Central Processing Unit)を含むプロセッサ部212と、メモリ部213とを含む。サーバ装置210は、データベース部240に接続されている。サーバ装置210のハードウェア構成は、その機能を実現できる限りにおいて特に限定されず、単一のマシンで構成されていてもよく、複数台のマシンを組み合わせて構成されたものであってもよい。 In the embodiment shown in FIG. 2 , the server device 210 includes an interface section 211 , a processor section 212 including one or more CPUs (Central Processing Units), and a memory section 213 . The server device 210 is connected to the database section 240 . The hardware configuration of the server device 210 is not particularly limited as long as its functions can be realized, and may be configured by a single machine or may be configured by combining a plurality of machines.

インターフェース部211は、ユーザ装置220~220のそれぞれとの通信を制御する。 The interface unit 211 controls communication with each of the user devices 220 1 to 220 N.

メモリ部213には、処理を実行するために必要とされるプログラムやそのプログラムを実行するために必要とされるデータ等が格納されている。ここで、プログラムをどのようにしてメモリ部213に格納するかは問わない。例えば、プログラムは、メモリ部213にプリインストールされていてもよい。あるいは、プログラムは、インターネット340などのネットワークを経由してダウンロードされることによってメモリ部213にインストールされるようにしてもよいし、光ディスクやUSBなどの記憶媒体を介してメモリ部213にインストールされるようにしてもよい。 The memory unit 213 stores programs required for executing processes, data required for executing the programs, and the like. Here, it does not matter how the program is stored in the memory unit 213 . For example, the program may be pre-installed in memory unit 213 . Alternatively, the program may be installed in the memory unit 213 by being downloaded via a network such as the Internet 340, or installed in the memory unit 213 via a storage medium such as an optical disc or USB. You may do so.

プロセッサ部212は、サーバ装置210全体の動作を制御する。プロセッサ部212は、メモリ部213に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、サーバ装置210は、所望のステップを実行する装置として機能することが可能であり、サーバ装置210のプロセッサ部212は、所望の機能を達成する手段として動作することが可能である。 The processor unit 212 controls the operation of the server device 210 as a whole. The processor unit 212 reads a program stored in the memory unit 213 and executes the program. Accordingly, the server device 210 can function as a device that executes desired steps, and the processor unit 212 of the server device 210 can operate as means for achieving desired functions.

ユーザ装置220~220のそれぞれは、インターネット230を介してサーバ装置210と通信することが可能なように構成されている。ユーザ装置220~220のそれぞれのうちの1つは、図1Aに示されるユーザ装置130を含む。例えば、ユーザ装置220~220のそれぞれは、携帯電話、スマートフォン、タブレット端末、スマートグラス(眼鏡型ウェアラブルデバイス)、スマートウォッチ端末等の携帯無線端末であってもよいし、ラップトップPC、ノートPC等のパーソナルコンピュータであってもよい。 Each of user devices 220 1 to 220 N is configured to be able to communicate with server device 210 via Internet 230 . One of each of user devices 220 1 -220 N includes user device 130 shown in FIG. 1A. For example, each of the user devices 220 1 to 220 N may be a mobile wireless terminal such as a mobile phone, a smart phone, a tablet terminal, smart glasses (glasses-type wearable device), a smart watch terminal, a laptop PC, a notebook A personal computer such as a PC may be used.

図2に示される実施形態では、ユーザ装置220は、サービスに関連する音声データ(例えば、サービス被提供者110に対して発話したサービス提供者100の発話データおよびサービス提供者100に対して発話したサービス被提供者110の発話データ)を受信することが可能なように構成されている(例えば、サービスに関連する音声を収音することが可能なマイク(図示せず)を備え、マイクを用いてサービスに関連する音声データを取得するように構成されている)。 In the embodiment shown in FIG. 2, the user device 220 1 collects voice data related to the service (eg, speech data of the service provider 100 spoken to the service recipient 110 and speech data to the service provider 100). speech data of the service provider 110) (for example, equipped with a microphone (not shown) capable of picking up voice related to the service, and the microphone is (configured to obtain audio data associated with the service using

図2に示される実施形態では、ユーザ装置220は、サービスに関連する視覚データ(例えば、サービス提供者100の画像(例えば、サービス提供者100の顔の画像))を受信することが可能なように構成されている(例えば、サービス提供者100の画像を撮像することが可能なカメラ(図示せず)を備え、カメラを用いてサービス提供者100の画像を取得するように構成されている)。 In the embodiment shown in FIG. 2, user device 220 1 is capable of receiving visual data associated with a service (eg, an image of service provider 100 (eg, an image of service provider 100's face)). (For example, a camera (not shown) capable of capturing an image of the service provider 100 is provided, and the image of the service provider 100 is acquired using the camera. ).

図2に示される実施形態では、ユーザ装置220は、サービスに関連する視覚データとサービスに関連する音声データとに基づいて実施されたサービスの評価の結果をサービス被提供者110に提示することが可能なように構成されている。例えば、ユーザ装置220は、ディスプレイ(図示せず)を備え、ディスプレイ上にサービスの評価の結果が表示されることによって、サービスの評価の結果がサービス被提供者に提示されてもよい。あるいは、例えば、ユーザ装置220は、拡張現実および/または複合現実を実現可能な装置(例えば、頭部搭載型の拡張現実ディスプレイおよび/または複合現実ディスプレイを備える装置)であり、拡張現実技術および/または複合現実技術を利用してサービスの評価の結果がサービス被提供者に提示されてもよい。 In the embodiment shown in FIG. 2, the user device 220 1 presents to the service recipient 110 the results of the service evaluation performed based on the service-related visual data and the service-related audio data. is configured to allow For example, the user device 2201 may be provided with a display (not shown), and the result of the service evaluation may be presented to the service provider by displaying the result of the service evaluation on the display. Alternatively, for example, the user device 220 1 is a device capable of enabling augmented reality and/or mixed reality (eg, a device with a head-mounted augmented reality display and/or a mixed reality display) and uses augmented reality technology and / Or the results of the evaluation of the service may be presented to the service provider using mixed reality technology.

なお、図2に示される実施形態では、ユーザ装置220~220がインターネット230を介してサーバ装置210と通信可能であると説明したが、本発明はこれに限定されない。インターネット230の代わりに任意のタイプのネットワークを用いることも可能である。なお、インターネット230およびその代わりの任意のネットワークを介することなく、ユーザ装置220~220をサーバ装置210に電気的に結合した構成もまた本発明の範囲内である。さらに、ユーザ装置220の機能およびサーバ装置210の機能の両方を一体的に組み込んだシステム(すなわち、スタンドアロン型のシステム)をサーバ装置210またはユーザ装置220として構築してもよい。このようなスタンドアロン型のサーバ装置210またはユーザ装置220もまた本発明の範囲内である。 In the embodiment shown in FIG. 2, it has been described that the user devices 220 1 to 220 N can communicate with the server device 210 via the Internet 230, but the present invention is not limited to this. Any type of network could be used in place of the Internet 230 . It should be noted that it is also within the scope of the present invention to have the user devices 220 1 -220 N electrically coupled to the server device 210 without going through the Internet 230 or any network in its place. Furthermore, a system in which both the functions of the user device 220-1 and the functions of the server device 210 are integrated (that is, a stand-alone system) may be constructed as the server device 210 or the user device 220-1 . Such stand-alone server devices 210 or user devices 2201 are also within the scope of the present invention.

また、図2に示される実施形態では、データベース部240は、サーバ装置210の外部に設けられているが、本発明はこれに限定されない。データベース部240をサーバ装置210の内部に設けることも可能である。データベース部240の構成は、特定のハードウェア構成には限定されない。例えば、データベース部240は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部240は、サーバ装置210の単一の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。 Moreover, in the embodiment shown in FIG. 2, the database unit 240 is provided outside the server device 210, but the present invention is not limited to this. It is also possible to provide the database unit 240 inside the server device 210 . The configuration of database unit 240 is not limited to a specific hardware configuration. For example, the database unit 240 may be configured with a single hardware component, or may be configured with a plurality of hardware components. For example, the database unit 240 may be configured as a single external hard disk device of the server device 210, or may be configured as cloud storage connected via a network.

図3は、データベース部240に格納されている情報の構成の一部を示す。 FIG. 3 shows part of the configuration of information stored in the database unit 240. As shown in FIG.

図3に示される実施形態では、データベース部240には、サービスの評価のための情報が格納されている。サービスの評価のための情報は、例えば、サービス提供者の顔の1つ以上のパーツに関連する顔パラメータと評価値との間の対応関係、サービス提供者およびサービス被提供者の発話データの音声パラメータと評価値との間の対応関係、サービスに関連する書類に記載すべきテキスト、サービスに関連する書類と評価値との間の対応関係を含み得る。 In the embodiment shown in FIG. 3, the database unit 240 stores information for service evaluation. Information for service evaluation includes, for example, the correspondence between facial parameters and evaluation values associated with one or more parts of the face of the service provider, the speech data of the service provider and the service recipient. It may include correspondence between parameters and evaluation values, text to be written in documents related to services, and correspondence between documents related to services and evaluation values.

顔パラメータは、例えば、瞳の大きさ、眼の大きさ、目尻の変位、口の幅、口の開き度合い、口角の変位、3次元空間における頭部の変位を含むが、これらには限定されない。音声パラメータは、例えば、音声の音量、速度、トーン、音声間の間隔を含むが、これらに限定されない。 Face parameters include, but are not limited to, pupil size, eye size, eye corner displacement, mouth width, mouth opening degree, mouth corner displacement, and head displacement in three-dimensional space. . Voice parameters include, but are not limited to, voice volume, speed, tone, intervals between voices, for example.

顔パラメータと評価値との間の対応関係は、例えば、顔パラメータを変数とする関数(例えば、微分方程式)によって規定されてもよいし、閾値と顔パラメータとの差の絶対値のある範囲と評価値との対応関係(例えば、絶対値0~±1と評価値5とが対応する対応関係)によって規定されてもよい。閾値は、所定の閾値であってもよいし、顔パラメータの種類ごとに異なる閾値であってもよい。 The correspondence between the face parameters and the evaluation values may be defined by, for example, a function (for example, a differential equation) with the face parameters as variables, or a range of absolute values of the difference between the threshold and the face parameters. It may be defined by a correspondence relationship with the evaluation value (for example, a correspondence relationship in which the absolute value 0 to ±1 corresponds to the evaluation value 5). The threshold may be a predetermined threshold, or may be a different threshold for each type of face parameter.

音声パラメータと評価値との間の対応関係は、例えば、音声パラメータを変数とする関数(例えば、微分方程式)によって規定されてもよいし、閾値と音声パラメータとの差の絶対値のある範囲と評価値との対応関係(例えば、絶対値0~±1と評価値5とが対応する対応関係)によって規定されてもよい。閾値は、所定の閾値であってもよいし、音声パラメータの種類ごとに異なる閾値であってもよい。 The correspondence relationship between the speech parameter and the evaluation value may be defined by, for example, a function (for example, a differential equation) with the speech parameter as a variable, or a certain range of the absolute value of the difference between the threshold and the speech parameter. It may be defined by a correspondence relationship with the evaluation value (for example, a correspondence relationship in which the absolute value 0 to ±1 corresponds to the evaluation value 5). The threshold may be a predetermined threshold, or may be a different threshold for each type of speech parameter.

サービスに関連する書類と評価値との間の対応関係は、例えば、サービスに関連する書類に記載すべきテキストのうち、サービスに関連する書類に実際に記載されているテキストの割合によって規定されてもよい。あるいは、サービスに関連する書類と評価値との間の対応関係は、例えば、サービスに関連する書類に記載すべきテキストのうち、サービス提供者の音声データに含まれるテキストの割合によって規定されてもよい。 The correspondence relationship between the service-related documents and the evaluation value is defined, for example, by the percentage of the text that should be written in the service-related documents that is actually written in the service-related documents. good too. Alternatively, the correspondence relationship between the service-related documents and the evaluation value may be defined by, for example, the ratio of the text included in the service provider's voice data to the text to be described in the service-related documents. good.

3.サーバ装置の処理
図4は、サーバ装置210において実行される処理のフローの一例を示す。図4に示される各ステップは、例えば、サーバ装置210のプロセッサ部211によって実行される。以下、図4に示される各ステップを説明する。
3. Processing of Server Device FIG. 4 shows an example of the flow of processing executed in the server device 210 . Each step shown in FIG. 4 is executed by the processor unit 211 of the server device 210, for example. Each step shown in FIG. 4 will be described below.

ステップS401:サービスに関連する視覚データが受信される。視覚データは、例えば、ユーザ装置220のカメラを介してユーザ装置220から受信され得る。視覚データは、サービス提供者がサービス被提供者に対して発話しているときのサービス提供者の顔を示す画像データAと、サービス被提供者がサービス提供者に対して発話しているときのサービス提供者の顔を示す画像データBとを含む。視覚データは、サービスに関連する書類の画像データCをさらに含んでいてもよい。画像データAおよび画像データBは、サービス提供者の顔の1つ以上のパーツに関連する顔パラメータを含み得る。顔パラメータは、例えば、瞳の大きさ、眼の大きさ、目尻の変位、口の幅、口の開き度合い、口角の変位、3次元空間における頭部の変位を含む。 Step S401: Visual data associated with a service is received. Visual data may be received from the user device 220-1 via a camera of the user device 220-1 , for example. The visual data includes image data A showing the face of the service provider when the service provider is speaking to the service recipient, and image data A showing the face of the service provider when the service recipient is speaking to the service provider. and image data B showing the face of the service provider. The visual data may further include image data C of the document associated with the service. Image data A and image data B may include facial parameters associated with one or more parts of the service provider's face. Face parameters include, for example, pupil size, eye size, eye corner displacement, mouth width, mouth opening degree, mouth corner displacement, and head displacement in three-dimensional space.

ステップS402:サービスに関連する音声データが受信される。音声データは、例えば、ユーザ装置220のマイクを介してユーザ装置220から受信され得る。音声データは、サービス被提供者に対して発話したサービス提供者の発話データと、サービス提供者に対して発話したサービス被提供者の発話データとを含む。サービス提供者の発話データは、音声パラメータ(例えば、音声の音量、速度、トーン、音声間の間隔)を含み得、サービス被提供者の発話データもまた、音声パラメータ(例えば、音声の音量、速度、トーン、音声間の間隔)を含み得る。 Step S402: Audio data related to the service is received. Audio data may be received from the user device 220-1 via a microphone of the user device 220-1 , for example. The voice data includes speech data of the service provider who speaks to the service recipient and speech data of the service recipient who speaks to the service provider. The service provider's speech data may include voice parameters (e.g., voice volume, rate, tone, interval between voices), and the service provider's speech data may also include voice parameters (e.g., voice volume, rate, etc.). , tones, intervals between voices).

ステップS403:ステップS401において受信された視覚データ(例えば、画像データAおよび画像データB)と、ステップS402において受信された音声データ(例えば、サービス提供者の発話データおよびサービス被提供者の発話データ)とに基づいて、サービス提供者のサービスの評価が実施される。これにより、サービス提供者のサービスの評価の結果が生成される。サービス提供者のサービスの評価の結果の生成については、図5を参照してより詳細に後述される。 Step S403: Visual data received in step S401 (eg, image data A and image data B) and audio data received in step S402 (eg, service provider speech data and service recipient speech data) Evaluation of the service provider's service is carried out on the basis of This produces a result of evaluating the service of the service provider. Generating the results of the evaluation of the service provider's service is described in more detail below with reference to FIG.

ステップS404:ステップS403において生成されたサービスの評価の結果をサービス被提供者に提示するための処理が実行される。この処理は、例えば、サービスの評価の結果をユーザ装置220(例えば、ユーザ装置220のディスプレイ)に表示させる処理を含む。これにより、サービスの評価の結果が、ユーザ装置220によってサービス被提供者に提示される。 Step S404: A process for presenting the service provider with the service evaluation result generated in step S403 is executed. This process includes, for example, a process of displaying the service evaluation result on the user device 220 1 (eg, the display of the user device 220 1 ). As a result, the result of service evaluation is presented to the service provider by the user device 2201 .

図5は、図4に示されるステップS403の処理の一例を示す。以下、図5に示される各ステップを説明する。 FIG. 5 shows an example of the processing of step S403 shown in FIG. Each step shown in FIG. 5 will be described below.

ステップS501:サービス被提供者に対して発話したサービス提供者の発話データ(例えば、サービス提供者の発話データに含まれる音声パラメータ)と、サービス提供者がサービス被提供者に対して発話しているときのサービス提供者の顔を示す画像データA(例えば、サービス提供者が発話しているときのサービス提供者の顔パラメータ)とに基づいて、サービス提供者が発話している間のサービスの評価値αが算出される。この処理は、データベース部240を参照して実行される。 Step S501: Speech data of the service provider speaking to the service recipient (for example, speech parameters included in the speech data of the service provider) and the service provider speaking to the service recipient Evaluation of the service while the service provider is speaking based on image data A showing the face of the service provider at that time (for example, facial parameters of the service provider when the service provider is speaking) A value α is calculated. This process is executed with reference to the database unit 240 .

サービス提供者が発話しているときのサービス提供者の各顔パラメータは、画像データAに含まれていてもよいし、サーバ装置210が画像データAに基づいて(例えば、画像データAをスキャンすることにより)特定されてもよい。 Each face parameter of the service provider when the service provider is speaking may be included in the image data A, or the server device 210 may scan the image data A based on the image data A (for example, scan the image data A). by).

サービス提供者が発話している間のサービスの評価値αは、例えば、データベース部240に格納されている情報(例えば、顔パラメータと評価値との間の対応関係および音声パラメータと評価値との間の対応関係)を参照して、顔パラメータおよび音声パラメータを評価値に変換することによって、算出され得る。 The evaluation value α of the service while the service provider is speaking is, for example, the information stored in the database unit 240 (for example, the correspondence relationship between the face parameter and the evaluation value and the relationship between the voice parameter and the evaluation value). (correspondence between face parameters) and converting face parameters and voice parameters into evaluation values.

ステップS502:サービス提供者に対して発話したサービス被提供者の発話データ(例えば、サービス被提供者の発話データに含まれる音声パラメータ)と、サービス被提供者がサービス提供者に対して発話しているときのサービス提供者の顔を示す画像データB(例えば、サービス被提供者が発話しているときのサービス提供者の顔パラメータ)とに基づいて、サービス被提供者が発話している間のサービスの評価値βが算出される。この処理は、データベース部240を参照して実行される。 Step S502: Speech data of the service recipient speaking to the service provider (for example, speech parameters included in the speech data of the service recipient) and the speech data of the service recipient speaking to the service provider while the service recipient is speaking based on the image data B showing the face of the service provider when the service recipient is speaking (for example, the face parameter of the service provider when the service recipient is speaking) A service evaluation value β is calculated. This process is executed with reference to the database unit 240 .

サービス被提供者が発話しているときのサービス提供者の各顔パラメータは、画像データBに含まれていてもよいし、サーバ装置210が画像データBに基づいて(例えば、画像データBをスキャンすることにより)特定されてもよい。 Each facial parameter of the service provider when the service recipient is speaking may be included in the image data B, or the server apparatus 210 may scan the image data B based on the image data B (for example, scan the image data B). by doing).

サービス被提供者が発話している間のサービスの評価値βは、例えば、データベース部240に格納されている情報(例えば、顔パラメータと評価値との間の対応関係および音声パラメータと評価値との間の対応関係)を参照して、顔パラメータおよび音声パラメータを評価値に変換することによって、算出され得る。 The evaluation value β of the service while the service provider is speaking is, for example, the information stored in the database unit 240 (for example, the correspondence relationship between the face parameter and the evaluation value and the relationship between the voice parameter and the evaluation value). ) and converting the facial parameters and voice parameters into evaluation values.

ステップS503:ステップS501において算出された評価値αと、ステップS502において算出された評価値βとに基づいて、サービス提供者のサービスの評価が実施される。これにより、例えば、サービス提供者のサービスの総合評価値が、サービス提供者のサービスの評価の結果として生成される。サービス提供者のサービスの総合評価値は、評価値αと評価値βとを変数とする関数を用いて算出されてもよい。あるいは、評価値αと評価値βとの両方をサービス提供者のサービスの総合評価値としてもよい。 Step S503: The service of the service provider is evaluated based on the evaluation value α calculated in step S501 and the evaluation value β calculated in step S502. Thereby, for example, a comprehensive evaluation value of the service of the service provider is generated as a result of evaluation of the service of the service provider. The comprehensive evaluation value of the service of the service provider may be calculated using a function having the evaluation value α and the evaluation value β as variables. Alternatively, both the evaluation value α and the evaluation value β may be used as the overall evaluation value of the service of the service provider.

なお、サーバ装置210(例えば、サーバ装置210のプロセッサ部211)は、画像データCの光学的文字認識を実施することが可能なように構成されていてもよい。サービスに関連する書類の画像データCが視覚データに含まれている場合、サーバ装置210は、画像データCの光学的文字認識を実施することにより、サービスに関連する書類に記載されたテキストを読み取り、データベース部240に格納されている情報(例えば、サービスに関連する書類に記載すべきテキスト、サービスに関連する書類と評価値との間の対応関係)を参照して、書類に関連付けられた評価値γを算出するようにしてもよい。このとき、サーバ装置210は、ステップS503において、評価値αと評価値βと評価値γとに基づいて、サービス提供者のサービスの評価を実施するようにしてもよい。この場合、サービス提供者のサービスの総合評価値は、評価値αと評価値βと評価値γとを変数とする関数を用いて算出されてもよい。あるいは、評価値αと評価値βと評価値γとのすべてをサービス提供者のサービスの総合評価値としてもよい。 Note that the server device 210 (for example, the processor unit 211 of the server device 210) may be configured to be capable of performing optical character recognition on the image data C. FIG. If the image data C of the service-related document is included in the visual data, the server device 210 reads the text written on the service-related document by performing optical character recognition on the image data C. , with reference to information stored in the database unit 240 (e.g., texts to be described in service-related documents, correspondence relationships between service-related documents and evaluation values), evaluations associated with documents The value γ may be calculated. At this time, in step S503, the server device 210 may evaluate the service of the service provider based on the evaluation value α, the evaluation value β, and the evaluation value γ. In this case, the comprehensive evaluation value of the service of the service provider may be calculated using a function having the evaluation value α, the evaluation value β, and the evaluation value γ as variables. Alternatively, all of the evaluation value α, the evaluation value β, and the evaluation value γ may be used as the comprehensive evaluation value of the service of the service provider.

また、サーバ装置210(例えば、サーバ装置210のプロセッサ部211)は、評価値αおよび評価値β(および評価値γ)のそれぞれを複数の観点で算出してもよい。例えば、評価値αは、画像データAから算出された観点X(例えば、Hardwork)の評価値と、画像データAから算出された観点Y(例えば、Love)の評価値と、画像データAから算出された観点Z(例えば、Rush)の評価値とを利用して(例えば、平均をとって、和算して、積算して)、かつ、サービス被提供者の音声パラメータから算出された観点P(例えば、Hospitality)の評価値と、サービス被提供者の音声パラメータから算出された観点Q(例えば、Explanation)の評価値と、サービス被提供者の音声パラメータから算出された観点R(例えば、Closing)の評価値とを利用して(例えば、平均をとって、和算して、積算して)算出されてもよい。同様に、評価値βは、画像データBから算出された観点Xの評価値と、画像データBから算出された観点Yの評価値と、画像データBから算出された観点Zの評価値とを利用して(例えば、平均をとって、和算して、積算して)、かつ、サービス提供者の音声パラメータから算出された観点Pの評価値と、サービス提供者の音声パラメータから算出された観点Qの評価値と、サービス提供者の音声パラメータから算出された観点Rの評価値とを利用して(例えば、平均をとって、和算して、積算して)算出されてもよい。このような複数の観点を有する評価値αおよび評価値βは、図1Bに示されるような多次元表現(例えば、2次元平面座標系と動きとを組み合わせた3次元表現)を用いてサービスの評価の結果としてユーザに提示されることが可能である。 Further, the server device 210 (for example, the processor unit 211 of the server device 210) may calculate each of the evaluation value α and the evaluation value β (and the evaluation value γ) from multiple viewpoints. For example, the evaluation value α is calculated from the evaluation value of the viewpoint X (for example, Hardware) calculated from the image data A, the evaluation value of the viewpoint Y (for example, Love) calculated from the image data A, and the image data A. Viewpoint P calculated using (e.g., averaging, summing, and accumulating) the evaluation value of the obtained viewpoint Z (e.g., Rush) and from the speech parameters of the service provider (e.g., Hospitality), an evaluation value of a point of view Q (e.g., Explanation) calculated from the voice parameters of the service provider, and a point of view R (e.g., Closing) calculated from the voice parameters of the service provider. ) (for example, by averaging, summing, and integrating). Similarly, the evaluation value β is the evaluation value of the viewpoint X calculated from the image data B, the evaluation value of the viewpoint Y calculated from the image data B, and the evaluation value of the viewpoint Z calculated from the image data B. Using (e.g., averaging, summing, and accumulating) and the evaluation value of the viewpoint P calculated from the service provider's speech parameters and the service provider's speech parameters It may be calculated using the evaluation value of the viewpoint Q and the evaluation value of the viewpoint R calculated from the speech parameters of the service provider (for example, averaging, summing, and accumulating). The evaluation value α and the evaluation value β having such a plurality of viewpoints are expressed in terms of the service using a multi-dimensional expression (for example, a three-dimensional expression combining a two-dimensional plane coordinate system and motion) as shown in FIG. 1B. The results of the evaluation can be presented to the user.

図6は、時系列に沿った評価値の変化の一例を示す。 FIG. 6 shows an example of changes in evaluation values over time.

図6に示される実施形態では、時間tにおいてサービス提供者がサービス被提供者に対してセリフ「xxx」を発したときのサービスの評価値が、8点であり、時間tにおいてサービス被提供者がサービス提供者に対してセリフ「yyy」を発したときのサービスの評価値が、5点であり、時間tにおいてサービス提供者がサービス被提供者に対してセリフ「zzz」を発したときのサービスの評価値が、6点であり、時間tにおいてサービス被提供者がサービス提供者に対してセリフ「www」を発したときのサービスの評価値が、3点である。 In the embodiment shown in FIG. 6, when the service provider utters the line "xxx" to the service recipient at time t1 , the service evaluation value is 8 points, and at time t2 , the service recipient is 8 points. When the provider utters the line "yyy" to the service provider, the evaluation value of the service is 5 points, and at time t3 , the service provider utters the line "zzz" to the service recipient. The evaluation value of the service at this time is 6 points, and the evaluation value of the service at time t4 when the service recipient utters the line "www" to the service provider is 3 points.

サービス被提供者に対して発話したサービス提供者の発話データ、および、サービス提供者に対して発話したサービス被提供者の発話データは、図6に示されるような発話したタイミングを示す時間データを備えていてもよい。 The utterance data of the service provider speaking to the service recipient and the speech data of the service recipient speaking to the service provider are time data indicating the timing of speech as shown in FIG. may be provided.

図6に示される実施形態では、発話者が切り替わることに応じてサービスの評価が実施され、時間t、t、t、tの各々におけるサービスの評価値が算出されている。このように、サーバ装置210は、時系列に沿って発話者の切り替わりに応じて複数の評価値を算出するようにしてもよい。 In the embodiment shown in FIG. 6, service evaluation is performed in accordance with the switching of speakers, and service evaluation values are calculated at times t 1 , t 2 , t 3 , and t 4 . In this way, the server device 210 may calculate a plurality of evaluation values according to the switching of speakers in chronological order.

なお、図4~図6に示される実施形態では、図4および図5に示される各ステップおよび図6において説明される処理をサーバ装置210のプロセッサ部211が実行する例を説明したが、本発明はこれに限定されない。例えば、サーバ装置210の機能の組み込んだスタンドアロン型のユーザ装置220のプロセッサ部が、図4および図5に示される各ステップおよび図6において説明される処理を実行してもよい。この場合、データベース部240に格納されている情報は、例えば、スタンドアロン型のユーザ装置220のメモリ部に格納され得る。 In the embodiments shown in FIGS. 4 to 6, an example was explained in which the processor unit 211 of the server device 210 executes the steps shown in FIGS. 4 and 5 and the processing explained in FIG. The invention is not so limited. For example, a processor unit of a stand-alone user device 2201 incorporating the functions of the server device 210 may perform the steps shown in FIGS. 4 and 5 and the processing described in FIG. In this case, the information stored in the database unit 240 may be stored in the memory unit of the standalone user device 2201 , for example.

なお、図4~図6に示される実施形態では、メモリ部に格納されたプログラムをプロセッサ部が実行することによって、図4および図5に示される各ステップの処理および図6において説明される処理が実現される例を説明したが、本発明はこれに限定されない。図4および図5に示される各ステップおよび図6において説明される処理のうちの少なくとも一部の処理が制御回路などのハードウェア構成によって実現されてもよい。 In the embodiments shown in FIGS. 4 to 6, the processing of each step shown in FIGS. 4 and 5 and the processing described in FIG. has been described, but the invention is not limited to this. At least part of the steps shown in FIGS. 4 and 5 and the processing described in FIG. 6 may be implemented by a hardware configuration such as a control circuit.

以上のように、本発明の好ましい実施形態を用いて本発明を例示してきたが、本発明は、この実施形態に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。 Although the present invention has been illustrated using the preferred embodiment of the invention as described above, the invention should not be construed as being limited to this embodiment. It is understood that the invention is to be construed in scope only by the claims. It is understood that a person skilled in the art can implement an equivalent range from the description of specific preferred embodiments of the present invention based on the description of the present invention and common technical knowledge.

本発明は、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラム等を提供するものとして有用である。 INDUSTRIAL APPLICABILITY The present invention is useful as providing a device for evaluating services provided by a service provider, a method, a program, etc. executed in the device.

200 システム
210 サーバ装置
220~220 ユーザ装置
230 インターネット
240 データベース部
200 System 210 Server Device 220 1 to 220 N User Device 230 Internet 240 Database Section

Claims (15)

サービス提供者が提供するサービスを評価するための装置であって、前記装置は、
前記サービスに関連する視覚データを受信する手段と、
前記サービスに関連する音声データを受信する手段と、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段と
を備える、装置。
A device for evaluating a service provided by a service provider, said device comprising:
means for receiving visual data associated with said service;
means for receiving audio data associated with said service;
means for performing an evaluation of said service based on said visual data and said audio data.
前記音声データは、サービス被提供者に対して発話した前記サービス提供者の発話データと、前記サービス提供者に対して発話した前記サービス被提供者の発話データとを含み、
前記視覚データは、前記サービス提供者が前記サービス被提供者に対して発話しているときの前記サービス提供者の顔を示す第1の画像データと、前記サービス被提供者が前記サービス提供者に対して発話しているときの前記サービス提供者の顔を示す第2の画像データとを含み、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記サービス提供者の発話データと前記サービス被提供者の発話データと前記第1の画像データと前記第2の画像データとに基づいて前記サービスの評価を実施する手段を含む、請求項1に記載の装置。
The voice data includes speech data of the service provider who speaks to the service provider and speech data of the service provider who speaks to the service provider,
The visual data includes first image data showing the face of the service provider when the service provider is speaking to the service recipient; and second image data showing the face of the service provider when speaking to
The means for evaluating the service based on the visual data and the audio data includes speech data of the service provider, speech data of the service recipient, the first image data, and the second image. 2. Apparatus according to claim 1, comprising means for performing an evaluation of said service based on said data.
前記装置は、
前記サービス提供者の発話データと前記第1の画像データとに基づいて、前記サービス提供者が発話している間の前記サービスの第1の評価値を算出する手段と、
前記サービス被提供者の発話データと前記第2の画像データとに基づいて、前記サービス被提供者が発話している間の前記サービスの第2の評価値を算出する手段と
をさらに備え、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記第1の評価値と前記第2の評価値とに基づいて前記サービスの評価を実施する手段を含む、請求項2に記載の装置。
The device comprises:
means for calculating a first evaluation value of the service while the service provider is speaking based on the speech data of the service provider and the first image data;
means for calculating a second evaluation value of the service while the service recipient is speaking based on the speech data of the service recipient and the second image data;
The means for evaluating the service based on the visual data and the audio data includes means for evaluating the service based on the first evaluation value and the second evaluation value. Item 3. The device according to item 2.
前記第1の画像データおよび前記第2の画像データは、前記サービス提供者の顔の1つ以上のパーツに関連する顔パラメータを含み、
前記第1の評価値を算出する手段は、前記サービス提供者の発話データと前記第1の画像データに含まれる顔パラメータとに基づいて前記第1の評価値を算出する手段を含み、
前記第2の評価値を算出する手段は、前記サービス被提供者の発話データと前記第2の画像データに含まれる顔パラメータとに基づいて前記第2の評価値を算出する手段を含む、請求項3の記載の装置。
the first image data and the second image data include facial parameters associated with one or more parts of the service provider's face;
the means for calculating the first evaluation value includes means for calculating the first evaluation value based on speech data of the service provider and face parameters included in the first image data;
wherein the means for calculating the second evaluation value includes means for calculating the second evaluation value based on speech data of the service provider and facial parameters included in the second image data. Item 4. Apparatus according to item 3.
前記サービス提供者の発話データおよび前記サービス被提供者の発話データは、発話の音量、速度、トーン、および間隔のうちの少なくとも1つの音声パラメータを含み、
前記第1の評価値を算出する手段は、前記サービス提供者の発話データの少なくとも1つの音声パラメータと前記第1の画像データとに基づいて前記第1の評価値を算出する手段を含み、
前記第2の評価値を算出する手段は、前記サービス被提供者の発話データの少なくとも1つの音声パラメータと前記第2の画像データとに基づいて前記第2の評価値を算出する手段を含む、請求項3または請求項4に記載の装置。
the service provider's speech data and the service provider's speech data include at least one speech parameter of speech volume, rate, tone, and interval;
The means for calculating the first evaluation value includes means for calculating the first evaluation value based on at least one speech parameter of the speech data of the service provider and the first image data,
The means for calculating the second evaluation value includes means for calculating the second evaluation value based on at least one speech parameter of the speech data of the service provider and the second image data, 5. Apparatus according to claim 3 or claim 4.
前記視覚データは、前記サービスに関連する書類の第3の画像データを含む、請求項1~5のいずれかに記載の装置。 Apparatus according to any preceding claim, wherein said visual data comprises third image data of documents associated with said service. 前記第3の画像データの光学的文字認識を実施するための手段をさらに備える、請求項6に記載の装置。 7. The apparatus of claim 6, further comprising means for performing optical character recognition of said third image data. 前記光学的文字認識された第3の画像データに基づいて、前記書類に関連付けられた第3の評価値を算出する手段をさらに備え、
前記サービスの評価の実施は、前記第3の評価値にさらに基づく、請求項7に記載の装置。
further comprising means for calculating a third evaluation value associated with the document based on the optical character recognized third image data;
8. The apparatus of claim 7, wherein said service rating implementation is further based on said third rating value.
言語非依存の態様で前記サービスの評価の結果をサービス被提供者に提示する手段をさらに備える、請求項1~8のいずれかに記載の装置。 Apparatus according to any preceding claim, further comprising means for presenting the results of the service evaluation to the service provider in a language-independent manner. 前記視覚データを受信する手段は、カメラを介して前記視覚データを受信する手段を含む、請求項1~9のいずれかに記載の装置。 An apparatus according to any preceding claim, wherein said means for receiving visual data comprises means for receiving said visual data via a camera. 前記音声データを受信する手段は、マイクを介して前記音声データを受信する手段を含む、請求項1~10のいずれかに記載の装置。 Apparatus according to any preceding claim, wherein said means for receiving audio data comprises means for receiving said audio data via a microphone. 前記装置は、サービス被提供者が装着するウェアラブルデバイスを含む、請求項1~11のいずれかに記載の装置。 The device according to any one of claims 1 to 11, wherein said device comprises a wearable device worn by a service provider. 前記ウェアラブルデバイスは、前記サービス被提供者の眼に装着可能な眼鏡型ウェアラブルデバイスを含む、請求項12に記載の装置。 13. The apparatus of claim 12, wherein the wearable device comprises an eyeglass-type wearable device that can be worn on the eyes of the service provider. サービス提供者が提供するサービスを評価するための装置において実行される方法であって、
前記装置は、プロセッサ部を備え、
前記方法は、
前記プロセッサ部が、前記サービスに関連する視覚データを受信することと、
前記プロセッサ部が、前記サービスに関連する音声データを受信することと、
前記プロセッサ部が、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することと
を含む、方法。
A method, performed in an apparatus for evaluating a service provided by a service provider, comprising:
The device comprises a processor unit,
The method includes:
the processor unit receiving visual data associated with the service;
the processor unit receiving audio data associated with the service;
said processor unit conducting an evaluation of said service based on said visual data and said audio data.
サービス提供者が提供するサービスを評価するための装置において実行されるプログラムであって、
前記装置は、プロセッサ部を備え、
前記プログラムは、前記プロセッサ部によって実行されると、
前記サービスに関連する視覚データを受信することと、
前記サービスに関連する音声データを受信することと、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することと
を少なくとも前記プロセッサ部に行わせる、プログラム。
A program executed in a device for evaluating services provided by a service provider,
The device comprises a processor unit,
When the program is executed by the processor unit,
receiving visual data associated with the service;
receiving audio data associated with the service;
and performing an evaluation of the service based on the visual data and the audio data.
JP2021124681A 2021-07-29 2021-07-29 A device for evaluating services provided by a service provider, a method performed on the device, and a program. Active JP7033353B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021124681A JP7033353B1 (en) 2021-07-29 2021-07-29 A device for evaluating services provided by a service provider, a method performed on the device, and a program.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021124681A JP7033353B1 (en) 2021-07-29 2021-07-29 A device for evaluating services provided by a service provider, a method performed on the device, and a program.

Publications (2)

Publication Number Publication Date
JP7033353B1 JP7033353B1 (en) 2022-03-10
JP2023019732A true JP2023019732A (en) 2023-02-09

Family

ID=81213075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021124681A Active JP7033353B1 (en) 2021-07-29 2021-07-29 A device for evaluating services provided by a service provider, a method performed on the device, and a program.

Country Status (1)

Country Link
JP (1) JP7033353B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099474A (en) * 2013-11-19 2015-05-28 芳子 明石 Insurance liaison system
JP2016218911A (en) * 2015-05-25 2016-12-22 パナソニックIpマネジメント株式会社 Customer service evaluating device, customer service evaluating system equipped with the same, and customer service evaluating method
JP2018124604A (en) * 2017-01-30 2018-08-09 グローリー株式会社 Customer service support system, customer service support device and customer service support method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099474A (en) * 2013-11-19 2015-05-28 芳子 明石 Insurance liaison system
JP2016218911A (en) * 2015-05-25 2016-12-22 パナソニックIpマネジメント株式会社 Customer service evaluating device, customer service evaluating system equipped with the same, and customer service evaluating method
JP2018124604A (en) * 2017-01-30 2018-08-09 グローリー株式会社 Customer service support system, customer service support device and customer service support method

Also Published As

Publication number Publication date
JP7033353B1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
US11335062B2 (en) Automated apparel design using machine learning
JP6400445B2 (en) Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program
KR101732613B1 (en) Modifying an appearance of a participant during a video conference
JP2022160406A (en) Word flow annotation
JP6594646B2 (en) Robot, robot control method, and robot system
TW201935272A (en) Human-computer interaction method and system based on multi-modal emotion and face attribute identification
KR20180123150A (en) Information processing system, reception server, information processing method and program
US10996741B2 (en) Augmented reality conversation feedback
Ma et al. Natural eye motion synthesis by modeling gaze-head coupling
CN111523981A (en) Virtual trial method and device, electronic equipment and storage medium
CN110570383A (en) image processing method and device, electronic equipment and storage medium
CN114429767A (en) Video generation method and device, electronic equipment and storage medium
KR101535574B1 (en) System and method for providing social network emoticon using 3d character
JP2021086415A (en) Virtual person interaction system, video generation method, and video generation program
JP2017117184A (en) Robot, question presentation method, and program
JP7033353B1 (en) A device for evaluating services provided by a service provider, a method performed on the device, and a program.
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
US20230042310A1 (en) Wearable apparatus and methods for approving transcription and/or summary
US20220076680A1 (en) Systems and methods for processing audio and video
WO2022137547A1 (en) Communication assistance system
CN111415397B (en) Face reconstruction and live broadcast method, device, equipment and storage medium
JP2021043841A (en) Virtual character generation apparatus and program
KR20040076524A (en) Method to make animation character and System for Internet service using the animation character
US20240020742A1 (en) Virtual space changing apparatus, virtual space changing method, and storage medium
JP7237895B2 (en) Information processing device, information processing program and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210813

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220218

R150 Certificate of patent or registration of utility model

Ref document number: 7033353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150