JP2023019732A - Apparatus for evaluating service provided by service provider, method and program to be executed on the apparatus - Google Patents
Apparatus for evaluating service provided by service provider, method and program to be executed on the apparatus Download PDFInfo
- Publication number
- JP2023019732A JP2023019732A JP2021124681A JP2021124681A JP2023019732A JP 2023019732 A JP2023019732 A JP 2023019732A JP 2021124681 A JP2021124681 A JP 2021124681A JP 2021124681 A JP2021124681 A JP 2021124681A JP 2023019732 A JP2023019732 A JP 2023019732A
- Authority
- JP
- Japan
- Prior art keywords
- service
- service provider
- data
- evaluation value
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000000007 visual effect Effects 0.000 claims abstract description 39
- 238000011156 evaluation Methods 0.000 claims description 150
- 230000001815 facial effect Effects 0.000 claims description 8
- 238000012015 optical character recognition Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 13
- 230000006870 function Effects 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラムに関する。 The present invention relates to a device for evaluating services provided by a service provider, a method and a program executed in the device.
従来から、商品を購入する前におよび/または商品の購入に関する契約を締結する前に、店員が客に対してその商品の詳細を説明するサービスが知られている。 2. Description of the Related Art Conventionally, a service is known in which a store clerk explains the details of a product to a customer before purchasing the product and/or before concluding a contract regarding the purchase of the product.
しかしながら、商品を購入する前におよび/または商品の購入に関する契約を締結する前に、店員のサービスの良し悪し(例えば、商品の説明が十分であるのか、商品の購入に関連する契約の説明が正しいのか)を客が知る術はなかった。 However, prior to purchasing an item and/or concluding a contract for the purchase of an item, it is important to assess the quality of the service provided by the store clerk (e.g., whether the item description is sufficient, whether the contract related to the purchase of the item is adequately explained, etc.). There was no way for the customer to know if it was correct.
本発明は、上述した課題に鑑みてなされたものであり、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a device for evaluating services provided by a service provider, a method executed by the device, and a program.
本発明の1つの局面において、本発明の装置は、サービス提供者が提供するサービスを評価するための装置であり、前記装置は、前記サービスに関連する視覚データを受信する手段と、前記サービスに関連する音声データを受信する手段と、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段とを備える。 In one aspect of the present invention, the device of the present invention is a device for evaluating a service provided by a service provider, said device comprising means for receiving visual data relating to said service; means for receiving associated audio data; and means for performing an evaluation of said service based on said visual data and said audio data.
本発明の1つの実施形態では、前記音声データは、サービス被提供者に対して発話した前記サービス提供者の発話データと、前記サービス提供者に対して発話した前記サービス被提供者の発話データとを含み、前記視覚データは、前記サービス提供者が前記サービス被提供者に対して発話しているときの前記サービス提供者の顔を示す第1の画像データと、前記サービス被提供者が前記サービス提供者に対して発話しているときの前記サービス提供者の顔を示す第2の画像データとを含み、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記サービス提供者の発話データと前記サービス被提供者の発話データと前記第1の画像データと前記第2の画像データとに基づいて前記サービスの評価を実施する手段を含んでいてもよい。 In one embodiment of the present invention, the voice data includes speech data of the service provider speaking to the service recipient and speech data of the service recipient speaking to the service provider. wherein the visual data includes first image data showing the face of the service provider when the service provider is speaking to the service recipient; and second image data showing the face of the service provider when speaking to the provider, the means for performing an evaluation of the service based on the visual data and the audio data, comprising: Means may be included for evaluating the service based on the speech data of the service provider, the speech data of the service recipient, the first image data, and the second image data.
本発明の1つの実施形態では、前記装置は、前記サービス提供者の発話データと前記第1の画像データとに基づいて、前記サービス提供者が発話している間の前記サービスの第1の評価値を算出する手段と、前記サービス被提供者の発話データと前記第2の画像データとに基づいて、前記サービス被提供者が発話している間の前記サービスの第2の評価値を算出する手段とをさらに備え、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記第1の評価値と前記第2の評価値とに基づいて前記サービスの評価を実施する手段を含んでいてもよい。 In one embodiment of the invention, the device performs a first evaluation of the service while the service provider is speaking, based on the speech data of the service provider and the first image data. calculating a second evaluation value of the service while the service recipient is speaking, based on the service recipient's utterance data and the second image data; wherein the means for evaluating the service based on the visual data and the audio data evaluates the service based on the first evaluation value and the second evaluation value. may include means for
本発明の1つの実施形態では、前記第1の画像データおよび前記第2の画像データは、前記サービス提供者の顔の1つ以上のパーツに関連する顔パラメータを含み、前記第1の評価値を算出する手段は、前記サービス提供者の発話データと前記第1の画像データに含まれる顔パラメータとに基づいて前記第1の評価値を算出する手段を含み、前記第2の評価値を算出する手段は、前記サービス被提供者の発話データと前記第2の画像データに含まれる顔パラメータとに基づいて前記第2の評価値を算出する手段を含んでいてもよい。 In one embodiment of the present invention, said first image data and said second image data include facial parameters associated with one or more parts of said service provider's face, said first evaluation value includes means for calculating the first evaluation value based on speech data of the service provider and face parameters included in the first image data, and calculating the second evaluation value The means for calculating may include means for calculating the second evaluation value based on speech data of the service provider and face parameters included in the second image data.
本発明の1つの実施形態では、前記サービス提供者の発話データおよび前記サービス被提供者の発話データは、発話の音量、速度、トーン、および間隔のうちの少なくとも1つの音声パラメータを含み、前記第1の評価値を算出する手段は、前記サービス提供者の発話データの少なくとも1つの音声パラメータと前記第1の画像データとに基づいて前記第1の評価値を算出する手段を含み、前記第2の評価値を算出する手段は、前記サービス被提供者の発話データの少なくとも1つの音声パラメータと前記第2の画像データとに基づいて前記第2の評価値を算出する手段を含んでいてもよい。 In one embodiment of the present invention, the service provider's speech data and the service provider's speech data include at least one speech parameter of speech volume, rate, tone, and interval; The means for calculating one evaluation value includes means for calculating the first evaluation value based on at least one speech parameter of the speech data of the service provider and the first image data, The means for calculating the evaluation value of may include means for calculating the second evaluation value based on at least one speech parameter of the speech data of the service provider and the second image data .
本発明の1つの実施形態では、前記視覚データは、前記サービスに関連する書類の第3の画像データを含んでいてもよい。 In one embodiment of the invention, the visual data may include third image data of documents associated with the service.
本発明の1つの実施形態では、前記装置は、前記第3の画像データの光学的文字認識を実施するための手段をさらに備えていてもよい。 In one embodiment of the invention, said apparatus may further comprise means for performing optical character recognition of said third image data.
本発明の1つの実施形態では、前記装置は、前記光学的文字認識された第3の画像データに基づいて、前記書類に関連付けられた第3の評価値を算出する手段をさらに備え、前記サービスの評価の実施は、前記第3の評価値にさらに基づいてもよい。 In one embodiment of the present invention, the device further comprises means for calculating a third evaluation value associated with the document based on the optical character recognized third image data, and the service may be further based on the third evaluation value.
本発明の1つの実施形態では、前記装置は、言語非依存の態様で前記サービスの評価の結果をサービス被提供者に提示する手段をさらに備えていてもよい。 In one embodiment of the invention, the device may further comprise means for presenting the results of the evaluation of the service to the service provider in a language-independent manner.
本発明の1つの実施形態では、前記視覚データを受信する手段は、カメラを介して前記視覚データを受信する手段を含んでいてもよい。 In one embodiment of the invention, said means for receiving visual data may comprise means for receiving said visual data via a camera.
本発明の1つの実施形態では、前記音声データを受信する手段は、マイクを介して前記音声データを受信する手段を含んでいてもよい。 In one embodiment of the invention, said means for receiving audio data may include means for receiving said audio data via a microphone.
本発明の1つの実施形態では、前記装置は、サービス被提供者が装着するウェアラブルデバイスを含んでいてもよい。 In one embodiment of the invention, the apparatus may include a wearable device worn by the service provider.
本発明の1つの実施形態では、前記ウェアラブルデバイスは、前記サービス被提供者の眼に装着可能な眼鏡型ウェアラブルデバイスを含んでいてもよい。 In one embodiment of the present invention, the wearable device may include a glasses-type wearable device that can be worn on the eyes of the service provider.
本発明の1つの局面において、本発明の方法は、サービス提供者が提供するサービスを評価するための装置において実行される方法であり、前記装置は、プロセッサ部を備え、前記方法は、前記プロセッサ部が、前記サービスに関連する視覚データを受信することと、前記プロセッサ部が、前記サービスに関連する音声データを受信することと、前記プロセッサ部が、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することとを含む。 In one aspect of the present invention, the method of the present invention is a method performed in a device for evaluating a service provided by a service provider, said device comprising a processor unit, said method comprising: a unit receiving visual data associated with the service; the processor unit receiving audio data associated with the service; and conducting an evaluation of the service.
本発明の1つの局面において、本発明のプログラムは、サービス提供者が提供するサービスを評価するための装置において実行されるプログラムであり、前記装置は、プロセッサ部を備え、前記プログラムは、前記プロセッサ部によって実行されると、前記サービスに関連する視覚データを受信することと、前記サービスに関連する音声データを受信することと、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することとを少なくとも前記プロセッサ部に行わせる。 In one aspect of the present invention, a program of the present invention is a program executed in a device for evaluating services provided by a service provider, the device comprising a processor section, the program comprising the processor receiving visual data associated with the service; receiving audio data associated with the service; and performing an evaluation of the service based on the visual data and the audio data. and at least the processor unit.
本発明によれば、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラムを提供することが可能である。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a device for evaluating services provided by a service provider, a method executed in the device, and a program.
以下、本明細書において用いられる用語を定義する。 The terms used in this specification are defined below.
本明細書において「サービス提供者」とは、サービスを提供する人をいい、「サービス被提供者」とはサービスを提供してもらう人をいうものとする。すなわち、サービスは、サービス提供者によってサービス被提供者に提供される。 In this specification, the term "service provider" refers to a person who provides a service, and the term "service recipient" refers to a person to whom a service is provided. That is, services are provided to service recipients by service providers.
また、本明細書における「サービス」は、任意のサービスであり得るが、代表的には、サービス提供者がサービス被提供者に実際に(物理的に)会った際にサービス提供者によって提供されるものであり得る。1つの実施形態では、サービス提供者は、サービス被提供者にディスプレイを介してリモートで「サービス」を提供してもよい。 Also, "service" herein can be any service, but is typically provided by the service provider when the service provider actually (physically) meets the service recipient. can be In one embodiment, a service provider may provide a "service" to a service recipient remotely via a display.
「サービス」の一例は、サービス提供者(例えば、店員)がサービス被提供者(例えば、客)に商品を説明する(必要に応じて、商品の説明の後、契約をする)サービスである。なお、本明細書において、商品は、物理的な物であってもよいし、物理的ではない役務であってもよい。 An example of a "service" is a service in which a service provider (e.g., store clerk) explains a product to a service recipient (e.g., a customer) (if necessary, a contract is made after the explanation of the product). In this specification, goods may be physical goods or non-physical services.
1.新しいサービス評価方法
出願人は、サービス提供者がサービス被提供者にサービスを提供しているときに(または提供した後に)サービス被提供者がサービスの良し悪しを判断することを可能にするために、サービス提供者のサービスの評価の結果をサービス被提供者に提供および/または提示するための新しいサービス評価手法を提案する。このような新しいサービス評価手法によれば、サービス被提供者は、例えば、サービス被提供者が装着しているユーザ装置(例えば、眼鏡型ウェアラブルデバイス)を用いて、サービス提供者のサービスに関連する視覚データ(例えば、サービス提供者の顔の画像データ)と、サービス提供者のサービスに関連する音声データ(例えば、サービス提供者とサービス被提供者との間の会話のデータ(すなわち、サービス提供者の発言内容を示す発話データおよびサービス被提供者の発言内容を示す発話データ))とを取得し、ユーザ装置と通信可能なサーバ装置に提供し、サーバ装置は、視覚データと音声データとに基づいてサービス提供者のサービスの評価を実施し、ユーザ装置は、サービス提供者のサービスの評価の結果をサービス被提供者に提供および/または提示することが可能である。
1. A new service evaluation method Applicant proposes a new service evaluation method to enable service recipients to judge the quality of the service when (or after) the service provider is providing the service to the service recipient. proposes a new service evaluation technique for providing and/or presenting the results of the evaluation of the service of the service provider to the service recipient. According to such a new service evaluation method, the service provider uses, for example, a user device (for example, a glasses-type wearable device) worn by the service provider to evaluate the service of the service provider. Visual data (e.g., image data of the service provider's face) and audio data associated with the service provider's services (e.g., conversational data between the service provider and the service recipient (i.e., the service provider utterance data indicating the utterance content of the service provider and the utterance data indicating the utterance content of the service provider)) and provided to a server device that can communicate with the user device, and the server device receives the visual data and the voice data based on the The user device can provide and/or present the results of the evaluation of the service provider's service to the service provider.
以下、図面を参照しながら、本発明の実施の形態を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1Aは、サービス提供者がサービス被提供者にサービスを提供している場面の一例を示す。 FIG. 1A shows an example of a scene in which a service provider is providing a service to a service recipient.
図1Aに示される実施形態では、サービス提供者100(例えば、店舗の店員)が、サービス被提供者110(例えば、店舗に訪れた客)に対して、対面した状態で、サービスに関連する書類120(例えば、商品に関連する契約書)を用いて、サービス(例えば、店舗において販売されている商品の詳細およびその商品に関連する契約を説明するサービス)を提供している。 In the embodiment shown in FIG. 1A, a service provider 100 (e.g., a store clerk) faces a service recipient 110 (e.g., a customer visiting a store) and submits documents related to the service. 120 (e.g., contracts relating to goods) are used to provide services (e.g., services describing details of goods sold in a store and contracts relating to those goods).
図1Aに示される実施形態では、サービス被提供者110がユーザ装置130(例えば、眼鏡型ウェアラブルデバイス)を装着している。サービス被提供者110は、ユーザ装置130(例えば、ユーザ装置130のマイク)を用いて、サービスに関連する音声(例えば、サービス被提供者110に対して発話したサービス提供者100の発話およびサービス提供者100に対して発話したサービス被提供者110の発話)を収音し、サービスに関連する音声データを入手する。サービスに関連する音声データは、サービスの評価のために使用される。
In the embodiment shown in FIG. 1A, the
図1Aに示される実施形態では、サービス被提供者110は、ユーザ装置130(例えば、ユーザ装置130のカメラ)を用いて、サービスに関連する画像(例えば、サービス提供者100の画像(例えば、サービス提供者100の顔の画像))を撮像し、サービスに関連する視覚データを入手する。サービスに関連する視覚データは、サービスの評価のために使用される。
In the embodiment shown in FIG. 1A,
図1Aに示される実施形態では、サービス被提供者110は、ユーザ装置130(例えば、ユーザ装置130のカメラ)を用いて、書類120をさらに撮像し、書類120の画像データを入手してもよい。書類120の画像データは、サービスの評価のために使用され得る。
In the embodiment shown in FIG. 1A, the
サービス被提供者110は、サービスに関連する視覚データとサービスに関連する音声データと入手すると(または、サービスに関連する視覚データとサービスに関連する音声データと書類120の画像データとを入手すると)、サービスの評価の結果を見ることができる。サービスの評価の結果は、例えば、ユーザ装置130によってサービス被提供者110に提示される。これにより、サービス被提供者110は、サービス提供者100によって提供されるサービスの良し悪しを把握することができ、ひいては、商品の購入および/または商品に関連する契約を行うべきか否かを判断することができる。
When the
サービスの評価の結果は、サービスがサービス提供者100によってサービス被提供者110に提供されている間に(すなわち、リアルタイムで)サービス被提供者110に提示されてもよいし、サービスがサービス提供者100によってサービス被提供者110に提供された後に(すなわち、サービスの提供が完了した後に)サービス被提供者110に提示されてもよい。
The results of the evaluation of the service may be presented to the
なお、図1Aに示される実施形態では、サービス提供者100とサービス被提供者110とが対面した状態でサービスを提供する例を説明したが、本発明はこれに限定されない。サービス提供者100は、例えば、サービス被提供者110からサービス提供者100(例えば、サービス提供者100の顔)が見える状態で、(例えば、ディスプレイを介して)リモートでサービスをサービス被提供者110に提供するようにしてもよい。
In the embodiment shown in FIG. 1A, the example in which the
また、図1Aに示される実施形態では、サービス被提供者110がユーザ装置130を装着している例を説明したが、本発明はこれに限定されない。ユーザ装置130は、サービス被提供者110が装着可能なものでなくてもよい。ユーザ装置130は、サービス被提供者110にサービスの評価の結果を提示することが可能である限りにおいて、任意の装置であり得る。
Also, in the embodiment shown in FIG. 1A, an example in which the
図1Bは、ユーザ装置130によってサービス被提供者110に提示されるサービスの評価の結果の一例を示す。
FIG. 1B shows an example of evaluation results of a service presented to
図1Bに示される実施形態では、サービスの評価の結果が、2次元平面座標系とイラストの動きとを組み合わせた3次元の態様で表現されている。具体的には、図1Bに示される実施形態では、2次元平面座標系は、サービス提供者のサービスの「技術」に関連する評価を横軸にとり、かつ、「心」に関連する評価を縦軸にとって構成されている。また、イラストの動きは、サービス提供者のサービス提供中の発話の「聞き心地」に関連する評価を示している。イラストは、例えば、「聞き心地」に関連する評価値が10点満点中0~3点である場合には渦巻状に動き、「聞き心地」に関連する評価値が10点満点中3~5点である場合には三角形状に動き、「聞き心地」に関連する評価値が10点満点中5~8点である場合には横方向に動き、「聞き心地」に関連する評価値が10点満点中8~10点である場合には縦方向に動く。イラストの一例は、蜂であるが、これに限定されない。 In the embodiment shown in FIG. 1B, the service evaluation results are represented in a three-dimensional fashion combining a two-dimensional planar coordinate system and illustration movement. Specifically, in the embodiment shown in FIG. 1B, the two-dimensional planar coordinate system takes the "skill"-related rating of the service provider's service on the horizontal axis, and the "mind"-related rating on the vertical axis. configured for the axis. In addition, the movement of the illustration shows the evaluation related to the "listening comfort" of the service provider's speech during service provision. For example, when the evaluation value related to “listening comfort” is 0 to 3 out of 10, the illustration moves in a spiral shape, and the evaluation value related to “listening comfort” is 3 to 5 out of 10. If it is a point, it moves in a triangular shape, and if the evaluation value related to "listening comfort" is 5 to 8 points out of 10, it moves horizontally, and the evaluation value related to "listening comfort" is 10. If the score is 8 to 10 out of 10 points, it moves vertically. A non-limiting example of an illustration is a bee.
図1Bに示される実施形態では、サービス提供者のサービスの「技術」に関連する評価値が8点であり、サービス提供者のサービスの「心」に関連する評価値が9点であり、サービス提供者のサービス提供中の発話の「聞き心地」に関連する評価値が3点である。 In the embodiment shown in FIG. 1B, the service provider's rating associated with the "skill" of the service is 8 points, the service provider's rating associated with the "heart" of the service is 9 points, and the service provider's rating associated with the "mind" of the service is 9 points. The evaluation value related to the "comfort of hearing" of speech during service provision by the provider is 3 points.
図1Bに示されるように、サービスの評価の結果が、言語非依存の態様で(例えば、数値、イラスト、イラストの動き等を用いて)、サービス被提供者110に提示されることが好ましい。このように、サービスの評価の結果がサービス被提供者に言語非依存の態様で提示されることによって、サービス被提供者は、特定の言語(例えば、日本語、英語、中国語、韓国語、ロシア語等)を理解できなくとも、サービスの評価の結果(すなわち、サービスの良し悪し)を直感的に理解することができる。
As shown in FIG. 1B, the results of the service evaluation are preferably presented to the
なお、図1Bに示される実施形態では、2次元平面座標系とイラストの動きとを組み合わせた3次元の態様でサービスの評価の結果を提示する例を説明したが、本発明はこれに限定されない。サービスの評価の結果は、より単純に、ランク形式で(例えば、5段階評価形式で)サービス被提供者に提示されてもよいし、数値(例えば、パーセンテージ)を用いてサービス被提供者に提示されてもよい。 In the embodiment shown in FIG. 1B, an example of presenting service evaluation results in a three-dimensional mode that combines a two-dimensional coordinate system and illustration movement has been described, but the present invention is not limited to this. . The results of the service evaluation may be presented to the service recipient more simply in a rank format (e.g., in a 5-point evaluation format), or may be presented to the service recipient using a numerical value (e.g., percentage). may be
2.新しいサービス評価方法を実現するためのシステム構成
図2は、新しいサービス評価方法を実現するためのシステム200の構成の一例を示す。
2. System Configuration for Realizing the New Service Evaluation Method FIG. 2 shows an example of the configuration of a
システム200は、サーバ装置210と、サービス被提供者によって使用されるユーザ装置2201~220Nとを備える。サーバ装置210は、インターネット230を介して、ユーザ装置2201~220Nのそれぞれと通信可能なように構成されている。ここで、Nは、1以上の整数である。
The
図2に示される実施形態では、サーバ装置210は、インターフェース部211と、1つ以上のCPU(Central Processing Unit)を含むプロセッサ部212と、メモリ部213とを含む。サーバ装置210は、データベース部240に接続されている。サーバ装置210のハードウェア構成は、その機能を実現できる限りにおいて特に限定されず、単一のマシンで構成されていてもよく、複数台のマシンを組み合わせて構成されたものであってもよい。
In the embodiment shown in FIG. 2 , the
インターフェース部211は、ユーザ装置2201~220Nのそれぞれとの通信を制御する。
The
メモリ部213には、処理を実行するために必要とされるプログラムやそのプログラムを実行するために必要とされるデータ等が格納されている。ここで、プログラムをどのようにしてメモリ部213に格納するかは問わない。例えば、プログラムは、メモリ部213にプリインストールされていてもよい。あるいは、プログラムは、インターネット340などのネットワークを経由してダウンロードされることによってメモリ部213にインストールされるようにしてもよいし、光ディスクやUSBなどの記憶媒体を介してメモリ部213にインストールされるようにしてもよい。
The
プロセッサ部212は、サーバ装置210全体の動作を制御する。プロセッサ部212は、メモリ部213に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、サーバ装置210は、所望のステップを実行する装置として機能することが可能であり、サーバ装置210のプロセッサ部212は、所望の機能を達成する手段として動作することが可能である。
The
ユーザ装置2201~220Nのそれぞれは、インターネット230を介してサーバ装置210と通信することが可能なように構成されている。ユーザ装置2201~220Nのそれぞれのうちの1つは、図1Aに示されるユーザ装置130を含む。例えば、ユーザ装置2201~220Nのそれぞれは、携帯電話、スマートフォン、タブレット端末、スマートグラス(眼鏡型ウェアラブルデバイス)、スマートウォッチ端末等の携帯無線端末であってもよいし、ラップトップPC、ノートPC等のパーソナルコンピュータであってもよい。
Each of user devices 220 1 to 220 N is configured to be able to communicate with
図2に示される実施形態では、ユーザ装置2201は、サービスに関連する音声データ(例えば、サービス被提供者110に対して発話したサービス提供者100の発話データおよびサービス提供者100に対して発話したサービス被提供者110の発話データ)を受信することが可能なように構成されている(例えば、サービスに関連する音声を収音することが可能なマイク(図示せず)を備え、マイクを用いてサービスに関連する音声データを取得するように構成されている)。
In the embodiment shown in FIG. 2, the user device 220 1 collects voice data related to the service (eg, speech data of the
図2に示される実施形態では、ユーザ装置2201は、サービスに関連する視覚データ(例えば、サービス提供者100の画像(例えば、サービス提供者100の顔の画像))を受信することが可能なように構成されている(例えば、サービス提供者100の画像を撮像することが可能なカメラ(図示せず)を備え、カメラを用いてサービス提供者100の画像を取得するように構成されている)。
In the embodiment shown in FIG. 2, user device 220 1 is capable of receiving visual data associated with a service (eg, an image of service provider 100 (eg, an image of
図2に示される実施形態では、ユーザ装置2201は、サービスに関連する視覚データとサービスに関連する音声データとに基づいて実施されたサービスの評価の結果をサービス被提供者110に提示することが可能なように構成されている。例えば、ユーザ装置2201は、ディスプレイ(図示せず)を備え、ディスプレイ上にサービスの評価の結果が表示されることによって、サービスの評価の結果がサービス被提供者に提示されてもよい。あるいは、例えば、ユーザ装置2201は、拡張現実および/または複合現実を実現可能な装置(例えば、頭部搭載型の拡張現実ディスプレイおよび/または複合現実ディスプレイを備える装置)であり、拡張現実技術および/または複合現実技術を利用してサービスの評価の結果がサービス被提供者に提示されてもよい。
In the embodiment shown in FIG. 2, the user device 220 1 presents to the
なお、図2に示される実施形態では、ユーザ装置2201~220Nがインターネット230を介してサーバ装置210と通信可能であると説明したが、本発明はこれに限定されない。インターネット230の代わりに任意のタイプのネットワークを用いることも可能である。なお、インターネット230およびその代わりの任意のネットワークを介することなく、ユーザ装置2201~220Nをサーバ装置210に電気的に結合した構成もまた本発明の範囲内である。さらに、ユーザ装置2201の機能およびサーバ装置210の機能の両方を一体的に組み込んだシステム(すなわち、スタンドアロン型のシステム)をサーバ装置210またはユーザ装置2201として構築してもよい。このようなスタンドアロン型のサーバ装置210またはユーザ装置2201もまた本発明の範囲内である。
In the embodiment shown in FIG. 2, it has been described that the user devices 220 1 to 220 N can communicate with the
また、図2に示される実施形態では、データベース部240は、サーバ装置210の外部に設けられているが、本発明はこれに限定されない。データベース部240をサーバ装置210の内部に設けることも可能である。データベース部240の構成は、特定のハードウェア構成には限定されない。例えば、データベース部240は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部240は、サーバ装置210の単一の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。
Moreover, in the embodiment shown in FIG. 2, the
図3は、データベース部240に格納されている情報の構成の一部を示す。
FIG. 3 shows part of the configuration of information stored in the
図3に示される実施形態では、データベース部240には、サービスの評価のための情報が格納されている。サービスの評価のための情報は、例えば、サービス提供者の顔の1つ以上のパーツに関連する顔パラメータと評価値との間の対応関係、サービス提供者およびサービス被提供者の発話データの音声パラメータと評価値との間の対応関係、サービスに関連する書類に記載すべきテキスト、サービスに関連する書類と評価値との間の対応関係を含み得る。
In the embodiment shown in FIG. 3, the
顔パラメータは、例えば、瞳の大きさ、眼の大きさ、目尻の変位、口の幅、口の開き度合い、口角の変位、3次元空間における頭部の変位を含むが、これらには限定されない。音声パラメータは、例えば、音声の音量、速度、トーン、音声間の間隔を含むが、これらに限定されない。 Face parameters include, but are not limited to, pupil size, eye size, eye corner displacement, mouth width, mouth opening degree, mouth corner displacement, and head displacement in three-dimensional space. . Voice parameters include, but are not limited to, voice volume, speed, tone, intervals between voices, for example.
顔パラメータと評価値との間の対応関係は、例えば、顔パラメータを変数とする関数(例えば、微分方程式)によって規定されてもよいし、閾値と顔パラメータとの差の絶対値のある範囲と評価値との対応関係(例えば、絶対値0~±1と評価値5とが対応する対応関係)によって規定されてもよい。閾値は、所定の閾値であってもよいし、顔パラメータの種類ごとに異なる閾値であってもよい。
The correspondence between the face parameters and the evaluation values may be defined by, for example, a function (for example, a differential equation) with the face parameters as variables, or a range of absolute values of the difference between the threshold and the face parameters. It may be defined by a correspondence relationship with the evaluation value (for example, a correspondence relationship in which the
音声パラメータと評価値との間の対応関係は、例えば、音声パラメータを変数とする関数(例えば、微分方程式)によって規定されてもよいし、閾値と音声パラメータとの差の絶対値のある範囲と評価値との対応関係(例えば、絶対値0~±1と評価値5とが対応する対応関係)によって規定されてもよい。閾値は、所定の閾値であってもよいし、音声パラメータの種類ごとに異なる閾値であってもよい。
The correspondence relationship between the speech parameter and the evaluation value may be defined by, for example, a function (for example, a differential equation) with the speech parameter as a variable, or a certain range of the absolute value of the difference between the threshold and the speech parameter. It may be defined by a correspondence relationship with the evaluation value (for example, a correspondence relationship in which the
サービスに関連する書類と評価値との間の対応関係は、例えば、サービスに関連する書類に記載すべきテキストのうち、サービスに関連する書類に実際に記載されているテキストの割合によって規定されてもよい。あるいは、サービスに関連する書類と評価値との間の対応関係は、例えば、サービスに関連する書類に記載すべきテキストのうち、サービス提供者の音声データに含まれるテキストの割合によって規定されてもよい。 The correspondence relationship between the service-related documents and the evaluation value is defined, for example, by the percentage of the text that should be written in the service-related documents that is actually written in the service-related documents. good too. Alternatively, the correspondence relationship between the service-related documents and the evaluation value may be defined by, for example, the ratio of the text included in the service provider's voice data to the text to be described in the service-related documents. good.
3.サーバ装置の処理
図4は、サーバ装置210において実行される処理のフローの一例を示す。図4に示される各ステップは、例えば、サーバ装置210のプロセッサ部211によって実行される。以下、図4に示される各ステップを説明する。
3. Processing of Server Device FIG. 4 shows an example of the flow of processing executed in the
ステップS401:サービスに関連する視覚データが受信される。視覚データは、例えば、ユーザ装置2201のカメラを介してユーザ装置2201から受信され得る。視覚データは、サービス提供者がサービス被提供者に対して発話しているときのサービス提供者の顔を示す画像データAと、サービス被提供者がサービス提供者に対して発話しているときのサービス提供者の顔を示す画像データBとを含む。視覚データは、サービスに関連する書類の画像データCをさらに含んでいてもよい。画像データAおよび画像データBは、サービス提供者の顔の1つ以上のパーツに関連する顔パラメータを含み得る。顔パラメータは、例えば、瞳の大きさ、眼の大きさ、目尻の変位、口の幅、口の開き度合い、口角の変位、3次元空間における頭部の変位を含む。 Step S401: Visual data associated with a service is received. Visual data may be received from the user device 220-1 via a camera of the user device 220-1 , for example. The visual data includes image data A showing the face of the service provider when the service provider is speaking to the service recipient, and image data A showing the face of the service provider when the service recipient is speaking to the service provider. and image data B showing the face of the service provider. The visual data may further include image data C of the document associated with the service. Image data A and image data B may include facial parameters associated with one or more parts of the service provider's face. Face parameters include, for example, pupil size, eye size, eye corner displacement, mouth width, mouth opening degree, mouth corner displacement, and head displacement in three-dimensional space.
ステップS402:サービスに関連する音声データが受信される。音声データは、例えば、ユーザ装置2201のマイクを介してユーザ装置2201から受信され得る。音声データは、サービス被提供者に対して発話したサービス提供者の発話データと、サービス提供者に対して発話したサービス被提供者の発話データとを含む。サービス提供者の発話データは、音声パラメータ(例えば、音声の音量、速度、トーン、音声間の間隔)を含み得、サービス被提供者の発話データもまた、音声パラメータ(例えば、音声の音量、速度、トーン、音声間の間隔)を含み得る。 Step S402: Audio data related to the service is received. Audio data may be received from the user device 220-1 via a microphone of the user device 220-1 , for example. The voice data includes speech data of the service provider who speaks to the service recipient and speech data of the service recipient who speaks to the service provider. The service provider's speech data may include voice parameters (e.g., voice volume, rate, tone, interval between voices), and the service provider's speech data may also include voice parameters (e.g., voice volume, rate, etc.). , tones, intervals between voices).
ステップS403:ステップS401において受信された視覚データ(例えば、画像データAおよび画像データB)と、ステップS402において受信された音声データ(例えば、サービス提供者の発話データおよびサービス被提供者の発話データ)とに基づいて、サービス提供者のサービスの評価が実施される。これにより、サービス提供者のサービスの評価の結果が生成される。サービス提供者のサービスの評価の結果の生成については、図5を参照してより詳細に後述される。 Step S403: Visual data received in step S401 (eg, image data A and image data B) and audio data received in step S402 (eg, service provider speech data and service recipient speech data) Evaluation of the service provider's service is carried out on the basis of This produces a result of evaluating the service of the service provider. Generating the results of the evaluation of the service provider's service is described in more detail below with reference to FIG.
ステップS404:ステップS403において生成されたサービスの評価の結果をサービス被提供者に提示するための処理が実行される。この処理は、例えば、サービスの評価の結果をユーザ装置2201(例えば、ユーザ装置2201のディスプレイ)に表示させる処理を含む。これにより、サービスの評価の結果が、ユーザ装置2201によってサービス被提供者に提示される。 Step S404: A process for presenting the service provider with the service evaluation result generated in step S403 is executed. This process includes, for example, a process of displaying the service evaluation result on the user device 220 1 (eg, the display of the user device 220 1 ). As a result, the result of service evaluation is presented to the service provider by the user device 2201 .
図5は、図4に示されるステップS403の処理の一例を示す。以下、図5に示される各ステップを説明する。 FIG. 5 shows an example of the processing of step S403 shown in FIG. Each step shown in FIG. 5 will be described below.
ステップS501:サービス被提供者に対して発話したサービス提供者の発話データ(例えば、サービス提供者の発話データに含まれる音声パラメータ)と、サービス提供者がサービス被提供者に対して発話しているときのサービス提供者の顔を示す画像データA(例えば、サービス提供者が発話しているときのサービス提供者の顔パラメータ)とに基づいて、サービス提供者が発話している間のサービスの評価値αが算出される。この処理は、データベース部240を参照して実行される。
Step S501: Speech data of the service provider speaking to the service recipient (for example, speech parameters included in the speech data of the service provider) and the service provider speaking to the service recipient Evaluation of the service while the service provider is speaking based on image data A showing the face of the service provider at that time (for example, facial parameters of the service provider when the service provider is speaking) A value α is calculated. This process is executed with reference to the
サービス提供者が発話しているときのサービス提供者の各顔パラメータは、画像データAに含まれていてもよいし、サーバ装置210が画像データAに基づいて(例えば、画像データAをスキャンすることにより)特定されてもよい。
Each face parameter of the service provider when the service provider is speaking may be included in the image data A, or the
サービス提供者が発話している間のサービスの評価値αは、例えば、データベース部240に格納されている情報(例えば、顔パラメータと評価値との間の対応関係および音声パラメータと評価値との間の対応関係)を参照して、顔パラメータおよび音声パラメータを評価値に変換することによって、算出され得る。 The evaluation value α of the service while the service provider is speaking is, for example, the information stored in the database unit 240 (for example, the correspondence relationship between the face parameter and the evaluation value and the relationship between the voice parameter and the evaluation value). (correspondence between face parameters) and converting face parameters and voice parameters into evaluation values.
ステップS502:サービス提供者に対して発話したサービス被提供者の発話データ(例えば、サービス被提供者の発話データに含まれる音声パラメータ)と、サービス被提供者がサービス提供者に対して発話しているときのサービス提供者の顔を示す画像データB(例えば、サービス被提供者が発話しているときのサービス提供者の顔パラメータ)とに基づいて、サービス被提供者が発話している間のサービスの評価値βが算出される。この処理は、データベース部240を参照して実行される。
Step S502: Speech data of the service recipient speaking to the service provider (for example, speech parameters included in the speech data of the service recipient) and the speech data of the service recipient speaking to the service provider while the service recipient is speaking based on the image data B showing the face of the service provider when the service recipient is speaking (for example, the face parameter of the service provider when the service recipient is speaking) A service evaluation value β is calculated. This process is executed with reference to the
サービス被提供者が発話しているときのサービス提供者の各顔パラメータは、画像データBに含まれていてもよいし、サーバ装置210が画像データBに基づいて(例えば、画像データBをスキャンすることにより)特定されてもよい。
Each facial parameter of the service provider when the service recipient is speaking may be included in the image data B, or the
サービス被提供者が発話している間のサービスの評価値βは、例えば、データベース部240に格納されている情報(例えば、顔パラメータと評価値との間の対応関係および音声パラメータと評価値との間の対応関係)を参照して、顔パラメータおよび音声パラメータを評価値に変換することによって、算出され得る。 The evaluation value β of the service while the service provider is speaking is, for example, the information stored in the database unit 240 (for example, the correspondence relationship between the face parameter and the evaluation value and the relationship between the voice parameter and the evaluation value). ) and converting the facial parameters and voice parameters into evaluation values.
ステップS503:ステップS501において算出された評価値αと、ステップS502において算出された評価値βとに基づいて、サービス提供者のサービスの評価が実施される。これにより、例えば、サービス提供者のサービスの総合評価値が、サービス提供者のサービスの評価の結果として生成される。サービス提供者のサービスの総合評価値は、評価値αと評価値βとを変数とする関数を用いて算出されてもよい。あるいは、評価値αと評価値βとの両方をサービス提供者のサービスの総合評価値としてもよい。 Step S503: The service of the service provider is evaluated based on the evaluation value α calculated in step S501 and the evaluation value β calculated in step S502. Thereby, for example, a comprehensive evaluation value of the service of the service provider is generated as a result of evaluation of the service of the service provider. The comprehensive evaluation value of the service of the service provider may be calculated using a function having the evaluation value α and the evaluation value β as variables. Alternatively, both the evaluation value α and the evaluation value β may be used as the overall evaluation value of the service of the service provider.
なお、サーバ装置210(例えば、サーバ装置210のプロセッサ部211)は、画像データCの光学的文字認識を実施することが可能なように構成されていてもよい。サービスに関連する書類の画像データCが視覚データに含まれている場合、サーバ装置210は、画像データCの光学的文字認識を実施することにより、サービスに関連する書類に記載されたテキストを読み取り、データベース部240に格納されている情報(例えば、サービスに関連する書類に記載すべきテキスト、サービスに関連する書類と評価値との間の対応関係)を参照して、書類に関連付けられた評価値γを算出するようにしてもよい。このとき、サーバ装置210は、ステップS503において、評価値αと評価値βと評価値γとに基づいて、サービス提供者のサービスの評価を実施するようにしてもよい。この場合、サービス提供者のサービスの総合評価値は、評価値αと評価値βと評価値γとを変数とする関数を用いて算出されてもよい。あるいは、評価値αと評価値βと評価値γとのすべてをサービス提供者のサービスの総合評価値としてもよい。
Note that the server device 210 (for example, the
また、サーバ装置210(例えば、サーバ装置210のプロセッサ部211)は、評価値αおよび評価値β(および評価値γ)のそれぞれを複数の観点で算出してもよい。例えば、評価値αは、画像データAから算出された観点X(例えば、Hardwork)の評価値と、画像データAから算出された観点Y(例えば、Love)の評価値と、画像データAから算出された観点Z(例えば、Rush)の評価値とを利用して(例えば、平均をとって、和算して、積算して)、かつ、サービス被提供者の音声パラメータから算出された観点P(例えば、Hospitality)の評価値と、サービス被提供者の音声パラメータから算出された観点Q(例えば、Explanation)の評価値と、サービス被提供者の音声パラメータから算出された観点R(例えば、Closing)の評価値とを利用して(例えば、平均をとって、和算して、積算して)算出されてもよい。同様に、評価値βは、画像データBから算出された観点Xの評価値と、画像データBから算出された観点Yの評価値と、画像データBから算出された観点Zの評価値とを利用して(例えば、平均をとって、和算して、積算して)、かつ、サービス提供者の音声パラメータから算出された観点Pの評価値と、サービス提供者の音声パラメータから算出された観点Qの評価値と、サービス提供者の音声パラメータから算出された観点Rの評価値とを利用して(例えば、平均をとって、和算して、積算して)算出されてもよい。このような複数の観点を有する評価値αおよび評価値βは、図1Bに示されるような多次元表現(例えば、2次元平面座標系と動きとを組み合わせた3次元表現)を用いてサービスの評価の結果としてユーザに提示されることが可能である。
Further, the server device 210 (for example, the
図6は、時系列に沿った評価値の変化の一例を示す。 FIG. 6 shows an example of changes in evaluation values over time.
図6に示される実施形態では、時間t1においてサービス提供者がサービス被提供者に対してセリフ「xxx」を発したときのサービスの評価値が、8点であり、時間t2においてサービス被提供者がサービス提供者に対してセリフ「yyy」を発したときのサービスの評価値が、5点であり、時間t3においてサービス提供者がサービス被提供者に対してセリフ「zzz」を発したときのサービスの評価値が、6点であり、時間t4においてサービス被提供者がサービス提供者に対してセリフ「www」を発したときのサービスの評価値が、3点である。 In the embodiment shown in FIG. 6, when the service provider utters the line "xxx" to the service recipient at time t1 , the service evaluation value is 8 points, and at time t2 , the service recipient is 8 points. When the provider utters the line "yyy" to the service provider, the evaluation value of the service is 5 points, and at time t3 , the service provider utters the line "zzz" to the service recipient. The evaluation value of the service at this time is 6 points, and the evaluation value of the service at time t4 when the service recipient utters the line "www" to the service provider is 3 points.
サービス被提供者に対して発話したサービス提供者の発話データ、および、サービス提供者に対して発話したサービス被提供者の発話データは、図6に示されるような発話したタイミングを示す時間データを備えていてもよい。 The utterance data of the service provider speaking to the service recipient and the speech data of the service recipient speaking to the service provider are time data indicating the timing of speech as shown in FIG. may be provided.
図6に示される実施形態では、発話者が切り替わることに応じてサービスの評価が実施され、時間t1、t2、t3、t4の各々におけるサービスの評価値が算出されている。このように、サーバ装置210は、時系列に沿って発話者の切り替わりに応じて複数の評価値を算出するようにしてもよい。
In the embodiment shown in FIG. 6, service evaluation is performed in accordance with the switching of speakers, and service evaluation values are calculated at times t 1 , t 2 , t 3 , and t 4 . In this way, the
なお、図4~図6に示される実施形態では、図4および図5に示される各ステップおよび図6において説明される処理をサーバ装置210のプロセッサ部211が実行する例を説明したが、本発明はこれに限定されない。例えば、サーバ装置210の機能の組み込んだスタンドアロン型のユーザ装置2201のプロセッサ部が、図4および図5に示される各ステップおよび図6において説明される処理を実行してもよい。この場合、データベース部240に格納されている情報は、例えば、スタンドアロン型のユーザ装置2201のメモリ部に格納され得る。
In the embodiments shown in FIGS. 4 to 6, an example was explained in which the
なお、図4~図6に示される実施形態では、メモリ部に格納されたプログラムをプロセッサ部が実行することによって、図4および図5に示される各ステップの処理および図6において説明される処理が実現される例を説明したが、本発明はこれに限定されない。図4および図5に示される各ステップおよび図6において説明される処理のうちの少なくとも一部の処理が制御回路などのハードウェア構成によって実現されてもよい。 In the embodiments shown in FIGS. 4 to 6, the processing of each step shown in FIGS. 4 and 5 and the processing described in FIG. has been described, but the invention is not limited to this. At least part of the steps shown in FIGS. 4 and 5 and the processing described in FIG. 6 may be implemented by a hardware configuration such as a control circuit.
以上のように、本発明の好ましい実施形態を用いて本発明を例示してきたが、本発明は、この実施形態に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。 Although the present invention has been illustrated using the preferred embodiment of the invention as described above, the invention should not be construed as being limited to this embodiment. It is understood that the invention is to be construed in scope only by the claims. It is understood that a person skilled in the art can implement an equivalent range from the description of specific preferred embodiments of the present invention based on the description of the present invention and common technical knowledge.
本発明は、サービス提供者が提供するサービスを評価するための装置、その装置において実行される方法、プログラム等を提供するものとして有用である。 INDUSTRIAL APPLICABILITY The present invention is useful as providing a device for evaluating services provided by a service provider, a method, a program, etc. executed in the device.
200 システム
210 サーバ装置
2201~220N ユーザ装置
230 インターネット
240 データベース部
200
Claims (15)
前記サービスに関連する視覚データを受信する手段と、
前記サービスに関連する音声データを受信する手段と、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段と
を備える、装置。 A device for evaluating a service provided by a service provider, said device comprising:
means for receiving visual data associated with said service;
means for receiving audio data associated with said service;
means for performing an evaluation of said service based on said visual data and said audio data.
前記視覚データは、前記サービス提供者が前記サービス被提供者に対して発話しているときの前記サービス提供者の顔を示す第1の画像データと、前記サービス被提供者が前記サービス提供者に対して発話しているときの前記サービス提供者の顔を示す第2の画像データとを含み、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記サービス提供者の発話データと前記サービス被提供者の発話データと前記第1の画像データと前記第2の画像データとに基づいて前記サービスの評価を実施する手段を含む、請求項1に記載の装置。 The voice data includes speech data of the service provider who speaks to the service provider and speech data of the service provider who speaks to the service provider,
The visual data includes first image data showing the face of the service provider when the service provider is speaking to the service recipient; and second image data showing the face of the service provider when speaking to
The means for evaluating the service based on the visual data and the audio data includes speech data of the service provider, speech data of the service recipient, the first image data, and the second image. 2. Apparatus according to claim 1, comprising means for performing an evaluation of said service based on said data.
前記サービス提供者の発話データと前記第1の画像データとに基づいて、前記サービス提供者が発話している間の前記サービスの第1の評価値を算出する手段と、
前記サービス被提供者の発話データと前記第2の画像データとに基づいて、前記サービス被提供者が発話している間の前記サービスの第2の評価値を算出する手段と
をさらに備え、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施する手段は、前記第1の評価値と前記第2の評価値とに基づいて前記サービスの評価を実施する手段を含む、請求項2に記載の装置。 The device comprises:
means for calculating a first evaluation value of the service while the service provider is speaking based on the speech data of the service provider and the first image data;
means for calculating a second evaluation value of the service while the service recipient is speaking based on the speech data of the service recipient and the second image data;
The means for evaluating the service based on the visual data and the audio data includes means for evaluating the service based on the first evaluation value and the second evaluation value. Item 3. The device according to item 2.
前記第1の評価値を算出する手段は、前記サービス提供者の発話データと前記第1の画像データに含まれる顔パラメータとに基づいて前記第1の評価値を算出する手段を含み、
前記第2の評価値を算出する手段は、前記サービス被提供者の発話データと前記第2の画像データに含まれる顔パラメータとに基づいて前記第2の評価値を算出する手段を含む、請求項3の記載の装置。 the first image data and the second image data include facial parameters associated with one or more parts of the service provider's face;
the means for calculating the first evaluation value includes means for calculating the first evaluation value based on speech data of the service provider and face parameters included in the first image data;
wherein the means for calculating the second evaluation value includes means for calculating the second evaluation value based on speech data of the service provider and facial parameters included in the second image data. Item 4. Apparatus according to item 3.
前記第1の評価値を算出する手段は、前記サービス提供者の発話データの少なくとも1つの音声パラメータと前記第1の画像データとに基づいて前記第1の評価値を算出する手段を含み、
前記第2の評価値を算出する手段は、前記サービス被提供者の発話データの少なくとも1つの音声パラメータと前記第2の画像データとに基づいて前記第2の評価値を算出する手段を含む、請求項3または請求項4に記載の装置。 the service provider's speech data and the service provider's speech data include at least one speech parameter of speech volume, rate, tone, and interval;
The means for calculating the first evaluation value includes means for calculating the first evaluation value based on at least one speech parameter of the speech data of the service provider and the first image data,
The means for calculating the second evaluation value includes means for calculating the second evaluation value based on at least one speech parameter of the speech data of the service provider and the second image data, 5. Apparatus according to claim 3 or claim 4.
前記サービスの評価の実施は、前記第3の評価値にさらに基づく、請求項7に記載の装置。 further comprising means for calculating a third evaluation value associated with the document based on the optical character recognized third image data;
8. The apparatus of claim 7, wherein said service rating implementation is further based on said third rating value.
前記装置は、プロセッサ部を備え、
前記方法は、
前記プロセッサ部が、前記サービスに関連する視覚データを受信することと、
前記プロセッサ部が、前記サービスに関連する音声データを受信することと、
前記プロセッサ部が、前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することと
を含む、方法。 A method, performed in an apparatus for evaluating a service provided by a service provider, comprising:
The device comprises a processor unit,
The method includes:
the processor unit receiving visual data associated with the service;
the processor unit receiving audio data associated with the service;
said processor unit conducting an evaluation of said service based on said visual data and said audio data.
前記装置は、プロセッサ部を備え、
前記プログラムは、前記プロセッサ部によって実行されると、
前記サービスに関連する視覚データを受信することと、
前記サービスに関連する音声データを受信することと、
前記視覚データと前記音声データとに基づいて前記サービスの評価を実施することと
を少なくとも前記プロセッサ部に行わせる、プログラム。 A program executed in a device for evaluating services provided by a service provider,
The device comprises a processor unit,
When the program is executed by the processor unit,
receiving visual data associated with the service;
receiving audio data associated with the service;
and performing an evaluation of the service based on the visual data and the audio data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021124681A JP7033353B1 (en) | 2021-07-29 | 2021-07-29 | A device for evaluating services provided by a service provider, a method performed on the device, and a program. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021124681A JP7033353B1 (en) | 2021-07-29 | 2021-07-29 | A device for evaluating services provided by a service provider, a method performed on the device, and a program. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7033353B1 JP7033353B1 (en) | 2022-03-10 |
JP2023019732A true JP2023019732A (en) | 2023-02-09 |
Family
ID=81213075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021124681A Active JP7033353B1 (en) | 2021-07-29 | 2021-07-29 | A device for evaluating services provided by a service provider, a method performed on the device, and a program. |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7033353B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099474A (en) * | 2013-11-19 | 2015-05-28 | 芳子 明石 | Insurance liaison system |
JP2016218911A (en) * | 2015-05-25 | 2016-12-22 | パナソニックIpマネジメント株式会社 | Customer service evaluating device, customer service evaluating system equipped with the same, and customer service evaluating method |
JP2018124604A (en) * | 2017-01-30 | 2018-08-09 | グローリー株式会社 | Customer service support system, customer service support device and customer service support method |
-
2021
- 2021-07-29 JP JP2021124681A patent/JP7033353B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015099474A (en) * | 2013-11-19 | 2015-05-28 | 芳子 明石 | Insurance liaison system |
JP2016218911A (en) * | 2015-05-25 | 2016-12-22 | パナソニックIpマネジメント株式会社 | Customer service evaluating device, customer service evaluating system equipped with the same, and customer service evaluating method |
JP2018124604A (en) * | 2017-01-30 | 2018-08-09 | グローリー株式会社 | Customer service support system, customer service support device and customer service support method |
Also Published As
Publication number | Publication date |
---|---|
JP7033353B1 (en) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11335062B2 (en) | Automated apparel design using machine learning | |
JP6400445B2 (en) | Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program | |
KR101732613B1 (en) | Modifying an appearance of a participant during a video conference | |
JP2022160406A (en) | Word flow annotation | |
JP6594646B2 (en) | Robot, robot control method, and robot system | |
TW201935272A (en) | Human-computer interaction method and system based on multi-modal emotion and face attribute identification | |
KR20180123150A (en) | Information processing system, reception server, information processing method and program | |
US10996741B2 (en) | Augmented reality conversation feedback | |
Ma et al. | Natural eye motion synthesis by modeling gaze-head coupling | |
CN111523981A (en) | Virtual trial method and device, electronic equipment and storage medium | |
CN110570383A (en) | image processing method and device, electronic equipment and storage medium | |
CN114429767A (en) | Video generation method and device, electronic equipment and storage medium | |
KR101535574B1 (en) | System and method for providing social network emoticon using 3d character | |
JP2021086415A (en) | Virtual person interaction system, video generation method, and video generation program | |
JP2017117184A (en) | Robot, question presentation method, and program | |
JP7033353B1 (en) | A device for evaluating services provided by a service provider, a method performed on the device, and a program. | |
JP7206741B2 (en) | HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM | |
US20230042310A1 (en) | Wearable apparatus and methods for approving transcription and/or summary | |
US20220076680A1 (en) | Systems and methods for processing audio and video | |
WO2022137547A1 (en) | Communication assistance system | |
CN111415397B (en) | Face reconstruction and live broadcast method, device, equipment and storage medium | |
JP2021043841A (en) | Virtual character generation apparatus and program | |
KR20040076524A (en) | Method to make animation character and System for Internet service using the animation character | |
US20240020742A1 (en) | Virtual space changing apparatus, virtual space changing method, and storage medium | |
JP7237895B2 (en) | Information processing device, information processing program and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210813 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7033353 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |