JP2018041120A - 業務評価方法、業務評価装置および業務評価プログラム - Google Patents

業務評価方法、業務評価装置および業務評価プログラム Download PDF

Info

Publication number
JP2018041120A
JP2018041120A JP2016172392A JP2016172392A JP2018041120A JP 2018041120 A JP2018041120 A JP 2018041120A JP 2016172392 A JP2016172392 A JP 2016172392A JP 2016172392 A JP2016172392 A JP 2016172392A JP 2018041120 A JP2018041120 A JP 2018041120A
Authority
JP
Japan
Prior art keywords
utterance
passenger
voice
driver
business
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016172392A
Other languages
English (en)
Inventor
俊明 安東
Toshiaki Ando
俊明 安東
水谷 政美
Masami Mizutani
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016172392A priority Critical patent/JP2018041120A/ja
Publication of JP2018041120A publication Critical patent/JP2018041120A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】業務担当者のサービスを評価する負担を軽減する。【解決手段】業務評価装置10は、業務担当者がサービスを提供している間に発した音声13aと利用者がサービスを利用している間に発した音声13bとを示す音声データ13を取得する。業務評価装置10は、音声データ13が示す音声13a,13bから1以上の特徴情報を抽出し、特徴情報から評価値を算出する評価方法を示す評価基準情報15を参照して、抽出した特徴情報から業務担当者に対する評価値16を算出する。業務評価装置10は、評価値16を業務担当者の識別情報と対応付けて記憶装置に記憶させる。【選択図】図1

Description

本発明は業務評価方法、業務評価装置および業務評価プログラムに関する。
1人または少数人の業務担当者が各利用者を接客するサービス形態では、業務担当者のスキルが利用者のサービス利用時の満足度に大きな影響を与えることがある。そのようなサービス形態では、利用者は評価の高い業務担当者を希望することがある。例えば、タクシーを利用したい者は、評価の高い運転者のタクシーを希望することがある。また、例えば、理髪店を利用したい者は、評価の高い理髪師を希望することがある。そこで、サービスを利用したい者と業務担当者とのマッチングを支援するシステムが提案されている。
例えば、目的地周辺の地理に詳しくない運転者のタクシーを重要顧客に対して配車するのを防止するシステムが提案されている。提案のシステムは、配車センタに運行情報を随時送信する車載装置に、運転者の個人情報を記録しておく。車載装置は、記録された個人情報に基づいて運転者が新人であるか判定し、運転者が新人である場合には運転者が新人であることを示す識別情報を運行情報に自動的に付加する。
また、例えば、優良なサービスを提供する運転者を検索できるタクシー選別システムが提案されている。提案のタクシー選別システムは、各運転者の推薦回数を記録する運転者データベースをセンターコンピュータに設ける。タクシーの利用者が運転者のサービスに満足した場合、利用者はセンターコンピュータに対して電子メールで推薦メッセージを送信する。センターコンピュータは、推薦メッセージを受信すると、運転者データベースに記録された当該運転者の推薦回数を更新する。センターコンピュータは、推薦回数が所定値以上である運転者を運転者データベースから検索して出力する。
また、例えば、利用者端末からタクシーを予約できる車両予約システムが提案されている。提案の車両予約システムは、各運転者について経験年数や過去の利用者が表明した評価値などをセンターサーバに記録しておく。利用者端末は、運転者の経験年数や評価値などの配車条件をセンターサーバに送信する。センターサーバは、配車条件に合致するタクシーの情報を利用者端末に送信する。利用者端末は、提示されたタクシーの中から希望するタクシーを選択し、選択したタクシーの予約要求をセンターサーバに送信する。
特開平9−128579号公報 特開2003−242214号公報 特開2003−288516号公報
しかし、従来のシステムでは、利用者が業務担当者のサービスを評価する負担が大きく、十分な量の評価結果を収集することが容易でないという問題がある。例えば、利用者にアンケートを記入してもらう評価方法や端末装置からメッセージを送信してもらう評価方法では、利用者がその作業を煩わしく思い評価を忌避してしまうことがある。
1つの側面では、本発明は、業務担当者のサービスを評価する負担を軽減できる業務評価方法、業務評価装置および業務評価プログラムを提供することを目的とする。
1つの態様では、コンピュータが実行する業務評価方法が提供される。業務担当者がサービスを提供している間に発した第1の音声と、利用者がサービスを利用している間に発した第2の音声とを示す音声データを取得する。取得した音声データが示す第1の音声および第2の音声から1以上の特徴情報を抽出し、特徴情報から評価値を算出する評価方法を示す評価基準情報を参照して、抽出した1以上の特徴情報から業務担当者に対する評価値を算出する。算出した評価値を業務担当者の識別情報と対応付けて記憶装置に記憶させる。また、1つの態様では、記憶部と演算部とを有する業務評価装置が提供される。また、1つの態様では、コンピュータに実行させる業務評価プログラムが提供される。
1つの側面では、業務担当者のサービスを評価する負担が軽減される。
第1の実施の形態の業務評価装置の例を示す図である。 第2の実施の形態の配車システムの例を示す図である。 車載装置のハードウェア例を示すブロック図である。 サーバ装置のハードウェア例を示すブロック図である。 車載装置の機能例を示すブロック図である。 サーバ装置の機能例を示すブロック図である。 発話区間の検出例を示す図である。 発話区間テーブルの例を示す図である。 乗客音質の判定過程の例を示す図である。 乗客音質判定テーブルの例を示す図である。 キーワードの検出例を示す図である。 キーワードテーブルの例を示す図である。 重みテーブルの例を示す図である。 乗客と運転者の会話例を示す図である。 乗客と運転者の会話例を示す図(続き)である。 評価値の計算例を示す図である。 サーバ装置が有するテーブルの例を示す図である。 配車サービスの例を示すシーケンス図である。 評価値算出の手順例を示すフローチャートである。 評価値算出の手順例を示すフローチャート(続き)である。 車載装置とサーバ装置の他の機能例を示すブロック図である。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
第1の実施の形態を説明する。
図1は、第1の実施の形態の業務評価装置の例を示す図である。
第1の実施の形態の業務評価装置10は、業務担当者それぞれのサービスの品質を評価することを支援する。評価対象のサービスは、好ましくは、1人または少数人の利用者を1人または少数人の業務担当者が接客するものである。また、評価対象のサービスは、好ましくは、業務担当者のスキルの違いが利用者の満足度に大きな影響を与えるものである。評価対象のサービスは、業務担当者が対面で利用者を接客する形態でもよいし、電話などの通信手段を用いて遠隔で接客する形態でもよい。評価対象のサービスとして、例えば、運転者が乗客を輸送するタクシーサービス、理髪師が顧客を整髪する理髪サービス、オペレータが利用者からの問い合わせに答えるサポートサービスなどが挙げられる。
業務評価装置10の評価結果は、例えば、サービスを利用したい者が業務担当者を検索するときに使用することができる。また、業務評価装置10の評価結果は、例えば、サービスを利用したい者が業務担当者を指名するときに使用することができる。なお、業務評価装置10は、利用者または業務担当者が使用する端末装置(例えば、車載装置など)でもよいし、1または2以上の端末装置からアクセスされるサーバ装置でもよい。
業務評価装置10は、記憶部11および演算部12を有する。記憶部11は、RAM(Random Access Memory)などの揮発性の半導体メモリでもよいし、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性のストレージでもよい。演算部12は、例えば、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサである。ただし、演算部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの特定用途の電子回路を含んでもよい。プロセッサは、RAMなどのメモリ(記憶部11でもよい)に記憶されたプログラムを実行する。プログラムには、業務評価プログラムが含まれる。複数のプロセッサの集合(マルチプロセッサ)を「プロセッサ」と呼ぶこともある。
記憶部11は、評価基準情報15を記憶する。評価基準情報15は、後述する特徴情報から評価値を算出するための評価方法を示す。例えば、評価基準情報15は、特徴情報の複数の種類それぞれについて当該種類に属する特徴情報と点数との対応関係(例えば、加点または減点)を示す採点情報と、複数の種類の間の重みを示す重み情報とを含む。
演算部12は、音声データ13を取得する。音声データ13は、音声13a(第1の音声)および音声13b(第2の音声)を示す。音声13aは、業務担当者がサービスを提供している間に発した音声である。音声13bは、利用者がサービスを利用している間に発した音声である。音声13a,13bは、例えば、業務担当者と利用者とが対面で会話しているときに1以上のマイクロフォンを用いて録音された音声である。音声データ13は、業務評価装置10がマイクロフォンを用いて生成したものでもよいし、業務評価装置10が他の装置からネットワーク経由で受信したものでもよい。
音声13a,13bは異なるマイクロフォンを用いて録音されてもよい。その場合、音声13aと音声13bは録音当初から分離されており、音声データ13は音声13aを示すデータ部分と音声13bを示すデータ部分とを含む。また、音声13a,13bは同一のマイクロフォンを用いて録音されてもよい。その場合、音声13aと音声13bは録音当初は分離されていない。業務評価装置10または他の装置は、声質や単語などに基づいて、音声13aを示すデータ部分と音声13bを示すデータ部分とを分離してもよい。
演算部12は、取得した音声データ13が示す音声13a,13bを分析し、音声13a,13bから1以上の特徴情報を抽出する。演算部12は、記憶部11に記憶された評価基準情報15を参照して、抽出した1以上の特徴情報から、今回サービスを提供した業務担当者に対する評価値16を算出する。一例として、演算部12は、音声13a,13bから特徴情報14a,14b,14cを抽出する。
特徴情報14aは、音声13bの強弱変化(例えば、音声13bのパワーの分布やパワー変化量の分布など)を示す音質情報である。音声13bの強弱変化から、利用者の感情を推定することが可能である。評価値16は、音声13bの強弱変化が所定の条件を満たすか否かに依存して算出されてもよい。例えば、演算部12は、音声13bの強弱変化が「弱気」の感情を示す所定の条件に該当する場合は評価値16を増加させず(または、評価値16を減少させ)、それ以外の場合は評価値16を増加させる。
特徴情報14bは、音声13aから検出された単語および音声13bから検出された単語の少なくとも一方を含む単語情報である。音声認識により検出された単語から、業務担当者と利用者の間の会話がポジティブかネガティブかを推定することが可能である。評価値16は、検出された単語が所定のキーワードに該当するか否かに依存して算出されてもよい。例えば、演算部12は、検出された単語がポジティブなキーワードである場合は評価値16を増加させ、検出された単語がネガティブなキーワードである場合は評価値16を減少させる。このとき、演算部12は、音声13aと音声13bに対して異なるキーワード辞書を使用してもよい。また、演算部12は、キーワードが音声13a,13bの何れから検出されたかに応じて、付与する点数(加点または減点)を変えてもよい。
特徴情報14cは、音声13aが検出された時間(第1の時間)の長さと、音声13bが検出された時間(第2の時間)の長さと、サービスが提供されていた時間(第3の時間)の長さとを示す時間情報である。これら第1の時間・第2の時間・第3の時間の間の関係から、業務担当者と利用者が円滑に会話を行ったか否か(会話継続性)を推定することが可能である。評価値16は、第1の時間・第2の時間・第3の時間の間の関係に依存して算出されてもよい。例えば、演算部12は、第3の時間のうち、第1の時間と第2の時間を含む会話継続時間が長いほど評価値16を増加させる。また、演算部12は、第1の時間に対して相対的に第2の時間が長いほど評価値16を増加させる。
演算部12は、業務担当者の識別情報と対応付けて評価値16を記憶させる。評価値16を記憶する記憶装置は、記憶部11でもよいし、業務評価装置10が有する他の記憶装置でもよい。また、評価値16を記憶する記憶装置は、業務評価装置10以外の装置が有する記憶装置でもよい。その場合、評価値16がネットワーク経由で送信される。
第1の実施の形態の業務評価装置10によれば、業務担当者がサービスを提供している間に発した音声13aと、利用者がサービスを利用している間に発した音声13bとを示す音声データ13が取得される。音声13a,13bから特徴情報が抽出され、評価基準情報15を参照して、抽出された特徴情報から業務担当者に対する評価値16が算出される。評価値16が業務担当者の識別情報と対応付けて記憶装置に記憶される。
これにより、サービス利用時の業務担当者と利用者の音声から自動的に評価値16を算出することができる。業務担当者のサービスを評価するにあたり、利用者はアンケートを記入することや端末装置からメッセージを送信することなどの積極的な評価作業を行わなくてもよい。よって、利用者が業務担当者のサービスを評価する負担が軽減され、十分な量の評価結果を収集することが可能となる。また、利用者の主観が評価値16に与える影響を軽減することができる。その結果、例えば、業務担当者を検索可能な検索システムにおいて、サービスを利用したい者が指定した条件に適合する業務担当者を高い精度で検索することが可能となる。また、例えば、業務担当者を指定してサービスを予約可能な予約システムにおいて、利用者の満足度を向上させることができる。
[第2の実施の形態]
次に、第2の実施の形態を説明する。
図2は、第2の実施の形態の配車システムの例を示す図である。
第2の実施の形態の配車システムは、1人または少数人の利用者を当該利用者の要求に応じて有料で輸送するタクシーサービスを支援する。第2の実施の形態の配車システムは、端末装置30、車両40,40aなどの複数の車両、ネットワーク50、車載装置100,100aなどの複数の車載装置およびサーバ装置200を含む。
車両40,40aを含む複数の車両それぞれは、タクシーサービスの業務担当者である運転者が運転するタクシーである。各車両は、1人〜4人程度の少人数の乗客を乗せて道路を走行し、乗客の指定する場所まで乗客を輸送する。各車両は、利用者の要求に応じて当該利用者の存在する場所まで出迎えて利用者を乗車させることがある。
車両40,40aを含む複数の車両それぞれには、車載装置が搭載されている。車両40には車載装置100が搭載されている。車両40aには車載装置100aが搭載されている。車載装置100,100aを含む複数の車載装置それぞれは、無線通信によってネットワーク50を介してサーバ装置200と通信することができる。各車載装置は、タクシーの運行状態を管理し、乗客の乗降時や会計時などにサーバ装置200と通信する。また、各車載装置は、利用者を乗車させるために指定場所まで出向くことを示す配車通知をサーバ装置200から受信することがある。また、各車載装置は、乗客と運転者の会話から運転者のサービスを自動的に評価し、評価結果をサーバ装置200に送信する。
以下では、複数の車載装置のうち代表して車載装置100について説明することがある。他の車載装置も車載装置100と同様のハードウェアや機能を有する。なお、車載装置100,100aは、第1の実施の形態の業務評価装置10に対応する。
サーバ装置200は、タクシーの配車を支援するサーバコンピュータである。サーバ装置200はネットワーク50に接続されている。サーバ装置200は、複数の車載装置と通信し、複数の車両それぞれの運行状態や現在位置などを管理する。サーバ装置200は、端末装置30から検索要求を受信すると、端末装置30の近くを走行している「空車」状態の車両を検索して検索結果を端末装置30に送信する。このとき、サーバ装置200は、検索された車両を運転している運転者の評価値を併せて端末装置30に送信する。サーバ装置200は、端末装置30から車両を指定した配車要求を受信すると、指定された車両の車載装置に配車通知を送信する。また、サーバ装置200は、各車載装置から運転者のサービスの評価結果を受信する。
端末装置30は、タクシーを利用しようとする利用者が携帯する移動端末装置である。端末装置30として、例えば、スマートフォンなどの携帯電話機、タブレット端末、ノート型PC(Personal Computer)などが挙げられる。端末装置30は、無線通信によってネットワーク50を介してサーバ装置200と通信することができる。端末装置30は、利用者の操作に応じて、端末装置30の現在位置を含む検索要求をサーバ装置200に送信する。すると、端末装置30は、端末装置30の近くを走行している「空車」状態の車両それぞれの現在位置および評価値を含む検索結果をサーバ装置200から受信して表示する。検索結果は地図上に表示されてもよい。端末装置30は、利用者が何れかの車両を選択すると、選択された車両を示す配車要求をサーバ装置200に送信する。
次に、各装置のハードウェアについて説明する。
図3は、車載装置のハードウェア例を示すブロック図である。
車載装置100は、CPU101、RAM102、不揮発性メモリ103、ディスプレイ104、入力デバイス105、音声インタフェース106、GPS(Global Positioning System)受信部107、媒体リーダ108および通信インタフェース109を有する。上記のユニットはバスに接続されている。なお、CPU101は、第1の実施の形態の演算部12に対応する。RAM102または不揮発性メモリ103は、第1の実施の形態の記憶部11に対応する。他の車載装置も同様のハードウェアを用いて実装できる。
CPU101は、プログラムの命令を実行する演算回路を含むプロセッサである。CPU101は、不揮発性メモリ103に記憶されたプログラムやデータの少なくとも一部をRAM102にロードし、プログラムを実行する。なお、CPU101は複数のプロセッサコアを備えてもよく、車載装置100は複数のプロセッサを備えてもよく、以下で説明する処理を複数のプロセッサまたはプロセッサコアを用いて並列に実行してもよい。また、複数のプロセッサの集合(マルチプロセッサ)を「プロセッサ」と呼ぶこともある。
RAM102は、CPU101が実行するプログラムやCPU101が演算に用いるデータを一時的に記憶する揮発性の半導体メモリである。なお、車載装置100は、RAM以外の種類のメモリを備えてもよく、複数個のメモリを備えてもよい。
不揮発性メモリ103は、OS(Operating System)やミドルウェアやアプリケーションソフトウェアなどのソフトウェアのプログラム、および、データを記憶する記憶装置である。プログラムには、運転者の評価値を算出する業務評価プログラムが含まれる。なお、車載装置100は、HDDなどの他の種類の不揮発性記憶装置を備えてもよく、複数種類の不揮発性記憶装置を備えてもよい。
ディスプレイ104は、CPU101からの指示に応じて画面を表示する。ディスプレイ104としては、液晶ディスプレイや有機EL(OEL:Organic Electro-Luminescence)ディスプレイなど様々な種類のディスプレイを用いることができる。また、出力先としてスピーカーなどの音声出力装置を備えてもよい。
入力デバイス105は、運転者の操作に応じた入力信号をCPU101に通知する。入力デバイス105としては、ディスプレイ104に重ねて設置されたタッチパネル、1以上の入力キーを有するキーパッド、トラックボールなど様々な種類の入力デバイスを用いることができる。タッチパネルとしては、抵抗膜方式や静電容量方式など様々な種類の検出方式のタッチパネルを用いることができる。車載装置100は、タッチパネルとキーパッドなど複数種類の入力デバイスを有していてもよい。
音声インタフェース106は、入力された音声信号をCPU101に通知する。音声インタフェース106には、音声を入力する入力デバイスであるマイクロフォン111,112が接続されている。マイクロフォン111,112は指向性をもつ。マイクロフォン111は、主に運転者の音声を取得するように車両40内に配置されている。マイクロフォン112は、主に乗客の音声を取得するように車両40内に配置されている。
GPS受信部107は、複数のGPS衛星から無線送信されたGPS信号を受信し、車両40の現在位置を示す地球座標系の座標(経度や緯度など)を算出する。GPS受信部107は、算出した座標をCPU101に通知する。
媒体リーダ108は、記録媒体113に記録されたプログラムやデータを読み取る読み取り装置である。記録媒体113として、例えば、磁気ディスク、光ディスク、光磁気ディスク(MO:Magneto-Optical disk)、半導体メモリなどを使用できる。磁気ディスクには、フレキシブルディスク(FD:Flexible Disk)やHDDが含まれる。光ディスクには、CD(Compact Disc)やDVD(Digital Versatile Disc)が含まれる。媒体リーダ108は、例えば、記録媒体113から読み取ったプログラムやデータを、RAM102や不揮発性メモリ103などの他の記録媒体にコピーする。読み取られたプログラムは、例えば、CPU101によって実行される。なお、記録媒体113は、可搬型記録媒体であってもよく、プログラムやデータの配布に用いられることがある。また、記録媒体113やHDD103を、コンピュータ読み取り可能な記録媒体と言うことがある。
通信インタフェース109は、基地局と無線リンクで接続される無線通信インタフェースである。通信インタフェース109は、基地局を介してサーバ装置200と通信する。なお、ネットワーク50は、例えば、インターネットなどの広域ネットワークである。
端末装置30も、車載装置100と同様のハードウェアを用いて実装することができる。ただし、端末装置30には、マイクロフォン111,112が接続されていなくてもよい。端末装置30は、1個のマイクロフォンを有していてもよい。
図4は、サーバ装置のハードウェア例を示すブロック図である。
サーバ装置200は、CPU201、RAM202、HDD203、画像信号処理部204、入力信号処理部205、媒体リーダ206および通信インタフェース207を有する。上記のユニットは、バスに接続されている。
CPU201は、プログラムの命令を実行する演算回路を含むプロセッサである。CPU201は、前述のCPU101と同様のハードウェアであってもよい。RAM202は、CPU201が実行するプログラムやCPU201が演算に用いるデータを一時的に記憶する揮発性の半導体メモリである。RAM202は、前述のRAM102と同様のハードウェアであってもよい。HDD203は、OSやミドルウェアやアプリケーションソフトウェアなどのソフトウェアのプログラム、および、データを記憶する不揮発性記憶装置である。サーバ装置200は、フラッシュメモリやSSD(Solid State Drive)などの他の種類の記憶装置を備えてもよく、複数種類の不揮発性記憶装置を備えてもよい。
画像信号処理部204は、CPU201からの命令に従って、サーバ装置200に接続されたディスプレイ211に画像を出力する。ディスプレイ211としては、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなど様々な種類のディスプレイを用いることができる。
入力信号処理部205は、サーバ装置200に接続された入力デバイス212から入力信号を取得し、CPU201に通知する。入力デバイス212としては、マウスやタッチパネルやタッチパッドやトラックボールなどのポインティングデバイス、キーボード、リモートコントローラ、ボタンスイッチなど様々な種類の入力デバイスを用いることができる。サーバ装置200に複数種類の入力デバイスが接続されていてもよい。
媒体リーダ206は、記録媒体213に記録されたプログラムやデータを読み取る読み取り装置である。媒体リーダ206は、前述の媒体リーダ108と同様のハードウェアであってもよい。また、記録媒体213は、前述の記録媒体113と同様の記録媒体であってもよい。媒体リーダ206は、例えば、記録媒体213から読み取ったプログラムやデータを、RAM202やHDD203などの他の記録媒体にコピーする。読み取られたプログラムは、例えば、CPU201によって実行される。
通信インタフェース207は、ネットワーク50を介して車載装置100,100aや端末装置30と通信を行うインタフェースである。通信インタフェース207は通常は、スイッチなどの通信装置とケーブルで接続される有線通信インタフェースである。
次に、車載装置100とサーバ装置200の機能について説明する。
図5は、車載装置の機能例を示すブロック図である。
車載装置100は、車両状態管理部120、会計処理部130および会話評価部140を有する。車両状態管理部120、会計処理部130および会話評価部140は、例えば、CPU101が実行するプログラムモジュールを用いて実装される。また、車載装置100は、音声データ記憶部151、発話区間情報記憶部152、音質判定情報記憶部153、キーワード記憶部154および重み記憶部155を有する。これら5個の記憶部は、例えば、RAM102または不揮発性メモリ103に確保した記憶領域を用いて実装される。なお、他の車載装置も車載装置100と同様の機能を有する。
車両状態管理部120は、通信インタフェース109を用いてサーバ装置200と適宜通信し、車両40の運行状態を管理する。車両状態管理部120は、利用者から配車要求があると、サーバ装置200から配車通知を受信する。すると、車両状態管理部120は、例えば、配車通知によって指定された乗車場所をディスプレイ104に表示させる。これにより、車両40の運転者は指定された乗車場所に向かうことになる。また、車両状態管理部120は、利用者が乗車すると、車両40が「賃走」状態であることを示す乗車通知をサーバ装置200に送信する。また、車両状態管理部120は、乗客が降車すると、車両40が「空車」状態であることを示す降車通知をサーバ装置200に送信する。また、車両状態管理部120は、GPS受信部107が測定した現在位置を、通信インタフェース109を用いて継続的にサーバ装置200に送信する。
会計処理部130は、車両40が指定の乗車場所に向かう「迎車」状態になったとき、または、乗客が乗車して「賃走」状態になったとき、乗車料金のカウントを開始する。会計処理部130は、乗客を乗せて指定の降車場所に到着すると、通信インタフェース109を用いてサーバ装置200と通信して会計処理を行う。このとき、会計処理部130は、乗車料金を確定し、確定した乗車料金などをサーバ装置200に通知する。
会話評価部140は、マイクロフォン111,112を用いて乗客が乗車してから降車するまでの運転者と乗客の会話を録音する。会話評価部140は、録音した会話を分析して運転者の評価値を算出し、通信インタフェース109を用いてサーバ装置200に評価値を送信する。会話の分析は、乗客を乗せて車両40が走行している間に順次進めてもよいし、乗客が降車してから開始してもよい。後者の場合、1組の乗客が降車する毎に当該1組の乗客分の評価値を算出してもよいし、複数組の乗客分の会話を纏めて分析して複数の評価値を算出してもよい。また、会話評価部140は、評価値が1つ算出される毎に当該評価値をサーバ装置200に送信してもよいし、複数の評価値を蓄積しておきそれら複数の評価値を纏めてサーバ装置200に送信してもよい。
会話評価部140は、発話検出部141、乗客音質判定部142、単語判定部143、会話継続性判定部144および総合評価部145を有する。
発話検出部141は、マイクロフォン111を用いて生成された音声データを取得し、その音声波形を分析して運転者が発話している発話区間を検出する。また、発話検出部141は、マイクロフォン112を用いて生成された音声データを取得し、その音声波形を分析して乗客が発話している発話区間を検出する。
乗客音質判定部142は、発話検出部141が検出した乗客の発話区間それぞれの音声波形を分析して、発話者(乗客)の感情に関連する特徴情報を抽出する。乗客音質判定部142は、抽出した特徴情報に基づいて乗客の感情を推定する。乗客音質判定部142は、推定した感情が「弱気」であるか否かを判定し、乗客音質スコアを算出する。乗客音質スコアは、乗客の感情が「弱気」でない発話区間が多いほど高くなる。
単語判定部143は、発話検出部141が検出した運転者の発話区間それぞれを音声認識技術を用いて分析し、運転者が所定のポジティブキーワードまたは所定のネガティブキーワードを発したか判定する。運転者のポジティブキーワードは、運転者から乗客へのポジティブな対応を表す単語である。運転者のネガティブキーワードは、運転者から乗客へのネガティブな対応を表す単語である。そして、単語判定部143は、運転者単語スコアを算出する。運転者単語スコアは、運転者がポジティブキーワードを多く発するほど高くなり、ネガティブキーワードを多く発するほど低くなる。
また、単語判定部143は、発話検出部141が検出した乗客の発話区間それぞれを音声認識技術を用いて分析し、乗客が所定のポジティブキーワードまたは所定のネガティブキーワードを発したか判定する。乗客のポジティブキーワードは、乗客から運転者へのポジティブな反応を表す単語である。乗客のネガティブキーワードは、乗客から運転へのネガティブな反応を表す単語である。そして、単語判定部143は、乗客単語スコアを算出する。乗客単語スコアは、乗客がポジティブキーワードを多く発するほど高くなり、ネガティブキーワードを多く発するほど低くなる。
会話継続性判定部144は、発話検出部141が検出した運転者の発話区間の長さ、乗客の発話区間の長さおよび乗車から降車までの乗車時間の長さを分析し、運転者と乗客の会話の活発度を推定する。そして、会話継続性判定部144は、相互発話スコアを算出する。相互発話スコアは、乗車時間のうち運転者と乗客の会話が継続している会話継続時間が長いほど高くなる。また、相互発話スコアは、運転者が発話している時間に対して乗客が発話している時間が相対的に長いほど高くなる。
総合評価部145は、乗客音質判定部142が算出した乗客音質スコアと、単語判定部143が算出した乗客単語スコアおよび運転者単語スコアと、会話継続性判定部144が算出した相互発話スコアとを取得する。総合評価部145は、取得した4個のスコアを重み付けして合計し、運転者の評価値を算出する。
音声データ記憶部151は、マイクロフォン111を用いて生成された運転者の音声データを記憶する。また、音声データ記憶部151は、マイクロフォン112を用いて生成された乗客の音声データを記憶する。音声データ記憶部151に記憶された運転者の音声データおよび乗客の音声データは、会話評価部140によって読み出されて分析される。発話区間情報記憶部152は、発話検出部141によって検出された運転者の発話区間および乗客の発話区間を示す発話区間情報を記憶する。
音質判定情報記憶部153は、乗客音質判定部142によって参照される乗客音質判定情報を予め記憶している。乗客音質判定情報は、音声データから抽出された特徴情報と推定される発話者の感情との対応関係を示す。キーワード記憶部154は、単語判定部143によって参照されるキーワードを予め記憶している。キーワードには、運転者のポジティブキーワード、運転者のネガティブキーワード、乗客のポジティブキーワードおよび乗客のネガティブキーワードが含まれる。重み記憶部155は、総合評価部145によって参照される重み情報を予め記憶している。重み情報は、乗客音質スコアの重み、乗客単語スコアの重み、運転者単語スコアの重みおよび相互発話スコアの重みを示す。
図6は、サーバ装置の機能例を示すブロック図である。
サーバ装置200は、車両検索部221、車両状態管理部222、会計処理部223および評価更新部224を有する。車両検索部221、車両状態管理部222、会計処理部223および評価更新部224は、例えば、CPU201が実行するプログラムモジュールを用いて実装される。また、サーバ装置200は、車両情報記憶部231、運転者情報記憶部232および運行履歴記憶部233を有する。これら3個の記憶部は、例えば、RAM202またはHDD203に確保した記憶領域を用いて実装される。
車両検索部221は、通信インタフェース207を用いて端末装置30から検索要求を受信する。検索要求には、例えば、端末装置30が有するGPS受信部によって測定された端末装置30の現在位置が含まれる。すると、車両検索部221は、端末装置30の現在位置から所定距離内に存在する「空車」状態の車両を検索する。更に、車両検索部221は、検索された車両を運転している運転者を特定し、特定した運転者の評価値を取得する。車両検索部221は、検索された車両それぞれの現在位置と評価値を含む検索結果を端末装置30に送信する。このとき、車両検索部221は、地図データを端末装置30に送信し、各車両の現在位置が地図上に表示されるようにしてもよい。
車両状態管理部222は、端末装置30の利用者が何れかの車両を選択すると、通信インタフェース207を用いて端末装置30から配車要求を受信する。配車要求には、例えば、選択された車両の識別情報が含まれる。すると、車両検索部221は、選択された車両の状態を「迎車」に変更し、当該選択された車両が搭載する車載装置に対して配車要求を送信する。また、車両状態管理部222は、通信インタフェース207を用いて何れかの車載装置から乗車通知を受信すると、車両の状態を「賃走」に変更する。また、車両状態管理部222は、通信インタフェース207を用いて何れかの車載装置から降車通知を受信すると、車両の状態を「空車」に変更する。また、車両状態管理部222は、通信インタフェース207を用いて各車載装置から継続的に現在位置を受信する。
会計処理部223は、ある車両が降車場所に到着したときに、通信インタフェース207を用いて当該車両に搭載された車載装置と通信して会計処理を行う。このとき、会計処理部223は、乗車料金などの情報を取得して運行履歴として記録する。
評価更新部224は、通信インタフェース207を用いて複数の車載装置それぞれから運転者の評価値を受信する。評価更新部224は、受信した評価値を記録する。このとき、評価更新部224は、運転者毎にこれまでの評価値の平均値を算出してもよい。端末装置30に提供される評価値は、運転者毎の平均値であってもよい。
車両情報記憶部231は、複数の車両それぞれの最新の運行状態を示す車両状態情報を記憶する。車両状態情報には、車両の識別情報、当該車両を運転している運転者の識別情報、「空車」や「迎車」や「賃走」などの当該車両の状態、および、当該車両の現在位置が含まれる。運転者情報記憶部232は、複数の運転者についての運転者情報が記憶される。運転者情報には、運転者の識別情報および評価値が含まれる。運行履歴記憶部233は、複数の車両それぞれが乗客を輸送した履歴を示す運行履歴を記憶する。運行履歴には、車両の識別情報、運転者の識別情報、乗車時刻、降車時刻および乗車料金が含まれる。
次に、会話評価部140が音声データを分析する方法について説明する。まず、発話検出部141が音声データから発話区間を検出する方法を説明する。
図7は、発話区間の検出例を示す図である。
発話検出部141は、音声波形に対して音声区間検出(VAD:Voice Activity Detection)を行う。音声区間検出には様々なアルゴリズムを使用することができる。音声区間検出の一例が次の文献に記載されている。尾崎洋輔、柏木陽佑、齋藤大輔、峯松信明および広瀬啓吉、「背景音声雑音に頑健な主発話区間検出に関する検討」、2013年秋期日本音響学会講演論文集、151〜154頁、2013年9月25日。
ここでは、音声区間検出の一例として、音声信号の振幅とゼロ交差数を用いる方法を説明する。発話検出部141は、音声信号の振幅の大きさが閾値αを超えた時刻、すなわち、振幅が+αを超えたかまたは振幅が−αを下回った時刻を検出する。また、発話検出部141は、振幅の符号が反転した時刻(振幅が正から負に変化したかまたは振幅が負から正に変化した時刻)、すなわち、振幅がゼロを通過した時刻を検出する。発話検出部141は、振幅の大きさが継続的に閾値αを超えており、かつ、振幅の符号が継続的に反転している区間を、発話区間として抽出する。
例えば、発話検出部141は、所定時間以上の間隔を空けずに振幅の大きさが閾値αを超えている状態が続いており、かつ、直近の所定時間のゼロ交差回数(振幅の符号が反転した回数)が閾値以上である区間を、発話区間として抽出する。グラフ61は音声信号の一例を示す。グラフ61が示す音声信号からは、発話区間62が抽出される。
なお、上記では振幅とゼロ交差数を用いて発話区間を検出する方法を説明したが、隠れマルコフモデル(Hidden Markov Model)またはガウス混合モデル(Gaussian Mixture Model)を用いて発話区間を検出することも可能である。
図8は、発話区間テーブルの例を示す図である。
発話区間テーブル161は、発話区間情報記憶部152に記憶される。発話区間テーブル161は、発話区間ID、発話者、開始時刻、終了時刻、継続時間および音声データの項目を有する。発話区間IDの項目には、発話検出部141によって検出された発話区間の識別情報が登録される。発話者の項目には、「運転者」または「乗客」が登録される。マイクロフォン111の音声から検出された発話区間については「運転者」が登録され、マイクロフォン112の音声から検出された発話区間については「乗客」が登録される。
開始時刻の項目には、発話区間の先頭を示す時刻が登録される。終了時刻の項目には、発話区間の末尾を示す時刻が登録される。継続時間の項目には、発話区間の先頭から末尾の間の時間の長さが登録される。なお、開始時刻と終了時刻と継続時刻のうちの何れか1つは、他の2つから算出することができる。よって、開始時刻と終了時刻と継続時刻の何れか1つを発話区間テーブル161から省略することも可能である。
音声データの項目には、検出された発話区間の音声データに関する情報が登録される。発話区間の音声データそのものが発話区間テーブル161に登録されてもよい。一方、音声データ記憶部151に記憶された音声データから当該発話区間を切り出すための情報(例えば、発話区間の先頭へのポインタ)が発話区間テーブル161に登録されてもよい。
次に、乗客音質判定部142が乗客音質スコアを算出する方法を説明する。
図9は、乗客音質の判定過程の例を示す図である。
乗客音質判定部142は、音声信号を分析して発話者の感情を推定する。感情推定には様々なアルゴリズムを使用することができる。感情推定の一例が次の文献に記載されている。特開2004−317822号公報。
ここでは、感情推定の一例として、音声信号のパワーを用いる方法を説明する。音声信号のパワーは、例えば、音声信号の振幅の2乗である。乗客音質判定部142は、発話区間毎に音声信号のパワーの平均(パワー平均)と偏差(パワー偏差)を算出する。パワー偏差は音声信号のパワーのばらつきを示し、例えば、その標準偏差や分散などである。また、乗客音質判定部142は、ある時刻のパワーと次の時刻のパワーとの差分(パワー差分)を算出し、発話区間毎にパワー差分の偏差(パワー差分偏差)を算出する。パワー差分偏差はパワー差分のばらつきを示し、例えば、その標準偏差や分散などである。
グラフ63は音声信号のパワーの時系列変化を示す。グラフ63が示すパワーの時系列変化から、パワー平均とパワー偏差が算出される。グラフ64は音声信号のパワー差分の時系列変化を示す。グラフ64が示すパワー差分の時系列変化から、パワー差分偏差が算出される。乗客音質判定部142は、パワー平均とパワー偏差とパワー差分偏差の組み合わせに基づいて、発話区間毎に発話者の感情を推定する。
図10は、乗客音質判定テーブルの例を示す図である。
乗客音質判定テーブル162は、音質判定情報記憶部153に予め記憶されている。乗客音質判定テーブル162は、パワー平均、パワー偏差、パワー差分偏差、感情および点数の項目を有する。パワー平均の項目には、算出されたパワー平均が満たすべき条件が登録される。パワー偏差の項目には、算出されたパワー偏差が満たすべき条件が登録される。パワー差分偏差の項目には、算出されたパワー差分偏差が満たすべき条件が登録される。感情の項目には、「興奮」や「弱気」など、推定される発話者の感情を表す情報が登録される。点数の項目には、乗客音質スコアの算出に用いる点数が登録される。
例えば、パワー平均が220以上、パワー偏差が120以上かつパワー差分偏差が100以上である場合、発話者の感情は「興奮」であると推定される。また、例えば、パワー平均が250以下、パワー偏差が100以下かつパワー差分偏差が100以下である場合、発話者の感情は「弱気」であると推定される。乗客音質判定部142は、ある発話区間における乗客の感情が「弱気」であると推定した場合、当該発話区間に対して0点を付与する。一方、乗客音質判定部142は、ある発話区間における乗客の感情が「弱気」以外であると推定した場合、当該発話区間に対して+1点を付与する。よって、「興奮」の点数は+1点となり、「弱気」の点数は0点となる。
乗客音質判定部142は、乗客の発話区間に付与した点数の平均点を乗客音質スコアとして算出する。よって、乗客音質スコアは0以上1以下の実数である。
次に、単語判定部143が乗客と運転者の単語スコアを算出する方法を説明する。
図11は、キーワードの検出例を示す図である。
単語判定部143は、乗客の音声データから所定のキーワード(ポジティブキーワードとネガティブキーワード)を検出する。また、単語判定部143は、運転者の音声データから所定のキーワード(ポジティブキーワードとネガティブキーワード)を検出する。キーワード検出には様々なアルゴリズムを使用することができる。キーワード検出の一例が次の文献に記載されている。青山健治、「ワードスポッティング音声認識」、日本フィジィ学会誌、Vol.11, No.3, pp.403-407、1999年。
ここでは、キーワード検出の一例として、ワードスポッティングを説明する。ワードスポッティングでは、発話者が発した単語を音声認識によって全て文字に置換するのではなく、音声信号から直接キーワードを検出する。キーワード記憶部154には、各キーワードについて当該キーワードを発音したときの音声信号の特徴を示す特徴ベクトルが記憶されている。単語判定部143は、録音された音声信号から特徴ベクトルを生成し、録音音声の特徴ベクトルとキーワードの特徴ベクトルとの類似度を、動的時間伸縮法(DTW:Dynamic Time Warping)などの動的計画法を用いて算出する。単語判定部143は、類似度が高い場合、発話者がキーワードを発したと判定する。
例えば、録音音声の特徴ベクトルがn個(nは2以上の整数)の要素を含み、キーワードの特徴ベクトルがm個(mは2以上の整数)の要素を含むとする。単語判定部143は、例えば、n行m列の距離行列65とn行m列の累積距離行列66を生成する。
距離行列65の要素(i,j)は、特徴ベクトル−録音音声のi番目の要素と特徴ベクトル−キーワードのj番目の要素との間の距離を表す。2つの要素が類似しているほど距離は小さくなる。距離行列65では、特徴ベクトル−録音音声のn個の要素と特徴ベクトル−キーワードのm個の要素との間の全ての組み合わせの距離が算出される。
累積距離行列66の要素(1,1)は、距離行列65の要素(1,1)と同じである。iを2以上の整数とすると、累積距離行列66の要素(i,1)は、累積距離行列66の要素(i−1,1)に距離行列65の要素(i,1)を加算したものである。また、jを2以上の整数とすると、累積距離行列66の要素(1,j)は、累積距離行列66の要素(1,j−1)に距離行列65の要素(1,j)を加算したものである。i,jをそれぞれ2以上の整数とすると、累積距離行列66の要素(i,j)は、累積距離行列66の要素(i−1,j−1)と要素(i,j−1)と要素(i−1,j)のうちの最小値に、距離行列65の要素(i,j)を加算したものである。このようにして、累積距離行列の要素(1,1)から要素(n,m)に向かって累積距離が算出される。
累積距離行列66の要素(n,m)における累積距離が2つの特徴ベクトルの類似度に相当する。要素(n,m)における累積距離が小さいほど類似度が高いことを意味する。単語判定部143は、要素(n,m)における累積距離が所定の閾値未満である場合、録音された音声信号の中にキーワードを発音した音声信号が含まれていると判断する。なお、上記ではワードスポッティングを説明したが、単語判定部143は、音声データを音声認識技術により全て文字に置換し、文字列マッチングよりキーワードを検出してもよい。
図12は、キーワードテーブルの例を示す図である。
キーワードテーブル163は、キーワード記憶部154に予め記憶されている。キーワードテーブル163は、発話者、意味、キーワードおよび点数の項目を有する。発話者の項目には、「乗客」または「運転者」が登録される。意味の項目には、「ポジティブ」または「ネガティブ」が登録される。キーワードの項目には、発話者と意味の組み合わせに対応する1以上のキーワードが登録される。点数の項目には、乗客単語スコアまたは運転者単語スコアの算出に用いられる点数が登録される。
例えば、乗客が発することがあるポジティブキーワードとして、「うれしい」や「名刺」や「またよろしく」などの単語が登録される。また、例えば、乗客が発することがあるネガティブキーワードとして、「だめ」や「ノー」などの単語が登録される。また、例えば、運転者が発することがあるポジティブキーワードとして、「ありがとう」や「いらっしゃいませ」などの単語が登録される。また、例えば、運転者が発することがあるネガティブキーワードとして、「違う」や「嫌い」などの単語が登録される。
例えば、乗客のポジティブキーワードには+2点が付与される。この場合、単語判定部143は、乗客の音声データからポジティブキーワードを1回検出する毎に乗客単語スコアを2点加算する。また、例えば、乗客のネガティブキーワードには−1点が付与される。この場合、単語判定部143は、乗客の音声データからネガティブキーワードを1回検出する毎に乗客単語スコアを1点減算する。また、例えば、運転者のポジティブキーワードには+1点が付与される。この場合、単語判定部143は、運転者の音声データからポジティブキーワードを1回検出する毎に運転者単語スコアを1点加算する。また、例えば、運転者のネガティブキーワードには−1点が付与される。この場合、単語判定部143は、運転者の音声データからネガティブキーワードを1回検出する毎に運転者単語スコアを1点減算する。なお、乗客のポジティブキーワードの点数が運転者のポジティブキーワードの点数より大きいのは、サービスに対する乗客の反応を重視するためである。
次に、会話継続性判定部144が相互発話スコアを算出する方法を説明する。
会話継続性判定部144は、乗客の発話区間と運転者の発話区間の集合を、それぞれ会話が継続してる発話区間の集合である複数の発話区間群に分類する。ある発話区間の末尾から次の発話区間の先頭までの空白時間が所定時間(例えば、30秒)以下である場合、会話が継続していると判定され当該2つの発話区間は同じ発話区間群に分類される。一方、2つの発話区間の間の空白時間が所定時間を超えた場合、会話が継続していないと判定され当該2つの発話区間は異なる発話区間群に分類される。
会話継続性判定部144は、発話区間群毎に最初の発話区間の先頭から最後の発話区間の末尾までの時間(発話区間群の長さ)を算出し、全ての発話区間群の長さを合計して会話継続時間を算出する。会話継続性判定部144は、乗車時刻から降車時刻までの時間(乗車時間)を算出し、会話継続時間÷乗車時間=会話継続割合を算出する。
また、会話継続性判定部144は、乗客の発話区間の長さを合計した乗客発話時間と、運転者の発話区間の長さを合計した運転者発話時間を算出する。会話継続性判定部144は、乗客発話時間÷運転者発話時間=乗客発話割合を算出する。そして、会話継続性判定部144は、会話継続割合×乗客発話割合=相互発話スコアを算出する。相互発話スコアは、会話継続時間が長いほど高くなり、乗客発話時間が長いほど高くなる。
上記の乗客音質スコア、乗客単語スコア、運転者単語スコアおよび相互発話スコアが算出されると、総合評価部145は4個のスコアを重み付けして評価値を算出する。
図13は、重みテーブルの例を示す図である。
重みテーブル164は、重み記憶部155に予め記憶されている。重みテーブル164は、スコア種類および重みの項目を有する。スコア種類の項目には、「乗客音質」、「乗客単語」、「運転者単語」または「相互発話」が登録される。重みの項目には、重み係数である実数が登録される。例えば、乗客音質スコアの重みを2.0、乗客単語スコアの重みを0.5、運転者単語スコアの重みを0.5、相互発話スコアの重みを4.0とする。評価値は、4個のスコアにそれぞれ重みをかけて合計したものである。
次に、評価値の計算例について説明する。
図14は、乗客と運転者の会話例を示す図である。
この例では、乗客と運転者の間の会話に発話311〜332が含まれる。
発話311は、時刻11:00:00〜時刻11:00:07の運転者の発話である。発話311には2個のポジティブキーワードが含まれるため、運転者単語スコアに関して+2の加点がある。発話312は、時刻11:00:10〜時刻11:00:12の乗客の発話である。発話312から推定される感情は「弱気」であるため、乗客音質スコアに関して加点はない。発話313は、時刻11:00:13〜時刻11:00:18の運転者の発話である。発話313にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。以上の発話311〜313が1つの発話区間群になる。
発話314は、時刻11:05:00〜時刻11:05:02の運転者の発話である。発話314にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話315は、時刻11:05:03〜時刻11:05:08の乗客の発話である。発話315には1個のポジティブキーワードと1個のネガティブキーワードが含まれるため、乗客単語スコアに関して+2の加点と−1の減点がある。また、発話315から推定される感情は「弱気」であるため、乗客音質スコアに関して加点はない。
発話316は、時刻11:05:09〜時刻11:05:14の運転者の発話である。発話316には1個のポジティブキーワードが含まれるため、運転者単語スコアに関して+1の加点がある。発話317は、時刻11:05:16〜時刻11:05:19の乗客の発話である。発話317には1個のポジティブキーワードが含まれるため、乗客単語スコアに関して+2の加点がある。また、発話317から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。
発話318は、時刻11:05:20〜時刻11:05:25の運転者の発話である。発話318にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話319は、時刻11:05:26〜時刻11:05:28の乗客の発話である。発話319にはキーワードが含まれないため、乗客単語スコアに関して加点も減点もない。一方、発話319から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。発話313と発話314の間が30秒以上空いているため、以上の発話314〜319が1つの発話区間群になる。
発話320は、時刻11:12:00〜時刻11:12:04の運転者の発話である。発話320にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話321は、時刻11:12:05〜時刻11:12:07の乗客の発話である。発話321にはキーワードが含まれないため、乗客単語スコアに関して加点も減点もない。一方、発話321から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。
図15は、乗客と運転者の会話例を示す図(続き)である。
発話322は、時刻11:12:08〜時刻11:12:21の運転者の発話である。発話322にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話323は、時刻11:12:26〜時刻11:12:30の乗客の発話である。発話323には1個のポジティブキーワードが含まれるため、乗客単語スコアに関して+2の加点がある。また、発話323から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。
発話324は、時刻11:12:32〜時刻11:12:53の運転者の発話である。発話324にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話325は、時刻11:12:56〜時刻11:12:58の乗客の発話である。発話325には1個のポジティブキーワードが含まれるため、乗客単語スコアに関して+2の加点がある。また、発話325から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。
発話326は、時刻11:13:01〜時刻11:13:04の運転者の発話である。発話326にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話319と発話320の間が30秒以上空いているため、以上の発話320〜326が1つの発話区間群になる。
発話327は、時刻11:20:00〜時刻11:20:04の運転者の発話である。発話327にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話328は、時刻11:20:06〜時刻11:20:07の乗客の発話である。発話328にはキーワードが含まれないため、乗客単語スコアに関して加点も減点もない。また、発話328から推定される感情は「弱気」であるため、乗客音質スコアに関して加点はない。
発話329は、時刻11:20:18〜時刻11:20:21の運転者の発話である。発話329にはキーワードが含まれないため、運転者単語スコアに関して加点も減点もない。発話330は、時刻11:20:28〜時刻11:20:32の乗客の発話である。発話330には1個のポジティブキーワードが含まれるため、乗客単語スコアに関して+2の加点がある。また、発話330から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。
発話331は、時刻11:20:42〜時刻11:20:48の運転者の発話である。発話331には1個のポジティブキーワードが含まれるため、運転者単語スコアに関して+1の加点がある。発話332は、時刻11:20:57〜時刻11:21:01の乗客の発話である。発話332には2個のポジティブキーワードが含まれるため、乗客単語スコアに関して+4の加点がある。また、発話332から推定される感情は「弱気」以外であるため、乗客音質スコアに関して+1の加点がある。発話326と発話327の間が30秒以上空いているため、以上の発話327〜332が1つの発話区間群になる。
図16は、評価値の計算例を示す図である。
計算表67は、上記の発話311〜332から評価値を算出する過程を表す。会話評価部140は、評価値を算出するにあたり計算表67を生成してもよい。
乗客音質スコアに関して、発話317,319,321,323,325,330,332を通じて合計+7の加点がある。また、乗客の発話回数(乗客の発話区間の数)は10である。よって、乗客音質スコアは7/10=0.7と算出される。
乗客単語スコアに関して、発話315,317,323,325,330,332を通じて合計+14の加点がある。また、発話315を通じて−1の減点がある。よって、乗客単語スコアは+14−1=13と算出される。運転者単語スコアに関して、発話311,316,331を通じて合計+4の加点がある。また、減点はない。よって、運転者単語スコアは+4−0=4と算出される。
相互発話スコアに関して、1番目の発話区間群の長さは18秒、2番目の発話区間群の長さは28秒、3番目の発話区間群の長さは64秒、4番目の発話区間群の長さは61秒である。よって、会話継続時間は171秒である。また、乗車時間は時刻11:00:00〜時刻11:21:01の長さである1261秒である。また、乗客発話時間は、発話312,315,317,319,321,323,325,328,330,332の長さの合計である29秒である。また、運転者発話時間は、発話311,313,314,316,318,320,322,324,326,327,329,331の長さの合計である78秒である。よって、相互発話スコアは、会話継続割合×乗客発話割合=(171/1261)×(29/78)=0.051と算出される。
乗客音質スコアは0.7であり、その重みは2.0である。乗客単語スコアは13でありその重みは0.5である。運転者単語スコアは4であり、その重みは0.5である。相互発話スコアは0.051であり、その重みは4.0である。よって、評価値は0.7×2.0+13×0.5+4×0.5+0.051×4.0=10.1と算出される。
なお、上記では乗客音質スコアは加点合計を発話回数で割って算出しているが、加点合計そのものを乗客音質スコアとしてもよい。その場合、乗客音質スコアの重みがそれに合わせて修正される。また、上記では乗客単語スコアは加点合計から減点合計を引いて算出しているが、加点合計と減点合計の差を乗客の発話回数で割ってもよい。その場合、乗客単語スコアの重みがそれに合わせて修正される。また、上記では運転者単語スコアは加点合計から減点合計を引いて算出しているが、加点合計と減点合計の差を運転者の発話回数で割ってもよい。その場合、運転者単語スコアの重みがそれに合わせて修正される。
次に、サーバ装置200が有するデータについて説明する。
図17は、サーバ装置が有するテーブルの例を示す図である。
サーバ装置200の車両情報記憶部231は、車両状態テーブル241を記憶する。車両状態テーブル241は、車両ID、運転者ID、状態および現在位置の項目を有する。車両IDの項目には、車両の識別情報が登録される。運転者IDの項目には、車両を運転している運転者の識別情報が登録される。状態の項目には、「空車」や「迎車」や「賃走」などの車両状態が登録される。現在位置の項目には、GPSによって測定された車両の現在位置が登録される。現在位置は、緯度や経度などの座標で表される。
サーバ装置200の運転者情報記憶部232は、運転者テーブル242を記憶する。運転者テーブル242は、運転者IDおよび評価値の項目を有する。運転者IDの項目には、運転者の識別情報が登録される。評価値の項目には、各運転者についてこれまで算出された評価値の平均値が登録される。運転者テーブル242には、運転者毎に、これまでに算出された全ての評価値、直近の所定個の評価値または所定期間(例えば、過去1年間など)に算出された評価値が列挙されてもよい。車両状態テーブル241の運転者IDと運転者テーブル242の運転者IDとを紐付けることで、車両毎に評価値を検索できる。
サーバ装置200の運行履歴記憶部233は、運行履歴テーブル243を記憶する。運行履歴テーブル243は、車両ID、運転者ID、乗車時刻、降車時刻および乗車料金の項目を有する。車両IDの項目には、車両の識別情報が登録される。運転者IDの項目には、車両を運転した運転者の識別情報が登録される。乗車時刻の項目には、利用者を車両に乗せた時刻または迎車料金をカウントし始めた時刻が登録される。降車時刻の項目には、利用者を車両から降ろした時刻が登録される。乗車料金の項目には、乗客に請求した金額が登録される。運行履歴テーブル243の内容は、各車載装置から受信される。
次に、端末装置30からの要求に応じて端末装置30の利用者に対して車両40を配車するシーケンスについて説明する。
図18は、配車サービスの例を示すシーケンス図である。
端末装置30は、GPSを利用して端末装置30の現在位置を測定し、測定した現在位置を含む検索要求をサーバ装置200に送信する(S10)。サーバ装置200は、複数の車両それぞれの車載装置から受信する現在位置の情報に基づいて、端末装置30から所定距離内に存在する「空車」の車両を検索する。また、サーバ装置200は、検索された車両それぞれの運転者を特定し、特定した運転者の評価値を読み出す。サーバ装置200は、検索された車両それぞれの現在位置と評価値を含む検索結果を端末装置30に送信する(S11)。好ましくは、サーバ装置200は地図データを記憶しており、地図上に各車両の現在位置をマッピングしたデータを端末装置30に送信する。
端末装置30は、検索された車両それぞれの現在位置と評価値をディスプレイに表示させる。端末装置30は、検索された車両の中から希望する車両を選択する操作を利用者から受け付ける。すると、端末装置30は、車両を指定した配車要求をサーバ装置200に送信する(S12)。配車要求は、例えば、選択された車両の識別情報を含む。ここでは、複数の車両の中から車両40が選択されたとする。
サーバ装置200は、配車要求を受信すると、車両40の状態を「迎車」に変更し、端末装置30の現在位置を含む配車通知を車載装置100に送信する(S13)。これにより、車両40は端末装置30の利用者のいる場所に向かう。車両40が乗車場所に到着すると、車載装置100は乗車通知をサーバ装置200に送信する(S14)。サーバ装置200は、車両40の状態を「賃走」に変更する。車両40が乗客の指定した降車場所に到着すると、車載装置100はサーバ装置200に会計開始を通知し、車載装置100とサーバ装置200との間で会計処理を行う(S15)。車載装置100は、例えば、車両ID、運転者ID、乗車時刻、降車時刻、乗車料金などをサーバ装置200に送信する。
車載装置100は、乗客が車両40から降りると、降車通知をサーバ装置200に送信する(S16)。サーバ装置200は、車両40の状態を「空車」に変更する。車載装置100は、今回の乗客と運転者との間の会話から評価値を算出し、算出した評価値をサーバ装置200に送信する(S17)。サーバ装置200は、車両40を運転している運転者の評価値を更新する。なお、会計処理に関する情報と降車通知と評価値のうち2以上の情報を、車載装置100からサーバ装置200に纏めて送信してもよい。
次に、会話評価部140による評価値算出の手順を説明する。
図19は、評価値算出の手順例を示すフローチャートである。
(S20)発話検出部141は、音声データ記憶部151に記憶されたマイクロフォン112の音声データ(乗客の音声データ)が示す音声波形を分析し、図7のような方法で当該音声データから2以上の発話区間を検出する。検出した発話区間の情報を、発話区間情報記憶部152に記憶された発話区間テーブル161に登録する。
(S21)発話検出部141は、乗客の発話区間を1つ選択する。
(S22)乗客音質判定部142は、ステップS21で選択された発話区間の音声データを分析して当該発話区間における乗客の感情を推定する。例えば、乗客音質判定部142は、図9のような方法でパワー平均とパワー偏差とパワー差分偏差を算出する。乗客音質判定部142は、音質判定情報記憶部153に記憶された乗客音質判定テーブル162を参照して、算出したパワー平均とパワー偏差とパワー差分偏差に対応付けられた感情を選択する。乗客音質判定部142は、乗客音質スコアに関して、選択した感情に対応付けられている点数を付与する。例えば、感情が「弱気」以外であれば+1の加点を行う。
(S23)単語判定部143は、ステップS21で選択された発話区間の音声データに乗客のポジティブキーワードが含まれているか判定する。例えば、単語判定部143は、図11のような方法でワードスポッティングにより乗客のポジティブキーワードの検出を試みる。乗客のポジティブキーワードは、キーワード記憶部154に記憶されたキーワードテーブル163に登録されている。単語判定部143は、乗客のポジティブキーワードを検出した場合、乗客単語スコアに関して、乗客のポジティブキーワードに対応付けられている点数を付与する。例えば、選択された発話区間の音声データから乗客のポジティブキーワードが1回検出される毎に+2の加点を行う。
(S24)単語判定部143は、ステップS21で選択された発話区間の音声データに乗客のネガティブキーワードが含まれているか判定する。例えば、単語判定部143は、図11のような方法でワードスポッティングにより乗客のネガティブキーワードの検出を試みる。乗客のネガティブキーワードは、キーワード記憶部154に記憶されたキーワードテーブル163に登録されている。単語判定部143は、乗客のネガティブキーワードを検出した場合、乗客単語スコアに関して、乗客のネガティブキーワードに対応付けられている点数を付与する。例えば、選択された発話区間の音声データから乗客のネガティブキーワードが1回検出される毎に−1の減点を行う。
(S25)発話検出部141は、ステップS21で乗客の発話区間が全て選択されたか判断する。乗客の発話区間が全て選択された場合はステップS26に処理が進み、未選択の乗客の発話区間がある場合はステップS21に処理が進む。
(S26)発話検出部141は、音声データ記憶部151に記憶されたマイクロフォン111の音声データ(運転者の音声データ)が示す音声波形を分析し、図7のような方法で当該音声データから2以上の発話区間を検出する。検出した発話区間の情報を、発話区間情報記憶部152に記憶された発話区間テーブル161に登録する。
(S27)発話検出部141は、運転者の発話区間を1つ選択する。
(S28)単語判定部143は、ステップS27で選択された発話区間の音声データに運転者のポジティブキーワードが含まれているか判定する。例えば、単語判定部143は、図11のような方法でワードスポッティングにより運転者のポジティブキーワードの検出を試みる。運転者のポジティブキーワードは、キーワード記憶部154に記憶されたキーワードテーブル163に登録されている。単語判定部143は、運転者のポジティブキーワードを検出した場合、運転者単語スコアに関して、運転者のポジティブキーワードに対応付けられている点数を付与する。例えば、選択された発話区間の音声データから運転者のポジティブキーワードが1回検出される毎に+1の加点を行う。
(S29)単語判定部143は、ステップS27で選択された発話区間の音声データに運転者のネガティブキーワードが含まれているか判定する。例えば、単語判定部143は、図11のような方法でワードスポッティングにより運転者のネガティブキーワードの検出を試みる。運転者のネガティブキーワードは、キーワード記憶部154に記憶されたキーワードテーブル163に登録されている。単語判定部143は、運転者のネガティブキーワードを検出した場合、運転者単語スコアに関して、運転者のネガティブキーワードに対応付けられている点数を付与する。例えば、選択された発話区間の音声データから運転者のネガティブキーワードが1回検出される毎に−1の減点を行う。
(S30)発話検出部141は、ステップS27で運転者の発話区間が全て選択されたか判断する。運転者の発話区間が全て選択された場合はステップS31に処理が進み、未選択の運転者の発話区間がある場合はステップS27に処理が進む。
図20は、評価値算出の手順例を示すフローチャート(続き)である。
(S31)乗客音質判定部142は、ステップS22で算出された点数の合計とステップS20で検出された乗客の発話区間の数から乗客音質スコアを算出する。例えば、乗客音質判定部142は、前者を後者で割った平均点数を乗客音質スコアとする。
(S32)単語判定部143は、ステップS23で算出された点数の合計とステップS24で算出された点数の合計から乗客単語スコアを算出する。例えば、単語判定部143は、前者(加点)から後者(減点)を引いた値を乗客単語スコアとする。
(S33)単語判定部143は、ステップS28で算出された点数の合計とステップS29で算出された点数の合計から運転者単語スコアを算出する。例えば、単語判定部143は、前者(加点)から後者(減点)を引いた値を運転者単語スコアとする。
(S34)会話継続性判定部144は、発話区間情報記憶部152に記憶された発話区間テーブル161を参照して、乗客の発話区間と運転者の発話区間の集合を複数の発話区間群に区分する。1つの発話区間群は、継続した一纏まりの会話を表す。例えば、会話継続性判定部144は、ある発話区間の末尾から次の発話区間の先頭までの空白時間の長さが所定の閾値(例えば、30秒)以下である場合、当該2つの発話区間を同じ発話区間群に分類する。一方、会話継続性判定部144は、空白時間の長さが所定の閾値を超える場合、当該2つの発話区間を異なる発話区間群に分類する。
(S35)会話継続性判定部144は、ステップS34で区分した発話区間群それぞれの長さを算出し、複数の発話区間群の長さの合計を会話継続時間として算出する。また、会話継続性判定部144は、乗客が乗車してから最初の発話区間の開始時刻と乗客が降車する前の最後の発話区間の終了時刻との差を乗車時間として算出する。会話継続性判定部144は、会話継続時間を乗車時間で割った会話継続割合を算出する。なお、乗客が乗車した時刻と降車した時刻との差を乗車時間としてもよく、あるいは車両の状態が「賃走」となっている時間を乗車時間としてもよい。
(S36)会話継続性判定部144は、乗客の発話区間の長さの合計を乗客発話時間として算出する。また、会話継続性判定部144は、運転者の発話区間の長さの合計を運転者発話区間として算出する。会話継続性判定部144は、乗客発話時間を運転者発話時間で割った乗客発話割合を算出する。
(S37)会話継続性判定部144は、ステップS35で算出した会話継続割合とステップS36で算出した乗客発話割合の積を相互発話スコアとして算出する。
(S38)総合評価部145は、重み記憶部155に記憶された重みテーブル164から、乗客音質スコアの重み、乗客単語スコアの重み、運転者単語スコアの重みおよび相互発話スコアの重みを読み出す。また、総合評価部145は、ステップS31で算出された乗客音質スコア、ステップS32で算出された乗客単語スコア、ステップS33で算出された運転者単語スコアおよびステップS37で算出された相互発話スコアを取得する。そして、総合評価部145は、これら4個のスコアそれぞれに対応する重みをかけ、かけ算の結果を合計することで運転者の評価値を算出する。
(S39)総合評価部145は、ステップS38で算出した評価値を、通信インタフェース109を用いてサーバ装置200に送信する。
次に、第2の実施の形態の配車システムの変形例を説明する。
上記では会話評価部140は、乗客の音声データを分析してから運転者の音声データを分析している。これに対し、会話評価部140は、運転者の音声データを分析してから乗客の音声データを分析してもよい。また、会話評価部140は、乗客の音声データの分析と運転者の音声データの分析を並行に行ってもよい。また、上記では会話評価部140は、蓄積された音声データから発話区間を抽出しているが、マイクロフォン111,112から入力される音声信号からリアルタイムに発話区間を抽出してもよい。
また、上記では車載装置100は、マイクロフォン111を用いて運転者の音声データを生成し、マイクロフォン112を用いて乗客の音声データを生成している。すなわち、運転者の音声と乗客の音声が録音当初から分離されている。これに対し、車載装置100は、1つのマイクロフォンのみを用いて音声データを生成し、当該音声データを分析して事後的に運転者の音声と乗客の音声を分離してもよい。例えば、会話評価部140は、発話区間それぞれの声質を分析して発話区間の集合を声質の異なる2つのグループに分類することで、運転者の音声と乗客の音声を分離することができる。また、例えば、会話評価部140は、音声認識技術を用いて各発話区間から単語を抽出し、抽出した単語が運転者によって発せられやすいか乗客によって発せられやすいかに基づいて、当該発話区間が運転者の発話区間か乗客の発話区間かを判定することができる。
また、上記では乗客のポジティブキーワードの点数と運転者のポジティブキーワードの点数とが異なるが、両者を同一にしてもよい。また、発話者および意味が同じキーワードであってもキーワード毎に点数を変えてもよい。また、上記では乗客用のキーワードと運転者用のキーワードを区分しているが、両者を区分しなくてもよい。
また、上記では車載装置100が評価値を算出してサーバ装置200に送信しているが、車載装置100がサーバ装置200に音声データを送信してサーバ装置200が評価値を算出してもよい。これにより、車載装置100の負荷を軽減できる。
図21は、車載装置とサーバ装置の他の機能例を示すブロック図である。
車載装置100bは、車載装置100に代えて車両40に搭載することができる。車載装置100bは、車載装置100と同様のハードウェアを用いて実装できる。サーバ装置200aはサーバ装置200に代えて使用することができる。サーバ装置200aは、サーバ装置200と同様のハードウェアを用いて実装できる。車載装置100bとサーバ装置200aとはネットワーク50を介して通信する。
車載装置100bは、車両状態管理部120および会計処理部130に加えて音声データ送信部170を有する。音声データ送信部170は、マイクロフォン111を用いて生成された運転者の音声データおよびマイクロフォン112を用いて生成された乗客の音声データをサーバ装置200aに送信する。音声データ送信部170は、乗客の乗車中に音声データを適宜送信してもよいし、乗客が降車してから音声データを送信してもよい。
サーバ装置200aは、音声データ受信部250および会話評価部260を有する。また、サーバ装置200aは、音声データ記憶部271、発話区間情報記憶部272、音質判定情報記憶部273、キーワード記憶部274および重み記憶部275を有する。
音声データ受信部250は、車載装置100bから受信した音声データを音声データ記憶部271に格納する。会話評価部260は、車載装置100の会話評価部140に対応する。会話評価部260は、音声データ記憶部271に記憶された音声データを分析して車載装置100bを搭載する車両40の運転者の評価値を算出する。
会話評価部260は、発話検出部261、乗客音質判定部262、単語判定部263、会話継続性判定部264および総合評価部265を有する。これらのユニットは、会話評価部140の発話検出部141、乗客音質判定部142、単語判定部143、会話継続性判定部144および総合評価部145に対応する。音声データ記憶部271、発話区間情報記憶部272、音質判定情報記憶部273、キーワード記憶部274および重み記憶部275は、車載装置100の音声データ記憶部151、発話区間情報記憶部152、音質判定情報記憶部153、キーワード記憶部154および重み記憶部155に対応する。
第2の実施の形態の配車システムによれば、タクシーの乗車中における運転者と乗客との間の会話を録音した音声データが生成される。この音声データから、乗客音声の音質に応じた乗客音質スコアと、乗客が発した単語に応じた乗客単語スコアと、運転者が発した単語に応じた運転者単語スコアと、会話の継続性を示す相互発話スコアが算出される。そして、これら4個のスコアから運転者の評価値が算出される。算出された評価値は、乗客・運転者間の会話の円滑さや乗客の満足度を反映している。すなわち、乗客がポジティブな感情をもって運転者と会話しているほど評価値が高くなる。算出された評価値は、別の利用者がタクシーを選択するときの選択基準として利用することができる。
これにより、タクシーの運転者のサービスを自動的に評価することができる。このとき、乗客はアンケートを記入することや端末装置からメッセージ送信することなどの積極的な評価作業を行わなくてよい。よって、乗客が運転者を評価する負担が軽減され、サーバ装置200は多くの評価結果を収集することが可能となる。また、乗客の主観が評価値に与える影響を軽減することができ、評価値の客観性が向上する。その結果、タクシーを検索して条件に合うタクシーを選択可能なシステムにおいて、検索精度を向上させることが可能となる。また、タクシー利用者の満足度を向上させることができる。
10 業務評価装置
11 記憶部
12 演算部
13 音声データ
13a,13b 音声
14a,14b,14c 特徴情報
15 評価基準情報
16 評価値

Claims (8)

  1. コンピュータが実行する業務評価方法であって、
    業務担当者がサービスを提供している間に発した第1の音声と、利用者が前記サービスを利用している間に発した第2の音声とを示す音声データを取得し、
    前記取得した音声データが示す前記第1の音声および前記第2の音声から1以上の特徴情報を抽出し、特徴情報から評価値を算出する評価方法を示す評価基準情報を参照して、前記抽出した1以上の特徴情報から前記業務担当者に対する評価値を算出し、
    前記算出した評価値を前記業務担当者の識別情報と対応付けて記憶装置に記憶させる、
    業務評価方法。
  2. 前記抽出した1以上の特徴情報は、前記第2の音声の強弱変化を示す音質情報を含み、
    前記算出した評価値は、前記音質情報が所定の条件を満たすか否かに依存する、
    請求項1記載の業務評価方法。
  3. 前記抽出した1以上の特徴情報は、前記第1の音声から検出された単語および前記第2の音声から検出された単語の少なくとも一方を含む単語情報を含み、
    前記算出した評価値は、前記単語情報が所定のキーワードを含むか否かに依存する、
    請求項1記載の業務評価方法。
  4. 前記抽出した1以上の特徴情報は、前記第1の音声から検出された第1の単語および前記第2の音声から検出された第2の単語を含む単語情報を含み、
    前記算出した評価値は、前記第1の単語が所定の第1のキーワードに該当するか否か、および、前記第2の単語が所定の第2のキーワードに該当するか否かに依存する、
    請求項1記載の業務評価方法。
  5. 前記抽出した1以上の特徴情報は、前記第1の音声が検出された第1の時間の長さと、前記第2の音声が検出された第2の時間の長さと、前記業務担当者が前記利用者に前記サービスを提供している第3の時間の長さとを示す時間情報を含み、
    前記算出した評価値は、前記時間情報が示す前記第1の時間の長さと前記第2の時間の長さと前記第3の時間の長さとの間の関係に依存する、
    請求項1記載の業務評価方法。
  6. 前記第1の音声および前記第2の音声は、前記業務担当者と前記利用者とが対面で会話しているときに1以上のマイクロフォンを用いて録音された音声である、
    請求項1記載の業務評価方法。
  7. 特徴情報から評価値を算出する評価方法を示す評価基準情報を記憶する記憶部と、
    業務担当者がサービスを提供している間に発した第1の音声と、利用者が前記サービスを利用している間に発した第2の音声とを示す音声データを取得し、
    前記取得した音声データが示す前記第1の音声および前記第2の音声から1以上の特徴情報を抽出し、前記評価基準情報を参照して、前記抽出した1以上の特徴情報から前記業務担当者に対する評価値を算出し、
    前記算出した評価値を前記業務担当者の識別情報と対応付けて前記記憶部または他の記憶部に記憶させる演算部と、
    を有する業務評価装置。
  8. コンピュータに、
    業務担当者がサービスを提供している間に発した第1の音声と、利用者が前記サービスを利用している間に発した第2の音声とを示す音声データを取得し、
    前記取得した音声データが示す前記第1の音声および前記第2の音声から1以上の特徴情報を抽出し、特徴情報から評価値を算出する評価方法を示す評価基準情報を参照して、前記抽出した1以上の特徴情報から前記業務担当者に対する評価値を算出し、
    前記算出した評価値を前記業務担当者の識別情報と対応付けて記憶装置に記憶させる、
    処理を実行させる業務評価プログラム。
JP2016172392A 2016-09-05 2016-09-05 業務評価方法、業務評価装置および業務評価プログラム Pending JP2018041120A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172392A JP2018041120A (ja) 2016-09-05 2016-09-05 業務評価方法、業務評価装置および業務評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172392A JP2018041120A (ja) 2016-09-05 2016-09-05 業務評価方法、業務評価装置および業務評価プログラム

Publications (1)

Publication Number Publication Date
JP2018041120A true JP2018041120A (ja) 2018-03-15

Family

ID=61626120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172392A Pending JP2018041120A (ja) 2016-09-05 2016-09-05 業務評価方法、業務評価装置および業務評価プログラム

Country Status (1)

Country Link
JP (1) JP2018041120A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160336A (ja) * 2019-03-27 2020-10-01 株式会社博報堂Dyホールディングス 評価システム、評価方法、及びコンピュータプログラム。
JP2020190908A (ja) * 2019-05-22 2020-11-26 株式会社セオン 施設実態評価装置
JP2021044735A (ja) * 2019-09-12 2021-03-18 第一生命保険株式会社 サーバ装置、サーバ装置のプログラム、及び情報処理システム
WO2021153605A1 (ja) * 2020-01-29 2021-08-05 株式会社クリディアル 状態確認プログラム
WO2022091796A1 (ja) * 2020-11-02 2022-05-05 ソニーグループ株式会社 配車システム、配車方法及び配車プログラム
JP7223906B1 (ja) 2022-08-19 2023-02-16 株式会社アデランス 頭髪スタイルを変更する利用者に対する施術の技能を評価する方法、技能評価装置及びプログラム
WO2024009623A1 (ja) * 2022-07-04 2024-01-11 パナソニックIpマネジメント株式会社 評価システム、評価装置および評価方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160336A (ja) * 2019-03-27 2020-10-01 株式会社博報堂Dyホールディングス 評価システム、評価方法、及びコンピュータプログラム。
WO2020196743A1 (ja) * 2019-03-27 2020-10-01 株式会社博報堂Dyホールディングス 評価システム及び評価方法
JP2020190908A (ja) * 2019-05-22 2020-11-26 株式会社セオン 施設実態評価装置
JP2021044735A (ja) * 2019-09-12 2021-03-18 第一生命保険株式会社 サーバ装置、サーバ装置のプログラム、及び情報処理システム
WO2021153605A1 (ja) * 2020-01-29 2021-08-05 株式会社クリディアル 状態確認プログラム
JP2021117870A (ja) * 2020-01-29 2021-08-10 株式会社クリディアル 状態確認プログラム
WO2022091796A1 (ja) * 2020-11-02 2022-05-05 ソニーグループ株式会社 配車システム、配車方法及び配車プログラム
WO2024009623A1 (ja) * 2022-07-04 2024-01-11 パナソニックIpマネジメント株式会社 評価システム、評価装置および評価方法
JP7223906B1 (ja) 2022-08-19 2023-02-16 株式会社アデランス 頭髪スタイルを変更する利用者に対する施術の技能を評価する方法、技能評価装置及びプログラム
JP2024028060A (ja) * 2022-08-19 2024-03-01 株式会社アデランス 頭髪スタイルを変更する利用者に対する施術の技能を評価する方法、技能評価装置及びプログラム

Similar Documents

Publication Publication Date Title
JP2018041120A (ja) 業務評価方法、業務評価装置および業務評価プログラム
US20230351302A1 (en) Controlling Vehicles Using Contextual Driver And/Or Rider Data Based On Automatic Passenger Detection and Mobility Status
US20230286515A1 (en) Shared Mobility Service Passenger Matching Based on Passenger Attributes
US20240078481A1 (en) Controlling vehicles using contextual driver and/or rider data based on automatic passenger detection and mobility status
CN103069480B (zh) 用于语音识别的语音模型和噪声模型
EP3063758B1 (en) Predicting recognition quality of a phrase in automatic speech recognition systems
CN104575493B (zh) 使用地理信息的声学模型适配
US8918320B2 (en) Methods, apparatuses and computer program products for joint use of speech and text-based features for sentiment detection
KR101983635B1 (ko) 개인방송 컨텐츠 추천방법
US11749272B2 (en) Voice-based time-sensitive task processing over a high generation cellular network
CN101547261A (zh) 关联赋予装置、关联赋予方法和记录介质
EP3308379B1 (en) Motion adaptive speech processing
US20220365991A1 (en) Method and apparatus for enhancing a geolocation database
US20220035840A1 (en) Data management device, data management method, and program
US11308510B2 (en) Methods and apparatus to collect and analyze rating information
US20220036381A1 (en) Data disclosure device, data disclosure method, and program
WO2019133970A2 (en) Controlling vehicles using contextual driver and/or rider data based on automatic passenger detection and mobility status
JP2015084164A (ja) 情報処理装置、情報提供システム、情報提供方法及びプログラム
JP7142315B2 (ja) 説明支援装置および説明支援方法
JP2017181631A (ja) 情報制御装置
WO2011030404A1 (ja) オペレーティングシステム及びオペレーティング方法
JP2020160336A (ja) 評価システム、評価方法、及びコンピュータプログラム。
KR102349665B1 (ko) 사용자 맞춤형 목적지정보 제공 장치 및 방법
JP7230793B2 (ja) 情報処理装置、情報処理方法、及び、システム