JP6105337B2 - 評価システム及び評価方法 - Google Patents

評価システム及び評価方法 Download PDF

Info

Publication number
JP6105337B2
JP6105337B2 JP2013051843A JP2013051843A JP6105337B2 JP 6105337 B2 JP6105337 B2 JP 6105337B2 JP 2013051843 A JP2013051843 A JP 2013051843A JP 2013051843 A JP2013051843 A JP 2013051843A JP 6105337 B2 JP6105337 B2 JP 6105337B2
Authority
JP
Japan
Prior art keywords
emotion
analysis
target
recording
usage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013051843A
Other languages
English (en)
Other versions
JP2014178835A (ja
Inventor
橘 一洋
一洋 橘
加藤 武
武 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissha Printing Co Ltd
Original Assignee
Nissha Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissha Printing Co Ltd filed Critical Nissha Printing Co Ltd
Priority to JP2013051843A priority Critical patent/JP6105337B2/ja
Publication of JP2014178835A publication Critical patent/JP2014178835A/ja
Application granted granted Critical
Publication of JP6105337B2 publication Critical patent/JP6105337B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、利用者が利用する利用対象の利用状況を評価するための評価システム及び評価方法に関する。
近年、マーケティングリサーチでは、顧客満足度などの指標を使って利用者が対象を利用するときの利用状況を評価することが行なわれている。例えば、特許文献1(特開2011−210133号公報)には、人物の満足度を算出する満足度算出方法や満足度算出装置が記載されている。特許文献1の満足度算出装置で算出される満足度は、マーケティングの分野で活用され、例えば満足度を高めて消費者のリピータ化などを高めるのに役立てられるものとして説明されている。
特開2011−210133号公報
しかし、引用文献1に記載されている満足度は、リピータ化などの利用者の利用状況を直接に評価するものではない。引用文献1に記載の技術では、人物の個人としての満足度を算出することができるが、例えば、ある店舗を利用する多数の利用者の店舗別満足度は、各個人の顧客別満足度の統計量(例えば、平均値)を指すものとされている。
ところが、顧客満足度というのは、複合的で、マーケティング研究者によってさまざまに定義されている。例えば、サービスの品質や信頼性の「見える化」のための指標の一つとして開発されたものの一つに、日本版顧客満足度指数(JCSI)がある。その一方で、それよりも先に開発された米国版顧客満足度指数(ACSI)や韓国版顧客満足度指数(NCSI)など多様な顧客満足度指数が存在する。このように顧客満足度というのは、その定義の仕方によって区々の値や程度を示し、また同じ定義を用いる場合であっても、各個人の満足度から統計量を得るということを意味有らしめるには困難な作業がつきまとう。
従って、個人の顧客別満足度の統計量を用いて得られる店舗別満足度の解釈の難しさも容易に想像できる。そしてさらに、個人の顧客別満足度の統計量を用いて、リピータ化などの利用者の利用状況を評価しようとすると、リピータ化などの現象と顧客別満足度との相関が満足度の定義によって種々に変化することから、利用状況の評価の精度を上げることが難しいことは明らかである。
本発明の課題は、利用対象の利用状況を容易に評価することができる評価システム及び評価方法を提供することにある。
以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。
本発明の一見地に係る評価システムは、音声の特徴を分析するための複数のパラメータを座標軸にとった2次元以上の感情マッピング空間に割り付けられた複数の感情領域のうちの第1感情領域に、利用対象を利用する不特定複数の利用者の第1分析対象音声がマッピングされるか否かによって、第1感情を表意した第1感情表意話者と表意しなかった第1感情非表意話者との推定を行なう感情推定装置と、感情推定装置の推定結果に基づく第1感情表意話者及び第1感情非表意話者の第1分布から、利用対象の利用状況についての所定現象を分析する分析装置と、を備え、感情推定装置は、第1分布と所定現象の発生との相関係数の絶対値が第1所定値以上になるように第1感情領域が区分されているものである。
このように構成された評価システムによれば、商品やサービスなどの利用対象を利用者が利用するときに発声する第1分析対象音声を用いて、利用対象の利用状況の所定現象が分析され、それにより、利用状況が評価される。その際に、感情推定装置によって、第1分析対象音声の複数のパラメータの値から、その利用者が第1感情を表意した第1感情表意話者か、第1感情を表意しなかった第1感情非表意話者かが推定される。そして、推定された第1感情表意話者と第1感情非表意話者の第1分布に基づいて、分析装置によって、利用対象の利用状況の所定現象が分析される。そのため、利用者の思惑による評価結果の歪みを抑えて利用状況を評価することができる。その際、第1分布と所定現象の発生との相関係数の絶対値が第1所定値以上になるように第1感情領域が区分されていることから、所定現象が直接かつ容易に分析できる。
この評価システムにおいて、感情推定装置は、複数の感情領域のうちの第2感情領域に第2分析対象音声がマッピングされるか否かによって、第2感情を表意した第2感情表意話者と表意しなかった第2感情非表意話者との推定を行ない、分析装置は、感情推定装置の推定結果に基づく第1分布に、感情推定装置の推定結果に基づく第2感情表意話者及び第2感情非表意話者の第2分布を加味して所定現象を分析し、感情推定装置は、第2分布と所定現象の発生との相関係数の絶対値が第2所定値以上になるように第2感情領域が区分されている、ものであってもよい。このように構成されることにより、所定現象の分析に際して第1感情表意話者と第1感情非表意話者の第1分布と第2感情表意話者と第2感情非表意話者の第2分布を組み合わせられ、組み合わせによって生まれるバリエーションから評価内容に適するものを選べるようになる。
この評価システムにおいて、感情推定装置は、第1分析対象音声として利用対象に関連する第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとを用い、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとで第1感情領域の範囲を異ならせる、ものであってもよい。このように構成されることにより、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスが音声的に異なるものであっても、類似の感情を持って発声されたときには類似の感情領域に分類しやすくなる。
この評価システムにおいて、感情推定装置は、複数のパラメータとして、イントネーション、音声波形及びボリュームを用いる、ものであってもよい。このように構成されることにより、利用状況の所定現象の分析に大きな影響を与える第1感情表意話者と第1感情非表意話者の推定が簡単に実現できる。
この評価システムにおいて、分析装置は、所定現象を、第1感情表意話者の割合に基づいて分析する、ものであってもよい。このように構成されることにより、第1感情表意話者の割合を用いて、所定現象を直接簡単に分析することができる。
この評価システムにおいて、感情推定装置は、第1分析対象音声として利用対象に関連する第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとを用い、分析装置は、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとで異なる重みを付けて利用対象の利用状況を分析する、ものであってもよい。このように構成されることにより、似通った利用者感情で第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとが発声されても第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとの意味内容の違いを重み付けによって分析に反映させることができ、利用状況の分析の内容や精度を向上させ易くなる。
この評価システムは、不特定複数の利用者の分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、感情推定装置は、記憶されたコーザル情報、収録時間及び収録場所のうちの少なくとも一つに応じて第1感情領域の区分を異ならせる、ものであってもよい。このように構成されることにより、コーザル情報、収録時間及び収録場所のうちの少なくとも一つが利用者感情に与える影響を反映した推定を感情推定装置が行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
この評価システムは、不特定複数の利用者の分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、分析装置は、記憶されたコーザル情報、収録時間及び収録場所のうちの少なくとも一つに応じて第1分布に異なる重みを付けて利用対象の利用状況を分析する、ものであってもよい。このように構成されることにより、コーザル情報、収録時間及び収録場所のうちの少なくとも一つが利用状況に与える影響の大小を反映した分析を分析装置が行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
この評価システムは、不特定複数の利用者の分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、分析装置は、記憶されたコーザル情報、収録時間及び収録場所のうちの少なくとも一つに応じて変化する、第1感情表意話者と第1感情非表意話者の分布変化に基づいて利用対象の利用状況を分析する、ものであってもよい。このように構成されることにより、コーザル情報、収録時間及び収録場所のうちの少なくとも一つが第1感情表意話者と第1感情非表意話者の分布変化に与える影響から利用状況の分析を分析装置が行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
この評価システムにおいて、感情推定装置は、利用対象を利用する不特定複数の利用者の関係者の分析対象補助音声について感情マッピング空間に割り付けられた補助感情領域に、関係者の分析対象補助音声がマッピングされるか否かによって、補助感情を表意した補助感情表意話者と表意しなかった補助感情非表意話者との推定を行ない、分析装置は、補助感情表意話者に関係する第1分布を補正する、ものであってもよい。このように構成されることにより、関係者が利用者に与える影響を反映させて利用状況の分析を分析装置が行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
本発明の一見地に係る評価方法は、音声の特徴を分析するための複数のパラメータを座標軸にとった2次元以上の感情マッピング空間に割り付けられた複数の感情領域のうちの第1感情領域に、利用対象を利用する不特定複数の利用者の第1分析対象音声がマッピングされるか否かによって、第1感情を表意した第1感情表意話者と表意しなかった第1感情非表意話者との推定を行なう感情推定ステップと、感情推定ステップの推定結果に基づく第1感情表意話者及び第1感情非表意話者の第1分布から、利用対象の利用状況についての所定現象を分析する分析ステップと、を備え、感情推定ステップでは、第1分布と所定現象の発生との相関係数の絶対値が所定値以上になるように区分されている第1感情領域を用いて推定を行なうものである。
このように構成された評価方法によれば、商品やサービスなどの利用対象を利用者が利用するときに発声する第1分析対象音声を用いて、利用対象の利用状況の所定現象が分析され、それにより、利用状況が評価される。その際に、感情推定ステップにおいて、第1分析対象音声の複数のパラメータから、その利用者が第1感情を表意した第1感情表意話者か、第1感情を表意しなかった第1感情非表意話者かが推定される。そして、推定された第1感情表意話者と第1感情非表意話者の第1分布に基づいて、分析ステップによって、利用対象の利用状況の所定現象が分析される。そのため、利用者の思惑による評価結果の歪みを抑えて利用状況を評価することができる。その際、第1分布と所定現象の発生との相関係数の絶対値が所定値以上になるように第1感情領域が区分されていることから、所定現象が直接かつ容易に分析できる。
本発明の評価システム又は評価方法によれば、利用対象の利用状況を容易に評価することができる。
一実施形態に係る評価システムの概要を示すブロック図。 評価システムの具体的な構成の一例を示すブロック図。 一実施形態に係る評価方法の概要を示すフローチャート。 評価システムで評価される利用対象の一例を示す概念図。 感情推定装置で用いられる音声波形の一例を示すグラフ。 (a)ある感情での発声のボリュームを説明するためのグラフ、(b)他の感情での発声のボリュームを説明するためのグラフ。 (a)ある感情での発声のイントネーションを説明するためのグラフ、(b)他の感情での発声のイントネーションを説明するためのグラフ。 音声波形とイントネーションとボリュームとを用いた感情領域の区分を説明するためのグラフ。 利用状況と感情領域の区分との関係を説明するためのグラフ。 (a)第1感情表意話者数の割合とリピート率との相関を説明するためのグラフ、(b)各感情表意話者数の割合の分布の一例を示すグラフ。 利用状況の評価方法の一例を説明するための概念図。 評価システムで評価される利用対象の他の例を示す概念図。 感情領域の範囲の設定について説明するためのグラフ。 (a)話者属性情報によって分類されるグループの一例を示す概念図、(b)場所属性情報によって分類されるグループの一例を示す概念図、(c)コーザル情報によって分類されるグループの一例を示す概念図、(d)収録時間によって分類されるグループの一例を示す概念図。 相対的な評価方法の概要を示すフローチャート。 感情領域の区分の他の例を説明するための概念図。
(1)評価システムの構成
図1には、本発明の一実施形態に係る評価システムの構成が示されている。
図1に示されている評価システム1は、音声収録装置2と、記憶装置3と、音声認識装置4と、マーケティング調査データ抽出装置5と、感情推定装置6と、分析装置7とを備えている。
評価システム1は、音声収録装置2により、収録場所を特定して音声を収録する。音声収録装置2で、音声収録装置2により収録される音声が電気信号に変換され、記憶装置3に記憶可能な収録データが生成される。収録データは、音声収録装置2から記憶装置3に送信され、記憶装置3に記憶される。音声信号は、所定間隔(例えば20秒毎)で時間のタグが付加されており、何時何分に録音されたものであるかが識別できるようになっている。
記憶装置3には、収録データ31a及び収録データ31aの位置情報31bを含むビッグデータ31以外に、調査用辞書32と、話者属性情報33と、収録場所の場所属性情報34と、コーザル情報35と、テキストデータ36とが記憶されている。なお、音声信号に付されていた時間のタグは、収録データ31aにも付加されている。
音声認識装置4は、記憶装置3に記憶されている収録データ31a及び位置情報31bを取得して、収録データ31aの音声認識を行なう。音声認識により、単なる音声を示す収録データ31aが、言葉(話している内容)に対応付けられ、テキストデータに変換される。この評価システム1では、収録場所で収録する調査対象者を限定する必要がなく、不特定複数の話者が調査対象者となる。そのため、音声認識装置4で収録データ31aが音声認識されると、不特定複数の話者の音声が話者ごとに区別され、話者別にテキストデータが生成される。以下、この話者を区別して生成されるテキストデータを話者別のテキストデータという。このテキストデータにも収録データ31aに付されていた時間のタグは引き継がれる。
この音声認識装置4が音声認識を行なうときも音声認識用辞書41を参照する。音声認識装置4が音声認識の際に参照する音声認識用辞書41は、上述の調査用辞書32とは別に準備されるものである。なお、ここでは、記憶装置3に音声認識用辞書41が記憶される場合について示しているが、音声認識用辞書41は音声認識装置4が保持していてもよい。
ところで、収録場所は、一つに限られるものでなく、複数であってもよい。また、複数の収録場所が設定され、異なる時間に複数の収録場所で音声の収録が行なわれてもよく、同時に複数の収録場所で音声の収録が行なわれてもよい。そのため、音声認識の対象としている収録データが、どの収録場所で収録されたものであるかを区別するために収録場所を特定することを目的に位置情報31bがテキストデータに関連付けられる。音声認識装置4で位置情報31bが関連付けられたテキストデータ36が音声認識装置4から記憶装置3に送信されて記憶される。
記憶装置3に記憶されているテキストデータ36は、収録場所で不特定複数の話者が話した文(センテンス)や句(フレーズ)や語(ワード)の集合体である。これらの膨大な数の文や語句の中には、マーケティング調査に役立つ情報を含むものと役立つ情報を含まないものとがある。これら膨大な数の文や語句をマーケティング調査の担当者が一つ一つ選別するという方法も考えられる。しかし、収録データが膨大であると、そのような担当者による選別は不合理である。そこで、テキストデータ36の中からマーケティング調査に使用するマーケティングテキストデータの抽出がマーケティング調査データ抽出装置5において行なわれる。
例えば、ローラーコースターで、「キャー」(感動詞)という叫び声から、ローラーコースターの利用者の感情を推察することが行なわれるが、そのためには、利用者が発する様々な音声の中から「キャー」という語句を拾わなければならない。そのために、マーケティング調査データ抽出装置5は、各話者のテキストデータ36から「キャー」という感動詞を抽出する。
マーケティング調査データ抽出装置5は、マーケティングテキストデータを抽出する準備として調査用辞書32を取得する。次に、マーケティング調査データ抽出装置5は、調査用辞書32を用いてテキストデータ36を解釈してマーケティングテキストデータを抽出する。マーケティング調査データ抽出装置5は、例えば、テキストデータ36に含まれている「キャー」という文を、マーケティングテキストデータとして記憶装置3のマーケティングテキストデータファイル39に蓄積する。
また、マーケティング調査データ抽出装置5は、記憶装置3に蓄積されるマーケティングテキストデータに対して、話者属性情報33や場所属性情報34やコーザル情報35などの関連付けを行なう。
マーケティング調査データ抽出装置5が記憶装置3に蓄積したマーケティングテキストデータファイル39を使って、感情推定装置6は、収録データ31aから「キャー」という肉声の録音データを取得する。そして、感情推定装置6は、ローラーコースター(利用対象の一例)を利用する不特定複数の利用者の「キャー」という叫び声(第1分析対象音声の一例)について、イントネーション、音声波形及びボリュームを用いて区分される第1感情領域を含む複数の感情領域のいずれに分析対象音声を発したときの利用者感情が当て嵌まるかを推定する。感情推定装置6で行なわれる推定の具体例については後述する。
次に、分析装置7が、第1感情領域に含まれる分析対象音声を発した不特定複数の利用者(以下、第1感情表意話者という)を特定する。同時に、分析装置7が、第1感情領域に含まれる分析対象音声を発しなかった不特定複数の利用者(以下、第1感情非表意話者という)を特定する。そして、第1感情表意話者と第1感情非表意話者の分布(第1分布)に基づいて、利用対象を利用した利用者感情が利用対象の利用状況に与える影響を分析装置7が分析する。分析装置7で行なわれる分析の具体例については後述する。
マーケティングデータ解析装置8は、分析装置7の分析結果に基づいて、調査項目に関係する顧客などの行動や関心や満足度などを数値化したり、明文化したりするマーケティング分析を行なう。例えば、マーケティングデータ解析装置8で満足度の共分散分析が行なわれ、満足度への影響要因をアトラクション(遊具)の運転の開始点から終了点までの時系列で把握することが行なわれる。
(2)評価システムを構成する各装置
(2−1)音声収録装置
音声収録装置2には、2つのタイプがある。1つ目は、一つのマーケティング調査における音声収録中は移動されない固定型の音声収録装置2Aであり、2つ目は、一つのマーケティング調査における音声収録中に移動される携帯型の音声収録装置2Bである。
音声収録装置2Aは、本体部21と情報入力装置22と固定具23とを備えている。本体部21は、マイクロフォンなどの音声入力部と音声を電気信号に変換して音声信号を生成する変換部、音声信号を記憶するメモリチップなどの記録媒体などを有している。情報入力装置22は、例えばタッチパネルやキーボードなどであり、収録位置の入力に用いられる。本体部21は、音声収録が終了するまで三脚などの固定具23によって所定の箇所に固定される。
音声収録装置2Bは、本体部24とGPS(Global Positioning System)25とを備えている。本体部24は、マイクロフォンなどの音声入力部と、音声を電気信号に変換して音声信号を生成する変換部と、収録データを記憶するメモリチップなどの記録媒体などを有している。ここで、収録データには、音声信号以外に音声信号が収録された時間を示す時間のタグ及び収録場所の位置情報が記録されている。GPS25は、本体部24から音声収録を実施していることを示す信号を受け取ると、音声収録中の収録場所の位置を示す収録位置信号を生成する。そのため、音声収録装置2Bは、収録位置を変更しても収録場所の位置を自動的に記憶装置3に与えることができる。
また、音声収録装置2A,2B以外に、ワイヤレスマイクロフォン2Cを音声収録装置2とすることもできる。例えば、利用者U1がローラーコースターなどの移動物体に乗車している場合に、その利用者U1に対しては音声収録装置2A,2Bでの音声収録ができない場合が生じる。そのような利用者U1の話を収録するために、利用者U1にワイヤレスマイクロフォン2Cを装着して使用することができる。ワイヤレスマイクロフォン2Cは、例えば音声を収録するために話者に装着される小型の受話送信器26と受話送信機からの無線信号を受信する受信機27とで構成される。ワイヤレスマイクロフォン2Cで収録される収録データは、音声収録装置2A,2Bで収録される収録データに付属させてもよく、それらとは区別してメモリチップに記憶されるように構成してもよい。
(2−2)記憶装置
記憶装置3には、音声収録装置2A,2Bやワイヤレスマイクロフォン2Cの記録媒体に記録されている音声信号を読み取る読取装置102(図2参照)が設けられている。読取装置102は、読み取った収録データ31aを記憶装置3のビッグデータ31に蓄積する。このとき同時に、音声収録装置2A,2Bやワイヤレスマイクロフォン2Cの記録媒体に記録されている収録場所を示す信号を読み取って、収録場所の物理的な位置を収録データ31aと関連付けて位置情報31bとして記憶する。
また、記憶装置3には、マーケティング調査の調査項目に適した調査用辞書32が記憶されている。調査用辞書32には、例えば、調査項目に適した語句が記述されており、また、主語がない文や指示代名詞が主語となっている文の解釈の仕方が記述されている。
また、記憶装置3には、話者属性情報33と、場所属性情報34と、コーザル情報35と、テキストデータ36とが記憶される。話者属性情報33は、話者の性別や年齢など話者個人の性質や特徴である。話者属性情報33は、音声認識装置4が音声認識の際に認識する情報であり、これらの認識には既存の音声認識技術が用いられる。場所属性情報34は、収録場所で行なわれる調査項目や位置を関連付ける情報である。例えば、遊園地のアトラクションを調査する場合であれば、アトラクションに関連するエリアの位置を記した地図と、調査項目である各エリアのアトラクションとが関連付けられているものである。例えば、同じアトラクションに属するエリアでも、アトラクションからの距離によってエリアごとに重み付けがなされているような地図であってもよい。このように、その場所についての調査項目との関連の深さなども場所属性情報34に含まれる。このような重み付けを行なうことで、携帯型の音声収録装置2Bやワイヤレスマイクロフォン2Cで音声を収録する場合に、音声が収録された場所によってマーケティングテキストデータの重要性の判断を異ならせることができる。コーザル情報35とは、価格以外で商品の販売数に影響を与える環境情報である。コーザル情報35には、例えば季節、天候、時間などの利用対象を提供する者の自らの意思とは無関係に発生するイベントに関する情報と、セールの実施やチラシの配布など自らの意思決定によって発生が管理できるイベントに関する情報が含まれる。コーザル情報35のうちの時間情報35aは、単なる時間ではなく、音声収録装置2が音声信号を収録した時間のタグとは異なるものである。例えば、遊園地のレストランの顧客について、朝、昼、夕方などに分けてマーケティング調査をしたい場合に、朝、昼、夕方などのどれに属するかは時間情報35aに照らして時間のタグを用いて判断される。例えば、時間情報35aに朝が開店から午前10時まで、昼が午前10時から午後2時まで、夕方が午後2時から閉店までという記述があり、レストランで収録される収録データ31aαは、朝の収録データと昼の収録データと夜の収録データに分類される。
(2−3)音声認識装置
音声認識装置4は、既存の音声認識技術によって、ヒトの話す音声言語をコンピュータによって解析し、話している内容を文字データとして取り出す装置である。音声認識装置4は、従来と同様に、音声認識のときに音声認識用辞書41を使用する。この音声認識装置4は、収録場所の位置情報31bを音声認識後のテキストデータ36に関連付けて記憶装置3に出力する。また、この音声認識装置4は、複数の話者の会話を音声認識によって話者別に認識することができる。例えば、AさんとBさんとCさんの3人の会話が収録データ31aαに収録されている場合に、Aさんが「ローラーコースター、楽しかったね。」、Bさんが「そうだね。」、Cさんが「次、コーヒーカップにしない?」、Aさんが「いいよ。それじゃあ、行こうか。」と話したとすると、最初と最後の話者が同じで、次の話者とその次の話者は最初の話者とは別の人であるということを特定して認識できる。
また、音声認識装置4は、例えばAさんが女性であることをその音声の周波数の分析から特定でき、さらに詳細には例えばホルマント周波数の違いから成人の男女を簡単に区別することができる。性別や年齢などの話者属性情報33を収集することでマーケティング調査の価値が上がる。
(2−4)マーケティング調査データ抽出装置
マーケティング調査データ抽出装置5は、辞書取得部51と、テキストデータ取得部52と、マーケティングテキストデータ抽出部53と、情報関連付け部54とを備えている。
辞書取得部51は、記憶装置3に記憶されている調査用辞書32を取得する。また、辞書取得部51の動作と並行して、テキストデータ取得部52は、記憶装置3に記憶されているテキストデータ36を取得する。
マーケティングテキストデータ抽出部53は、テキストデータ取得部52が取得したテキストデータ36を、辞書取得部51が取得した調査用辞書32を用いて解釈し、マーケティング調査で使用するマーケティングテキストデータを膨大なテキストデータ36の中から抽出する。
情報関連付け部54は、マーケティングテキストデータ抽出部53が抽出する各マーケティングテキストデータに話者属性情報33と場所属性情報34とコーザル情報35とを関連付ける。話者属性情報33として男性と女性の区別を関連付ける場合には、例えばマーケティングテキストデータ抽出部53でテキストデータ36の文が時系列の順に抽出対象となるよう処理するのであれば、それらの文に対応する男性と女性を識別する符号が文と同様に時系列の順に並べられる。このような場合には、情報関連付け部54では、マーケティングテキストデータとして抽出されたテキストデータ36に対応する文の男女別の符号のみを残す作業を行なうことで、マーケティングテキストデータに話者属性情報33として男女の性別を関連付けることができる。
情報関連付け部54は、テキストデータ36に付されている時間のタグを用いて、コーザル情報35をマーケティングテキストデータに付加する。例えば、○月○日の午後5時から午後6時に遊園地のぬいぐるみのパレードがあったのであれば、その期間の時間のタグを持つマーケティングテキストデータに『ぬいぐるみのパレード』を示す符号を情報関連付け部54は付加する。この『ぬいぐるみのパレード』の情報を付加する際に、遊園地内の位置の情報によって付加するか否かを区別してもよい。また、○月○日の午前10時から正午までは『雨』という情報がコーザル情報35に記述されていれば、情報関連付け部54は、マーケティングテキストデータが持つ時間のタグから○月○日の午前10時から正午までに収録されたマーケティングテキストデータを特定して『雨』を示す符号を付加する。
マーケティングデータ解析装置8では、情報関連付け部54で話者属性情報33、場所属性情報34及びコーザル情報35が関連付けされているマーケティングテキストデータを用いてマーケティングに関する各種の分析が行なわれる。
(3)評価システムの具体的な構成例
評価システム1は、具体的には図2に示されているように、主に、音声収録装置2とパーソナルコンピュータ100とによって構成される。パーソナルコンピュータ100は、例えば、CPU(中央演算装置)101と、読取装置102と、データ入力装置103と、メモリシステム104と、表示装置105と、印刷装置106とを備えている。
読取装置102は、音声収録装置2で収録された音声信号が記録されている記録媒体から収録データを読み取る。メモリシステム104には、データ入力装置103から入力されるソフトウェアが記憶される。メモリシステム104に記憶されているソフトウェアを実行することにより、図1に示されている記憶装置3、音声認識装置4、マーケティング調査データ抽出装置5、感情推定装置6、分析装置7及びマーケティングデータ解析装置8の各機能ブロックが実現される。表示装置105及び印刷装置106は、収録データの入力やデータ解析に必要な情報の入力を促すためディスプレイを使った表示、あるいはデータ解析結果などの情報のディスプレイを使った表示や用紙を使った印字などの出力を行なうための出力装置である。
(4)評価方法の説明
(4−1)評価方法の流れ
音声収録装置2及びパーソナルコンピュータ100を使った評価方法について図3のフローチャートに沿って説明する。分かりやすく説明を行なうために、具体的に例を挙げて説明する。
図4に示されているように、ワイヤレスマイクロフォン2Cを使ってローラーコースター200のマーケティング調査を行なうことを考える。調査対象のローラーコースター200の車両210には、複数の利用者に対応して複数台の受話送信器26が設置されている。また、受話送信器26には、GPS25が取り付けられており、ローラーコースター200の各エリアの位置情報を同時に送信できるように構成されている。
まず、ワイヤレスマイクロフォン2Cに、ローラーコースター200に関する情報が情報入力装置22を使って入力される(ステップS1)。
次に、ワイヤレスマイクロフォン2Cに、音声が収録される(ステップS2)。ワイヤレスマイクロフォン2Cの受話送信器26の内部では、音声がマイクロフォンなどによって音声信号として取り込まれ、音声信号からコンピュータで読み取り可能な収録データに変換されてワイヤレスマイクロフォン2Cの受信機27の内部にセットされているメモリチップなどに記憶される。ここでは、所定期間の音声収録が終了したワイヤレスマイクロフォン2Cのメモリチップを、パーソナルコンピュータ100の読取装置102で読み取ることで、メモリシステム104に収録データ31aが読み込まれる。それにより、パーソナルコンピュータ100の中に構築されている記憶装置3に収録データ31aが記憶される。この実施形態では読取装置102も記憶装置3の一部になっている。
次に、パーソナルコンピュータ100のデータ入力装置103を使って場所属性情報34及びコーザル情報35などの属性情報が入力される(ステップS3)。ここでは、音声収録(ステップS2)の後に場所属性情報34及びコーザル情報35が入力される場合について説明しているが、音声の収録前に入力できるものは、音声の収録前(ステップS2よりも前)に入力されてもよい。
場所属性情報34は、例えば、ローラーコースター200を、それを構成する複数の場所に関する性質や特徴を示す情報であり、例えば、最初のブロックにはらくだの背のようなキャメルバックがあり、中間ブロックには宙返りをするような垂直ループがあり、最後のブロックには螺旋状に360度回転するコークスクリューがあるなどといった情報である。
コーザル情報35は、例えば、日曜日と祝日の正午頃にぬいぐるみのパレードがあるなど、という情報である。コーザル情報35は、収録日時を過ぎてからでないと入力できないものもあり、例えば天気や収録中に発生したアクシデントなどが収録日時を過ぎてからでないと入力できないコーザル情報である。
次に、収録されている収録データの音声認識が行なわれる(ステップS4)。ローラーコースター200では、男性客よりもむしろ女性客や子供の反応が重要であるので、音声認識の際に、男性か女性か子供かといった話者属性情報33もこのステップS4で認識される。この話者属性情報33は、メモリシステム104に蓄積される。換言すれば、音声認識装置4から記憶装置3に話者属性情報33が記憶されるということである。
次に、ステップS5からステップS8が利用対象を評価するステップである。これらのステップについては後ほど詳細に説明する。
最後に、ステップS5からステップS8で抽出される利用対象の評価結果を使ってデータ解析が行なわれる(ステップS9)。
(4−2)マーケティングテキストデータの抽出
マーケティングテキストデータの抽出を行なうために、まず、調査用辞書32の取得が行なわれる。調査用辞書32は、記憶装置3(メモリシステム104)に予め準備されている。
まず、音声収録装置2での収録に係るテキストデータ36からマーケティングテキストデータの抽出が行なわれる。そのために、辞書取得部51は、ワイヤレスマイクロフォン2Cでの収録に係る調査用辞書32を記憶装置3から取得する。テキストデータ取得部52がワイヤレスマイクロフォン2Cでの収録に係るテキストデータ36を取得し、マーケティングテキストデータ抽出部53で、調査用辞書32を用いてテキストデータ36の解釈が行なわれる。
ローラーコースター200の車両210が走っているときは、乗客Ug1,Ug2…は、「キャー」などという叫び声しかあげないので、テキストデータ36の意味の解釈の必要性は小さいが、遊園地内を移動する利用者の会話などを用いてマーケティングを行なう場合には、会話で語られている文や語句の内容を解釈して、マーケティングに用いるテキストデータを抽出するという作業が必要になる。例えば、遊園地の利用者にモニターになってもらい、入場から退場までの間、当該利用者の会話を全て録音するような場合などでは、マーケティング調査の時間を短縮するために、多くの不要なテキストデータを調査対象から外すことが行なわれる。
調査用辞書32には、「キャー」という感動詞を抽出してローラーコースター200のマーケティング調査に用いるという記述があるので、「キャー」というテキストデータがマーケティングテキストデータとして抽出される(ステップS5)。
(4−3)感情推定
次に、感情推定装置6によって、抽出されたマーケティングテキストデータから、その「キャー」という分析対象音声を発したときの乗客Ug1,Ug2…の利用者感情が推定される。
感情の推定は、例えば音声波形の差、ボリュームの差及びイントネーションの差を用いて行なわれる。商品を購入する顧客に対してアドバイスする友人の会話を例に採って、音声波形の差、ボリュームの差及びイントネーションの差について説明する。
図5に音声波形の一例が示されている。図5に示されているような生の音声波形を比較しても、音声波形の差を判別するのは難しい。しかし、音声波形の差は、例えば、高速フーリエ変換した後のパワースペクトラムの比較によって比較的容易に顕在化することができる。「今買うの?」という単なる疑問の場合と、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合とでは、後者の方が、音声波形のぶれる幅が大きくなる。そのため、ある特定の周波数に注目すると、そのパワーは、後者の方が大きくなる。FFTにより音声信号の中にどの周波数成分がどれだけ含まれるかが抽出されるので、パワーの大小の比較のために注目するのは、ある周波数ではなくて、ある周波数帯であってもよい。
次に、図6を用いてボリュームの比較について説明する。ボリュームの差は、例えば、会話の平均的な音量に対する分析対象音声の音量の比率を比較することによって容易に顕在化させることができる。「今買うの?」という単なる疑問の場合と、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合とでは、後者のボリュームが大きくなる傾向がある。図6(a)は、前者の単なる疑問を呈する音声を含む音声波形を表しており、図6(b)は、後者の止めた方がいいという気持ちで発せられた音声を含む音声波形を表している。図6(a)における区間IN1及び図6(b)における区間IN2で、分析対象音声が発せられている。例えば、「今買うの?」を含む前後の会話の平均的なボリュームに対するその大小の割合を比較すると、図6(a)における区間IN1ではその前後と同じような振幅(ボリューム)で話されているが、図6(b)における区間IN2ではその前後に比べて振幅(ボリューム)が大きくなっている。
次に、図7を用いてイントネーションについて説明する。イントネーションの差は、単純な比較でも、容易にその差が顕在化する。「今買うの?」という単なる疑問の場合と、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合とでは、後者のイントネーションがかなり大きく変化する。図7(a)には、前者の単なる疑問を呈する音声のイントネーションが階段状のグラフで模式的に示されており、図7(b)は、後者の止めた方がいいという気持ちで発せられた音声のイントネーションが階段状のグラフで模式的に示されている。「今買うの?」という単なる疑問の場合には、通常の疑問文と同様の通常のイントネーションであり、最後に少しピッチが高くなる。それに対して、止めた方がいいという気持ちで「今買うの?」という疑問を呈する場合には、イントネーションが強くなり、通常の疑問文よりもピッチの上がり方が大きくなる。
図8は、感情推定の方法を説明するためのグラフである。この図8は、説明のために示した仮想のグラフであり、必ずしも事実を正しく反映するものではない。図8には、5名の利用者UA,UB,UC,UD,UEが発音した分析対象音声が示されている。つまり、利用者UAが分析対象音声UA1,UA2,UA3を、利用者UBが分析対象音声UB1,UB2,UB3を、利用者UCが分析対象音声UC1,UC2,UC3を、利用者UDが分析対象音声UD1,UD2を、利用者UEが分析対象音声UE1,UE2を発音している。
同じような感情であっても、発声する語句や文が異なると、分析対象音声の音声波形やボリュームやイントネーションが当然に異なる。そのため、発声する語句や文が異なると、図8に示されているように音声波形やボリュームやイントネーションによりマッピングを行なっても、その分析対象音声を発したときの感情を推定することが難しくなる。
そのため、マーケティングの対象ごとに分析対象音声が特定される。上述のローラーコースター200の場合には、例えば、「キャー」、「キャッ」あるいは「ギャー」などの感動詞が第1分析対象音声として、マーケティングテキストデータ抽出のステップS5で抽出される。これらは、同じような感情で発音されると、類似した音声波形とボリュームとイントネーションとを示す。
例えば、ローラーコースター200を非常に喜んで利用している場合には、「キャー」、「キャッ」あるいは「ギャー」などの感動詞の分析対象音声は、図8の第1感情領域Ar1若しくはその周囲に分布する傾向があるなどのような分析ができる。例えば、友人との付き合いで乗車したが少し退屈しているときにはイントネーションのピッチが語尾に向かって下がり気味になり、当該感動詞の分析対象音声の分布が第2感情領域Ar2若しくはその周囲に集中するなどの分析ができる。例えば、ローラーコースター200で非常な恐怖を感じているときには、当該感動詞の分析対象音声の分布が第3感情領域Ar3若しくはその周囲に集中するなどの分析ができる。
図8に示されている音声波形の座標軸と、イントネーションの座標軸と、ボリュームの座標軸とは、利用者の個人差が出ないように例えば正規化されている。既に説明したボリュームの正規化であれば、例えば図6(a)の区間IN1のボリュームに対してその前後の所定区間の音声データ中の最大音量を特定し、特定した音量が目標の音量レベルに収まるように全体の音量を調整する。このような正規化や補正によって、地声の大きな利用者や普段から小声で話す利用者など、個人的な声の大きさの違い等により利用者感情の推定結果に生じる誤差が抑えられる。分析対象音声の音声波形やイントネーションなどについても、分析対象音声が発せられた前後の音声波形やイントネーションによって正規化したり、補正したりすることで、利用者感情の推定結果に生じる誤差が抑えられる。
(4−4)利用状況の分析
図8のようにマッピングされた第1分析対象音声の各感情領域には、利用状況のある側面(所定現象)と高い相関を示す場合がある。利用状況の所定現象についての具体的な例として、リピート率を考える。ここでは、リピート率として、ローラーコースター200の全体の利用者のうち、所定期間内に、ローラーコースター200を複数回利用する利用者の割合を考える。なお、所定期間は、1回の来園や1ヶ月や1年など、そのマーケティング調査の趣旨に沿って適当に設定されるが、以下では1回の来園を所定期間として説明する。
図9は、図8の5名の利用者UA,UB,UC,UD,UEのうち、1回の来園で2回以上ローラーコースター200に乗車した利用者UA,UBを残し、リピートしなかった他の3名の利用者のデータを図8のグラフから削除したものである。図9を見ると、第1感情領域Ar1に属するような第1感情を表意した利用者UA,UBがリピータとなっていることが分かる。このように、リピートする利用者がどのような感情領域に属するような感情を表意するのかを予め検討しておけば、その感情領域に属するような利用者感情を表意した利用者の分布に基づいて、ローラーコースター200という利用対象について、リピート率という利用状況の所定現象の分析が行なえる。
リピート率と第1感情領域に属する利用者感情の表意話者との関係について図10を用いて説明する。具体的には、分析対象音声を収録して感情を推定するとともにアンケート調査などでリピート率を調べれば、図10(a)に示されているような、リピート率と第1感情領域に属するような利用者感情を表意した利用者の数(以下第1感情表意話者数という)との関係を知ることができる。図10(a)から、リピート率と第1感情表意話者数とは、高い正の相関(例えば相関係数が0.8など)があることが分かる。なお、ここで相関係数の値は、原則として−1以上1以下の実数で与えられる。図10(a)のようなデータを予め得ておけば、リピートするような利用状況と相関係数の絶対値が第1所定値以上の第1感情表意話者である利用者UA,UBの分布に基づいて、例えばローラーコースター200のリピート率が40%程度であるという分析が行なえる。例えば、半年後に分析対象音声を収録して、図10(b)に示されているような感情領域の分布を調べれば、第1感情領域の表意話者の数が減っていれば、リピートしたか否かのアンケート調査を行なわなくても、リピート率が減っている、あるいは近い将来リピート率が減ることが予想できる。
上述のように、リピート率などの利用状況の所定現象に対して影響する感情領域を決定する際には、例えば、相関係数が0.7以上のように、相関係数が第1所定値以上になる感情領域を区分して用いる。上述の場合には、このようにして決定された感情領域が第1感情領域である。図10(a)には、第1感情表意話者数とリピート率との間に正の相関がある場合が示されているが、他の組合せで利用状況の所定現象に対して影響する感情領域を決定する場合、例えば負の相関係数が所定値以下(負の相関係数の絶対値が第1所定値以上)であってもよい。
利用状況の所定現象というのは、リピート率に限られるものではなく、適当に設定できるものである。それでは次に、利用状況の所定現象についての幾つかの例を紹介する。ローラーコースター200を利用して、非常に満足した利用者UA,UBは、自分がリピートするだけでなく、その友人や知人にこのローラーコースター200を紹介したり、一緒に来園したときに乗車を薦めたりすることが考えられる。このような他者への紹介や推薦なども利用状況の所定現象の一つと捉えることができる。
また、ローラーコースター200を満足しながら利用したとか、不満を抱きながら利用したというのも利用状況の所定現象の一つである。満足するとか、不満を抱くという利用者の評価の形成には、単に楽しかったとか、怖かったとかいう感情以外に、利用料が高かったとか、従業員の対応が悪かったとか等の他の要因も大きく影響する。しかし、楽しいと感じた利用者が満足しやすいとか、つまらないと感じた利用者が不満を抱きやすいといった傾向があることも事実である。従って、例えばJCSIなどに準拠したアンケート調査などで顧客満足度を数値化する一方、その指標と比較的相関の高い感情領域との関係を調べておけば、満足度や不満度といったものも利用状況の所定現象として各感情領域の表意話者の分布に基づいて分析することができる。このように満足度や不満度といった利用状況の所定現象を分析することによって、ローラーコースター200の顧客満足度などを評価することができる。
(4−5)利用対象の絶対的な評価
上述のように、一つの感情領域、例えば第1感情領域の分布だけを用いて利用対象を評価することができる。しかし、利用対象の評価をもう少し一般化して示すと、図11の概念図に示されているようになる。
図11において、左端の円CP1が分析対象音声を示しており、円CP1の右隣の四角CP2が各分析対象音声a1〜a9の属するキーワードを示しており、四角CP2の右隣の楕円CP3が感情領域に属する感情を示しており、楕円CP3の右隣にある円CP4が分析対象音声に与える外乱を示しており、右端の四角CP5が総合的な評価結果を示している。分析対象音声a1〜a9は、例えばローラーコースター200のような同一の利用対象について9名の異なる利用者がそれぞれ発声した分析対象音声であってもよい。また、分析対象音声a1〜a9は、例えばローラーコースター200及びそれ以外の異なる利用対象について同一の利用者がそれぞれ発声した分析対象音声であってもよい。さらに、分析対象音声a1〜a9は、異なる利用対象について異なる利用者がそれぞれ発声した分析対象音声であってもよい。音声収録装置2を使ってどのような分析対象音声を収録するかは、マーケティング調査に応じて適宜決められるものである。
四角CP2に記載されているキーワードkw1〜kw9は、同じものであってもよく、あるいは異なるものであってもよい。例えば、キーワードkw1〜kw9は、全てローラーコースター200において乗客が発声した「キャー」などの感動詞であってもよい。また、例えば、キーワードkw1が遊園地内で発声された「面白い」という語であり、キーワードkw9が遊園地内で発声された「休憩しようか」という語句であるなど、互いに異なるものであってもよい。
楕円CP3に記載されている「喜」、「怒」、「哀」、「楽」の利用者感情は、一つの例であり、それら以外に例えば驚きと喜びが交じり合ったような感情であってもよい。例えば、上述の第1感情領域Ar1に属する利用者感情が「喜」というように分類されてもよい。楕円CP3に記載されている利用者感情は、必ずしも従来から命名されている感情である必要はなく、例えば図8に示されている音声波形とイントネーションとボリュームの3つの座標軸を持つ感情マッピング空間の一部を占める所定領域に属するものであればよい。
円CP4は、評価に影響を与える任意の外乱を示している。図12を用いて外乱の一つの具体例を示す。図12には、遊園地のアトラクションの一つであるコーヒーカップ300に2名の子供の乗客Ug3,Ug4が乗っている状況が示されている。そして、子供の乗客Ug3,Ug4が保護者GUにより見守られている。ここでは、リピートするような喜び方を子供の乗客Ug3,Ug4がしているものとする。しかしこのとき、保護者GUは、コーヒーカップ300で子供が遊んでいる期間中待っているのに疲れて、乗客Ug3,Ug4がコーヒーカップ300に再度乗りたいと頼んでも、その頼みを聞き入れないことがある。この場合、保護者GUの行為が外乱b1に該当する。外乱は、このように明確に分かる場合だけでなく、例えば「雨が降った」というコーザル情報の対象になっている要因を含む場合もある。
図11のキーワードkw1,kw2が例えば異なるものであっても、同一の利用者感情を示すことはあり得ることである。例えば、キーワードkw1がローラーコースター200に乗車しているとき等に発声される「キャー」という感動詞で第1感情領域Ar1(図13参照)に属する歓喜の感情を示しており、キーワードkw2がローラーコースター200から降車したとき等に発声される「凄かった」という語句で第1感情領域Ar11(図13参照)に属する歓喜の感情を示しているなどである。この場合のキーワードkw1,kw2は、内容が異なるために、同じ第1感情領域に属する歓喜の感情を示しているものの、区分される範囲が異なる第1感情領域Ar1と第1感情領域Ar11とにそれぞれ属するものとなっている。このようにキーワードについての発声が異なる場合には、同じ第1感情を示す第1感情領域Ar1,Ar11であっても、上述のように感情領域の範囲を異ならせてもよい。
上述のように、「キャー」という感動詞と、「凄い」という形容詞では、その持つ意味が異なる。従って、似たような感情でこれらのキーワードが発せられたとしても、利用状況を評価する上でそれらの持つ重要性が異なる場合がある。例えば、楕円CP3の「喜」という感情表意話者数を使ってリピート率についての総合的な評価結果を出す場合、「キャー」というキーワードを「喜」の感情で発声した場合のリピート率との相関係数が0.7と仮定し、「凄い」というキーワードを「喜」の感情で発声した場合のリピート率との相関係数が0.8と仮定する。この場合、例えば「キャー」と言った「喜」の感情表意話者数に0.7を掛け、「凄い」と言った「喜」の感情表意話者数に0.8を掛けて、両方の積を平均してもよい。このような重み付けを行なうことで、より現実に近い評価を行なうことができる場合がある。
また、別の局面では、異なる感情領域の表意話者の分布に基づいて総合的な評価結果を出してもよい。例えば、図8の第1感情領域Ar1に「喜」の利用感情を示す分析対象音声が属し、第2感情領域Ar2に「怒」の利用者感情を示す分析対象音声が属するものと仮定する。また、第1感情領域Ar1に属する利用者感情を示す者の割合とリピート率との間に正の高い相関があり、第2感情領域Ar2に属する利用者感情を示す者の割合(第2分布の一例)とリピート率との間に負の高い相関(第2分布とリピート率との相関係数の絶対値が第2所定値以上になる相関)があると仮定する。
このような仮定をおいた場合、上述のように第1感情領域Ar1に属する利用者感情を示した第1感情表意話者数だけでリピート率を評価したのでは不十分であり、第1感情表意話者数で評価されるリピート率を、第2感情表意話者数で補正した方が良いことは容易に想像できる。上述の評価では、5名の利用者UA,UB,UC,UD,UEのうち2名の利用者UA,UBがリピートするので、図8のような分布が得られたときにはリピート率を例えば40%とした。しかし、第2感情表意話者である利用者UBがリピートしない可能性があるため、利用者UBのような状況でリピートしない確率が50%であるとすると、その分を差し引いて例えばリピート率を30%と評価する。
ここでは、「喜」と「怒」の感情表意話者を例に挙げて説明したが、「哀」や「楽」などの他の感情表意話者となっているか否かを考慮して総合的な評価結果を導くこともできる。それぞれの感情表意話者の影響を考慮する際に、共分散構造分析を行なうことによって因果関係を同定してもよい。上述の「喜」と「怒」のように直接リピート率に寄与するものではなく、間接的に寄与する場合であってもその寄与を考慮することができる。
例えば、同一の利用者が2回「喜」の感情を示したときに、その2回の「喜」の間に「楽」の感情を示すと、よりリピート率が高まるといった場合である。そのような場合には、「喜」「楽」「喜」の順に利用者感情を表意した者を区別して評価することもできる。
図14には、感情推定装置と分析装置でその推定や分析を異ならせる場合の例が4つ示されている。図14(a)には、話者属性情報33によって分類された「子供」、「10代女性」、「20代女性」、「シニア」及びそれら以外の「男性」の5つのグループが示されている。例えば、「10代女性」では感情を素直に声に出して表現するが、「男性」の場合には世間体を気にして素直に声に出して表現しないなどの感情表現の違いが考えられ、グループ毎に感情を推定するときの範囲を細かく変更することで、感情の推定精度を向上させることができる。また、「10代女性」と「20代女性」では、収入の有無によって来園時に消費する金額も異なることから、似たような感情を示しても、例えばリピート率が異なることがある。このような話者の環境の違いなどを考慮して評価の仕方をグループ毎に異ならせてもよい。
図14(b)には、場所属性情報34によって分類された「キャメルバックブロック」、「垂直ループブロック」及び「コークスクリューブロック」の3つのグループが示されている。どのブロックで分析対象音声が発声されたかによってこれらのうちのどのグループに属するかが分類される。受話送信器26にはGPS25が取り付けられているので、どのブロックで分析対象音声が発せられたかが関連付けて記憶できるようになっている。例えば、体の姿勢によって発音が異なったり、どのブロックで「喜」の感情を示すかによってリピート率などの利用状況の所定現象の評価に差が生じたりすることがあるので、そのような場合には適宜修正することができる。ここでは、乗車した状態での位置情報の違いを示しているが、例えば降車した後にローラーコースター200などの利用対象からの距離に応じて修正するようにしてもよい。ローラーコースター200で形成された感情も距離が遠くなるほど薄められることが予想されるが、遠く離れてもその感情が維持されるということを勘案して強い感情という判断を行なうこともできる。
図14(c)には、コーザル情報35によって分類された「うさぎのぬいぐるみ同乗」と「効果音の放送」の2つのグループが示されている。コーザル情報35としては、このようなイベントの違い以外にも気温や天候など種々のものがある。このようなコーザル情報35に合わせて感情推定や分析の仕方を修正することができる。
図14(d)には、収録時間によって分類された「日曜・祝日」、「ゴールデンウィーク」及び「平日」の3つのグループが示されている。これら以外にも、「朝」、「昼」及び「夕方」など収録時間の他の切り口で分類することもできる。そして、このように収録時間によって分類されるグループ間で感情推定や分析に違いを設けることもできる。
(4−6)利用対象の相対的な評価
上述の(4−5)で説明した評価は、利用対象の所定現象についてのアンケートとその利用対象に対する利用者感情との関連データの収集などとに基づいてその利用対象を直接的に評価するものである。このような利用対象の絶対的な評価だけでなく、遊園地内の異なるアトラクションや異なる遊園地間の同じアトラクションの評価など、任意のアトラクションを基準として他のアトラクションを評価することもできる。
図15に2つの異なる遊園地A,Bのローラーコースターの相対的な評価方法の簡単なフローが示されている。遊園地Aのローラーコースターの評価は、既に説明したように、例えば図3に示されているようなフローに沿って行なわれる。このとき、ローラーコースター200の評価において、ノルム値を決定する(ステップS11)。例えば、ローラーコースター200のリピート率であれば、リピート率と相関の高い第1感情表意話者の割合について、平均値、中央値あるいは最頻値等の統計量を用いてノルム値を決定する。
次に、遊園地Bのローラーコースターについて図3に示したと同様の方法で評価を行なう(ステップS12)。
最後に、遊園地Bのローラーコースターの評価結果とノルム値とを比較して、遊園地Aのローラーコースター200よりも、遊園地Bのローラーコースターのリピート率の方が高いか否かを比較して、その違いの有無を検討する(ステップS13)。このような相違の有無については、例えば統計における有意差の有無を用いて判定することができる。
(5)実施形態の作用効果
(5−1)
上述のように、評価システム1では、ローラーコースター200やコーヒーカップ300(サービスの利用対象の例)を乗客Ug1,Ug2,Ug3,Ug4(利用者の例)が利用するときに発声する「キャー」などの感動詞(第1分析対象音声の一例)を用いて、ローラーコースター200やコーヒーカップ300の利用状況のリピート率(所定現象の一例)が分析され、それにより、利用状況が評価される。その際に、感情推定装置6によって、「キャー」という利用者の肉声(第1分析対象音声の一例)が第1感情領域Ar1に入るか否かから、その利用者が第1感情表意話者か第1感情非表意話者かが推定される(ステップS6)。図10(a)に示されているように、第1感情表意話者数の割合(第1分布の一例)とリピート率(所定現象の発生)との相関係数の絶対値が第1所定値以上になるように第1感情領域Ar1が区分されている。そして、図10(b)に示されているように、推定された第1感情表意話者と第1感情非表意話者の分布に基づいて、分析装置7によって、ローラーコースター200やコーヒーカップ300の利用状況のリピート率が分析される(ステップS7)。上述のように、第1感情領域Ar1についての第1感情表意話者と第1感情非表意話者の分布の簡単な例が第1感情表意話者の全体に占める割合や第1感情非表意話者の全体に占める割合といったものになる。この場合、ローラーコースター200のリピート率を第1感情領域Ar1に属する利用者感情によって直接簡単に分析することができる。
以上説明したように、評価システム1は、乗客Ug1,Ug2,Ug3,Ug4の思惑による評価結果の歪みを抑えて利用状況を評価することができる。ここでいう思惑とは、例えば、交通渋滞などで遊園地に着くまでの負の顧客価値の形成など、本来利用対象によって与えられる顧客価値とは無関係であるものの利用対象の顧客価値に影響を及ぼす要因である。このようにローラーコースター200やコーヒーカップ300の利用状況を容易に評価することができる評価システム及び評価方法を提供することができる。
また、上述の実施形態では、利用対象として、ローラーコースター200やコーヒーカップ300などのアトラクションによるサービスを例に挙げて説明したが、利用対象は商品であってもよい。また、利用者には、商品やサービスを使用する使用者(ユーザー)だけでなく、商品やサービスなどを選択する購買者(バイヤー)、及び商品やサービスに対して対価を支払う支払者(ペイヤー)などが含まれる。
(5−2)
上記実施の形態では、感情推定装置6は、第1感情領域Ar1以外の第2感情領域Ar2や第3感情領域Ar3に当て嵌まるか否かを推定している。そして、分析装置7は、第1感情表意話者である利用者UA,UBと、そのうちの第2感情表意話者である利用者UBという分布に基づいてリピート率という利用状況の一所定現象について評価している。このように、第1感情表意話者と第1感情非表意話者と第2感情表意話者と第2感情非表意話者の分布を組み合わせることで、組み合わせによって生まれるバリエーションから評価内容に適するものを選べるようになる。
(5−3)
評価システム1において、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスが音声的に異なるものである場合、例えば上述のように第1キーワードがローラーコースター200に乗っているときの「キャー」という感動詞であり、第2キーワードがローラーコースター200から降りたときの「凄い」という形容詞であるような場合が考えられる。このような場合には第1キーワードと第2キーワードの音声波形が全く異なるが、感情領域の範囲を異ならせることで、類似の感情を持って発声されたときには類似の感情領域に分類しやすくなる。
(5−4)
例えば、図8や図9を用いて説明したように、感情推定装置6は、感情マッピング空間を形成するための複数のパラメータとして、イントネーション、音声波形及びボリュームを用いている。このように構成されることにより、利用状況のリピート率の分析に大きな影響を与える第1感情表意話者と第1感情非表意話者の推定が簡単に実現できる。なお、上記実施形態では、イントネーション、音声波形及びボリュームの3つの次元を持つ感情マッピング空間を用いているが、分析する利用状況の所定現象によっては、イントネーション、音声波形及びボリュームのうちのいずれか2つを座標軸とする2次元の感情マッピング空間を用いてもよい。また、イントネーション、音声波形及びボリュームに、「語・句・文の間(間隔)」や「同一の語・句・文の繰返し回数」など他のパラメータを加えた、4次元以上の感情マッピング空間を感情推定装置6が用いるように構成することもできる。また、感情マッピング空間の座標軸となる複数のパラメータには、イントネーション、音声波形及びボリュームに代えて、アクセントやテンポなどといった音声を特徴づける他のパラメータを用いることもできる。
(5−5)
評価システム1において、第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスが音声的に異なるものである場合、例えば上述のように第1キーワードがローラーコースター200に乗っているときの「キャー」という感動詞であり、第2キーワードがローラーコースター200から降りたときの「凄い」という形容詞であるような場合が考えられる。このように非常に満足して興奮して、似通った利用者感情で第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとが発声されても、例えば「キャー」という第1キーワードと「凄い」という第2キーワードとではそのキーワード自身が持っている意味があるために利用状況の評価における重みが異なることがある。このようなキーワードやフレーズやセンテンスの意味内容の違いを重み付けによって分析に反映させることで、利用状況の分析の内容や精度を向上させ易くなる。
(5−6)
感情推定装置6は、例えば図14に示されているように、分析対象音声の集合体全体を、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34などでグルーピングして感情を推定することができる。なお、図14(a)に示されている話者属性情報33でのグルーピングは、コーザル情報でのグルーピングの一種と考えることができる。このように、記憶装置3に記憶されたコーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つに応じて、図13に示されている第1感情領域Ar1,Ar11のように、範囲を異ならせることができる。それにより、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つが利用者感情に与える影響を反映した分析を感情推定装置6が行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
(5−7)
分析装置7は、例えば図14に示されているように、分析対象音声の集合体全体を、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34などでグルーピングして利用状況を分析することができる。分析装置7は、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つが利用状況に与える影響を反映した分析を行なうことができる。
また、分析装置7は、第1感情表意話者の分布に異なる重みを付けることで、コーザル情報35、収録時間に関する情報及び収録場所に関する場所属性情報34のうちの少なくとも一つが利用状況に与える影響の大小を反映した分析を行なうことができる。同様に、第2感情表意話者の分布や第3感情表意話者の分布に重み付けを行なってもよい。
また、分析装置7は、コーザル情報、収録時間及び収録場所のうちの少なくとも一つが第1感情表意話者と第1感情非表意話者の分布変化に与える影響から利用状況の分析を行なうことができる。同様に、第2感情表意話者の分布変化や第3感情表意話者の分布変化に与える影響から利用状況の分析を行なってもよい。
これらのような分析を行なえば、現実の利用状況の分析の内容や精度を向上させ易くなる。
(5−8)
図12を用いて説明したように、感情推定装置6は、コーヒーカップ300(利用対象の一例)を利用する乗客Ug3,Ug4(不特定複数の利用者の一例)の保護者GU(関係者の一例)が発生する「もう終わりにしましょう。」などの音声(分析対象補助音声の一例)から感情を推定することができる。感情推定装置6は、保護者GUが発生する分析対象補助音声について、イントネーション、音声波形及びボリュームを用いて分析対象補助音声を発したときの保護者GUが補助感情領域に属する感情を示したか否かを推定する。このときに用いる補助感情領域は、上述の第1感情領域Ar1のように感情マッピング空間に割り付けられた領域とすることができる。そして、分析装置7は、補助感情領域に属する感情を示した関係者に関係する利用者の分布を補正する。例えば、保護者GUが退屈して「もう終わりにしましょう。」と言った場合には、その子供たちである乗客Ug3,Ug4がリピートするような感情を示している場合でも、リピート率の評価を下げるような分析に補正する。このように、保護者GUが子供の乗客Ug3,Ug4に与える影響を反映させて利用状況の分析を行なうことができ、現実の利用状況の分析の内容や精度を向上させ易くなる。
このような保護者GUに係わる補正は、一般化すると、図11に示す外乱b1、b2に係わる補正とみなすことができる。従って、関係者による補正と同様の補正を、外乱による補正にも適用することができる。
(6)変形例
(6−1)変形例1A
上記実施形態では、音声収録装置2がパーソナルコンピュータ100に収録データを与える構成としてメモリチップに記憶させて読取装置102で収録データを読み取る構成を説明した。しかし、音声収録装置2が記憶装置3に収録データを与える構成は、このような構成に限られるものではなく、例えば、音声収録装置2とパーソナルコンピュータ100を公衆回線で繋いで、公衆回線を経由して収録データの送受信を行なってもよい。
(6−2)変形例1B
上記実施形態では、音声収録装置2によって生成される収録データが記憶装置3に記憶される場合について説明したが、収録データが記憶されるのは記憶装置3に限られるものではない。例えば、音声収録装置2自身のメモリに記憶されて、音声収録装置2のメモリから音声認識装置4が直接収録データを読み出すように構成することもできる。また、収録データが記憶されているメモリチップから音声認識装置4が直接収録データを読み出すように構成することもできる。
(6−3)変形例1C
上記実施形態では、例えば図10(a)に示した第1感情表意話者の割合でリピート率を評価することを説明したが、このような評価システムや評価方法は、従来の評価システムや評価方法と組み合わせることもできる。例えば、特許文献1に記載されている満足度算出方法によって算出された満足度と第1感情表意話者の割合とを組み合わせてローラーコースター200のリピート率を評価してもよい。
(6−4)変形例1D
上記実施形態では、感情領域が第1感情領域Ar1や第2感情領域Ar2や第3感情領域Ar3のように一つの閉じた領域である場合を説明したが、図16に示されているような玉ねぎの皮のように、例えば第1感情領域Ar1を例えば利用状況に与える影響の違いから複数の領域Ar1−1、Ar1−2,Ar1−3,Ar1−4,Ar1−5のように分割してもよい。例えば、中心部分の領域Ar1−1に属する感情を示した利用者は、ローラーコースター200で非常に喜んで高揚した状態で非常に高い確率でリピートするが、外郭部分の領域Ar1−5に属する感情を示した利用者は、ローラーコースター200で喜んではいるもののリピート率があまり高くないなどである。
(6−5)変形例1E
上記実施形態では、第1感情空間Ar1,Ar11が、イントネーション、音声波形及びボリュームのそれぞれについて上限の境界と下限の境界とを持つ閉じた領域である場合について説明しているが、感情空間は必ずしも閉じた空間である必要はない。例えば、イントネーションが上がっているか下がっているかのみを感情領域の境界とすることもでき、その場合には、図8に示されている感情マッピング空間の上に開いた感情領域と下に開いた感情領域が形成される。
また、上記実施形態では、感情マッピング空間の座標軸を形成するパラメータが連続的なものとして表現されているが、これらは離散的なものであってもよい。例えば、イントネーションについて、平坦、最後のみ下降調、全体的に下降調、最後のみ上昇調、全体的に上昇調の5段階に離散的に分類して、そのどれに属するかで感情領域を分けるようにすることもできる。
(6−6)変形例1F
また、上記実施形態では、マーケティング調査データ抽出装置5や感情推定装置6や分析装置7などの各機能ブロックが、メモリシステム104(ROM、RAM、ハードディスク等)に格納され、上述した処理手順を実行可能なプログラムデータがCPU101によって解釈実行されることで実現される場合について説明した。このプログラムデータは、記録媒体を介してメモリシステム104内に導入されてもよいし、記録媒体上から直接実行されてもよい。なお、記録媒体は、ROMやRAMやフラッシュメモリ等の半導体メモリ、フレキシブルディスクやハードディスク等の磁気ディスクメモリ、CD−ROMやDVDやBD等の光ディスクメモリ、及びメモリカード等をいう。また、記録媒体は、電話回線や搬送路等の通信媒体も含む概念である。
また、上記実施形態のマーケティング調査データ抽出装置5や感情推定装置6や分析装置7などは、集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。また、集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)などを利用してもよい。
1 評価システム
2,2A,2B 音声収録装置
3 記憶装置
4 音声認識装置
5 マーケティング調査データ抽出装置
6 感情推定装置
7 分析装置
8 マーケティングデータ解析装置
25 GPS
31 ビッグデータ
33 話者属性情報
34 場所属性情報
35 コーザル情報

Claims (10)

  1. 音声の特徴を分析するための複数のパラメータを座標軸にとった2次元以上の感情マッピング空間に割り付けられた複数の感情領域のうちの第1感情領域に、利用対象を利用する不特定複数の利用者の第1分析対象音声がマッピングされるか否かによって、第1感情を表意した第1感情表意話者と表意しなかった第1感情非表意話者との推定を行なう感情推定装置と、
    前記感情推定装置の推定結果に基づく前記第1感情表意話者及び前記第1感情非表意話者の第1分布から、前記利用対象の利用状況についての所定現象を分析する分析装置と、
    を備え、
    前記感情推定装置は、前記第1分布と前記所定現象の発生との相関係数の絶対値が第1所定値以上になるように前記第1感情領域が区分されている、評価システム。
  2. 前記感情推定装置は、複数の前記感情領域のうちの第2感情領域に第2分析対象音声がマッピングされるか否かによって、第2感情を表意した第2感情表意話者と表意しなかった第2感情非表意話者との推定を行ない、
    前記分析装置は、前記感情推定装置の推定結果に基づく前記第1分布に、前記感情推定装置の推定結果に基づく前記第2感情表意話者及び前記第2感情非表意話者の第2分布を加味して前記所定現象を分析し、
    前記感情推定装置は、前記第2分布と前記所定現象の発生との相関係数の絶対値が第2所定値以上になるように前記第2感情領域が区分されている、
    請求項1に記載の評価システム。
  3. 前記感情推定装置は、前記第1分析対象音声として前記利用対象に関連する第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとを用い、前記第1キーワード、前記第1キーフレーズ又は前記第1キーセンテンスと前記第2キーワード、前記第2キーフレーズ又は前記第2キーセンテンスとで前記第1感情領域の範囲を異ならせる、
    請求項1又は請求項2に記載の評価システム。
  4. 前記感情推定装置は、複数の前記パラメータとして、イントネーション、音声波形及びボリュームを用いる、
    請求項1から3のいずれか一項に記載の評価システム。
  5. 前記分析装置は、前記所定現象を、前記第1感情表意話者の割合に基づいて分析する、
    請求項1から4のいずれか一項に記載の評価システム。
  6. 前記感情推定装置は、前記第1分析対象音声として前記利用対象に関連する第1キーワード、第1キーフレーズ又は第1キーセンテンスと第2キーワード、第2キーフレーズ又は第2キーセンテンスとを用い、
    前記分析装置は、前記第1キーワード、前記第1キーフレーズ又は前記第1キーセンテンスと前記第2キーワード、前記第2キーフレーズ又は前記第2キーセンテンスとで異なる重みを付けて前記利用対象の利用状況を分析する、
    請求項1から5のいずれか一項に記載の評価システム。
  7. 不特定複数の前記利用者の前記分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、
    前記感情推定装置は、記憶された前記コーザル情報、前記収録時間及び前記収録場所のうちの少なくとも一つに応じて前記第1感情領域の区分を異ならせる、
    請求項1から6のいずれか一項に記載の評価システム。
  8. 不特定複数の前記利用者の前記分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、
    前記分析装置は、記憶された前記コーザル情報、前記収録時間及び前記収録場所のうちの少なくとも一つに応じて前記第1分布に異なる重みを付けて前記利用対象の利用状況を分析する、
    請求項1から7のいずれか一項に記載の評価システム。
  9. 不特定複数の前記利用者の前記分析対象音声をコーザル情報、収録時間及び収録場所のうちの少なくとも一つと関連付けて記憶する記憶装置をさらに備え、
    前記分析装置は、記憶された前記コーザル情報、前記収録時間及び前記収録場所のうちの少なくとも一つに応じて変化する、前記第1感情表意話者と前記第1感情非表意話者の分布変化に基づいて前記利用対象の利用状況を分析する、
    請求項1から8のいずれか一項に記載の評価システム。
  10. 前記感情推定装置は、前記利用対象を利用する不特定複数の前記利用者の関係者の分析対象補助音声について前記感情マッピング空間に割り付けられた補助感情領域に、前記関係者の前記分析対象補助音声がマッピングされるか否かによって、補助感情を表意した補助感情表意話者と表意しなかった補助感情非表意話者との推定を行ない、
    前記分析装置は、前記補助感情表意話者に関係する前記第1分布を補正する、
    請求項1から9のいずれか一項に記載の評価システム。



JP2013051843A 2013-03-14 2013-03-14 評価システム及び評価方法 Expired - Fee Related JP6105337B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013051843A JP6105337B2 (ja) 2013-03-14 2013-03-14 評価システム及び評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013051843A JP6105337B2 (ja) 2013-03-14 2013-03-14 評価システム及び評価方法

Publications (2)

Publication Number Publication Date
JP2014178835A JP2014178835A (ja) 2014-09-25
JP6105337B2 true JP6105337B2 (ja) 2017-03-29

Family

ID=51698735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013051843A Expired - Fee Related JP6105337B2 (ja) 2013-03-14 2013-03-14 評価システム及び評価方法

Country Status (1)

Country Link
JP (1) JP6105337B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11455985B2 (en) 2016-04-26 2022-09-27 Sony Interactive Entertainment Inc. Information processing apparatus
JP6382273B2 (ja) * 2016-09-30 2018-08-29 本田技研工業株式会社 施設満足度算出装置
CN109766770A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 服务质量评价方法、装置、计算机设备和存储介质
CN109961801A (zh) * 2019-01-16 2019-07-02 深圳壹账通智能科技有限公司 智能服务评价方法、计算机可读存储介质和终端设备
CN112309431B (zh) * 2020-09-21 2024-02-23 厦门快商通科技股份有限公司 一种客服人员声音感染力的评测方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3676969B2 (ja) * 2000-09-13 2005-07-27 株式会社エイ・ジー・アイ 感情検出方法及び感情検出装置ならびに記録媒体
WO2008032787A1 (fr) * 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme
JP2011210133A (ja) * 2010-03-30 2011-10-20 Seiko Epson Corp 満足度算出方法、満足度算出装置およびプログラム

Also Published As

Publication number Publication date
JP2014178835A (ja) 2014-09-25

Similar Documents

Publication Publication Date Title
US11030993B2 (en) Advertisement selection by linguistic classification
CN101261832B (zh) 汉语语音情感信息的提取及建模方法
Wu et al. Emotion recognition of affective speech based on multiple classifiers using acoustic-prosodic information and semantic labels
Rozgic et al. Emotion Recognition using Acoustic and Lexical Features.
CN105895087A (zh) 一种语音识别方法及装置
JP6105337B2 (ja) 評価システム及び評価方法
CN112069484A (zh) 基于多模态交互式的信息采集方法及系统
CN103377651B (zh) 语音自动合成装置及方法
CN109119069B (zh) 特定人群识别方法、电子装置及计算机可读存储介质
López-Cózar et al. Enhancement of emotion detection in spoken dialogue systems by combining several information sources
Hansen et al. Speaker height estimation from speech: Fusing spectral regression and statistical acoustic models
Alías et al. Efficient and reliable perceptual weight tuning for unit-selection text-to-speech synthesis based on active interactive genetic algorithms: A proof-of-concept
Qadri et al. A critical insight into multi-languages speech emotion databases
McGraw Crowd-supervised training of spoken language systems
US20230069908A1 (en) Recognition apparatus, learning apparatus, methods and programs for the same
Morrison et al. Voting ensembles for spoken affect classification
CN114141271B (zh) 心理状态检测方法及系统
Schuller et al. Incremental acoustic valence recognition: an inter-corpus perspective on features, matching, and performance in a gating paradigm
Bhangale et al. Speech emotion recognition using the novel PEmoNet (Parallel Emotion Network)
Qasim et al. DESCU: Dyadic emotional speech corpus and recognition system for Urdu language
Xue et al. Measuring the intelligibility of dysarthric speech through automatic speech recognition in a pluricentric language
CN112687291A (zh) 一种发音缺陷识别模型训练方法以及发音缺陷识别方法
Singh Designing an efficient algorithm for recognition of human emotions through speech
JPWO2019044534A1 (ja) 情報処理装置、及び情報処理方法
Karadayi et al. Diarization in Maximally Ecological Recordings: Data from Tsimane Children.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170302

R150 Certificate of patent or registration of utility model

Ref document number: 6105337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees