JP2004258108A - パーソナリティ特性評価システム、およびこれを利用するコミュニケーションサービスシステム - Google Patents
パーソナリティ特性評価システム、およびこれを利用するコミュニケーションサービスシステム Download PDFInfo
- Publication number
- JP2004258108A JP2004258108A JP2003045989A JP2003045989A JP2004258108A JP 2004258108 A JP2004258108 A JP 2004258108A JP 2003045989 A JP2003045989 A JP 2003045989A JP 2003045989 A JP2003045989 A JP 2003045989A JP 2004258108 A JP2004258108 A JP 2004258108A
- Authority
- JP
- Japan
- Prior art keywords
- personality
- evaluation
- degree
- data
- personality characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】このパーソナリティ特性評価システムは、発話者11の発話印象に係る評価指標が基礎得点の形式で記された入力手段17と、この入力手段による基礎得点に基づき発話者の印象度合いについて好ましくは「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点を算出する評価得点算出部(ステップS12)と、上記の「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る上記評価得点の均衡性に基づき発話者のパーソナリティ特性を決定する決定部(ステップS12)とから構成される。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、人間とコンピュータシステムとの間での音声を介したインターフェースにおいて人間との整合性を良好にするのに有用なパーソナリティ特性評価システム、およびこのパーソナリティ特性評価システムを利用することにより人間とコンピュータシステムとの間のコミュニケーションを良好する各種のサービスシステムに関する。
【0002】
【従来の技術】
人間の間の意思疎通に関するコミュニケーション手段で代表的な一つは会話である。人間の間の会話は発話音声に基づいて行われる。この発話音声について、人間に関しては個々にパーソナリティ特性を含んでいると感覚的に認識されていた。つまり、人間の間のコミュニケーションでは、発話音声は人毎にその人のパーソナリティ(個人の長い期間で作られた人格、個性、性質等)に応じた音声特徴を有し、また反対に発話音声を聞くと、発話した人物のパーソナリティ特性を感覚的に予測することができるということが現実的に知られている。
【0003】
他方、近年、人間の社会生活等の環境の中でコンピュータシステムの役割比重は非常に高くなり、人間の能力を補助し、あるいは人間の代わりに、人間に対して種々のサービスを提供するようになっている。このような場合にコンピュータシステムから人間に対して必要な情報を与えるとき、そのインターフェースとしてまたはコミュニケーション手段として音声が使われることも多い。音声が使われる場合、コンピュータシステムから発っせられる音声は人工的に合成されたものである。このような人工的な音声は、人間味のない、いかにも機械音というものになっている。
【0004】
【発明が解決しようとする課題】
コンピュータシステムで合成して作られる人工的に音声は、現在のところ、人間に類似した自然なパーソナリティを表現することが技術的にできない水準にある。つまり、コンピュータシステムにおける人工的音声合成では、利用者である人間に対して、好ましいと感じられる、あるいは相性が良いと感じられるパーソナリティを表現する発話音声を設計することができない。
【0005】
また他面、人間は日常の対話の中で相手のパーソナリティを評価しているが、それは個々の人間の主観的なものであり、評価を標準化するための仕組みがなく、客観性を有した評価結果を得ることができない状態にある。パーソナリティに適したコミュニケーションを行えるようにするためには、客観性を有した評価手法に基づくことが要請される。
【0006】
本発明の目的は、上記の問題に鑑み、コンピュータにより人工的に合成される音声でパーソナリティを表現させることができ、自動対話システムやロボット等のコンピュータシステムで個性を持たせることを可能にするパーソナリティ特性評価システム、およびこれを利用するコミュニケーションサービスシステムを提供することにある。
【0007】
【課題を解決するための手段および作用】
本発明に係るパーソナリティ特性評価システム、およびこれを利用するコミュニケーションサービスシステムは、上記目的を達成するために、次のように構成される。
【0008】
第1の本発明に係るパーソナリティ特性評価システム(請求項1に対応)は、発話者の発話印象に係る評価指標が基礎得点の形式で記された入力手段と、この入力手段による基礎得点に基づき発話者の印象度合いについて好ましくは「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点を算出する評価得点算出部と、上記の「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る上記評価得点の均衡性に基づき発話者のパーソナリティ特性を決定する決定部とから構成される。
【0009】
上記の構成では、入力手段は、発話者の印象の度合いを例えば5段階の得点を付与するための手段であって、例えば、印象度合いに関する評価チェック項目が指標として記載された評価シートであり、この評価シートに記載されたチェック項目について得点を付与することで入力操作を行うことができる。評価シートに記載されたチェック項目に係る得点が上記の基礎得点になる。入力手段によって与えられる基礎得点に基づき、評価得点算出部は、発話者の印象度合いについて、「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点を算出する。発話者のパーソナリティ特性として、「交わり好き度」と「やり取り好き度」と「気ままファミリー度」の3つの評価尺度が用いられる。これらの3つの評価尺度の得点パターンを分類することにより類型化を行うことができ、当該類型化によって発話者のパーソナリティ特性を評価できる。また類型化に基づいてパーソナリティ特性に関する情報と、各パーソナリティ特性を表現するための音声特性情報を蓄積することができる。
【0010】
第2のパーソナリティ特性評価システム(請求項2に対応)は、上記の構成において、好ましくは、入力手段に記された評価指標は「明朗快活性」と「利発沈着性」と「柔和協調性」と「情緒安定性」と「イマジネーション性」の5つであり、上記の基礎得点は5段階で記されることで特徴づけられる。
【0011】
第3のパーソナリティ特性評価システム(請求項3に対応)は、上記の構成において、好ましくは、発話印象に係る情報は、発話者との電話での対話を介して得られることで特徴づけられる。電話を通した対話によってオペレータは例えば予め用意された評価シートあるいはコンピュータのディスプレイに表示された評価画面に所要のデータを入力し、基礎得点になるデータを作成する。
【0012】
【発明の実施の形態】
以下に、本発明の好適な実施形態を添付図面に基づいて説明する。
【0013】
実施形態で説明される構成については、本発明が理解・実施できる程度に例示的に示したものにすぎない。従って本発明は、以下に説明される実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸脱しない限り様々な形態に変更することができる。
【0014】
図1は、本発明の基本的な構成部分であるパーソナリティ特性評価システムを含むシステム構成を示す。パーソナリティ特性評価システム10では、パーソナリティ特性を評価するためのモデルを構築するため、複数の発話者11に基づいて、パーソナリティ特性の評価に使用される基礎データを取得する。サンプルとしての発話者11の数は多いほど望ましい。発話者11からのパーソナリティ特性評価のための基礎データの取得は入力部12で行われる。入力部12の構成として、好ましい仕組みは、電話13,14および電話回線15を経由した対話である。この電話を経由した対話は、発話者11と、入力部12内に位置する応対オペレータ16との間で行われる。応対オペレータ16は、予め設定された通話関係に基づいて、電話システム(13,14,15)を利用して発話者11と対話を行う。対話の内容は、予め用意された評価シート17に記録される。また対話の内容は録音機18で録音される。
【0015】
評価シート17には、図2に示されるように、発話者11の個人の各種属性を特定するためのデータ記載欄21と、好ましくは5つの評価項目22が評価指標として箇条書きで記載されている。評価項目22の各々については、好ましくは5段階の得点記入部23が記載されている。図示された評価シート17は一枚で示されているが、枚数は任意であり、これに限定されるものではない。
【0016】
評価シート17における5つの評価項目22は、具体的な例として、(1)「外交的な人」〜「内向的な人」、(2)「優しい人」〜「恐い人」、(3)「整理して話す人」〜「思いつきで話す人」、(4)「心配性な人」〜「楽天的な人」、(5)「想像力に富んだ人」〜「想像力に乏しい人」である。図2中、5段階評価で得点が与えられ、真中が0で中立位置であり、それぞれ左右に向かってレベル(+2,+1,0,−1,−2)が高くなる。なお上記の評価項目は一例であって、これに限定されるものではなく、状況に応じて任意に変えることができる。
【0017】
上記の評価シート17に記された(1)〜(5)の5つの評価項目は、それぞれ、「明朗快活性」、「利発沈着性」、「柔和協調性」、「情緒安定性」、「イマジネーション性」の5つの指標に対応している。これらの5つの指標は、発話者11のパーソナリティ印象評価情報となる。
【0018】
なお、上記の評価シート17によれば、一指標につき一評価項目としているが、これに限定されない。実際の運用では、一指標につき二つの項目で評価することも可能である。
【0019】
図1に示された構成において、応対オペレータ16は、発話者11と電話13,14等を介して対話を行い、情報を取得して発話者個人の属性データを評価シート17のデータ記載欄21に記載し、かつ評価シート17の各評価項目(1)〜(5)を考慮しながら対話を行い各評価項目についてチェックして5段階のレベルのうちのいずれか1つを選択し、これにより発話者11の印象の度合いを5段階の得点で評価する。
【0020】
個人の属性データとしては、氏名、性別、年齢、住所、職業、収入、各種の購買履歴、趣味等の入手可能および活用可能な個人情報である。属性データについては、上記評価シート17を介して評価項目と共に入手することも可能であるが、別途に、他の手段で個人データのみを入手するようにすることもできる。
【0021】
上記の手続きを通して、得点が与えられた評価シート17によって、発話者11に関する個人各種属性に関するデータと、印象度合いについての基礎得点に関するデータとが取得される。上記の評価手シート17は、複数の発話者11の各々について作成される。
【0022】
各発話者11について取得された評価シート17は、パーソナリティ特性評価システムのデータ入出力部(PCまたはその入出力部)31を介して入力され、演算処理部32に与えられる。演算処理部32において、データ入出力部31を通して与えられる評価シート17に記載された基礎得点に関するデータは「パーソナリティ印象評価データ」として扱われる。
【0023】
演算処理部32は、評価シート17に記載された個人各種属性データおよびパーソナリティ印象評価データを入力し、発話者11を特定するデータすなわち個人各種属性データとパーソナリティ印象評価データをそれぞれ個人各種属性データベース33とパーソナリティ印象評価データベース34に格納する。このとき、個人各種属性データとパーソナリティ印象評価データは発話者11ごとに関係づけられている。上記のごとくして、複数(相対的に大量の数)の発話者11についての個人各種属性データとパーソナリティ印象評価データが各データベース33,34に保存される。
【0024】
また録音機18で録音された対話の内容も、図示しないA/D変換器および演算処理部32を経由してディジタルデータに変換され、以下に説明するメモリ35内のデータベースに発話音声データとして保存される。
【0025】
本実施形態に係るパーソナリティ特性評価システム10はメモリ35を備えている。このメモリ35には、パーソナリティ特性算出プログラム41およびパーソナリティ特性類型算出プログラム42が格納されている。パーソナリティ特性算出プログラム41は、後述するように、上記のパーソナリティ印象評価データを利用してパーソナリティ特性データを作成する機能を有する。パーソナリティ特性類型算出プログラム42は、得られたパーソナリティ特性データを用いてパーソナリティ特性の類型を作成する機能を有する。作成されたパーソナリティ特性データおよびパーソナリティ特性の類型データは、メモリ35のデータ部43に格納される。
【0026】
メモリ35には、その他に、本発明の応用システムに関連するプログラムとして、パーソナリティ特性類型別音声データ整理プログラム44、パーソナリティ特性類型別音声特性算出プログラム45、パーソナリティ条件別音声特性情報抽出プログラム46、コミュニケーション支援情報提供プログラム47が格納されている。
【0027】
上記の各プログラム41,42,44,45,46,47は、演算処理部32で実行されることにより、後述される所定の機能を実現する。
【0028】
データ部43には、各プログラムの実行によって作成されるデータまたは実行に利用される予め準備されたデータに関し、図3に示すごとく、発話者個人のパーソナリティ特性データに係るデータベース43A、パーソナリティ特性類型データに係るデータベース43B、コミュニケーション履歴データに係るデータべース43C、コミュニケーション支援情報に係るデータベース43D、発話音声データに係るデータベース43E、パーソナリティ特性類型別音声特性情報に係るデータベース43Fが形成される。
【0029】
図4は、パーソナリティ特性算出プログラム41およびパーソナリティ特性類型算出プログラム42によって実施される処理のフローチャートを示す。これらのプログラム41,42はメモリ35から演算処理部(CPU等)に呼び出され、実行される。パーソナリティ特性算出プログラム41は、パーソナリティ印象評価データを用いてパーソナリティ特性データを作成するパーソナリティ特性算出処理を行う。パーソナリティ特性類型算出プログラム42は、作成されたパーソナリティ特性データを用いてパーソナリティ特性類型データを作成するパーソナリティ特性類型算出処理を行う。
【0030】
図4に示されたフローチャートによれば、最初に、パーソナリティ印象評価データベース34から特定の発話者(以下「発話者A」という)についての前述したパーソナリティ印象評価データが入力される(ステップS11)。次のステップS12では、パーソナリティ特性算出プログラム41によるパーソナリティ特性算出処理に基づいて発話者Aについてのパーソナリティ特性データが算出される。このパーソナリティ特性データは、発話者Aの印象度合いについて、好ましくは「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点に関するデータである。上記のパーソナリティ特性算出処理を行うステップS12は評価得点算出部として機能する。
【0031】
得られたパーソナリティ特性データは、データ部43のパーソナリティ特性データに係るデータベース43Aに格納される(ステップS13)。
【0032】
次のステップS14では、算出されたパーソナリティ特性データ、すなわち、「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点を用いて、パーソナリティ特性類型算出プログラム42によるパーソナリティ特性類型算出処理が行われ、評価得点の均衡性に基づき、発話者Aのパーソナリティ特性類型を予測・決定する。パーソナリティ特性類型算出処理では、予め用意されているパーソナリティ特性類型のいずれかに属するかを判定することにより類型を算出する。ステップS14で得られたパーソナリティ特性類型データは、データ部43のパーソナリティ特性類型データに係るデータベース43Bに格納される(ステップS15)。
【0033】
上記のごとくして得られたパーソナリティ特性類型データは、表示処理が施されて表示部に表示される(ステップS16)。当該表示によって発話者Aのパーソナリティ特性類型に係る情報を知ることができる。
【0034】
図5に、一例として、発話者Aに関するパーソナリティ印象評価とパーソナリティ特性の表現例を示す。図5中の51がパーソナリティ印象評価の表示例であり、52がパーソナリティ特性の表示例である。パーソナリティ印象評価表示例51によれば、前述の通り、「明朗快活性」、「利発沈着性」、「柔和協調性」、「情緒安定性」、「イマジネーション性」の5つの指標が5角形の形状で示されている。このパーソナリティ印象評価データに対して前述した演算処理53を適用すると、最終的にパーソナリティ特性表示例52が得られる。このパーソナリティ特性表示例52によれば、前述した「交わり好き度」、「やり取り好き度」、「気ままファミリー度」のそれぞれに係る評価得点が示され、かつ三角形の形状で視認しやすいように示されている。表示例52に示された評価得点に基づく表示パターンによれば、パーソナリティ特性類型としては「円満志向タイプ」54と判定されている。
【0035】
上記の説明において、各種の指標に内容、指標の数、指標の名称等は上記記載のものに限定されず、任意に変更することができる。
【0036】
次に、図6を参照して、本発明の応用例としてのコミュニケーション支援情報提供システムを構築する処理方法を説明する。この処理方法は、前述したコミュニケーション支援情報提供プログラム47によって実行される。この処理方法では、前述のパーソナリティ特性データが用いられる。
【0037】
図6に示されるごとく、個人のパーソナリティ特性データS21が用いられる。このパーソナリティ特性データS21はパーソナリティ特性データに係るデータベース43Aから取り出される。パーソナリティ特性データはコミュニケーション対象者抽出処理が実行される(ステップS22)。コミュニケーション対象者抽出処理では、他の情報としては、データベース33からの個人各種属性データS23と、データベース43Cからのコミュニケーション履歴データS24とが用いられる。さらに加えて、コミュニケーション対象者抽出処理S22に対して操作入力に基づきコミュニケーション対象条件入力(ステップS25)が行われる。
【0038】
ここで、「コミュニケーション履歴データ」とは、いつ、何の目的で、どのようなチャネル(電話、FAX、郵便、Eメール、その他)により、どのような内容の情報をやり取りをし、その結果として、どのような効果が得られたか、といった事柄に関して個人別に記録された情報である。「効果」の例として、「バーゲンセールに来訪してくれた」、「注文があった」、または「機嫌を損ねた」、「喜んでくれた」などというように、具体的な行動や情緒変化に関する事項を挙げることができる。また「対象コミュニケーション条件」とは、後述するコミュニケーション入力に合致する、コミュニケーション対象者抽出のための条件を意味する。具体的には、例えば「やり取り好き度」(個人パーソナリティ特性データ)の高い「60歳以上の女性」(個人各種属性データ)で「これまで問合せの2回以上電話をかけてきたことのある人」(コミュニケーション履歴データ)、というものである。
【0039】
上記のデータおよび条件入力に基づいて、ステップS22によって、個人パーソナリティ特性出力(ステップS26)、コミュニケーション対象者出力(ステップS27)が行われる。ステップS22によるコミュニケーション対象者抽出処理によれば、「個人パーソナリティ特性データ」、「個人各種属性データ」、「コミュニケーション履歴データ」のそれぞれを「コミュニケーション対象者条件」と照合し、合致した上記の個人情報を抽出し、出力する。
【0040】
他方で、対象コミュニケーション支援情報を得るための他の処理ルート(ステップS31〜S34)が設けられる。
【0041】
最初のステップS31ではコミュニケーション目的が手操作で入力される。ここで「コミュニケーション目的」とは、これから新たに企画するコミュニケーション施策の目的、実施時期、内容、効果目標等を意味する。
【0042】
次のステップS32ではデータベース43Dからコミュニケーション支援情報が取り出される。このコミュニケーション支援情報は、対象コミュニケーション支援情報抽出処理(ステップS33)に提供される。また対象コミュニケーション支援情報抽出処理では、さらに前述のステップS25からコミュニケーション対象者条件が入力される。
【0043】
対象コミュニケーション支援情報抽出処理(ステップS33)では、入力された「コミュニケーション目的」と「コミュニケーション対象者条件」を、予め蓄積されている「コミュニケーション支援情報」と照合し、適合する「対象コミュニケーション支援情報」を抽出する。こうして抽出された対象コミュニケーション支援情報が出力される(ステップS34)。
【0044】
具体的に説明する。例えば、「やり取り好き度」が高い「60歳以上の女性」で「これまで問合せの電話を2回以上かけてきたことのある人」に対して、「製品の認知と理解、さらには購入を促す」(対象コミュニケーション条件)ために最適なコミュニケーションとして、「試供品を送付しフォローコール(後日に試用実態の確認のための発言)」を行うというモデルを抽出し、併せて、それにかかる費用の概算や実施体制についての情報を抽出する。ここで、想定されているコミュニケーションのモデルは、電話を使用するものに限定されず、マス・コミュニケーション等の活用も含まれる。
【0045】
以上により、出力されたパーソナリティ特性データ、コミュニケーション対象者、対象コミュニケーション支援情報のそれぞれを組み合せることにより、対話、教育、プロモーション等の各種のコミュニケーションが実施される(ステップS35)。
【0046】
次に、図7を参照して、本発明の他の応用例としての音声特徴情報提供システムを構築する処理方法を説明する。この処理方法は、前述のパーソナリティ特性類型別音声データ整理プログラム44、パーソナリティ特性類型別音声特性算出プログラム45、パーソナリティ条件別音声特性情報抽出プログラム46によって実行される。またこの処理方法では、前述のパーソナリティ特性類型データが用いられる。
【0047】
図7において、データベース43Bに保存されるパーソナリティ特性類型データS41を利用される。パーソナリティ特性類型データS41はパーソナリティ特性類型別音声データ整理処理のステップS44に入力される。また手操作に基づきパーソナリティ特性類型データが入力される(ステップS42)。入力されたパーソナリティ特性類型データはパーソナリティ特性類型別音声データ整理処理のステップS44に提供される。またパーソナリティ特性類型別音声データ整理処理のステップS44では、データベース43Eから発話音声データS43が入力される。この発話音声データは、前述のごとく、電話での対話時に録音された発話音声である。ステップS44のパーソナリティ特性類型別音声データ整理処理では、発話の印象評価に基づいて予測された発話者個人の実態としてのパーソナリティが属するパーソナリティ特性類型別に、発話者の実際の発話音声録音データを整理する。
【0048】
さらに次のステップS45では、続けて、パーソナリティ特性類型別音声特性算出処理が実行される。この処理では、パーソナリティ特性類型別に整理された、発話者の実際の発話音声録音データについて、各類ごとに共通する物理的特性について分析・抽出が行われる。パーソナリティ特性類型別音声特性算出処理(ステップS45)の結果、パーソナリティ特性類型別音声特性情報S46が得られる。このパーソナリティ特性類型別音声特性情報はデータベース43Fに格納される。
【0049】
次の段階、すなわち該当パーソナリティ音声特性情報抽出処理のステップS48では、得られたパーソナリティ特性類型別音声特性情報S46と、手操作で入力された「合成音声に求められるパーソナリティ条件」(ステップS47)とが用いられる。この「合成音声に求められるパーソナリティ条件」では、音声を人工的に合成する際に、その音声が聴取者に与えることが期待されるパーソナリティ印象の内容である。具体的には、前述したパーソナリティ印象評価のための5指標、「明朗快活性、利発沈着性、柔和協調性、情緒安定性、イマジネーション性」のそれぞれの度合いと、そのバランスにより表現される。ステップS48による処理では、ステップS47で入力された条件に基づいて、入力されたパーソナリティ印象を与える音声が有すべき物理的特性についての情報を抽出が行われる。
【0050】
次のステップS49では、人工音声の合成が行われる。すなわちステップS で抽出された物理的特性を有する音声を人工的に合成する処理が行われる。これによって、音声情報を取得し、かつこれに基づき音声特徴情報を提供し、さらにパーソナリティ特性を考慮した人工音声の合成を行うことができる。
【0051】
【発明の効果】
以上の説明で明らかなように本発明によれば、評価シート等の入力手段によって与えられる基礎得点に基づき、例えば「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点に基づきパーソナリティ評価を行うことができ、これらの3つの評価尺度の得点パターンを分類することにより類型化を行うことができ、当該類型化によって発話者のパーソナリティ特性を評価できる。また類型化に基づいてパーソナリティ特性に関する情報と、各パーソナリティ特性を表現するための音声特性情報を蓄積することができる。またこの情報を利用して、コンピュータにより人工的に合成される音声でパーソナリティを表現させることができ、自動対話システムやロボット等のコンピュータシステムで個性を持たせることができる。
【図面の簡単な説明】
【図1】本発明に係るパーソナリティ特性評価システムを含むシステム構成のブロック図を示す。
【図2】本発明で用いられる評価シートの一例を示す図である。
【図3】メモリのデータ部の内部構成を示す図である。
【図4】本発明に係るパーソナリティ特性評価システムの動作を示すフローチャートである。
【図5】発話者のパーソナリティ印象評価とパーソナリティ特性の表示例を示す図である。
【図6】本発明の応用例としてのコミュニケーション支援情報提供システムを構築する処理方法を示すフローチャートである。
【図7】本発明の他の応用例としての音声特徴情報提供システムを構築する処理方法を示すフローチャートである。
【符号の説明】
11 発話者
12 入力部
13,14 電話
16 応対オペレータ
17 評価シート
33 個人各種属性データベース
34 パーソナリティ印象評価データベース
Claims (3)
- 発話者の発話印象に係る評価指標が基礎得点の形式で記された入力手段と、
前記入力手段による前記基礎得点に基づき前記発話者の印象度合いについて「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る評価得点を算出する評価得点算出手段と、
前記の「交わり好き度」と「やり取り好き度」と「気ままファミリー度」のそれぞれに係る前記評価得点の均衡性に基づき前記発話者のパーソナリティ特性を決定する決定手段と、
から成ることを特徴とするパーソナリティ特性評価システム。 - 前記入力手段に記された評価指標は「明朗快活性」と「利発沈着性」と「柔和協調性」と「情緒安定性」と「イマジネーション性」であり、前記基礎得点は5段階で記されることを特徴とする請求項1記載のパーソナリティ特性評価システム。
- 前記発話印象に係る情報は、前記発話者との電話での対話を介して得られることを特徴とする請求項1または2記載のパーソナリティ特性評価システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003045989A JP4072952B2 (ja) | 2003-02-24 | 2003-02-24 | パーソナリティ特性評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003045989A JP4072952B2 (ja) | 2003-02-24 | 2003-02-24 | パーソナリティ特性評価システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004258108A true JP2004258108A (ja) | 2004-09-16 |
JP4072952B2 JP4072952B2 (ja) | 2008-04-09 |
Family
ID=33112657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003045989A Expired - Fee Related JP4072952B2 (ja) | 2003-02-24 | 2003-02-24 | パーソナリティ特性評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4072952B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052820A (ja) * | 2018-09-27 | 2020-04-02 | 株式会社 ユメックスホーム | 伝達相手のタイプ判定装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981386A (ja) * | 1995-09-11 | 1997-03-28 | Maindo Eng Corp:Kk | 適正ジョブ診断装置およびその方法 |
JP2001344375A (ja) * | 2000-05-31 | 2001-12-14 | Karudeia:Kk | 個性の抽出方法およびそれを用いたシステム |
JP2002215183A (ja) * | 2001-01-16 | 2002-07-31 | Agi:Kk | 感性発生方法及び感性発生装置並びにソフトウェア |
JP2002290609A (ja) * | 2001-03-28 | 2002-10-04 | Og Capital:Kk | 電話接客業務支援装置 |
JP2003030384A (ja) * | 2001-07-13 | 2003-01-31 | The Net:Kk | プロジェクト人材診断システム |
JP2003186899A (ja) * | 2001-12-19 | 2003-07-04 | Inter Vision Inc | 広告送信システム |
JP2004021121A (ja) * | 2002-06-19 | 2004-01-22 | Nec Corp | 音声対話制御装置 |
-
2003
- 2003-02-24 JP JP2003045989A patent/JP4072952B2/ja not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981386A (ja) * | 1995-09-11 | 1997-03-28 | Maindo Eng Corp:Kk | 適正ジョブ診断装置およびその方法 |
JP2001344375A (ja) * | 2000-05-31 | 2001-12-14 | Karudeia:Kk | 個性の抽出方法およびそれを用いたシステム |
JP2002215183A (ja) * | 2001-01-16 | 2002-07-31 | Agi:Kk | 感性発生方法及び感性発生装置並びにソフトウェア |
JP2002290609A (ja) * | 2001-03-28 | 2002-10-04 | Og Capital:Kk | 電話接客業務支援装置 |
JP2003030384A (ja) * | 2001-07-13 | 2003-01-31 | The Net:Kk | プロジェクト人材診断システム |
JP2003186899A (ja) * | 2001-12-19 | 2003-07-04 | Inter Vision Inc | 広告送信システム |
JP2004021121A (ja) * | 2002-06-19 | 2004-01-22 | Nec Corp | 音声対話制御装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052820A (ja) * | 2018-09-27 | 2020-04-02 | 株式会社 ユメックスホーム | 伝達相手のタイプ判定装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4072952B2 (ja) | 2008-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8078470B2 (en) | System for indicating emotional attitudes through intonation analysis and methods thereof | |
Canault et al. | Reliability of the language environment analysis system (LENA™) in European French | |
Jekosch | Voice and speech quality perception: assessment and evaluation | |
Ofuka et al. | Prosodic cues for rated politeness in Japanese speech | |
CN101176146B (zh) | 声音合成装置 | |
Rachman et al. | DAVID: An open-source platform for real-time transformation of infra-segmental emotional cues in running speech | |
Möller et al. | Evaluating spoken dialogue systems according to de-facto standards: A case study | |
CN107710192A (zh) | 用于会话响应的自动评价的度量 | |
JP6860010B2 (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
JP2004514178A (ja) | 音声の分析の方法及び装置 | |
JP6715410B2 (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
Niebuhr et al. | Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches | |
Proutskova et al. | Breathy, resonant, pressed–automatic detection of phonation mode from audio recordings of singing | |
Kohn et al. | African American Language: Language development from infancy to adulthood | |
WO2021172039A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Gelfer et al. | Speaking fundamental frequency and individual variability in Caucasian and African American school-age children | |
JP2004258108A (ja) | パーソナリティ特性評価システム、およびこれを利用するコミュニケーションサービスシステム | |
Blucher-Martin | Phonetic variation in transgender speech: the role of speaker agency in gender speech styles | |
Dalola | Un drôle de bruit_hhh: A Sociophonetic Examination of the Production and Perception of Final Vowel Devoicing among L1 and L2 Speakers of French | |
He | Stress and emotion recognition in natural speech in the work and family environments | |
Ford | Acquisition of gender-specific sociophonetic cues in the speech of primary school-aged children | |
JP2021182067A (ja) | 話者間相性判定装置、話者間相性判定方法およびプログラム | |
TW202109280A (zh) | 學習支援裝置、學習支援方法及記錄媒體 | |
JP2007157126A (ja) | 快適感評価システム | |
Trouvain et al. | Voice Attractiveness: Concepts, Methods, and Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051222 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060111 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20060331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080118 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110201 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110201 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |