JP2019124835A - 発話者推定装置 - Google Patents

発話者推定装置 Download PDF

Info

Publication number
JP2019124835A
JP2019124835A JP2018005622A JP2018005622A JP2019124835A JP 2019124835 A JP2019124835 A JP 2019124835A JP 2018005622 A JP2018005622 A JP 2018005622A JP 2018005622 A JP2018005622 A JP 2018005622A JP 2019124835 A JP2019124835 A JP 2019124835A
Authority
JP
Japan
Prior art keywords
user
topic
analysis
feature
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018005622A
Other languages
English (en)
Other versions
JP7143591B2 (ja
Inventor
勇太 落合
Yuta Ochiai
勇太 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018005622A priority Critical patent/JP7143591B2/ja
Publication of JP2019124835A publication Critical patent/JP2019124835A/ja
Application granted granted Critical
Publication of JP7143591B2 publication Critical patent/JP7143591B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】発話者を精度良く推定する。【解決手段】発話者推定装置は、ユーザに話題を提供する提供手段(110)と、話題に対するユーザの発話の内容及び音声の特徴の少なくとも一方を取得する取得手段(120)と、発話の内容及び音声の特徴の少なくとも一方に基づいて、ユーザの特徴量を解析する解析手段(130)と、特徴量に基づいて、ユーザの個人属性を推定する推定手段(140)とを備える。【選択図】図2

Description

本発明は、発話者を推定する発話者推定装置の技術分野に関する。
この種の装置として、音声認識によって発話者を推定するものが知られている。例えば特許文献1では、音声認識と音声認証とを並列に行うことで、発話内容の認識と発話者の特定を並列に行うという技術が開示されている。特許文献2では、発話内容に特定のキーワードが含まれているか否かによって発話者の本人性を確認するという技術が開示されている。
その他の関連技術として、特許文献3では、スピーカから出力された発話内容に対する応答時間に基づいて、発話内容への興味の有無を判定するという技術が開示されている。特許文献4では、会話から抽出されたキーワードと、会話内容が入力された時のユーザの精神状態とに基づいて、ユーザの興味を判定するという技術が開示されている。特許文献5では、車両における着座位置、発話者及び会話内容に基づいて、乗員構成を推定するという技術が開示されている。
特開2016−071050号公報 特開2010−109618号公報 特開2017−111493号公報 特開2009−294790号公報 特開2012−133530号公報
上述した特許文献1に記載されている技術では、音声認証(例えば、声紋データを利用した認証)を利用して発話者を特定している。しかしながら、音声認証のみでは、発話者を正確に特定することが難しい場合がある。即ち、上述した特許文献1を含む従来技術には、発話者を正確に特定するという点で精度向上の余地が十分に残されている。
本発明は、例えば上記問題点に鑑みてなされたものであり、発話者を精度良く推定することが可能な発話者推定装置を提供することを課題とする。
本発明に係る発話者推定装置の一態様では、ユーザに話題を提供する提供手段と、前記話題に対する前記ユーザの発話の内容及び音声の特徴の少なくとも一方を取得する取得手段と、前記発話の内容及び音声の特徴の少なくとも一方に基づいて、前記ユーザの特徴量を解析する解析手段と、前記特徴量に基づいて、前記ユーザの個人属性を推定する推定手段とを備える。
本実施形態に係る発話者推定装置の構成を示すブロック図である。 本実施形態に係る発話者推定装置の動作の流れを示すフローチャートである。 ユーザの語尾のパターンを解析するためのルールの一例を示す表である。 ユーザの会話の長さのパターンを解析するためのルールの一例を示す表である。 ユーザの言いよどみのパターンを解析するためのルールの一例を示す表である。 ユーザの単語の繰り返しのパターンを解析するためのルールの一例を示す表である。 特徴的な趣味と単語の分類パターンを解析するためのルールの一例を示す表である。 POIと単語の分類パターンを解析するためのルールの一例を示す表である。 レストランと単語の分類パターンを解析するためのルールの一例を示す表である。 ユーザの感情表現を表す単語とスコアとの関係の一例を示す表である。 ユーザの発話した文章とスコアとの関係の一例を示す表である。 ユーザ照合処理の具体的な方法の一例を示す表である。
以下、図面を参照して発話者推定装置の実施形態について説明する。
<装置構成>
まず、本実施形態に係る発話者推定装置の構成について、図1を参照して説明する。図1は、本実施形態に係る発話者推定装置の構成を示すブロック図である。
図1に示すように、本実施形態に係る発話者推定装置は、ECU(Electirc Control Unit)100と、スピーカ200と、マイク300とを備えて構成されている。なお、発話者推定装置は、図示せぬ車両に搭載されており、車両のドライバを推定(特定)するための処理を実行する。
ECU100は、その機能を実現するための処理ブロックとして、話題提供部110、発話取得部120、特徴量解析部130、及びユーザ照合部140を備えている。
話題提供部110は、スピーカ200を介して、車両のドライバに対して話題を提供することが可能に構成されている。即ち、話題提供部110は、車両のドライバと会話する機能を有している。話題提供部110は、ドライバを推定できていない段階では、無作為に話題を提供すればよい。一方、話題提供部110は、ドライバを推定した後では、ユーザが興味のある話題を提供してもよい。話題提供部110は、後述する付記における「提供手段」の一具体例である。
発話取得部120は、マイク300を介して、車両のドライバの発話を取得することが可能に構成されている。より具体的には、発話取得部120は、車両のドライバの発話内容(即ち、どんな内容の話をしているのか)、及び音声の特徴(例えば、音声の速さ、音声の高さ、抑揚等)を取得する。発話取得部120で取得された発話内容及び音声の特徴は、特徴量解析部に出力される構成となっている。発話取得部120は、後述する付記における「取得手段」の一具体例である。
特徴量解析部130は、発話取得部120で取得された発話内容及び音声の特徴に基づいて、ユーザを推定するための特徴量を解析することが可能に構成されている。なお、特徴量解析部130が解析する特徴量及び具体的な解析方法については、後に詳述する。特徴量解析部130で解析された特徴量は、ユーザ照合部140に出力される構成となっている。特徴量解析部130は、後述する付記における「解析手段」の一具体例である。
ユーザ照合部140は、特徴量解析部130で解析された特徴量に基づいて、ユーザ照合処理を実行することが可能に構成されている。即ち、ユーザ照合部140は、現在の車両のドライバが誰であるのかの推定(特定)する機能を有している。ユーザ照合部140による照合結果は、その後のドライバに対する車両内サービスの提供(例えば、提供する話題の内容等)を決定するために用いられる。ユーザ照合部140は、後述する付記における「推定手段」の一具体例である。
<動作の流れ>
次に、本実施形態に係る発話者推定装置の動作の流れについて、図2を参照して説明する。図2は、本実施形態に係る発話者推定装置の動作の流れを示すフローチャートである。
図2に示すように、本実施形態に係る発話者推定装置の動作時には、まずドライバが乗車したか否かを判定する(ステップS11)。ドライバが乗車していないと判定された場合(ステップS11:NO)、所定期間後に再びステップS11の処理が実行される。
ドライバが乗車していると判定された場合(ステップS11:YES)、話題提供部110によるドライバとの会話をスタートする(ステップS12)。会話がスタートとすると、話題提供部110は、ドライバに対して無作為に話題を提供する(ステップS13)。
続いて、発話取得部120が、提供された話題に対するドライバの発話内容を取得する(ステップS14)。その後、発話取得部120は、解析に十分な量の発話内容を取得したか否かを判定する(ステップS15)。解析に十分な量の発話内容を取得していないと判定された場合(ステップS15:NO)、発話取得部120は、ドライバの発話内容を取得する処理を続行する。或いは、新たな発話内容を取得するために、話題提供部110が、ドライバに対して別の話題を提供するようにしてもよい。
解析に十分な量の発話内容を取得していると判定された場合(ステップS15:YES)、特徴量解析部130が、取得した発話内容に基づいて、ドライバを推定するための特徴量を解析する。具体的には、特徴量解析部130は、ドライバが応答に使うフレーズの解析(ステップS16)、ドライバ応答に使う単語の解析(ステップS17)、話題に対するドライバの感情の解析(ステップS18)をそれぞれ実行する。なお、上記特徴量の具体的な解析方法については、後に詳述する。
上述したドライバの発話内容に基づく処理(即ち、ステップS14〜ステップS18)を行う一方で、発話取得部120は、提供された話題に対するドライバの音声の特徴も取得する(ステップS19)。その後、発話取得部120は、解析に十分な量の音声の特徴を取得したか否かを判定する(ステップS20)。解析に十分な量の音声の特徴を取得していないと判定された場合(ステップS20:NO)、発話取得部120は、ドライバの音声の特徴を取得する処理を続行する。或いは、新たな発話内容を取得するために、話題提供部110が、ドライバに対して別の話題を提供するようにしてもよい。
解析に十分な量の音声の特徴を取得していると判定された場合(ステップS20:YES)、特徴量解析部130が、取得した音声の特徴に基づいて、ドライバを推定するための特徴量を解析する。具体的には、特徴量解析部130は、提供した話題に対するユーザの声のトーンを解析する(ステップS21)。なお、上記特徴量の具体的な解析方法については、後に詳述する。
特徴量解析部130が特徴量の解析を終了した後は、ユーザ照合部140が、解析結果として得られる特徴量に基づいて、ユーザ照合処理を実行する(ステプS22)。即ち、現在の車両のドライバが誰なのかを推定するための処理を実行する。ユーザ照合処理の具体的な内容については、後に詳述する。
<応答に使うフレーズの解析>
次に、ユーザが応答によく使うフレーズの解析(即ち、図2のステップS16の処理)について、図3から図6を参照して具体的に説明する。図3は、ユーザの語尾のパターンを解析するためのルールの一例を示す表である。図4は、ユーザの会話の長さのパターンを解析するためのルールの一例を示す表である。図5は、ユーザの言いよどみのパターンを解析するためのルールの一例を示す表である。図6は、ユーザの単語の繰り返しのパターンを解析するためのルールの一例を示す表である。
なお、応答に使うフレーズを解析するためのルールは、所定の特徴を示すパターン毎に事前に作成されている。また、作成したルールを機械学習することでモデルを作成してもよい。例えば、サポートベクターマシンを使用して分類モデルを作成して、正解データとして所定のパターンを予め分類し、決まった分類の中から特徴量を自動的に判定するようにしてもよい。或いは、学習データをDNN(Deep Neural Network)に入力して自動的に特徴量を出力するようにしてもよい。
図3に示すように、応答に使うフレーズの解析では、語尾のパターンを特徴量として解析してもよい。具体的には、「〜です」、「〜ます」等の丁寧語を1分以内に3回以上使うか否か、「〜じゃん」「〜だべ」等の方言を1分以内に3回以上使うか否か、「〜でしょ」、「〜だろ」等の簡易的な表現を1分以内に3回以上使うか否かを判定すればよい。
図4に示すように、応答に使うフレーズの解析では、会話の長さのパターンを特徴量として解析してもよい。具体的には、一人で同じ話題をひたすら話すか否か(1時間以内に1回5分の話を2回以上するか否か)、一人で番う話題をひたすら話すか否か(1時間以内に1回5分の話を2回以上するか否か)、簡潔に話すか否か(1回の話が20秒程度か否か)を判定すればよい。なお、上記条件以外の場合には、一般平均であると判定すればよい。
図5に示すように、応答に使うフレーズの解析では、言いよどみのパターンを特徴量として解析してもよい。具体的には、「え〜」、を1分以内に3回以上使うか否か、「あの〜」を1分以内に3回以上使うか否か、どもることが1分以内に3回以上あるか否かを判定すればよい。
図6に示すように、応答に使うフレーズの解析では、単語の繰り返しのパターンを特徴量として解析してもよい。具体的には、「あれ」、「それ」等の指示語を1分以内に3回以上使うか否か、固有名詞(例えば、野球選手の名前や場所の名前等)を1分以内に3回以上使うか否か、「あいつ」、「そいつ」等の代名詞を1分以内に3回以上使うか否かを判定すればよい。なお、上記条件以外の場合には、一般平均であると判定すればよい。
<応答に使う単語の解析>
次に、ユーザが応答によく使う単語の解析(即ち、図2のステップS17の処理)について、図7から図9を参照して具体的に説明する。図7は、特徴的な趣味と単語の分類パターンを解析するためのルールの一例を示す表である。図8は、POIと単語の分類パターンを解析するためのルールの一例を示す表である。図9は、レストランと単語の分類パターンを解析するためのルールの一例を示す表である。
なお、応答に使う単語を解析するためのルールは、所定ジャンルの単語ごとに事前に作成されている。また、作成したルールを機械学習することでモデルを作成してもよい。例えば、サポートベクターマシンを使用して分類モデルを作成して、正解データとして所定のパターンを予め分類し、決まった分類の中から特徴量を自動的に判定するようにしてもよい。
図7に示すように、応答に使う単語の解析では、趣味に関する単語の使用回数から特徴量である趣味を判定してもよい。具体的には、野球選手の名前やチームの名前を1時間以内に5回以上使っている場合には、野球が趣味であると判定すればよい。サッカー選手の名前やチームの名前を1時間以内に5回以上使っている場合には、サッカーが趣味であると判定すればよい。ハイキングによく使われる場所の名前を1時間以内に5回以上使っている場合には、ハイキングが趣味であると判定すればよい。本の作品名1時間以内に5回以上使っている場合には、読書が趣味であると判定すればよい。旅行によく使われる場所の名前や観光名所を1時間以内に5回以上使っている場合には、旅行が趣味であると判定すればよい。
図8に示すように、応答に使う単語の解析では、POI(Point Of Interest)に関する単語の使用回数から特徴量であるPOIを判定してもよい。具体的には、映画館の名前を1時間以内に5回以上使っている場合には、映画館がPOIであると判定すればよい。博物館に展示されている作品の名前や、展覧会のジャンル名を1時間以内に5回以上使っている場合には、博物館がPOIであると判定すればよい。
図9に示すように、応答に使う単語の解析では、レストランに関する単語の使用回数から特徴量であるレストランを判定してもよい。具体的には、イタリアンのレストランの名前や料理名を1時間以内に5回以上使っている場合には、イタリアンのレストランを特徴量として判定すればよい。和食のレストランの名前や料理名を1時間以内に5回以上使っている場合には、和食のレストランを特徴量として判定すればよい。
<話題に対する感情の解析>
次に、話題に対するユーザの感情の解析(即ち、図2のステップS18の処理)について、図10及び図11を参照して具体的に説明する。図10は、ユーザの感情表現を表す単語とスコアとの関係の一例を示す表である。図11は、ユーザの発話した文章とスコアとの関係の一例を示す表である。
図10に示すように、話題に対する感情を判定する際には、感情を表す単語にスコアを付け、そのスコアの合計値または平均値を用いて判定すればよい。具体的には、「すばらしい」という単語を使った場合には“+2”、「最悪だ」という単語を使った場合には“−2”、「まあまあだね」という単語を使った場合には“+1”というスコアをつければよい。なお、“+”はポジティブな感情に対するスコア、“−”はネガティブな感情に対するスコアである。
図11に示すように、話題に対する感情を判定する際には、文章の特徴を機械学習により学習して判定してもよい。例えば、文章に対して感情の正解値を付け、その結果をもとに機械学習を行い、モデルを作成すればよい。この時の学習ロジックは、例えばサポートベクターマシンやDNNを用いればよい。このようなモデルによれば、例えば「昨日の○○○はすごかったね」という文章を使った場合に、“+2”のスコアが付けられる。「昨日食べたパスタは最悪だったわ」という文章を使った場合に、“−2”のスコアが付けられる。「今日の□□□はなかなかいいね」という文章を使った場合に、“+1”のスコアが付けられる。
<話題に対するトーンの解析>
次に、話題に対するユーザの声のトーンの解析(即ち、図2のステップS21の処理)について具体的に説明する。
なお、声のトーンを解析するためのルールは、音声の特徴に基づいて事前に作成されている。また、作成したルールを機械学習することでモデルを作成してもよい。例えば、サポートベクターマシンを使用して分類モデルを作成して、正解データとして所定のパターンを予め分類し、決まった分類の中から特徴量を自動的に判定するようにしてもよい。
より具体的には、話題に対するトーンの解析では、音声の速さ、音声の高さ(周波数)、抑揚等に基づいて、声のトーンがポジティブであるか又はネガティブであるかを判定すればよい。例えば、音声が速く、且つ高い場合には、ポジティブなトーンであると判定すればよい。また、音声が遅く、且つ低い場合には、ネガティブなトーンであると判定すればよい。
<ユーザ照合処理>
次に、ユーザ照合処理(即ち、図2のステップS22の処理)について、図12を参照して具体的に説明する。図12は、ユーザ照合処理の具体的な方法の一例を示す表である。
ユーザ照合処理は、上述した解析処理の結果として得られた特徴量の組み合わせを利用して、判定器を作成して行えばよい。なお、判定器を作成する場合には機械学習を行ってもよい。
図14に示す判定器を用いる場合には、よく使うフレーズのパターンが「丁寧語をよく使う」であり、よく話す話題が「野球」であり、よく話す単語が「野球選手名」であり、よく話す話題の感情が「ポジティブ」であり、話題のトーンが「ポジティブ」である場合に、ユーザパターンは“A”であると判定される。よく話す話題が「サッカー」であり、よく話す単語が「サッカー選手名」であり、よく話す話題の感情が「ネガティブ」であり、話題のトーンが「ポジティブ」である場合には、ユーザパターンは“B”であると判定される。よく使うフレーズのパターンが「簡易表現が多い」であり、よく話す話題が「読書」であり、よく話す単語が「作品名」であり、よく話す話題の感情が「ポジティブ」であり、話題のトーンが「暗い(ネガティブ)」である場合には、ユーザパターンは“C”であると判定される。
以上説明したように、本実施形態に係る発話者推定装置によれば、ドライバの発話内容及び音声の特徴から解析された複数の特徴量に基づいて、ユーザパターン(即ち、ドライバが誰であるのか)が推定される。よって、現在の車両のドライバ(即ち、発話者)が誰であるのかを、極めて高い精度で推定することが可能である。
<付記>
以上説明した実施形態から導き出される発明の各種態様を以下に説明する。
(付記1)
付記1に記載の発話者推定装置は、ユーザに話題を提供する提供手段と、前記話題に対する前記ユーザの発話の内容及び音声の特徴の少なくとも一方を取得する取得手段と、前記発話の内容及び音声の特徴の少なくとも一方に基づいて、前記ユーザの特徴量を解析する解析手段と、前記特徴量に基づいて、前記ユーザの個人属性を推定する推定手段とを備える。
付記1に記載の発話者推定装置によれば、提供した話題に対するユーザの発話の内容及び音声の特徴の少なくとも一方に基づいて、ユーザの特徴量が解析される。そして、解析された特徴量に基づいて、ユーザの個人属性が推定される。なお、「特徴量」とは、ユーザの個人属性を推定するためのパラメータであり、例えばユーザがよく使うフレーズや単語に関する情報、提供された話題に対するユーザの感情や声のトーン等を含んでいる。「個人属性」とは、ユーザ個人を特定するための属性情報であり、例えばユーザの本人性(本人らしさ)を示す情報である。
上述した構成によれば、ユーザ(即ち、発話者)の発話から解析される特徴量に基づいて個人属性が推定されるため、単に音声認証等でユーザの個人属性を推定する場合と比べると、より高い精度でユーザを推定(言い換えれば、特定)することが可能である。
本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う発話者推定装置もまた本発明の技術的範囲に含まれるものである。
100 ECU
110 話題提供部
120 発話取得部
130 特徴量解析部
140 ユーザ照合部
200 スピーカ
200 マイク

Claims (1)

  1. ユーザに話題を提供する提供手段と、
    前記話題に対する前記ユーザの発話の内容及び音声の特徴の少なくとも一方を取得する取得手段と、
    前記発話の内容及び音声の特徴の少なくとも一方に基づいて、前記ユーザの特徴量を解析する解析手段と、
    前記特徴量に基づいて、前記ユーザの個人属性を推定する推定手段と
    を備えることを特徴とする発話者推定装置。
JP2018005622A 2018-01-17 2018-01-17 発話者推定装置 Active JP7143591B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018005622A JP7143591B2 (ja) 2018-01-17 2018-01-17 発話者推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018005622A JP7143591B2 (ja) 2018-01-17 2018-01-17 発話者推定装置

Publications (2)

Publication Number Publication Date
JP2019124835A true JP2019124835A (ja) 2019-07-25
JP7143591B2 JP7143591B2 (ja) 2022-09-29

Family

ID=67398732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005622A Active JP7143591B2 (ja) 2018-01-17 2018-01-17 発話者推定装置

Country Status (1)

Country Link
JP (1) JP7143591B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110767239A (zh) * 2019-09-20 2020-02-07 平安科技(深圳)有限公司 一种基于深度学习的声纹识别方法、装置及设备
WO2020158527A1 (ja) 2019-01-30 2020-08-06 株式会社日立製作所 迷走電流推定システム、迷走電流推定方法、および迷走電流推定プログラム
WO2021002436A1 (ja) 2019-07-03 2021-01-07 味の素株式会社 改質したえんどう豆たん白質の製造方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250593A (ja) * 1999-03-03 2000-09-14 Fujitsu Ltd 話者認識装置及び方法
JP2004101901A (ja) * 2002-09-10 2004-04-02 Matsushita Electric Works Ltd 音声対話装置及び音声対話プログラム
JP2010163100A (ja) * 2009-01-16 2010-07-29 Mitsubishi Motors Corp 車載機器用制御装置
JP2011248020A (ja) * 2010-05-25 2011-12-08 Sony Corp 検索装置、検索方法、及び、プログラム
JP2016071050A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム
JP2017003611A (ja) * 2015-06-04 2017-01-05 シャープ株式会社 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250593A (ja) * 1999-03-03 2000-09-14 Fujitsu Ltd 話者認識装置及び方法
JP2004101901A (ja) * 2002-09-10 2004-04-02 Matsushita Electric Works Ltd 音声対話装置及び音声対話プログラム
JP2010163100A (ja) * 2009-01-16 2010-07-29 Mitsubishi Motors Corp 車載機器用制御装置
JP2011248020A (ja) * 2010-05-25 2011-12-08 Sony Corp 検索装置、検索方法、及び、プログラム
JP2016071050A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム
JP2017003611A (ja) * 2015-06-04 2017-01-05 シャープ株式会社 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西村竜一 他: ""大人・子供に適応した音声情報案内のためのユーザ自動識別"", 電子情報通信学会技術研究報告, vol. 103, no. 519, JPN6021032402, 11 December 2003 (2003-12-11), pages 97 - 102, ISSN: 0004576029 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158527A1 (ja) 2019-01-30 2020-08-06 株式会社日立製作所 迷走電流推定システム、迷走電流推定方法、および迷走電流推定プログラム
WO2021002436A1 (ja) 2019-07-03 2021-01-07 味の素株式会社 改質したえんどう豆たん白質の製造方法
CN110767239A (zh) * 2019-09-20 2020-02-07 平安科技(深圳)有限公司 一种基于深度学习的声纹识别方法、装置及设备

Also Published As

Publication number Publication date
JP7143591B2 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
US11527174B2 (en) System to evaluate dimensions of pronunciation quality
US9653068B2 (en) Speech recognizer adapted to reject machine articulations
US20160379643A1 (en) Group Status Determining Device and Group Status Determining Method
Kawahara et al. Prediction and Generation of Backchannel Form for Attentive Listening Systems.
JP6440967B2 (ja) 文末記号推定装置、この方法及びプログラム
CN111858876B (zh) 一种知识库的生成方法、文本查找方法和装置
Glasser Automatic speech recognition services: Deaf and hard-of-hearing usability
JP2019124835A (ja) 発話者推定装置
Tóth et al. Speech emotion perception by human and machine
Ahsiah et al. Tajweed checking system to support recitation
JP6605105B1 (ja) 文章記号挿入装置及びその方法
JPWO2020036195A1 (ja) 話し終わり判定装置、話し終わり判定方法およびプログラム
Qadri et al. A critical insight into multi-languages speech emotion databases
Shaw et al. Creaky voice as a stylistic feature of young American female speech: An intraspeaker variation study of Scarlett Johansson
Catania et al. Automatic Speech Recognition: Do Emotions Matter?
Getman et al. Developing an AI-Assisted Low-Resource Spoken Language Learning App for Children
Hildebrand-Edgar Creaky voice: An interactional resource for indexing authority
KR102407055B1 (ko) 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법
Kono et al. Prototype of conversation support system for activating group conversation in the vehicle
WO2020036190A1 (ja) 要点抽出装置、要点抽出方法、及びプログラム
WO2006027844A1 (ja) 話者照合装置
JP2020064630A (ja) 文章記号挿入装置及びその方法
Takebe et al. Investigation of glottal features and annotation procedures for speech emotion recognition
CN115662242B (zh) 塑造儿童语言流畅度训练装置、设备和存储介质
Zimina et al. Acoustic Characteristics of Speech Entrainment in Dialogues in Similar Phonetic Sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R151 Written notification of patent or utility model registration

Ref document number: 7143591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151