JP2020008730A - 感情推定システムおよびプログラム - Google Patents
感情推定システムおよびプログラム Download PDFInfo
- Publication number
- JP2020008730A JP2020008730A JP2018129928A JP2018129928A JP2020008730A JP 2020008730 A JP2020008730 A JP 2020008730A JP 2018129928 A JP2018129928 A JP 2018129928A JP 2018129928 A JP2018129928 A JP 2018129928A JP 2020008730 A JP2020008730 A JP 2020008730A
- Authority
- JP
- Japan
- Prior art keywords
- vowel
- emotion
- feature amount
- section
- vowel section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 204
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 230000007704 transition Effects 0.000 claims description 68
- 238000000034 method Methods 0.000 abstract description 22
- 239000000284 extract Substances 0.000 abstract description 6
- 230000005236 sound signal Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段と、
を備えることを特徴とする、感情推定システムである。
請求項2に係る本発明は、
前記推定手段は、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求めることを特徴とする、請求項1に記載の感情推定システムである。
請求項3に係る本発明は、
前記推定手段は、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定することを特徴とする、請求項2に記載の感情推定システムである。
請求項4に係る本発明は、
前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段をさらに備えることを特徴とする、請求項3に記載の感情推定システムである。
請求項5に係る本発明は、
前記推定手段は、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定することを特徴とする、請求項1に記載の感情推定システムである。
請求項6に係る本発明は、
前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段をさらに備えることを特徴とする、請求項5に記載の感情推定システムである。
請求項7に係る本発明は、
コンピュータに読み込まれて実行されるプログラムであって、
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段として、
前記コンピュータを機能させることを特徴とする、プログラムである。
請求項2の発明によれば、特徴量パターンのマッチングで推定することにより、音声認識を用いた推定と比較して、処理の負荷を減少させることができる。
請求項3の発明によれば、母音区間を細分化して判断することにより、音声認識で得られた母音ごとに推定を行う構成と比較して、精度を向上させることができる。
請求項4の発明によれば、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項5の発明によれば、母音区間ごとの推定結果のみを用いて音声全体の感情の推定を行う構成と比較して、母音区間ごとの推定結果に表れる突発的な変化等の影響を抑制することができ、推定の精度を向上させることができる。
請求項6の発明によれば、予め用意されたデータベースのデータのみを用いて処理を行う構成と比較して、ユーザの発話における特徴をデータベースに反映させることができ、推定の精度を向上させることができる。
請求項7の発明によれば、本発明のプログラムを実装したコンピュータにおいて、音声認識した結果に基づいて発話者の感情を推定する構成と比較して、処理の負荷が小さく、雑音等の影響を受けにくく、精度の高い、発話音声に基づく発話者の感情の推定技術を提供することができる。
図1は、本実施形態による感情推定システムの全体構成を示す図である。感情推定システム100は、音声取得部10と、特徴量抽出部20と、母音区間特定部30と、感情推定部40と、母音別確率データベース(DB)50と、遷移確率データベース(DB)60と、出力部70とを備える。
次に、特徴量抽出部20による特徴量の抽出処理について説明する。特徴量抽出部20は、処理対象の音声信号を単位時間ごとの音声フレームに分割し、この音声フレームごとに各特徴量の値を特定する。
次に、母音区間特定部30による母音区間の特定処理について説明する。母音区間特定部30は、特徴量抽出部20により抽出された音声フレームごとの特徴量を用いて母音区間を特定する。
次に、母音別感情推定部41による母音区間ごとの感情推定処理について説明する。母音別感情推定部41は、母音区間特定部30により特定された母音区間ごとに、母音別確率DB50に格納されている設定された感情ごとの特徴量のパターンの確率分布を参照して、各母音区間が設定された各感情に該当する確率を求め、得られた確率に応じて各母音区間における発話者の感情を推定する。
次に、母音間状態遷移解析部42による母音間の状態遷移解析処理について説明する。母音間状態遷移解析部42は、母音別感情推定部41による母音区間ごとの感情の推定結果に基づき、遷移確率DB60に格納されている母音間状態遷移確率を参照して、各母音区間の間で感情が遷移する確率を求める。
次に、感情推定部40による処理対象の音声全体に対する感情の推定処理について説明する。感情推定部40は、母音別感情推定部41による母音区間ごとの感情の推定結果と、母音間状態遷移解析部42により得られた母音間状態遷移確率に基づいて、これらの母音区間が含まれる音声における発話者の感情を推定する。具体的には、感情推定部40は、感情推定システム100において設定された感情の種類の各々に関して、処理対象の音声における発話者の感情が該当する確率を求め、最も高い確率である感情を発話者の感情とする。処理対象の音声Xにおける発話者の感情が、感情推定システム100において設定された感情の種類のうちの一の感情ej(j=1〜E)に該当する確率P(ej|X)は、例えば、次式(数2)で表される。
図7は、感情推定システム100の動作を示すフローチャートである。感情推定システム100による処理においては、まず、音声取得部10が、処理対象の音声(対象音声)を取得する(S701)。ここで、対象音声は、一人の話者による発話音声である。収録音声が複数の話者による発話音声を含んでいる場合、収録音声の中から一人の話者による発話音声を切り出して対象音声とする。なお、一人の話者による発話音声の切り出しは、人が音声を聞いて行っても良いし、一定時間の空白部分で切り分ける等の既存の手法を用いて行っても良い。
図8は、感情推定システム100として用いられるコンピュータのハードウェア構成例を示す図である。図8に示すコンピュータ200は、演算手段であるCPU(Central Processing Unit)201と、記憶手段である主記憶装置(メイン・メモリ)202および外部記憶装置203を備える。CPU201は、外部記憶装置203に格納されたプログラムを主記憶装置202に読み込んで実行する。主記憶装置202としては、例えばRAM(Random Access Memory)が用いられる。外部記憶装置203としては、例えば磁気ディスク装置やSSD(Solid State Drive)等が用いられる。また、コンピュータ200は、表示装置210に表示出力を行うための表示機構204と、コンピュータ200のユーザによる入力操作が行われる入力デバイス205とを備える。入力デバイス205としては、例えばキーボードやマウス等が用いられる。また、コンピュータ200は、ネットワークに接続するためのネットワーク・インターフェイス206を備える。なお、図7に示すコンピュータ200の構成は一例に過ぎず、本実施形態で用いられるコンピュータは図8の構成例に限定されるものではない。例えば、記憶装置としてフラッシュ・メモリ等の不揮発性メモリやROM(Read Only Memory)を備える構成としても良い。
本実施形態の感情推定システム100において、母音別確率DB50に格納されている特徴量のパターンの確率分布および遷移確率DB60に格納されている母音間状態遷移確率は、サンプルとして収集された音声(サンプル音声)に対して統計処理を行うことにより、予め用意されている。本実施形態の変形例として、具体的な音声に関して感情を推定する処理を行った結果を感情推定システム100にフィードバックする構成を設けても良い。具体的には、感情推定システム100により発話者の感情を推定する過程で抽出された音声フレームの特徴量のパターンおよび母音間の状態遷移のパターンを、母音別確率DB50および遷移確率DB60に格納し、反映させる。発話音声における特徴量のパターンや母音間の状態遷移のパターンには発話者ごとの個人差があることが想定される。そこで、発話者の具体的な音声に対する実際の処理結果を感情推定システム100にフィードバックして各データベースに反映させることにより、感情推定システム100が発話者の発話音声に対して最適化され、推定精度が向上する。感情推定システム100により感情を推定される発話者が複数存在する場合、処理結果の情報に発話者の識別情報を付加してフィードバックし、発話者ごとに最適化されたデータベースを構築しても良い。
Claims (7)
- 収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段と、
を備えることを特徴とする、感情推定システム。 - 前記推定手段は、各母音に関して予め定められた感情の種類ごとに特徴量のパターンを記録した母音別確率データベースを参照し、前記母音区間特定手段により特定された母音区間の特徴量のパターンが前記感情の種類の各々に該当する確率を求めることを特徴とする、請求項1に記載の感情推定システム。
- 前記推定手段は、前記母音区間特定手段により特定された母音区間を複数のフレームに分割し、当該フレームごとの特徴量のパターンに関して、前記母音別確率データベースを参照して前記感情の種類の各々に該当する確率を求め、得られたフレームごとの当該確率に基づいて当該母音区間が該当する感情の種類を特定することを特徴とする、請求項2に記載の感情推定システム。
- 前記母音区間における前記フレームごとの特徴量のパターンを、当該母音区間に対応する母音の特徴量のパターンとして前記母音別確率データベースに記録する母音別確率データベース更新手段をさらに備えることを特徴とする、請求項3に記載の感情推定システム。
- 前記推定手段は、
前記母音区間特定手段により特定された母音区間ごとに当該母音区間の特徴量から当該母音区間における発話者の感情を推定し、
母音の組み合わせごとに一の母音区間における感情から他の一の母音区間の感情の遷移確率を記録した遷移確率データベースを参照して、前記発話音声に含まれる複数の母音区間の各々に対して推定された母音間の感情の遷移確率を求め、
前記母音区間ごとの感情の推定結果および各母音区間の間の感情の遷移確率に基づき、前記発話音声全体における発話者の感情を特定することを特徴とする、請求項1に記載の感情推定システム。 - 前記推定手段により得られた前記発話音声に含まれる各母音間の感情の遷移確率に基づき、該当する母音間の感情の遷移確率を更新する遷移確率データベース更新手段をさらに備えることを特徴とする、請求項5に記載の感情推定システム。
- コンピュータに読み込まれて実行されるプログラムであって、
収録された発話音声を解析して予め定められた特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記特徴量に基づいて母音が発音された区間を特定する母音区間特定手段と、
前記母音区間特定手段により特定された母音区間の前記特徴量に基づいて発話者の感情を推定する推定手段として、
前記コンピュータを機能させることを特徴とする、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129928A JP7159655B2 (ja) | 2018-07-09 | 2018-07-09 | 感情推定システムおよびプログラム |
CN201910170895.6A CN110706689A (zh) | 2018-07-09 | 2019-03-07 | 感情推测系统以及计算机可读介质 |
US16/458,200 US11355140B2 (en) | 2018-07-09 | 2019-07-01 | Emotion estimation system and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129928A JP7159655B2 (ja) | 2018-07-09 | 2018-07-09 | 感情推定システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020008730A true JP2020008730A (ja) | 2020-01-16 |
JP7159655B2 JP7159655B2 (ja) | 2022-10-25 |
Family
ID=69102440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018129928A Active JP7159655B2 (ja) | 2018-07-09 | 2018-07-09 | 感情推定システムおよびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11355140B2 (ja) |
JP (1) | JP7159655B2 (ja) |
CN (1) | CN110706689A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7159655B2 (ja) * | 2018-07-09 | 2022-10-25 | 富士フイルムビジネスイノベーション株式会社 | 感情推定システムおよびプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099084A (ja) * | 2001-07-13 | 2003-04-04 | Sony France Sa | 音声による感情合成方法及び装置 |
WO2008032787A1 (fr) * | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101346758B (zh) * | 2006-06-23 | 2011-07-27 | 松下电器产业株式会社 | 感情识别装置 |
CN1975856B (zh) * | 2006-10-30 | 2011-11-09 | 邹采荣 | 一种基于支持向量机的语音情感识别方法 |
CN101930735B (zh) * | 2009-06-23 | 2012-11-21 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
US8756061B2 (en) * | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US9621713B1 (en) * | 2014-04-01 | 2017-04-11 | Securus Technologies, Inc. | Identical conversation detection method and apparatus |
US10237399B1 (en) * | 2014-04-01 | 2019-03-19 | Securus Technologies, Inc. | Identical conversation detection method and apparatus |
JP6720520B2 (ja) | 2015-12-18 | 2020-07-08 | カシオ計算機株式会社 | 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム |
WO2018051945A1 (ja) * | 2016-09-14 | 2018-03-22 | 日本電気株式会社 | 音声処理装置、音声処理方法、および記録媒体 |
WO2018124584A1 (ko) * | 2016-12-28 | 2018-07-05 | 삼성전자 주식회사 | 개인 안전 장치 및 그 동작방법 |
WO2018163279A1 (ja) * | 2017-03-07 | 2018-09-13 | 日本電気株式会社 | 音声処理装置、音声処理方法、および音声処理プログラム |
JP7159655B2 (ja) * | 2018-07-09 | 2022-10-25 | 富士フイルムビジネスイノベーション株式会社 | 感情推定システムおよびプログラム |
-
2018
- 2018-07-09 JP JP2018129928A patent/JP7159655B2/ja active Active
-
2019
- 2019-03-07 CN CN201910170895.6A patent/CN110706689A/zh active Pending
- 2019-07-01 US US16/458,200 patent/US11355140B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099084A (ja) * | 2001-07-13 | 2003-04-04 | Sony France Sa | 音声による感情合成方法及び装置 |
WO2008032787A1 (fr) * | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
Non-Patent Citations (1)
Title |
---|
SHASHIDHAR KOOLAGUDI G, ET AL.: "Contribution of Telugu Vowels in Identifying Emotions", 2015 EIGHTH INTERNATIONAL CONFERENCE ON ADVANCES IN PATTERN RECOGNITION, JPN6022010724, 2 March 2015 (2015-03-02), pages 1 - 6, ISSN: 0004733174 * |
Also Published As
Publication number | Publication date |
---|---|
JP7159655B2 (ja) | 2022-10-25 |
US11355140B2 (en) | 2022-06-07 |
US20200013428A1 (en) | 2020-01-09 |
CN110706689A (zh) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536525B2 (en) | Speaker indexing device and speaker indexing method | |
JP4911034B2 (ja) | 音声判別システム、音声判別方法及び音声判別用プログラム | |
Zelinka et al. | Impact of vocal effort variability on automatic speech recognition | |
JP4322785B2 (ja) | 音声認識装置、音声認識方法および音声認識プログラム | |
JP4224250B2 (ja) | 音声認識装置、音声認識方法および音声認識プログラム | |
JP2018072650A (ja) | 音声対話装置及び音声対話方法 | |
US11282495B2 (en) | Speech processing using embedding data | |
JP3006677B2 (ja) | 音声認識装置 | |
Martinez et al. | Prosodic features and formant modeling for an ivector-based language recognition system | |
WO2010128560A1 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
JP5050698B2 (ja) | 音声処理装置およびプログラム | |
CN110827853A (zh) | 语音特征信息提取方法、终端及可读存储介质 | |
JP6481939B2 (ja) | 音声認識装置および音声認識プログラム | |
Chittaragi et al. | Acoustic-phonetic feature based Kannada dialect identification from vowel sounds | |
JP4353202B2 (ja) | 韻律識別装置及び方法、並びに音声認識装置及び方法 | |
JP6276513B2 (ja) | 音声認識装置および音声認識プログラム | |
JP4074543B2 (ja) | 音声処理装置、音声処理方法、音声処理プログラム、および、プログラム記録媒体 | |
JP7159655B2 (ja) | 感情推定システムおよびプログラム | |
KR102113879B1 (ko) | 참조 데이터베이스를 활용한 화자 음성 인식 방법 및 그 장치 | |
JP5296455B2 (ja) | 話者識別装置、及びコンピュータプログラム | |
JP2001312293A (ja) | 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体 | |
JP5315976B2 (ja) | 音声認識装置、音声認識方法、および、プログラム | |
JP2007328288A (ja) | 韻律識別装置及び方法、並びに音声認識装置及び方法 | |
JP6497651B2 (ja) | 音声認識装置および音声認識プログラム | |
Laleye et al. | Automatic text-independent syllable segmentation using singularity exponents and rényi entropy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |