JP2011524551A - スピーチ分析による話者の特徴化 - Google Patents
スピーチ分析による話者の特徴化 Download PDFInfo
- Publication number
- JP2011524551A JP2011524551A JP2011514199A JP2011514199A JP2011524551A JP 2011524551 A JP2011524551 A JP 2011524551A JP 2011514199 A JP2011514199 A JP 2011514199A JP 2011514199 A JP2011514199 A JP 2011514199A JP 2011524551 A JP2011524551 A JP 2011524551A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- pitch
- speaker
- psychological
- behavioral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 63
- 238000012512 characterization method Methods 0.000 title description 3
- 230000003542 behavioural effect Effects 0.000 claims abstract description 97
- 238000000034 method Methods 0.000 claims abstract description 65
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000004891 communication Methods 0.000 claims description 24
- 230000001174 ascending effect Effects 0.000 claims description 22
- 230000003595 spectral effect Effects 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 18
- 230000002996 emotional effect Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 12
- 230000000630 rising effect Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 6
- 230000010267 cellular communication Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000009223 counseling Methods 0.000 claims description 5
- 230000007123 defense Effects 0.000 claims description 5
- 230000008451 emotion Effects 0.000 claims description 5
- 230000001755 vocal effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000012806 monitoring device Methods 0.000 claims description 4
- 230000003252 repetitive effect Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims 1
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000004590 computer program Methods 0.000 abstract description 11
- 238000009795 derivation Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007429 general method Methods 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002889 sympathetic effect Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000037007 arousal Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Electrically Operated Instructional Devices (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Description
各発話群に共通であり、各群の典型的な行動的、心理的、またはスピーチスタイル上の特徴を表すパラメータの値を、上記導出された第2のパラメータから判断すること1080と、も含む。データベースの使用は本発明の単なる一実施形態であり、スピーチパラメータの辞書であるその集合、および具体的な場面における対応する行動的特徴は、参照用のスピーチパラメータを表す任意の方法で一緒に記憶され得ると理解されるべきである。パラメータのデータベースまたは集合は、異なる手段で記憶したり、実際のソフトウェアデータベースを使用せずにコンピュータプログラムによって参照目的で使用したりしても良い。
Claims (27)
- 様々な行動的、心理的、およびスピーチスタイル上の特徴に従って発話を分類するためのスピーチパラメータ参照データベースを作成するコンピュータ実装方法であって、
特定の発語場面を手動で選択することと、
前記選択された場面で分析する前記行動的、心理的、およびスピーチスタイル上の特徴を手動で選択することと、
前記選択された場面における人々の複数の発話を取得することと、
前記発話を類似の行動的、心理的、およびスピーチスタイル上の特徴を表す群に手動でグループ化することと、
類似の行動的、心理的、およびスピーチスタイル上の特徴を表す前記発話群内にある前記発話の各々を前処理して、無音のセグメントとアクティブなスピーチセグメントとに分けることと、
前記アクティブなスピーチセグメントを一連の等しい長さのブロックに分割することであって、前記ブロックがピッチパラメータと振幅パラメータとを含む第1のスピーチパラメータを有することと、
前記第1のスピーチパラメータから複数の第2のスピーチパラメータを導出することであって、前記複数の選択されたスピーチパラメータは、前記一連のブロックにおける一連の均一ピッチ、上昇ピッチ、および下降ピッチトレンドの時間単位当たりのセグメントの合計と、前記一連のブロックにおける均一ピッチ、上昇ピッチ、および下降ピッチトレンドのセグメントの平均長と、のうちの少なくとも1つを含むことと、
一意の第2のスピーチパラメータと、パラメータの組み合わせと、前記第2のパラメータからの各発話群に共通するパラメータの値とを判断することであって、前記一意の第2のスピーチパラメータは、各群の前記典型的な行動的、心理的、またはスピーチスタイル上の特徴を表すことと、
を含む、コンピュータ実装方法。 - 導出された複数の第2のスピーチパラメータが、平均一時停止長、時間単位当たりの一時停止の合計、短時間無音の平均長、時間単位当たりの短時間無音の合計、均一ピッチセグメントの平均長、時間単位当たりの均一ピッチセグメントの合計、上昇ピッチセグメントの平均長、時間単位当たりの上昇ピッチセグメントの合計、下降ピッチセグメントの平均長、時間単位当たりの下降ピッチセグメントの合計、均一ピッチセグメント内の平均振幅偏差、上昇ピッチセグメント内の平均振幅偏差、下降ピッチセグメント内の平均振幅偏差、時間単位当たりのピッチ変量および範囲、時間単位当たりの平均ピッチ傾斜、スピーチ信号のスペクトル形状およびスペクトル包絡線の経時パターン、上昇、下降、および均一ピッチトレンドの順序の経時パターンのうちの少なくとも1つを備える、請求項1に記載の方法。
- 所与の状況および場面における話者の発話を分析し、前記所与の状況における前記話者の行動的、心理的、およびスピーチスタイル上の特徴を判断するためのコンピュータ実装方法であって、
様々な行動的、心理的、およびスピーチスタイル上の特徴に従って発話を分類するためのスピーチパラメータ参照データベースを作成することと、
具体的な状況および場面における話者の発話を取得することと、
前記取得した発語を前処理して無音のセグメントとアクティブなスピーチセグメントとに分け、前記アクティブなスピーチセグメントを一連の等しい長さのブロックに分割することであって、前記ブロックがピッチパラメータと振幅パラメータとを含む第1のスピーチパラメータを有することと、
前記第1のパラメータから複数の第2のスピーチパラメータを導出することであって、前記複数の選択されたスピーチパラメータは、前記一連のブロックにおける均一ピッチ、上昇ピッチ、および下降ピッチトレンドの時間単位当たりのセグメントの合計と、前記一連のブロックにおける均一ピッチ、上昇ピッチ、および下降ピッチトレンドのセグメントの平均長と、のうちの少なくとも1つを含むことと、
前記発話における前記第2のパラメータから、一意のスピーチパラメータと、パラメータの組み合わせと、状況的、行動的、心理的、およびスピーチスタイル上の特徴を表すパラメータの値とを算出することと、
前記算出されたパラメータをスピーチパラメータの前記事前定義済み参照データベースと比較することにより、前記発話における前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点することと、
前記判断および評点された結果を出力することと、
を含む、コンピュータ実装方法。 - 導出された複数の第2のスピーチパラメータが、平均一時停止長、時間単位当たりの一時停止の合計、短時間無音の平均長、時間単位当たりの短時間無音の合計、均一ピッチセグメントの平均長、時間単位当たりの均一ピッチセグメントの合計、上昇ピッチセグメントの平均長、時間単位当たりの上昇ピッチセグメントの合計、下降ピッチセグメントの平均長、時間単位当たりの下降ピッチセグメントの合計、均一ピッチセグメント内の平均振幅偏差、上昇ピッチセグメント内の平均振幅偏差、下降ピッチセグメント内の平均振幅偏差、時間単位当たりのピッチ変量および範囲、時間単位当たりの平均ピッチ傾斜、スピーチ信号のスペクトル形状およびスペクトル包絡線の経時パターン、上昇、下降、および均一ピッチトレンドの順序の経時パターンのうちの少なくとも1つを備える、請求項3に記載の方法。
- 発話を分類するためのスピーチパラメータ参照データベースを前記作成することが、
特定の発語場面を手動で選択することと、
前記選択された場面で分析する前記行動的、心理的、およびスピーチスタイル上の特徴を手動で選択することと、
前記選択された場面における人々の複数の発話を取得することと、
前記発話を類似の行動的、心理的、およびスピーチスタイル上の特徴を表す群に手動でグループ化することと、
類似の行動的、心理的、およびスピーチスタイル上の特徴を表す前記発話群内にある前記発話の各々を前処理して、無音のセグメントとアクティブなスピーチセグメントとに分けることと、
前記アクティブなスピーチセグメントを一連の等しい長さのブロックに分割することであって、前記ブロックが、ピッチパラメータと振幅パラメータとを含む第1のスピーチパラメータを有することと、
複数の第2のスピーチパラメータを導出することであって、前記複数の選択されたスピーチパラメータは、平均一時停止長、時間単位当たりの一時停止の合計、短時間無音の平均長、時間単位当たりの短時間無音の合計、均一ピッチセグメントの平均長、時間単位当たりの均一ピッチセグメントの合計、上昇ピッチセグメントの平均長、時間単位当たりの上昇ピッチセグメントの合計、下降ピッチセグメントの平均長、時間単位当たりの下降ピッチセグメントの合計、均一ピッチセグメント内の平均振幅偏差、上昇ピッチセグメント内の平均振幅偏差、下降ピッチセグメント内の平均振幅偏差、時間単位当たりのピッチ変量および範囲、時間単位当たりの平均ピッチ傾斜、スピーチ信号のスペクトル形状およびスペクトル包絡線の経時パターン、上昇、下降、および均一ピッチトレンドの順序の経時パターンのうちの少なくとも1つを含むことと、
一意の第2のスピーチパラメータと、パラメータの組み合わせと、各発話群に共通し、かつ各群の典型的な行動的、心理的、またはスピーチスタイル上の特徴を表すパラメータの値とを判断することと、
を含む、請求項4に記載の方法。 - 現在の分析対象話者の前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、前記話者に関する現在の分析が話者から独立したものではなく、話者に依存したものとなるように、前記話者の一意のスピーチパターンを認識するための前記話者の事前取得済みスピーチサンプルを前記スピーチパラメータ参照データベース内に備えることをさらに含む、請求項5に記載方法。
- 前記話者の人格的特徴を判断し、その人格的特徴を状況的特徴と区別するために、いくつかの異なる状況で前記話者を繰り返し分析し、前記異なる状況で反復的かつ共通する前記スピーチパターンをさらに抽出することをさらに含む、請求項5に記載の方法。
- 前記話者の前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、前記話者の現在の感情的状態を前記状況的特徴と区別するためのスピーチ分析による感情検知を使用することをさらに含む、請求項5に記載の方法。
- 前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、韻律的なスピーチ分析によって補完される音声認識技術による語および内容スピーチ分析を使用することをさらに含む、請求項5に記載の方法。
- 前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、前記スピーチ分析によって補完される前記話者の視覚分析によるボディランゲージ分析を使用することをさらに含む、請求項5に記載の方法。
- 前記スピーチパラメータ参照データベースと前記分類プロセスとを改善するために、話者の行動的、心理的、およびスピーチスタイル上の特徴に関する継続的分析を使用して学習システム特性を提供することをさらに含む、請求項5に記載の方法。
- 複数の話者を備える発話を対象とした方法であって、前記方法が複数の話者の声を分別することをさらに含み、かつ前記方法の各動作が話者ごとに別々に実行される、請求項5に記載の方法。
- 所与の状況および場面における話者の発話を分析し、前記所与の状況における前記話者の行動的、心理的、およびスピーチスタイル上の特徴を判断するためのデータ処理システムであって、
前記話者の前記発語をサンプリングすることと、前記話者のサンプリングされた発声を受信することとのうちの1つを実行するように調整された音声入力ユニットと、
前記音声入力ユニットに連結され、音声入力ユニットから音声サンプルを前処理するように調整された前処理ユニットと、
前記前処理ユニットに連結された主要処理ユニットと、
前記主要処理ユニットに連結された出力ユニットおよび話者参照データベースと、
を備えるデータ処理システムであって、
前記前処理ユニットは、前記サンプリングされた発語を前処理して無音のセグメントとアクティブなスピーチセグメントと分け、前記アクティブなスピーチセグメントを一連の等しい長さのブロックに分割するように調整されており、前記ブロックは、ピッチパラメータと振幅パラメータとを含む第1のスピーチパラメータを有し、
前記データベースが、一意の第2のスピーチパラメータとパラメータの組み合わせとに従い、様々な行動的、心理的、およびスピーチスタイル上の特徴に従って発話を分類するように調整されており、前記複数の選択されたスピーチパラメータは、平均一時停止長、時間単位当たりの一時停止の合計、短時間無音の平均長、時間単位当たりの短時間無音の合計、均一ピッチセグメントの平均長、時間単位当たりの均一ピッチセグメントの合計、上昇ピッチセグメントの平均長、時間単位当たりの上昇ピッチセグメントの合計、下降ピッチセグメントの平均長、時間単位当たりの下降ピッチセグメントの合計、均一ピッチセグメント内の平均振幅偏差、上昇ピッチセグメント内の平均振幅偏差、下降ピッチセグメント内の平均振幅偏差、時間単位当たりのピッチ変量および範囲、時間単位当たりの平均ピッチ傾斜、スピーチ信号のスペクトル形状およびスペクトル包絡線の経時パターン、上昇、下降、および均一ピッチトレンドの順序の経時パターンのうちの少なくとも1つを含み、
前記主要処理ユニットは、前記第2のスピーチパラメータを含む一覧から選択された複数の第2のスピーチパラメータを、前記現在分析されている発話から導出し、
前記発話における前記第2のパラメータから、一意のスピーチパラメータと、パラメータの組み合わせと、状況的、行動的、心理的、およびスピーチスタイル上の特徴を表すパラメータの値とを算出し、
前記算出された一意のスピーチパラメータを第2のスピーチパラメータの前記事前定義済み参照データベースと比較することによって、前記発話における前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するように調整されており、前記出力ユニットは、前記分析結果を出力するように調整されている、
システム。 - 前記出力ユニットは、可視要素、可聴要素、記憶装置、テキスト、監視デバイスとのインタフェース、インターネットとのインタフェース、ローカルおよびリモートデバイスまたはコンピュータとのインタフェース、別のネットワークとのインタフェース、有線、無線、または携帯電話とのインタフェース、コンピュータゲームとのインタフェース、玩具とのインタフェース、電子手帳とのインタフェース、または電子出力機器とのインタフェースのうちの少なくとも1つを備える、請求項13に記載のシステム。
- 前記システムは、音声通信システム、有線および無線電話通信システム、セルラー方式通信ネットワーク、ウェブベースの通信システム、ボイスオーバーIPベースの通信システム、およびコールセンタ通信システムから成る群から選択された通信システム内で実装される、請求項13に記載のシステム。
- 前記システムは複数の用途向けに構成されており、前記複数の用途が、自己フィードバック、自己認識、エンターテインメント、行動トレーニング、営業強化、カスタマーサービス強化、顧客およびビジネスインテリジェンス、防衛およびセキュリティ用途、ビジネス交渉、広告、縁結び、デート、娯楽、ゲーム、玩具、カウンセリング、人材用途、重役研修、従業員および職業訓練、心理的および教育的用途、医療用途といった用途のうちの少なくとも1つを含む、請求項13に記載のシステム。
- 現在の分析対象話者の前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、前記話者に関する前記現在の分析が話者から独立したものではなく、話者に依存したものとなるように、前記データベースは前記話者の一意のスピーチパターンを認識するための前記話者の事前取得済みスピーチサンプルをさらに備える、請求項13に記載のシステム。
- 前記話者の前記人格的特徴を判断し、それらを前記状況的特徴と区別するために、いくつかの異なる状況で前記話者を繰り返し分析し、前記異なる状況で反復的かつ共通する前記スピーチパターンを抽出するように調整されている、請求項13に記載のシステム。
- 前記話者の前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、前記現在の感情的状態を前記状況的特徴と区別するためのスピーチ分析による感情検知を使用するように調整されている、請求項13に記載のシステム。
- 前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、韻律的なスピーチ分析によって補完される音声認識技術による語および内容スピーチ分析を使用するように調整されている、請求項13に記載のシステム。
- 前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点するに当たっての精度を高めるために、前記スピーチ分析によって補完される前記話者の視覚分析によるボディランゲージ分析を使用するように調整されている、請求項13に記載のシステム。
- 前記スピーチパラメータ参照データベースと前記分類プロセスとを改善するために、話者の行動的、心理的、およびスピーチスタイル上の特徴に関する継続的分析を使用して学習システム特性を提供するように調整されている、請求項13に記載のシステム。
- 前記複数の話者の声を分別するようにさらに調整されており、かつ各話者を別々に分析するように調整されている、複数の話者を備える発話を対象とした、請求項13に記載のシステム。
- 話者の発話を分析し、所与の状況および場面における前記話者の行動的、心理的、およびスピーチスタイル上の特徴を判断するための装置であって、
前記話者の前記発声をサンプリングするか、またはサンプリングされた前記話者の発語を取得するように調整された音声入力ユニットと、
前記音声入力ユニットに連結され、音声入力ユニットから音声サンプルを前処理するように調整された前処理ユニットと、
前記前処理ユニットに連結された主要処理ユニットと、
前記主要処理ユニットに連結された主要インジケータ出力ユニットと、
を備え、前記前処理ユニットは、
前記サンプリングされた発語を前処理して無音のセグメントとアクティブなスピーチセグメントとに分け、前記アクティブなスピーチセグメントを一連の等しい長さのブロックに分割するように調整されており、前記ブロックは、ピッチパラメータと振幅パラメータとを含む第1のスピーチパラメータを有し、
前記装置は、参照データベースと動作可能に関連付けられており、前記データベースは、一意の第2のスピーチパラメータとパラメータの組み合わせとに応じた様々な行動的、心理的、およびスピーチスタイル上の特徴に従って発話を分類するように配置されており、前記複数の選択されたスピーチパラメータは、平均一時停止長、時間単位当たりの一時停止の合計、短時間無音の平均長、時間単位当たりの短時間無音の合計、均一ピッチセグメントの平均長、時間単位当たりの均一ピッチセグメントの合計、上昇ピッチセグメントの平均長、時間単位当たりの上昇ピッチセグメントの合計、下降ピッチセグメントの平均長、時間単位当たりの下降ピッチセグメントの合計、均一ピッチセグメント内の平均振幅偏差、上昇ピッチセグメント内の平均振幅偏差、下降ピッチセグメント内の平均振幅偏差、時間単位当たりのピッチ変量および範囲、時間単位当たりの平均ピッチ傾斜、スピーチ信号のスペクトル形状およびスペクトル包絡線の経時パターン、上昇、下降、および均一ピッチトレンドの順序の経時パターンのうちの少なくとも1つを含み、
前記主要処理ユニット、
前記第2のスピーチパラメータを含む一覧から選択された複数の第2のスピーチパラメータを、前記現在分析されている発話から導出し、
前記発話における前記第2のパラメータから、一意のスピーチパラメータと、パラメータの組み合わせと、状況的、行動的、心理的、およびスピーチスタイル上の特徴を表すパラメータの値とを算出し、
前記算出されたパラメータをスピーチパラメータの前記事前定義済み参照データベースと比較することにより、前記発話における前記状況的、行動的、心理的、およびスピーチスタイル上の特徴を判断および評点し、
前記主要出力インジケータユニットが、前記分析結果を出力するように調整されているシステム。 - 自己フィードバック、自己認識、エンターテインメント、行動トレーニング、営業強化、カスタマーサービス強化、顧客およびビジネスインテリジェンス、防衛およびセキュリティ用途、ビジネス交渉、広告、縁結び、デート、娯楽、ゲーム、玩具、カウンセリング、人材用途、重役研修、従業員および職業訓練、心理的および教育的用途、医療用途といった用途のうちの少なくとも1つを対象に構成されている、請求項24に記載の装置。
- 音声通信デバイス、有線または無線音声デバイス、セルラー方式通信デバイス、ネットワーク化されたパーソナルデバイスアクセサリ(PDA)、ネットワーク化されていないPDA、音声録音デバイス、パーソナルコンピュータ、およびサーバを含む一覧から選択される、請求項24に記載の装置。
- 前記出力ユニットが、可視要素、可聴要素、記憶装置、テキスト、監視デバイスとのインタフェース、インターネットとのインタフェース、ローカルおよびリモートデバイスまたはコンピュータとのインタフェース、別のネットワークとのインタフェース、有線、無線、または携帯電話とのインタフェース、コンピュータゲームとのインタフェース、玩具とのインタフェース、電子手帳とのインタフェースまたは電子出力機器とのインタフェースのうちの少なくとも1つを備える、請求項24に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/140,413 US8195460B2 (en) | 2008-06-17 | 2008-06-17 | Speaker characterization through speech analysis |
US12/140,413 | 2008-06-17 | ||
PCT/IL2009/000604 WO2009153788A2 (en) | 2008-06-17 | 2009-06-17 | Speaker characterization through speech analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011524551A true JP2011524551A (ja) | 2011-09-01 |
Family
ID=41210901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011514199A Pending JP2011524551A (ja) | 2008-06-17 | 2009-06-17 | スピーチ分析による話者の特徴化 |
Country Status (7)
Country | Link |
---|---|
US (2) | US8195460B2 (ja) |
EP (2) | EP3396668B1 (ja) |
JP (1) | JP2011524551A (ja) |
KR (1) | KR101683310B1 (ja) |
CN (1) | CN102124515B (ja) |
ES (2) | ES2896267T3 (ja) |
WO (1) | WO2009153788A2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013152277A (ja) * | 2012-01-24 | 2013-08-08 | Toshiba Tec Corp | 情報提供装置とそのプログラムおよび情報提供システム |
JP2015064828A (ja) * | 2013-09-26 | 2015-04-09 | 日本電信電話株式会社 | 対話傾向得点化装置、方法及びプログラム |
JP2019203998A (ja) * | 2018-05-24 | 2019-11-28 | カシオ計算機株式会社 | 会話装置、ロボット、会話装置制御方法及びプログラム |
JP2021162627A (ja) * | 2020-03-30 | 2021-10-11 | パイオニア株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体 |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8195460B2 (en) * | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010041507A1 (ja) * | 2008-10-10 | 2010-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 会話における特定状況を抽出するシステムおよび方法 |
JP5456370B2 (ja) * | 2009-05-25 | 2014-03-26 | 任天堂株式会社 | 発音評価プログラム、発音評価装置、発音評価システムおよび発音評価方法 |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
JP5834449B2 (ja) * | 2010-04-22 | 2015-12-24 | 富士通株式会社 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
US8417530B1 (en) * | 2010-08-20 | 2013-04-09 | Google Inc. | Accent-influenced search results |
US8990094B2 (en) * | 2010-09-13 | 2015-03-24 | Qualcomm Incorporated | Coding and decoding a transient frame |
US8862465B2 (en) * | 2010-09-17 | 2014-10-14 | Qualcomm Incorporated | Determining pitch cycle energy and scaling an excitation signal |
US8918197B2 (en) * | 2012-06-13 | 2014-12-23 | Avraham Suhami | Audio communication networks |
US9082408B2 (en) | 2011-06-13 | 2015-07-14 | Mmodal Ip Llc | Speech recognition using loosely coupled components |
CN102509550A (zh) * | 2011-11-18 | 2012-06-20 | 中国联合网络通信集团有限公司 | 声音信息的处理方法和用户设备 |
CN102419973B (zh) * | 2011-11-18 | 2013-06-19 | 中国科学院自动化研究所 | 一种声调评测方法 |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US20130325483A1 (en) * | 2012-05-29 | 2013-12-05 | GM Global Technology Operations LLC | Dialogue models for vehicle occupants |
US9257122B1 (en) | 2012-08-06 | 2016-02-09 | Debra Bond Cancro | Automatic prediction and notification of audience-perceived speaking behavior |
US20150302866A1 (en) * | 2012-10-16 | 2015-10-22 | Tal SOBOL SHIKLER | Speech affect analyzing and training |
CN103902629B (zh) * | 2012-12-28 | 2017-09-29 | 联想(北京)有限公司 | 利用语音提供操作帮助的电子设备和方法 |
KR101410163B1 (ko) | 2013-01-02 | 2014-06-20 | 포항공과대학교 산학협력단 | 통계적 음성 언어 이해 방법 |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US20140229181A1 (en) * | 2013-02-12 | 2014-08-14 | Daniel Begel | Method and System to Identify Human Characteristics Using Speech Acoustics |
US9734819B2 (en) | 2013-02-21 | 2017-08-15 | Google Technology Holdings LLC | Recognizing accented speech |
DE102013101871A1 (de) * | 2013-02-26 | 2014-08-28 | PSYWARE GmbH | Wortwahlbasierte Sprachanalyse und Sprachanalyseeinrichtung |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
CN104123938A (zh) * | 2013-04-29 | 2014-10-29 | 富泰华工业(深圳)有限公司 | 语音控制系统、电子装置及语音控制方法 |
US20140337034A1 (en) * | 2013-05-10 | 2014-11-13 | Avaya Inc. | System and method for analysis of power relationships and interactional dominance in a conversation based on speech patterns |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278592B2 (en) | 2013-06-09 | 2017-09-07 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US20150064669A1 (en) * | 2013-09-03 | 2015-03-05 | Ora GOLAN | System and method for treatment of emotional and behavioral disorders |
KR101478459B1 (ko) * | 2013-09-05 | 2014-12-31 | 한국과학기술원 | 언어 지연 치료 시스템 및 그 시스템 제어 방법 |
US20150161843A1 (en) * | 2013-12-10 | 2015-06-11 | Spielo International Canada Ulc | Gaming Machine Adapts Game Based on Attributes of Player's Voice |
JP6596924B2 (ja) * | 2014-05-29 | 2019-10-30 | 日本電気株式会社 | 音声データ処理装置、音声データ処理方法、及び、音声データ処理プログラム |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9418663B2 (en) * | 2014-07-31 | 2016-08-16 | Google Inc. | Conversational agent with a particular spoken style of speech |
US10127911B2 (en) * | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
CN104505103B (zh) * | 2014-12-04 | 2018-07-03 | 上海流利说信息技术有限公司 | 语音质量评价设备、方法和系统 |
CN104505102A (zh) * | 2014-12-31 | 2015-04-08 | 宇龙计算机通信科技(深圳)有限公司 | 身体状况检测的方法及装置 |
CN105989836B (zh) * | 2015-03-06 | 2020-12-01 | 腾讯科技(深圳)有限公司 | 一种语音采集方法、装置及终端设备 |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9467718B1 (en) | 2015-05-06 | 2016-10-11 | Echostar Broadcasting Corporation | Apparatus, systems and methods for a content commentary community |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10529328B2 (en) | 2015-06-22 | 2020-01-07 | Carnegie Mellon University | Processing speech signals in voice-based profiling |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
CN105096934B (zh) * | 2015-06-30 | 2019-02-12 | 百度在线网络技术(北京)有限公司 | 构建语音特征库的方法、语音合成方法、装置及设备 |
US9865281B2 (en) | 2015-09-02 | 2018-01-09 | International Business Machines Corporation | Conversational analytics |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
CN105334743B (zh) * | 2015-11-18 | 2018-10-26 | 深圳创维-Rgb电子有限公司 | 一种基于情感识别的智能家居控制方法及其系统 |
CN105609106A (zh) * | 2015-12-16 | 2016-05-25 | 魅族科技(中国)有限公司 | 记事文档生成方法和装置 |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
CN105575404A (zh) * | 2016-01-25 | 2016-05-11 | 薛明博 | 一种基于语音识别的心理检测方法及系统 |
US10268689B2 (en) | 2016-01-28 | 2019-04-23 | DISH Technologies L.L.C. | Providing media content based on user state detection |
US10244113B2 (en) | 2016-04-26 | 2019-03-26 | Fmr Llc | Determining customer service quality through digitized voice characteristic measurement and filtering |
US10984036B2 (en) | 2016-05-03 | 2021-04-20 | DISH Technologies L.L.C. | Providing media content based on media element preferences |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10339925B1 (en) * | 2016-09-26 | 2019-07-02 | Amazon Technologies, Inc. | Generation of automated message responses |
KR101864824B1 (ko) * | 2016-11-03 | 2018-06-05 | 세종대학교산학협력단 | 발화자에 대한 신뢰도 측정 장치 및 방법 |
US10764381B2 (en) | 2016-12-23 | 2020-09-01 | Echostar Technologies L.L.C. | Communications channels in media systems |
US11196826B2 (en) | 2016-12-23 | 2021-12-07 | DISH Technologies L.L.C. | Communications channels in media systems |
US10390084B2 (en) | 2016-12-23 | 2019-08-20 | DISH Technologies L.L.C. | Communications channels in media systems |
US10347245B2 (en) * | 2016-12-23 | 2019-07-09 | Soundhound, Inc. | Natural language grammar enablement by speech characterization |
CN106952645B (zh) * | 2017-03-24 | 2020-11-17 | 广东美的制冷设备有限公司 | 语音指令的识别方法、语音指令的识别装置和空调器 |
EP3392884A1 (en) | 2017-04-21 | 2018-10-24 | audEERING GmbH | A method for automatic affective state inference and an automated affective state inference system |
US10939834B2 (en) | 2017-05-01 | 2021-03-09 | Samsung Electronics Company, Ltd. | Determining cardiovascular features using camera-based sensing |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
EP3662470B1 (en) * | 2017-08-01 | 2021-03-24 | Dolby Laboratories Licensing Corporation | Audio object classification based on location metadata |
KR102413282B1 (ko) * | 2017-08-14 | 2022-06-27 | 삼성전자주식회사 | 개인화된 음성 인식 방법 및 이를 수행하는 사용자 단말 및 서버 |
KR101997161B1 (ko) * | 2017-12-04 | 2019-10-01 | 한국과학기술원 | 물리적 공간의 센서 데이터와 온라인 메신저 사용 데이터를 이용한 사용자 퍼소나 분류 방법 및 장치 |
CN108154588B (zh) * | 2017-12-29 | 2020-11-27 | 深圳市艾特智能科技有限公司 | 解锁方法、系统、可读存储介质及智能设备 |
KR102585231B1 (ko) * | 2018-02-02 | 2023-10-05 | 삼성전자주식회사 | 화자 인식을 수행하기 위한 음성 신호 처리 방법 및 그에 따른 전자 장치 |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US20190385711A1 (en) | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
EP3811245A4 (en) | 2018-06-19 | 2022-03-09 | Ellipsis Health, Inc. | MENTAL HEALTH ASSESSMENT SYSTEMS AND METHODS |
CN109344229A (zh) * | 2018-09-18 | 2019-02-15 | 深圳壹账通智能科技有限公司 | 对话分析评价的方法、装置、计算机设备和存储介质 |
US11037550B2 (en) | 2018-11-30 | 2021-06-15 | Dish Network L.L.C. | Audio-based link generation |
CN109961804B (zh) * | 2019-02-12 | 2021-11-02 | 百度在线网络技术(北京)有限公司 | 智能设备满意度评估方法、装置及存储介质 |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
CN111326136B (zh) * | 2020-02-13 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
CN112086085B (zh) * | 2020-08-18 | 2024-02-20 | 珠海市杰理科技股份有限公司 | 音频信号的和声处理方法、装置、电子设备和存储介质 |
DK202070869A1 (en) * | 2020-12-22 | 2022-06-24 | Gn Audio As | Voice coaching system and related methods |
KR102385176B1 (ko) | 2021-11-16 | 2022-04-14 | 주식회사 하이 | 심리 상담 장치 및 그 방법 |
CN114299921B (zh) * | 2021-12-07 | 2022-11-18 | 浙江大学 | 一种语音指令的声纹安全性评分方法和系统 |
WO2023158050A1 (en) * | 2022-02-18 | 2023-08-24 | Samsung Electronics Co., Ltd. | Methods and electronic device for providing interaction with virtual assistant |
KR102495725B1 (ko) | 2022-03-25 | 2023-02-07 | 주식회사 하이 | 자기 대화 장치 및 그 방법 |
KR102481216B1 (ko) | 2022-03-25 | 2022-12-28 | 주식회사 하이 | 자기 대화 장치 및 방법 |
US20240005911A1 (en) * | 2022-05-27 | 2024-01-04 | Accenture Global Solutions Limited | Systems and methods to improve trust in conversations with deep learning models |
CN116631446B (zh) * | 2023-07-26 | 2023-11-03 | 上海迎智正能文化发展有限公司 | 一种基于言语分析的行为方式分析方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1423846B1 (en) * | 2001-08-09 | 2006-03-29 | Voicesense Ltd. | Method and apparatus for speech analysis |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6006188A (en) | 1997-03-19 | 1999-12-21 | Dendrite, Inc. | Speech signal processing for determining psychological or physiological characteristics using a knowledge base |
US6173260B1 (en) * | 1997-10-29 | 2001-01-09 | Interval Research Corporation | System and method for automatic classification of speech based upon affective content |
US6151571A (en) * | 1999-08-31 | 2000-11-21 | Andersen Consulting | System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
EP1256937B1 (en) * | 2001-05-11 | 2006-11-02 | Sony France S.A. | Emotion recognition method and device |
EP1256931A1 (en) * | 2001-05-11 | 2002-11-13 | Sony France S.A. | Method and apparatus for voice synthesis and robot apparatus |
US20040054534A1 (en) * | 2002-09-13 | 2004-03-18 | Junqua Jean-Claude | Client-server voice customization |
US8321427B2 (en) * | 2002-10-31 | 2012-11-27 | Promptu Systems Corporation | Method and apparatus for generation and augmentation of search terms from external and internal sources |
US7548651B2 (en) * | 2003-10-03 | 2009-06-16 | Asahi Kasei Kabushiki Kaisha | Data process unit and data process unit control program |
US20060122834A1 (en) * | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US7995717B2 (en) * | 2005-05-18 | 2011-08-09 | Mattersight Corporation | Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto |
WO2008092473A1 (en) * | 2007-01-31 | 2008-08-07 | Telecom Italia S.P.A. | Customizable method and system for emotional recognition |
US8195460B2 (en) * | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
-
2008
- 2008-06-17 US US12/140,413 patent/US8195460B2/en active Active
-
2009
- 2009-06-17 JP JP2011514199A patent/JP2011524551A/ja active Pending
- 2009-06-17 EP EP18153091.6A patent/EP3396668B1/en active Active
- 2009-06-17 KR KR1020117001201A patent/KR101683310B1/ko active IP Right Grant
- 2009-06-17 EP EP09766323.1A patent/EP2304718B1/en active Active
- 2009-06-17 WO PCT/IL2009/000604 patent/WO2009153788A2/en active Application Filing
- 2009-06-17 ES ES18153091T patent/ES2896267T3/es active Active
- 2009-06-17 CN CN2009801320343A patent/CN102124515B/zh active Active
- 2009-06-17 ES ES09766323.1T patent/ES2668969T3/es active Active
-
2012
- 2012-05-07 US US13/465,487 patent/US8682666B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1423846B1 (en) * | 2001-08-09 | 2006-03-29 | Voicesense Ltd. | Method and apparatus for speech analysis |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013152277A (ja) * | 2012-01-24 | 2013-08-08 | Toshiba Tec Corp | 情報提供装置とそのプログラムおよび情報提供システム |
JP2015064828A (ja) * | 2013-09-26 | 2015-04-09 | 日本電信電話株式会社 | 対話傾向得点化装置、方法及びプログラム |
JP2019203998A (ja) * | 2018-05-24 | 2019-11-28 | カシオ計算機株式会社 | 会話装置、ロボット、会話装置制御方法及びプログラム |
JP7131077B2 (ja) | 2018-05-24 | 2022-09-06 | カシオ計算機株式会社 | 会話装置、ロボット、会話装置制御方法及びプログラム |
JP2021162627A (ja) * | 2020-03-30 | 2021-10-11 | パイオニア株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN102124515B (zh) | 2012-09-12 |
EP2304718A2 (en) | 2011-04-06 |
ES2896267T3 (es) | 2022-02-24 |
EP3396668A1 (en) | 2018-10-31 |
EP3396668B1 (en) | 2021-07-28 |
CN102124515A (zh) | 2011-07-13 |
WO2009153788A2 (en) | 2009-12-23 |
ES2668969T3 (es) | 2018-05-23 |
EP2304718B1 (en) | 2018-01-24 |
KR20110043600A (ko) | 2011-04-27 |
US8195460B2 (en) | 2012-06-05 |
WO2009153788A3 (en) | 2010-03-18 |
US20090313018A1 (en) | 2009-12-17 |
US8682666B2 (en) | 2014-03-25 |
US20120221336A1 (en) | 2012-08-30 |
KR101683310B1 (ko) | 2016-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011524551A (ja) | スピーチ分析による話者の特徴化 | |
US8825479B2 (en) | System and method for recognizing emotional state from a speech signal | |
US7606701B2 (en) | Method and apparatus for determining emotional arousal by speech analysis | |
Aloufi et al. | Emotionless: Privacy-preserving speech analysis for voice assistants | |
JP2006267465A (ja) | 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体 | |
Hasrul et al. | Human affective (emotion) behaviour analysis using speech signals: a review | |
Mary et al. | Analysis and detection of mimicked speech based on prosodic features | |
Huang et al. | Toward a speaker-independent real-time affect detection system | |
Babu et al. | Forensic speaker recognition system using machine learning | |
KR101560833B1 (ko) | 음성 신호를 이용한 감정 인식 장치 및 방법 | |
Jung et al. | Selecting feature frames for automatic speaker recognition using mutual information | |
Mary et al. | Evaluation of mimicked speech using prosodic features | |
Nandwana et al. | A new front-end for classification of non-speech sounds: a study on human whistle | |
Yadav et al. | Emotion recognition using LP residual at sub-segmental, segmental and supra-segmental levels | |
Julia et al. | Detection of emotional expressions in speech | |
Bapineedu | Analysis of Lombard effect speech and its application in speaker verification for imposter detection | |
Farrús et al. | Robustness of prosodic features to voice imitation | |
Krishna et al. | Automatic Text-Independent Emotion Recognition Using Spectral Features | |
Skarnitzl et al. | Tuning the performance of automatic speaker recognition in different conditions: effects of language and simulated voice disguise. | |
Witkowski et al. | Caller identification by voice | |
Feng et al. | I-vector Based within speaker voice quality identification on connected speech | |
Jagtap et al. | REAL-TIME SPEECH BASED SENTIMENT RECOGNITION | |
IL209996A (en) | Speech characterization through speech analysis | |
Rakesh et al. | A comparative study of silence and non silence regions of speech signal using prosody features | |
Espinosa et al. | Detection of negative emotional state in speech with ANFIS and genetic algorithms. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130221 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130228 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130326 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130402 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130426 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130508 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130527 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130702 |