JP2007172423A - 発話状態検出装置および方法 - Google Patents

発話状態検出装置および方法 Download PDF

Info

Publication number
JP2007172423A
JP2007172423A JP2005371193A JP2005371193A JP2007172423A JP 2007172423 A JP2007172423 A JP 2007172423A JP 2005371193 A JP2005371193 A JP 2005371193A JP 2005371193 A JP2005371193 A JP 2005371193A JP 2007172423 A JP2007172423 A JP 2007172423A
Authority
JP
Japan
Prior art keywords
information
voice
transmission
identification information
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005371193A
Other languages
English (en)
Inventor
Masakazu Fujimoto
正和 藤本
Yuichi Ueno
裕一 上野
Yasuaki Konishi
泰彰 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005371193A priority Critical patent/JP2007172423A/ja
Priority to US11/451,511 priority patent/US20070150274A1/en
Publication of JP2007172423A publication Critical patent/JP2007172423A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】所在情報に加えて発話情報を用いることで精度良く利用者の活動を把握する。
【解決手段】利用者が発信装置20を携帯する。発信装置20のID保持部21は、発信装置固有のIDを情報として保持する。音声検出部22は、マイクロホンや骨伝導など音を検知する手段である。情報送信部23は、電波や赤外線などによりID情報と音声レベル情報を送信する。受信装置30は各所に設置される。受信装置30の情報受信部31は、設置箇所の検知範囲内に所在する発信装置20からの情報を受信する。ID抽出部32は、発信装置の固有のIDを抽出する。発話判別部33は、音声レベル情報に基づいて、IDのユーザが発話中かどうかを判断する。履歴記憶部34は、受信装置および発信装置のID情報と発話判別情報とを履歴データとして記録する。履歴分析部35は、記録された履歴の分析を行う。
【選択図】図1

Description

この発明は、人が他の人と対話している対話情報を検出する技術に関する。
現在、種々の位置検出用のデバイスが提供されている。これらデバイスを用いて利用者の位置情報を測定し、その情報を利用したサービスが考案されている。例えば特許文献1はGPSを利用し、特許文献2は携帯電話を利用し、特許文献3はPHSを利用し、特許文献4はRFIDタグを利用している。
また他の特許文献は、このような技術を応用して、コミュニケーションの発生を支援する装置を提案している(特許文献5、特許文献6、特許文献7など)。
これらの提案を用いれば、利用者が検出される場所によって、例えば会議室であれば、会議中であるため割り込めないが、会議室を出れば割り込めるというように状態を推定することも可能になる。
ところで、利用者が会議中に割り込まれても良い状態かどうかなど、状況の検出精度を向上するためには、対話中かどうかの情報を明確にする必要がある。
しかし、位置情報から得られる情報だけでは、精度に限界があり、例えば会議室に同時間にいることが検出されたA,Bの2人の人間は、コミュニケーションをとっている可能性が非常に高いものの、他の場所では、廊下でたまたますれ違っただけか、立ち話をしているのか、他の人と話をしているのかというように、同じ時間に同じ場所に検出されても、コミュニケーションをとっているかどうかは不明である。
特開2001−338373公報 特開2002−31677公報 特開2000−36979公報 特開2003−44970公報 特開2004−246713公報 特開2005−085235公報 特開2005−071146公報
この発明は、以上の事情を考慮してなされたものであり、利用者の位置を検出するシステムの位置情報に加え、発話のための音声を検知してこの情報を用い、対話中であるかどうかの状態を検出して、物理的な位置情報からのみ推定するよりも状況を精度良く判別できる会話状態検出技術を提供することを目的としている。
この発明の原理的な構成例では、上述の目的を達成するために、アクティブRFID、PHS、赤外線バッジなどの位置特定手段と音声センサを組み合わせる。位置特性手段と音声センサは一体型でもよいし、組み合わせ型でもよい。音声センサは、マイクロホンの音量を検出できれば良い。装着方法(例えば眼鏡型など)によっては、マイクに指向性を持たせたり、骨伝導を利用しても良い。発話しているかどうかは、例えばこれまでの平均音量など、ある基準音量を超えたかどうかを基準にする。騒がしい場所、会議体による差などがあるため、位置情報と組み合わせて基準音量を区別したり、集まるメンバにより基準音量を区別したりしてもよい。また、既存のノイズキャンセラ技術を導入しても良い。検出精度の向上のため、例えば3KHz以下というように周波数フィルターを入れても良い。
ID情報と発話の有無の情報とを受信装置に送信するのでなく、ID情報と音量情報を受信装置に送信し、受信装置側で音量の変化を判別しても良い。現在の位置情報(の変化)を携帯する装置自体が知ることができれば、基準音量は装置内部で演算しても構わない。
音声は出続けるわけではないので、オン・オフをともなう信号は高周波成分を取り除く方が好ましい。
位置と発話開始が判別できれば、場所に据えつけたカメラなどを起動するようなシステムも考えられる。対象者が発話している状態かどうかがわかり、対話中かどうかによって異なる適切なサービスを提供したり、会議中で発言量の多いキーメンバを特定したりできる。例えば、発話中または対話中には携帯電話機がかからないようにしたり、あるいは、非発話中または非対話中に紹介サービスを提供したりしても良い。
さらにこの発明を説明する。
この発明の一側面によれば、上述の目的を達成するために、発話状態検出装置が、利用者が携帯する発信装置と、各領域にそれぞれ設置される受信装置とを有し、上記発信装置は、識別情報を保持する識別情報保持手段と、音声を検出する音声検出手段と、検出された音声の情報および上記識別情報を含む発信情報を発信する発信手段とを有し、上記受信装置は、発信された発信情報を受信し、さらに、上記受信装置で受信した発信情報に含まれる識別情報および音声の情報に基づいて利用者の発話状態を検出する発話状態判別手段を有するようにしている。
この構成においては、利用者の所在と利用者の発話状態とを併せて検出することができ、所在に関連する活動情報に加えて発話に関連する活動情報を取得して利用者の活動を詳細に把握できる。
この構成において、上記発話状態検出手段により検出された発話状態に基づいて複数の利用者の間の会話状態を判別する判別手段を有してもよい。この場合、複数の利用者が同一の場所にいるという所在情報だけでは、会話状態を精度良く検出することが困難であるが、発話状態の検出情報を利用して精度良く会話状態を判別できる。
また、上記発信装置は、典型的には、RFIDタグ、PHSおよび赤外線バッジからなるグループから選択される。受信装置はこれに対応するものである。
また、上記音声検出装置は典型的にはマイクロホンからの音量を検出する。
また、上記音声検出装置は、骨伝導で音声を伝達し、伝達された音量を検出するものでもよい。
また、上記音声検出手段は、発話レベルの音声かどうかを検出してもよい。
また、上記発話状態判別手段が、上記発信情報に含まれる上記音声の情報に基づいて発話レベルかどうかを判別してもよい。
なお、この発明は装置またはシステムとして実現できるのみでなく、方法としても実現可能である。また、そのような発明の一部をソフトウェアとして構成することができることはもちろんである。またそのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品もこの発明の技術的な範囲に含まれることも当然である。
この発明の上述の側面および他の側面は特許請求の範囲に記載され以下実施例を用いて詳述される。
この発明によれば、所在情報に加えて発話情報を用いることで精度良く利用者の活動を把握できる。
以下、この発明の実施例について説明する。
図1は、この発明の実施例の発話状態検出システム10を全体として示しており、この図において、発信装置20は利用者が携帯するものであり、受信装置30は各領域(地域的な位置)に設置されるものである。発信装置20および受信装置30はそれぞれ1つずつしか示さないが、通常は複数ある。発信装置20は、典型的にはアクティブRFIDタグであるが、これに限定されず、PHS(Personal Handyphone System)を含む、移動通信システムの移動局、赤外線バッジ(IDタグ)等の任意の位置検知システムの発信装置であってよい。受信装置30は発信装置20に対応して発信装置20からの送信信号を受信するものである。
発信装置20は、ID保持部21、音声検出部22および情報送信部23を含んで構成されている。ID保持部21は、個々の発信装置20に特有のIDを情報として保持する。音声検出部22は、マイクロホンや骨伝導など音を検知する手段であり、周波数フィルターやノイズキャンセラ−を組み込んでも良い。情報送信部23は、電波(RFIDの場合等)や赤外線(赤外線バッジの場合)などによりID情報と音声レベル情報を送信する。送信データは例えば図3に示すようなものであり、発信装置IDおよび音量情報を含む。
受信装置30は、情報受信部31、ID抽出部32、発話判別部33、履歴記憶部34および履歴分析部35を含んで構成されている。受信装置30は上述のとおり各所に設置されるが、少なくとも、情報受信部31を各所に設置し、その他の部分は、ネットワーク上のサーバ装置に機能部として構成してもよい。この例では、例えば、情報受信部31、ID抽出部32、発話判別部33、および履歴記憶部34を、設置箇所に配置し、履歴分析部35はサーバ装置上の機能部として構成する。もちろんこれに限定されない。
情報受信部31は、設置箇所の検知範囲内に所在する発信装置20の情報送信部23により送られた情報を受信し電気信号に変換する。ID抽出部32は、発信装置20の固有のIDを受信した情報から取り出す。発話判別部33は、発信装置20から送られた音声レベル情報に基づいて、IDのユーザが発話中かどうかを判断する。履歴記憶部34は、発信装置20の固有ID情報と、受信装置30の位置情報と発話判別情報を履歴データとして記録する。履歴データは例えば図5に示すようなものである。
履歴分析部35は、発話量の多いキーメンバを抽出したり、対話によるコミュニケーション量を集計したりというように、記録された履歴の分析を行う。
履歴記憶部34の代わりに通信部を設け、サーバ装置などに送り、サーバ装置上で記録、集計を行ってもよい。
なお、具体的な実装例は図19に示すようなものである。図19の例では、ネットワーク40を利用したシステム構成例で、受信装置30を、会議室など会場に設置し、発信装置20を検出したい利用者が携帯し、ネットワーク40を経由してサーバ装置50上で履歴を収集、分析する。
つぎに実施例の動作について説明する。
図2は発信装置20の発信動作の例を示している。この図において、まず立ち上げ時に初期設定を行う(S10)。次に、送信するタイミングかどうかを調べ、送信タイミングでなければ待つ(S11)。送信タイミングであれば、音量を測定し、発信装置特有のIDと音量を送信し、送信タイミングのチェックに戻る(S12〜S14)。送信データは上述のとおり、図3に示すようなものであり、典型的には、発信装置IDと音量情報を含む。
図4は受信装置30の受信動作の例を示している、この図において、まず立ち上げ時に初期設定を行う(S20)。次に、受信信号があるかどうかをチェックし、受信信号が来るまで待つ(S21)。受信信号がある場合、受信時刻を記録し、受信信号から発信装置特有のIDを取り出し、さらに音量情報を取り出す(S22〜S24)。取り出した音量情報に基づいて発話の判断を行う(S25)。その後、発話状態履歴データを記憶して(S26)、ステップS21に戻り処理を繰り返す。発話状態履歴データは、例えば、図5に示すように受信装置ID、発信装置ID、受信時刻、および発話状態フラグ(「1」が発話状態を示す)を含んでいる。
図6は発話判定処理(S25)の例を示す。図6において、まず初期設定を行う(S30)。次に、判定基準値を算出する(S31)。判定基準値は、予め設定された固定値でも可能である。また、これまでの音量データの平均を取り、判定基準値とすることができる。この場合は、平均値と受信データ数などのデータを残しておく必要がある。平均値とデータ数の場合は、以下の式で平均値を更新することができる。
Figure 2007172423
続いて、現在の音量において発話が発生しているかどうかを判定し、結果を返す(S32)。
なお、場所によって騒がしい場所があったり、集まるメンバによって盛り上がったりして、一定の基準値では判定しにくいことがある。そこで、騒がしい場合を避けるために、ノイズキャンセラの技術などを利用したり、位置情報を使って、場所によって判定基準値を区別したり、メンバ情報を利用して区別してもよい。
図7は、履歴分析部35の分析動作の例を示している。この図において、ここでは、履歴分析処理の簡単な例として、発信装置IDごとの発話量の集計を考える。まず、履歴分析処理を開始すると、初期設定を行う(S40)。次に集計対象とする発信装置IDの履歴を検索する(S41)。続いて、検索した履歴データの中で発話がオンになっている回数を集計する(S42)。次の発信装置IDが残っていれば、発信装置IDの検索処理に戻る(S43)。ここで次の発信装置IDがなければ、集計結果を出力し、履歴分析処理を終了する(S44)。履歴分析結果(集計結果)は例えば図8に示すようになる。
ここでは、全データ中の発話量を集計したが、例えばある会議だけを対象にしても良いし、ある特定のグループの打合せを全て対象にして集計したりしても良い。
また、集計期間を1ヶ月というように区切って、時間変化を見るような方法も可能である。
つぎに他の履歴分析処理の例を説明する。ここでは、履歴分析処理の他の例として、発信装置20を携帯するユーザ同士の対話状況の検出を行うものとする。
図9はこの履歴分析処理の例を示しており、この図において、まず、初期設定を行った後(S50)、場所に滞在する時間帯を抽出する処理を行う(S51)。続いて滞在時間帯のデータの中から、対話中のデータ群を判定し、結果を出力する(S52、S53)。
図10は、時間帯抽出処理(S51)の処理例を示しており、この図において、まず初期設定を行った後(S60)、発話状態履歴を読み出す(S61)。次に、発話状態履歴をユーザごとの履歴に分割する(S62)。ユーザごとに分割したデータの例を図11に示す。続いて、ユーザごとの履歴を連続して検出される場所ごとに分割する(S63)。場所ごとに特定ユーザのデータを分割した例を図12に示す。図12のデータを用いて複数のユーザが同一の場所にいるかどうかを判別できる。このデータは、1のユーザが特定の場所に所在し続ける一連の動作に対応し、後の処理で元データとして利用し、図示しないが、元データ番号が付与されている。区別したい場所には、受信装置が一つである必要はなく、複数あっても構わない。その場合は、同じ場所にある受信装置ID全てのデータをまとめて扱えばよい。分割するユーザが残っていれば、次のユーザの履歴を分割する処理(S63)に戻り、全てのユーザに関しての処理が終われば終了する(S64)。
図13は、対話判定処理(S52)の処理例を示しており、この図において、まず初期設定を行った後(S70)、場所ごとのユーザ履歴を場所毎に抽出する(S71)。続いて、場所ごとのユーザ履歴(図12参照)のそれぞれから、図14に示すように到着時刻と退去時刻を算出し、到着時刻順に並べる(S72)。次に、図15および図16、図17に示すように、到着時刻と退去時刻の重なるデータを求める(S73)。重なりがあるデータにおける発話状態を参照し、図18に示すように、発話の開始時刻と終了時刻を算出する(S74)。全ての重なりデータの発話を調べたら、次の場所の履歴の処理に戻る(S75、S76)。全ての場所に関する判定が終了したら、処理を終了する(S76)。
上述の処理を具体例を挙げてさらに説明する。到着時刻と退去時刻の重なるデータの抽出は、データが到着時刻順に並んでいるものとして、2つの発信装置をA,B、それぞれの到着時刻をTa(A),Ta(B)、それぞれの退去時刻をTl(A),Tl(B)として、
Ta(A)≦Ta(B)<Tl(A)
を満たすデータを探せばよい。
また、同時検出時間(対話時間)は、max(Ta(A),Ta(B))からmin(Tl(A),Tl(B))となる。3者以上の場合も同様に求められる。
図15の例では、発信装置IDが00000080ABCDと00000080ABCEの2つの発信装置が、2005/08/30 10:40:10〜10:49:30の間に同じ場所で検出され、同様に、発信装置IDが00000080ABCDと00000080BBBBの2つの発信装置が、2005/08/31 9:13:00〜12:07:40の間に同じ場所で検出されていることがわかる。
いくつかの発信装置が、同じ場所で検出されていることがわかった場合、実際に対話があったとみなせるかどうかを元データの発話状態から判別し、対話期間を求める。
ここでの例は、発信装置IDの00000080ABCDと00000080ABCEが同時に検出された、2005/08/30 10:40:10〜10:49:30の間の対話期間を算出する例を示す。まず、元データの中の重なり部分のみを抽出し、その中で最も早く発話状態になる時刻(例では元データID=2の2005/08/30 10:40:10。図16)を対話の開始時刻、最後の発話状態の時刻(例では元データID=2の2005/08/30 10:49:10。図17)を対話の終了時刻とする。これにより、発信装置IDの00000080ABCDと00000080ABCEの対話期間は、2005/08/30 10:40:10〜2005/08/30 10:49:10と求めることができる。
以上で実施例の説明を終了する。
なお、この発明は上述の実施例に限定されるものではなくその趣旨を逸脱しない範囲で種々変更が可能である。例えば、上述の例の発話状態情報または対話状態情報を実質的にリアルタイムで取得してその情報を用いて所定のサービスを提供したり禁止したりしても良い。例えば、発話時または対話時に携帯電話の着信を禁止しても良いし、非発話時または非対話時に紹介情報を提供するようにしても良い。また、上述の例では、定期的に発信情報を送信するようにしているが、振動検出装置を設けて移動時に送信を禁止するようにしても良い。また、図20に示すように。発話状態を検出したときに発信を行なうようにしてもよい。例えば、音量レベルが発話レベルに達しない場合には発信制御部24が発信を禁止するようにしても良い。もちろん発話中でも音声が途切れることがあるので、一定の、積分処理等を行なって、短い無音期間があっても発話状態として扱うことが好ましい。また、音声が実質的に所定レベルの場合に発信をイネーブルにするか、それと関係なく発信をイネーブルにするか切り替えるようにしても良い。音声が実質的に所定レベルの場合に発信をイネーブルにすれば、発話や対話に着目して人の所在情報を分析可能になる。また、利用者ごとにモードを切り替えても良い。図20の発信装置は、各部を一体にRFIDタグ等の発信装置に実装しても良いし、コネクタを用いて発信装置本体に音声検出部等を接続するような構成を採用しても良い。
この発明の実施例の構成を全体として示すブロック図である。 上述実施例の発信装置の発信処理の例を説明するフローチャートである。 上述実施例の送信データの例を説明する図である。 上述実施例の受信装置の受信処理の例を説明するフローチャートである。 上述実施例の発話状態履歴の例を説明する図である。 上述実施例の受信装置に発話判定処理の例を説明するフローチャートである。 上述実施例の受信装置に履歴分析処理の例を説明するフローチャートである。 上述実施例の履歴分析結果の例を説明する図である。 上述実施例の受信装置に履歴分析処理の他の例を説明するフローチャートである。 上述実施例の受信装置に時間抽出処理の例を説明するフローチャートである。 上述実施例のユーザ毎の履歴のデータ構造の例を説明する図である。 上述実施例の場所毎のユーザ履歴のデータ構造の例を説明する図である。 上述実施例の受信装置に対話判定処理の例を説明するフローチャートである。 上述の実施例において到着および退去時間を求める例を説明する図である。 上述の実施例において場所ごとの到着時間と退去時間の組の例を説明する図である。 上述実施例において、元データ1についての滞在時間の例を示す図である。 上述実施例において、元データ2についての滞在時間の例を示す図である。 上述実施例における対話時間抽出結果の例を説明する図である。 上述実施例の通信ネットワークを用いた実装例を説明する図である。 上述実施例の変形例である。
符号の説明
10 発話状態検出システム
20 発信装置
21 ID保持部
22 音声検出部
23 情報送信部
24 発信制御部
30 受信装置
31 情報受信部
32 ID抽出部
33 発話判別部
34 履歴記憶部
35 履歴分析部
40 ネットワーク
50 サーバ装置

Claims (11)

  1. 利用者が携帯する発信装置と、各領域にそれぞれ設置される受信装置とを有し、
    上記発信装置は、
    識別情報を保持する識別情報保持手段と、
    音声を検出する音声検出手段と、
    検出された音声の情報および上記識別情報を含む発信情報を発信する発信手段とを有し、
    上記受信装置は、発信された発信情報を受信し、
    さらに、上記受信装置で受信した発信情報に含まれる識別情報および音声の情報に基づいて利用者の発話状態を検出する発話状態判別手段を有することを特徴とする発話状態検出装置。
  2. 上記発話状態検出手段により検出された発話状態に基づいて複数の利用者の間の会話状態を判別する判別手段を有する請求項1記載の発話状態検出装置。
  3. 上記発信装置は、RFIDタグ、PHSおよび赤外線バッジからなるグループから選択された請求項1または2記載の発話状態検出装置。
  4. 上記音声検出装置はマイクロホンからの音量を検出する請求項1、2または3記載の発話状態検出装置。
  5. 上記音声検出装置は、骨伝導で音声を伝達し、伝達された音量を検出する請求項1、2または3記載の発話検出装置。
  6. 上記音声検出手段は、発話レベルの音声かどうかを検出する請求項1〜5のいずれかに記載の発話検出装置。
  7. 上記発話状態判別手段が、上記発信情報に含まれる上記音声の情報に基づいて発話レベルかどうかを判別する請求項1〜5のいずれかに記載の発話検出装置。
  8. 利用者が携帯する発信装置と、各領域にそれぞれ設置される受信装置とを有し、
    上記発信装置は、
    識別情報を保持する識別情報保持手段と、
    音声を検出する音声検出手段と、
    検出された音声に基づいて上記識別情報を含む発信情報を発信する発信手段とを有し、
    上記受信装置は、発信された発信情報を受信して上記発信情報に含まれる識別情報を取得することを特徴とする識別情報検出装置。
  9. 上記発信手段は、検出された音声に基づいて、発信機能をイネーブルにする請求項8記載の識別情報検出装置。
  10. 識別情報を保持する識別情報保持手段と、
    音声を検出する音声検出手段と、
    検出された音声に基づいて上記識別情報を含む発信情報を発信する発信手段とを有することを特徴とする発信装置。
  11. 利用者が携帯する発信装置と、各領域にそれぞれ設置される受信装置とを用いて発話状態を検出する方法において、
    上記発信装置の音声検出手段が、音声を検出するステップと、
    上記発信装置の発信手段が、検出された音声の情報および上記発信装置の識別情報保持手段に保持されている識別情報を含む発信情報を発信するステップと、
    上記受信装置が、上記発信装置から発信された発信情報を受信するステップと、
    発話状態判別手段が、上記受信装置で受信した発信情報に含まれる識別情報および音声の情報に基づいて利用者の発話状態を検出するステップとを有することを特徴とする発話状態検出方法。
JP2005371193A 2005-12-23 2005-12-23 発話状態検出装置および方法 Pending JP2007172423A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005371193A JP2007172423A (ja) 2005-12-23 2005-12-23 発話状態検出装置および方法
US11/451,511 US20070150274A1 (en) 2005-12-23 2006-06-13 Utterance state detection apparatus and method for detecting utterance state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005371193A JP2007172423A (ja) 2005-12-23 2005-12-23 発話状態検出装置および方法

Publications (1)

Publication Number Publication Date
JP2007172423A true JP2007172423A (ja) 2007-07-05

Family

ID=38195031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005371193A Pending JP2007172423A (ja) 2005-12-23 2005-12-23 発話状態検出装置および方法

Country Status (2)

Country Link
US (1) US20070150274A1 (ja)
JP (1) JP2007172423A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066579A (ja) * 2012-09-25 2014-04-17 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2014077736A (ja) * 2012-10-11 2014-05-01 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10431202B2 (en) * 2016-10-21 2019-10-01 Microsoft Technology Licensing, Llc Simultaneous dialogue state management using frame tracking
JP6900996B2 (ja) * 2017-03-31 2021-07-14 日本電気株式会社 会話支援装置、会話支援方法、及びプログラム
US11133006B2 (en) * 2019-07-19 2021-09-28 International Business Machines Corporation Enhancing test coverage of dialogue models

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2148631C (en) * 1994-06-20 2000-06-13 John J. Hildin Voice-following video system
JP4225074B2 (ja) * 2003-02-14 2009-02-18 富士ゼロックス株式会社 対話支援装置および方法並びにプログラム、対話支援システム
US7409427B2 (en) * 2003-02-25 2008-08-05 Bea Systems, Inc. Systems and methods for lightweight conversations
JP4345406B2 (ja) * 2003-08-26 2009-10-14 富士ゼロックス株式会社 対話支援システムおよび装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066579A (ja) * 2012-09-25 2014-04-17 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム
JP2014077736A (ja) * 2012-10-11 2014-05-01 Fuji Xerox Co Ltd 音声解析装置、音声解析システムおよびプログラム

Also Published As

Publication number Publication date
US20070150274A1 (en) 2007-06-28

Similar Documents

Publication Publication Date Title
US8855331B2 (en) Audio analysis apparatus
US9026437B2 (en) Location determination system and mobile terminal
US10068575B2 (en) Information notification supporting device, information notification supporting method, and computer program product
CN101911730B (zh) 向用户发信号通知麦克风遮盖
CN107850667A (zh) 使用rf无线信号及超声波信号检测电话的位置
JP6160447B2 (ja) 端末装置及びプログラム
US20040155770A1 (en) Audible alarm relay system
JP2013138353A (ja) 音声解析装置および音声解析システム
JP2007172423A (ja) 発話状態検出装置および方法
US9153244B2 (en) Voice analyzer
WO2016198132A1 (en) Communication system, audio server, and method for operating a communication system
JP2018025855A (ja) 情報処理サーバ、情報処理装置、情報処理システム、情報処理方法、およびプログラム
KR101564347B1 (ko) 긴급 구조 요청 단말 및 긴급 구조 요청 방법
JP6160042B2 (ja) 位置特定システム
JP2009302949A (ja) 携帯通信端末および状況推定システム
JP2003241788A (ja) 音声認識装置及び音声認識システム
JP2010258687A (ja) 無線通信装置
JP2010010856A (ja) ノイズキャンセル装置、ノイズキャンセル方法、ノイズキャンセルプログラム、ノイズキャンセルシステム、及び、基地局
JP2007336465A (ja) 活動履歴記録装置および方法
US9014395B2 (en) Audio analysis apparatus and audio analysis system
CN115706875A (zh) 对讲语音质量优化方法、装置、设备及存储介质
JP2005348240A (ja) 電話装置
JP2013140534A (ja) 音声解析装置、音声解析システムおよびプログラム
KR101988045B1 (ko) 긴급 상황 모니터링 시스템 및 그 제어방법과, 그 시스템에 포함되는 통신 단말기 및 그 제어방법
JP6547367B2 (ja) 通信端末特定装置、情報収集装置および方法