JP2008242318A - 対話を検出する装置、方法およびプログラム - Google Patents

対話を検出する装置、方法およびプログラム Download PDF

Info

Publication number
JP2008242318A
JP2008242318A JP2007085983A JP2007085983A JP2008242318A JP 2008242318 A JP2008242318 A JP 2008242318A JP 2007085983 A JP2007085983 A JP 2007085983A JP 2007085983 A JP2007085983 A JP 2007085983A JP 2008242318 A JP2008242318 A JP 2008242318A
Authority
JP
Japan
Prior art keywords
voice
terminal
dialogue
received
terminals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007085983A
Other languages
English (en)
Other versions
JP4364251B2 (ja
Inventor
Masayuki Okamoto
昌之 岡本
Naoki Iketani
直紀 池谷
Hideo Umeki
秀雄 梅木
Sougo Tsuboi
創吾 坪井
Kenta Cho
健太 長
Yoshiaki Nishimura
圭亮 西村
Masanori Hattori
正典 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007085983A priority Critical patent/JP4364251B2/ja
Priority to US12/046,021 priority patent/US8306823B2/en
Publication of JP2008242318A publication Critical patent/JP2008242318A/ja
Application granted granted Critical
Publication of JP4364251B2 publication Critical patent/JP4364251B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】音声情報を用いてユーザ間の対話を検出する対話検出装置を提供する。
【解決手段】ユーザを識別するユーザIDと、端末200で取得された音声と、音声の発話期間とを端末200から受付ける音声受付部103と、複数の端末200から受付けた音声間の相関関係を表す相関値を算出して予め定められた第1閾値と比較し、相関値が第1閾値より大きい場合に、相関値を算出した音声を受付けた複数の端末200が互いに近接すると判定する近接判定部104と、対話の検出対象とする任意の対象期間内における、近接すると判定された複数の端末200から受付けた発話期間の関係が、予め定められた規則に適合するか否かを判定し、規則に適合すると判定されたときの対象期間と、近接すると判定された複数の端末200から受付けたユーザIDとを含む対話情報を検出する対話検出部105と、を備えた。
【選択図】 図1

Description

この発明は、複数の入力音声から対話を検出する装置、方法およびプログラムに関するものである。
近年、ユーザ間の会話や多数のユーザが参加する会議などを含むコミュニケーションで、音声・画像・映像の入力機器・センサやディスプレイ機器、またはパーソナルコンピュータ等の電子情報操作機器を活用する機会が増加している。例えば、プロジェクターやパーソナルコンピュータのモニターなどを用いてプレゼンテーションデータを投影し、説明や議論で参照するような利用形態が挙げられる。また、電子ホワイトボードを利用する形態では、電子ホワイトボード上で操作されたペンや指先の位置を検出することでプレゼンテーション情報に対して書き込みを行うこともできる。
このようなコミュニケーション活動の後、またはコミュニケーション活動中に、ある日時に誰と会話したか、前回ある人と会話したのはいつだったか、またはある資料を誰に対して見せたかなどのように、過去のコミュニケーション内容を手掛かりに資料を探すことや、会話・コミュニケーション自体の有無を振り返ったりすることが必要となる場合がある。
このような作業を行うためには、まずコミュニケーションの発生自体を検出する必要がある。これに対して、例えば、互いに通信する機能を備えた端末を用いて、通信可能となったか否かを検出する方法の適用が考えられる。しかし、この方法では、端末同士が近くに存在することは検出できるが、端末を用いて実際にコミュニケーションを行っているか否かは判別できない。
すなわち、この方法では「ある日時に誰が近くにいたか」、「ある人が前回近くにいたのはいつだったか」、または「ある資料を開いた時近くにいたのは誰だったか」という情報は検出可能だが、本来の目的であるコミュニケーションの検出は実現できない。また、居室や会議室などの設備が整っている環境ではなく、廊下での立ち話といった場合には、通信機能を有する設備や端末が存在するとは限らないため、コミュニケーションの検出だけでなく、近くにいることも検出できない。
一方、コミュニケーション状況の管理方法に関しては、主に会議などのコミュニケーションの後で、そのコミュニケーションに関連する資料・オブジェクトを管理する技術や、資料の容易な検索を目指した技術が多数提案されている。
例えば、特許文献1では、作業やコミュニケーション中に利用された情報と関連されたデータをまとめて管理する技術が提案されている。特許文献1の方法では、業務に関連する当事者の位置、時刻、業務内容、情報保管先などのさまざまな情報を関連づけてワークヒストリとして記録することにより、業務に関連する情報の内容を把握するときの操作性の向上等を実現している。
特開2004−30293号公報
しかしながら、特許文献1の方法では、多数の情報を入力して関連づける必要があるため処理負担が大きいという問題があった。また、音声を入力しているが、単に他の情報と関連づけて記録するのみであるため、音声から対話を検出することができないという問題があった。その結果、対話状況を手がかりに情報の検索を行うことができなかった。
本発明は、上記に鑑みてなされたものであって、各ユーザが所有する端末で容易に取得可能な音声情報を用いてユーザ間の対話を検出することができる装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、ユーザの音声を取得可能な複数の端末に接続され、前記端末を利用するユーザ間の対話に関する対話情報を検出する対話検出装置であって、前記端末を識別する端末IDと、前記端末で取得された音声および前記音声の発話期間とを複数の前記端末から受付ける音声受付部と、複数の前記端末から受付けた音声間の相関関係を表す相関値を算出して予め定められた第1閾値と比較し、前記相関値が前記第1閾値より大きい場合に、前記相関値を算出した複数の音声を受付けた複数の前記端末が互いに近接すると判定する近接判定部と、対話の検出対象とする任意の対象期間内における、近接すると判定された複数の前記端末から受付けた発話期間の関係が、予め定められた規則に適合するか否かを判定し、前記規則に適合すると判定されたときの前記対象期間と、近接すると判定された複数の前記端末から受付けた前記端末IDとを含む前記対話情報を検出する対話検出部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる方法およびプログラムである。
本発明によれば、各ユーザが所有する端末で容易に取得可能な情報である音声情報を用いてユーザ間の対話を検出することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる対話検出する装置、方法およびプログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかる対話検出装置は、各ユーザが利用する端末それぞれで取得された音声を入力し、入力した音声間の関係を解析することにより、ユーザ間の対話を検出するものである。
図1は、第1の実施の形態にかかる対話検出装置100の構成を示すブロック図である。図1に示すように、対話検出装置100は、インターネット、LAN(Local Area Network)などのネットワーク300を介して、複数の端末200a、200b(以下、端末200という)と接続されている。なお、ネットワーク300の形態は上記に限られず、また、有線、無線を問わない。
端末200は、図示しないマイクなどによりユーザの音声を入力し、入力した音声を対話検出装置100に送信する機能を備えている。端末200は、例えば、マイクなどの音声取得部を備えた携帯型のPC(Personal Computer)、携帯電話、ボイスレコーダなどのモバイル・ハンドヘルド機器により構成することができる。
第1の実施の形態の対話検出装置100は、各端末200から入力された音声を元に対話を検出する機能を備えたサーバ装置である。対話検出装置100は、スケジュール記憶部131と、音声記憶部132と、対話記憶部133と、通信部121と、スケジュール受付部101と、操作受付部102と、音声受付部103と、近接判定部104と、対話検出部105とを備えている。
スケジュール記憶部131は、各端末200から入力されたユーザの行動の予定を表すスケジュール情報を記憶するものである。図2は、スケジュール記憶部131に記憶されるスケジュール情報のデータ構造の一例を示す説明図である。図2に示すように、スケジュール情報は、会議の開始日時と、会議の終了日時と、会議名称と、会議が実施される場所と、会議の参加者であるユーザを識別するユーザIDのリストとを含む。
なお、同図では会議に関する予定をスケジュール情報として記憶した例を示したが、ユーザの行動の予定を表すものであればスケジュール情報としてあらゆる情報を利用できる。スケジュール記憶部131は、後述する近接判定部104が、相互相関値の算出対象とするユーザを決定するときに参照される。
音声記憶部132は、音声受付部103から受付けた音声に関連する音声情報を格納するものである。本実施の形態では、音声記憶部132は、さらに操作受付部102から受付けた操作情報を音声情報に対応づけて格納する。
図3は、音声記憶部132に格納される音声情報のデータ構造の一例を示す説明図である。図3に示すように、音声情報は、音声を入力した端末200を利用するユーザのユーザIDと、音声の発話期間の開始日時と、発話期間の終了日時と、音声の電気信号である音声データと、会議名称と、音声に関連して参照された資料を識別する資料IDと、参照資料名とを含む。なお、入力元を特定する情報として、ユーザIDの代わりに端末を識別する端末IDを用いるように構成してもよい。
音声データとしては、発話期間中の音声レベル(音量)の変化を表すデータを記憶する。なお、音声データとして、音声信号自体、またはその他の音声に関する特徴量を入力して音声記憶部132に記憶するように構成してもよい。
本実施の形態では、各端末200から対話検出装置100への各種情報の入力が同時に行われるとは限らないため、情報を一時的に格納する構成部として音声記憶部132を用いる。端末200から情報がリアルタイムに入力される場合は、音声記憶部132を備えないように構成してもよい。
対話記憶部133は、対話検出部105によって検出された対話に関する対話情報を格納するものである。図4は、対話記憶部133に格納される対話情報のデータ構造の一例を示す説明図である。図4に示すように、対話情報は、対話の開始日時と、対話の終了日時と、対話に参加したユーザのユーザIDのリストである対話参加者と、資料を利用したユーザのユーザIDである資料利用者と、参照資料名とを含む。なお、資料利用者および参照資料名は、資料が参照されなかった場合には設定されない。また、その他の操作情報を対話情報にさらに含むように構成してもよい。
スケジュール記憶部131、音声記憶部132、および対話記憶部133は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
図1に戻り、通信部121は、端末200との間の情報の送受信を行うものである。通信部121は、有線LAN、無線LAN、Bluetoothなどの利用するネットワーク形態に応じたインタフェース機能を備えている。
スケジュール受付部101は、通信部121を介して、端末200からスケジュール情報の入力を受付けるものである。本実施の形態では、装置起動直後など、コミュニケーション開始前までにスケジュール情報の入力を受付ける。なお、入力タイミングはこれに限られず、任意のタイミングでスケジュール情報を入力するように構成してもよい。
操作受付部102は、ユーザによる端末200上の操作内容を表す操作情報の入力を、通信部121を介して端末200から受付けるものである。操作受付部102は、例えば、端末200で実行中のアプリケーション上で検出されたキーイベント等によって表される操作情報や当該アプリケーションで表示している資料に関する情報の入力を受付ける。また、操作受付部102は、例えば、端末200に備えられた図示しないキーボード・マウスなどのヒューマンインタフェースデバイスによる操作内容を表す操作情報の入力を受付ける。操作情報には、入力元を特定するためのユーザIDおよび操作日時も含まれる。
音声受付部103は、一定以上の音声が発生した区間(発話期間)における音声データを含む音声情報を各端末200から受付けるものである。なお、音声情報は、音声データと、音声データの発話期間と、入力元を特定する情報として端末200を利用するユーザのユーザIDとが含まれる。なお、操作受付部102で操作情報を受付ける代わりに、操作情報を事前に対応づけた音声情報を音声受付部103が受付けるように構成してもよい。
近接判定部104は、各端末200から受付けられた音声データを解析することにより、各端末200が互いに近接するか否かを判定するものである。具体的には、近接判定部104は、任意の2つの端末200から受付けた音声データ間の相関関係を表す相互相関値を算出し、相互相関値が予め定められた閾値より大きい場合に、当該2つの端末200が相互に近接すると判定する。ここで、近接するとは、物理的に近接する場合だけでなく、遠隔会議のように実際の距離は離れていても会話可能な距離にいる場合も含む。なお、音声データ間の相関関係を表す指標は相互相関値に限られるものではなく、従来から用いられているあらゆる相関関係の算出指標を適用できる。相互相関値の算出方法については後述する。
対話検出部105は、互いに近接すると判定された端末200から受付けた音声を対象として、当該音声が対話を構成しているか否かを検出するものである。対話検出部105は、複数の音声の発話期間相互の関係が、対話を構成する音声の発話期間の発生パターンを表す所定の規則を満たすか否かを判断することにより、複数の音声が対話を構成するか否かを判定する。対話を検出した場合、対話検出部105は、検出した対話の期間(開始日時、終了日時)と、対話を構成する音声を発話したユーザのユーザIDのリストである対話参加者とを含む対話情報を生成して、対話記憶部133に保存する。
次に、このように構成された第1の実施の形態にかかる対話検出装置100による対話検出処理について図5を用いて説明する。図5は、第1の実施の形態における対話検出処理の全体の流れを示すフローチャートである。
なお、以下では、コミュニケーション中に継続的に各端末200から音声情報等が入力されることを前提として説明する。これに対し、コミュニケーション中にはネットワーク300に接続されず、音声情報は各端末200上に記録し、後で端末200がネットワーク300に接続された時にタイムスタンプと合わせて対話検出装置100に音声情報を送信することにより、事後的に対話検出処理を行うように構成してもよい。
まず、装置の起動開始とともに、スケジュール受付部101が通信部121を介して端末200からスケジュール情報の入力を受付ける(ステップS501)。また、起動開始とともに、音声の入力および操作情報の入力も開始される。
すなわち、操作受付部102が通信部121を介して端末200から操作情報の入力を受付ける(ステップS502)。また、音声受付部103が通信部121を介して端末200から音声情報の入力を受付ける(ステップS503)。
次に、近接判定部104が、複数の端末200が近接するか否かを判定する近接判定処理を実行する。まず、近接判定部104は、スケジュール記憶部131を参照し、スケジュールが共通するユーザとして、会議参加者のユーザIDリストから各ユーザIDを取得する。そして、近接判定部104は、受付けた音声情報のうち、スケジュールが共通するユーザのユーザIDに対応する音声情報について、音声データの相互相関値を算出する(ステップS504)。
以下に、相互相関値の算出方法について図6を用いて説明する。以下では、ユーザAとユーザBとがコミュニケーションを行っている場合を例に説明する。図6は、音声の相関関係の算出方法を概念的に示した説明図である。
同図に示すように、時刻tにユーザAがユーザBに話しかけた場合、ユーザAが所有する端末200にはユーザAの音声601が入力される。このとき、ユーザBが近くにいる場合は、時刻t+dAB/v(dABはユーザAとユーザBとの間の距離、vは音速)後に、ユーザBが所有する端末200にもユーザAの音声602が距離や入力角度などによる減衰を経て入力される。
同様に、ユーザBがユーザAに話しかける場合にも、ユーザB、ユーザAそれぞれの所有する端末200に音声が入力される。この場合は、ユーザA側の端末200に減衰したユーザBの音声が入力される。
このとき、ユーザAおよびユーザBが所有する端末200間の距離が近ければ、それぞれの端末200に入力される音声レベルには相関関係が生じる。したがって、それぞれの端末200に入力される音声の相互相関値(同図ではrA→B)を算出し、算出した相互相関値が所定の閾値rthより大きい場合に、ユーザAおよびユーザBが所有する端末200は近くに存在する可能性が高いと判定することができる。
次に、相互相関値の算出方法の詳細について説明する。音声レベルの変化を表す2つの波形f(t)およびg(t)について、波形gが波形fより時刻mだけ遅れる場合の、区間Nにおける両波形間の相関の強さを表す相互相関値Cft(m)は以下のように算出される。
まず、区間N全体における波形fおよび波形gの平均値を表す平均faveおよびgaveはそれぞれ以下の(1)式および(2)式によって表される。
Figure 2008242318
Figure 2008242318
次に、算出した平均で補正した波形をそれぞれf’(t)=f(t)−faveおよびg’(t)=g(t)−gaveと表すと、相互相関値Cft(m)は、以下の(3)式によって求めることができる。
Figure 2008242318
さらに、区間を−1から1の範囲で扱うために、規格化相互相関Rft(m)を以下の(4)式によって算出する。ここで、(4)式中のCff(0)およびCgg(0)はそれぞれ(5)式および(6)式で表される。
Figure 2008242318
Figure 2008242318
Figure 2008242318
このとき、例えばNを5秒とし、Rft(m)を最大化するようなmを算出し、その時のRft(m)が所定の閾値として例えば0.5より大きい場合に、同じ音声が2つの端末200に入力されたと判断することができる。そして、この場合に当該2つの端末200が近接すると判定することができる。なお、N(5秒)や閾値(0.5)の値は一例であり、この数値に限られるものではない。
このような相関関係の算出を全てのユーザの組合せに対して行うのでは組み合わせの数が大きくなるおそれがある。このため、本実施の形態では、ステップS504で説明したように、スケジュール情報を活用することにより組合せの範囲を限定している。すなわち、スケジュール情報の会議参加者として記録されているユーザ間で音声の相関関係を算出する。
なお、組合せの範囲の限定方法はこれに限られず、同一ネットワーク内のユーザ、同一部署のユーザの組合せに限定する方法など、近接する可能性があるユーザの組合せに限定する方法であればあらゆる方法を適用できる。また、組合せを限定するだけでなく、所定の条件を満たすユーザに対して優先順位を付与して優先順位にしたがって音声間の相関関係を算出するように構成してもよい。
図5に戻り、ステップS504で上記のような方法で相互相関値を算出した後、近接判定部104は、端末200間の距離が近いか否かを、相互相関値が所定の閾値(例えば0.5)より大きいか否かによって判断する(ステップS505)。
端末200間の距離が近くない場合は(ステップS505:NO)、操作情報の受付処理に戻って処理を繰り返す(ステップS502)。なお、近接判定部104は、すべてのユーザの組合せについて相互相関値を算出して対応する端末200間の距離を判定し、いずれの端末200間についても距離が近いと判定されない場合に、ステップS502に戻って処理を繰り返す。
端末200間の距離が近い場合は(ステップS505:YES)、対話検出部105が、近いと判断された端末200それぞれから入力された音声が対話を構成するか否かを判定する(ステップS506〜ステップS509)。
ここで、対話検出部105による判定処理の詳細について説明する。上述のように、ユーザAがユーザBに話しかける場合はユーザBの端末200に入力される音声はユーザAの端末200に入力される音声よりも音量の減衰が大きく、ユーザBがユーザAに話しかける場合はその逆となる。これにより、対話検出部105は、相関のある音声のうち、いずれがユーザAによる発話でどちらがユーザBによる発話かを識別することができる。
図7は、このようにして得られたユーザごとの発話期間の一例を示す模式図である。図7は、互いに近接するユーザA、ユーザBおよびユーザCのうち、ユーザAおよびユーザBが対話しているが、ユーザCは、ユーザAおよびユーザBのいずれとも対話していない場合の各ユーザの発話期間の関係を表している。
本実施の形態では、対話検出部105は、一定時間内に発話が所定値(例えば80%)以上の割合で発生し、また発話期間全体のうち、ユーザAの発話またはユーザBの発話に分類できる期間が所定値(例えば80%)以上の割合である場合に、ユーザAとユーザBとがコミュニケーションを行っていると判定する。
言い換えると、対話検出部105は、一定時間内に発話が存在しない期間である無発話期間の割合が所定値(例えば20%)未満であり、ユーザAおよびユーザBの総発話期間に対するユーザAおよびユーザBの発話が重複する重複期間の割合が所定値(例えば20%)未満の場合に、ユーザAとユーザBとがコミュニケーションを行っていると判定する。
図7の例では、ユーザCの発話期間と、ユーザAまたはユーザBの発話期間とは、上記条件を満たさないため、ユーザCとユーザAとの間、およびユーザCとユーザBとの間ではコミュニケーションが行われていないと判定される。例えば、ユーザAとユーザCとが偶発的に近い距離にいるが、会話は行っていない場合に、このような状況が生じうる。
なお、上記所定値の数値は一例であり、用途に応じて他の数値を設定するように構成してもよい。また、対話を検出するための規則は上記に限られるものではなく、対話を構成する音声の発話期間の発生パターンを判定するものであれば、あらゆる規則を用いることができる。
例えば、上記条件のうち、発話の発生割合、または発話の分類の条件のいずれか一方だけを用いてもよい。また、それぞれの端末200に入力される音声が一定以上離れた場所からは入力されないことが期待できる場合、上述の発話の発生割合や発話の分類に関する条件を利用せずに、相関関係が閾値以上であるという条件だけで対話の有無を判定するように構成してもよい。
図5に戻り、対話検出部105による判定処理の処理フローを説明する。まず、対話検出部105は、近接すると判定された端末200に対応するユーザのうち、任意の2ユーザ(ユーザA、ユーザBとする)について、対話の検出対象である任意の対象期間内の無発話期間の割合を算出する(ステップS506)。
次に、対話検出部105は、ユーザAおよびユーザBのいずれかの発話が存在する期間を表す総発話期間に対する、ユーザAおよびユーザBの発話の重複期間の割合を算出する(ステップS507)。
次に、対話検出部105は、無発話期間の割合が所定値20%より小さく、かつ、重複期間の割合が所定値20%より小さいか否かを判断する(ステップS508)。無発話期間の割合が所定値20%より小さく、かつ、重複期間の割合が所定値20%より小さい場合以外は(ステップS508:NO)、操作情報の受付処理に戻って処理を繰り返す(ステップS502)。
無発話期間の割合が所定値20%より小さく、かつ、重複期間の割合が所定値20%より小さい場合は(ステップS508:YES)、対話検出部105は、対象期間にユーザAおよびユーザBが対話していると判定し、対話情報を生成する(ステップS509)。
対話情報には、対象期間の開始日時、対象期間の終了日時、および対話参加者(ユーザAおよびユーザB)を少なくとも含む。対話検出部105は、ステップS502で受付けた操作情報内の操作日時が対象期間内に含まれる場合は、操作情報を対応づけた対話情報を生成するように構成してもよい。
次に、対話検出部105は、生成した対話情報を対話記憶部133に保存する(ステップS510)。なお、対話検出部105が操作情報を含む対話情報を検出するのではなく、任意のタイミングで、例えば操作受付部102により、受付けた操作情報を対話情報に対応づけて保存するように構成してもよい。
次に、図示しない制御部によって装置の終了指示があったか否かが判断され(ステップS511)、終了指示がない場合は(ステップS511:NO)、操作情報の受付処理に戻って処理を繰り返す(ステップS502)。終了指示があった場合は(ステップS511:YES)、対話検出処理が終了される。
このような処理により、各端末200で容易に取得することのできる音声情報を用いて、各端末200を利用するユーザ間のコミュニケーション(対話)を検出し、履歴として対話記憶部133に保存することができる。また、関連する資料名等の操作情報が存在する場合は、操作情報も対応づけて対話記憶部133に保存することができる。このためユーザは、コミュニケーション状況の検索や、コミュニケーション状況を手がかりとした関連情報の検索を行うことが可能となる。
図8は、保存された対話情報を利用して資料等を検索する場合の検索画面の一例を示す説明図である。図8に示すように、本実施の形態では、会議等の場所、コミュニケーションの相手、コミュニケーションの状況、およびコミュニケーションが行われた日時などを検索キーとして資料を検索することができる。なお、検索キーはこれに限られるものではなく、会議名称、資料IDなど、対話記憶部133に記憶されるその他の項目を検索キーとして指定するように構成してもよい。
同図では、あるユーザが、対話相手であるユーザのユーザ名801と、「資料を提示された」に対応する状況802とを入力し、検索ボタン803を押下して検索した場合の検索結果の一例が示されている。これにより、ユーザは、コミュニケーションで参照されたファイルを特定するID「abc」を取得し、取得したIDを用いて対話相手のユーザに問い合わせを行うことが可能となる。
図9は、問い合わせを行うための問い合わせ画面の一例を示す説明図である。図9は、電子メールを用いた問い合わせを行う問い合わせ画面の例を示している。同図では、ファイルのIDを「docid:」というプレフィックスの後に示すことで、ファイルへの参照であることを伝達可能としている。
なお、ここまでは2ユーザ(ユーザAおよびユーザB)間の対話の検出を例に説明したが、3人以上のユーザ間の対話の有無を検出することも可能である。例えば、上述の図7の例では、ユーザA、ユーザB、およびユーザCのそれぞれの組み合わせを総合することで、当該3ユーザのコミュニケーションの有無を検出可能である。また、任意の2ユーザの組み合わせで判定すると発話期間の割合が少ない場合であっても、3人以上のユーザの発話期間を対象として、総発話期間に対する発生比率と発話期間の重なりの比率を算出することで、3人以上のユーザ間のコミュニケーション状態を検出することができる。
このように、第1の実施の形態にかかる対話検出装置では、各ユーザが利用する各端末で容易に取得可能な音声間の関係を解析することにより、ユーザ間の対話を検出することができる。これにより、通信設備が充分な会議室での会話だけでなく、通信設備が充分でない場所で偶発的に行われる会話のように小規模な会話も検出することができる。また、音声情報の関係から会話を検出可能であるため、音声情報から音声認識を行い、認識結果を解析して会話を検出する方法と比較して処理負担を軽減できる。
(第2の実施の形態)
第1の実施の形態では、サーバ装置である対話検出装置内で対話検出処理に関するすべての処理を実行していた。これに対し、第2の実施の形態にかかる対話検出装置は、各端末内に対話検出機能を備え、端末間で送受信した音声情報を元に各端末内で個別に対話検出処理を実行可能とするものである。
図10は、第2の実施の形態にかかる対話検出装置1000の構成を示すブロック図である。なお、本実施の形態では、対話検出装置1000は、第1の実施の形態の端末200のように、マイクなどを備えた携帯型のPC(Personal Computer)などのモバイル・ハンドヘルド機器により構成される。端末200は、第1の実施の形態と同様に音声を入力して送信する機能のみを有するものであってもよいし、対話検出装置1000と同様に対話検出機能を備えるものであってもよい。
図10に示すように、対話検出装置1000は、スケジュール記憶部131と、音声記憶部132と、対話記憶部133と、通信部121と、マイク1022と、スケジュール受付部101と、操作受付部102と、音声受付部1003と、近接判定部104と、対話検出部105と、ユーザ情報受付部1006と、を備えている。
第2の実施の形態では、マイク1022およびユーザ情報受付部1006を追加したことと、音声受付部1003の機能とが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる対話検出装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
マイク1022は、ユーザの音声を入力するものである。音声受付部1003は、他の端末200から音声情報を受付けるとともに、マイク1022から入力された、自装置を利用するユーザの音声を受付ける点が、第1の実施の形態の音声受付部103と異なっている。
このため、音声受付部1003は、マイク1022から入力された音声を電気信号(音声データ)に変換した後、音声データをA/D(アナログデジタル)変換し、PCM(パルスコードモジュレーション)形式などによるデジタルデータに変換して出力する機能を有する。これらの処理は、従来から用いられている音声信号のデジタル化処理と同様の方法によって実現することができる。
ユーザ情報受付部1006は、対話検出装置1000を利用するユーザを特定するためのユーザIDの入力を受付けるものである。ユーザ情報受付部1006は、例えば、装置利用開始時の認証のためにパスワードとともに入力されたユーザIDを受付けるように構成することができる。
次に、このように構成された第2の実施の形態にかかる対話検出装置1000による対話検出処理について図11を用いて説明する。図11は、第2の実施の形態における対話検出処理の全体の流れを示すフローチャートである。
ステップS1101からステップS1102までの、スケジュール情報受付処理および操作情報受付処理は、第1の実施の形態にかかる対話検出装置100におけるステップS501からステップS502までと同様の処理なので、その説明を省略する。
次に、音声受付部1003は、各端末200だけでなく、マイク1022から音声情報を受付ける。なお、マイク1022から音声データを受付けた場合は、音声受付部1003は、受付けた期間を発話期間とする。また、ユーザ情報受付部1006によって受付けられたユーザIDを音声データに対応づけることで、端末200から受信する音声情報と同等の情報を得ることができる。
ステップS1104からステップS1111までの、相関値算出処理、近接判定処理、および対話判定処理は、第1の実施の形態にかかる対話検出装置100におけるステップS504からステップS511までと同様の処理なので、その説明を省略する。
なお、本実施の形態では、上述のように自装置の利用ユーザの音声を入力可能であるため、自装置の利用ユーザの音声と、他の端末200の利用ユーザの音声との間で相関値を算出し、対話の有無を検出することができる。通常は自身が関連する対話の検出を望むと考えられるため、自装置の利用ユーザと他の端末200の利用ユーザとの間の対話のみを検出するように構成してもよい。
このように、第2の実施の形態にかかる対話検出装置では、対話検出処理および検出した対話情報をサーバ装置上に集約するのではなく、各端末間のピア・ツー・ピア型通信により音声を送受信して各端末内で対話検出処理を行うことができる。
上記各実施の形態では、ユーザ情報としてはユーザIDを用いていたが、ユーザを特定可能な情報であれば、生体情報などの他の情報を用いるように構成してもよい。
また、一定の音声レベル以上で入力された音声データを利用するものとしたが、任意の音声レベルの音声データを利用してもよい。また、入力された音声から、ユーザの音声以外の環境音を検出し、または/および音声を認識して発話内容を検出し、検出した情報を対話情報に対応づけて検索可能に格納するように構成してもよい。また、カメラなどの撮像装置を用いて撮影したユーザの映像情報または画像情報、GPS(Global Positioning System)によって取得された位置情報など、各種センサによる入力情報をさらに入力して、対話情報に関連づけて格納するように構成してもよい。
次に、第1または第2の実施の形態にかかる対話検出装置のハードウェア構成について図12を用いて説明する。図12は、第1または第2の実施の形態にかかる対話検出装置のハードウェア構成を示す説明図である。
第1または第2の実施の形態にかかる対話検出装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、HDD(Hard Disk Drive)、CD(Compact Disc)ドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置と、各部を接続するバス61を備えており、通常のコンピュータを利用したハードウェア構成となっている。
第1または第2の実施の形態にかかる対話検出装置で実行される対話検出プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、第1または第2の実施の形態にかかる対話検出装置で実行される対話検出プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施の形態にかかる対話検出装置で実行される対話検出プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
また、第1または第2の実施の形態の対話検出プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1または第2の実施の形態にかかる対話検出装置で実行される対話検出プログラムは、上述した各部(スケジュール受付部、操作受付部、音声受付部、近接判定部、対話検出部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51(プロセッサ)が上記記憶媒体から対話検出プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかる対話を検出する装置、方法およびプログラムは、非定型の会議や打合せなどのコミュニケーションを検出し、検出したコミュニケーションに関する情報を検索可能に管理する装置、方法およびプログラムに適している。
第1の実施の形態にかかる対話検出装置の構成を示すブロック図である。 スケジュール情報のデータ構造の一例を示す説明図である。 音声情報のデータ構造の一例を示す説明図である。 対話情報のデータ構造の一例を示す説明図である。 第1の実施の形態における対話検出処理の全体の流れを示すフローチャートである。 音声の相関関係の算出方法を概念的に示した説明図である。 発話期間の一例を示す模式図である。 検索画面の一例を示す説明図である。 問い合わせ画面の一例を示す説明図である。 第2の実施の形態にかかる対話検出装置の構成を示すブロック図である。 第2の実施の形態における対話検出処理の全体の流れを示すフローチャートである。 第1または第2の実施の形態にかかる対話検出装置のハードウェア構成を示す説明図である。
符号の説明
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100 対話検出装置
101 スケジュール受付部
102 操作受付部
103 音声受付部
104 近接判定部
105 対話検出部
121 通信部
131 スケジュール記憶部
132 音声記憶部
133 対話記憶部
200a、200b 端末
300 ネットワーク
601、602 音声
801 ユーザ名
802 状況
803 検索ボタン
1000 対話検出装置
1003 音声受付部
1006 ユーザ情報受付部
1022 マイク

Claims (11)

  1. ユーザの音声を取得可能な複数の端末に接続され、前記端末を利用するユーザ間の対話に関する対話情報を検出する対話検出装置であって、
    前記端末を識別する端末IDと、前記端末で取得された音声および前記音声の発話期間とを複数の前記端末から受付ける音声受付部と、
    複数の前記端末から受付けた音声間の相関関係を表す相関値を算出して予め定められた第1閾値と比較し、前記相関値が前記第1閾値より大きい場合に、前記相関値を算出した複数の音声を受付けた複数の前記端末が互いに近接すると判定する近接判定部と、
    対話の検出対象とする任意の対象期間内における、近接すると判定された複数の前記端末から受付けた発話期間の関係が、予め定められた規則に適合するか否かを判定し、前記規則に適合すると判定されたときの前記対象期間と、近接すると判定された複数の前記端末から受付けた前記端末IDとを含む前記対話情報を検出する対話検出部と、
    を備えたことを特徴とする対話検出装置。
  2. 前記対話検出部は、複数の前記端末から受付けた発話期間が重複する重複期間の前記対象期間に対する割合が予め定められた第2閾値より小さいことを表す前記規則に適合するか否かを判定すること、
    を特徴とする請求項1に記載の対話検出装置。
  3. 前記対話検出部は、前記重複期間の前記対象期間に対する割合が前記第2閾値より小さく、かつ、前記対象期間内で前記発話期間が存在しない無発話期間の前記対象期間に対する割合が予め定められた第3閾値より小さいことを表す前記規則に適合するか否かを判定すること、
    を特徴とする請求項2に記載の対話検出装置。
  4. ユーザの行動の予定と、前記行動に関連するユーザが利用する前記端末の前記端末IDとを含むスケジュール情報の入力を受付けるスケジュール受付部をさらに備え、
    前記近接判定部は、複数の前記端末から受付けた音声のうち、受付けた前記スケジュール情報に含まれる前記端末IDに対応する音声間の前記相関値を算出すること、
    を特徴とする請求項1に記載の対話検出装置。
  5. 受付けた前記端末ID、前記音声、および前記発話期間を対応づけて記憶する音声記憶部をさらに備え、
    前記近接判定部は、前記音声記憶部に記憶された前記音声間の相関値を算出して前記第1閾値と比較し、前記相関値が前記第1閾値より大きい場合に、前記相関値を算出した音声を受付けた複数の前記端末が互いに近接すると判定し、
    前記対話検出部は、近接すると判定された複数の前記端末から受付けた発話期間を前記音声記憶部から取得し、前記対象期間内における取得した前記発話期間の関係が前記規則に適合するか否かを判定すること、
    を特徴とする請求項1に記載の対話検出装置。
  6. 検出された前記対話情報を記憶する対話記憶部をさらに備えたこと、
    を特徴とする請求項1に記載の対話検出装置。
  7. 前記端末に対する操作内容と操作日時とを対応づけた操作情報を受付ける操作受付部をさらに備え、
    前記対話記憶部は、受付けた前記操作情報の前記操作日時を含む前記対話期間の前記対話情報に、受付けた前記操作情報の前記操作内容をさらに対応づけて記憶すること、
    を特徴とする請求項6に記載の対話検出装置。
  8. 前記操作受付部は、前記操作内容として前記端末で利用された資料を識別する資料IDを対応づけた前記操作情報を受付け、
    前記対話記憶部は、受付けた前記操作情報の前記操作日時を含む前記対話期間の前記対話情報に、受付けた前記操作情報の前記資料IDをさらに対応づけて記憶すること、
    を特徴とする請求項7に記載の対話検出装置。
  9. ユーザの音声を入力する音声受付部と、
    前記端末IDを受付けるユーザ情報受付部と、をさらに備え、
    前記近接判定部は、さらに、前記音声受付部から入力された音声と、前記端末から受付けた音声との間の前記相関値を算出して前記第1閾値と比較し、前記相関値が前記第1閾値より大きい場合に、前記相関値を算出した音声を受付けた前記端末と前記対話検出装置とが互いに近接すると判定し、
    前記対話検出部は、さらに、近接すると判定された前記端末から受付けた発話期間と前記音声受付部から入力された音声の発話期間との間の前記対象期間内での関係が前記規則に適合するか否かを判定し、前記規則に適合すると判定されたときの前記対象期間と、近接すると判定された前記端末から受付けた端末IDと、前記ユーザ情報受付部によって受付けられた端末IDとを含む前記対話情報を検出すること、
    を特徴とする請求項1に記載の対話検出装置。
  10. ユーザの音声を取得可能な複数の端末に接続され、前記端末を利用するユーザ間の対話に関する対話情報を検出する対話検出装置における対話検出方法であって、
    音声受付部によって、前記端末を識別する端末IDと、前記端末で取得された音声および前記音声の発話期間とを複数の前記端末から受付ける音声受付ステップと、
    近接判定部によって、複数の前記端末から受付けた音声間の相関関係を表す相関値を算出して予め定められた第1閾値と比較し、前記相関値が前記第1閾値より大きい場合に、前記相関値を算出した複数の音声を受付けた複数の前記端末が互いに近接すると判定する近接判定ステップと、
    対話検出部によって、対話の検出対象とする任意の対象期間内における、近接すると判定された複数の前記端末から受付けた発話期間の関係が、予め定められた規則に適合するか否かを判定し、前記規則に適合すると判定されたときの前記対象期間と、近接すると判定された複数の前記端末から受付けた前記端末IDとを含む前記対話情報を検出する対話検出ステップと、
    を備えたことを特徴とする対話検出方法。
  11. ユーザの音声を取得可能な複数の端末に接続され、前記端末を利用するユーザ間の対話に関する対話情報を検出する対話検出装置における対話検出プログラムであって、
    前記端末を識別する端末IDと、前記端末で取得された音声および前記音声の発話期間とを複数の前記端末から受付ける音声受付手順と、
    複数の前記端末から受付けた音声間の相関関係を表す相関値を算出して予め定められた第1閾値と比較し、前記相関値が前記第1閾値より大きい場合に、前記相関値を算出した複数の音声を受付けた複数の前記端末が互いに近接すると判定する近接判定手順と、
    対話の検出対象とする任意の対象期間内における、近接すると判定された複数の前記端末から受付けた発話期間の関係が、予め定められた規則に適合するか否かを判定し、前記規則に適合すると判定されたときの前記対象期間と、近接すると判定された複数の前記端末から受付けた前記端末IDとを含む前記対話情報を検出する対話検出手順と、
    をコンピュータに実行させる対話検出プログラム。
JP2007085983A 2007-03-28 2007-03-28 対話を検出する装置、方法およびプログラム Expired - Fee Related JP4364251B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007085983A JP4364251B2 (ja) 2007-03-28 2007-03-28 対話を検出する装置、方法およびプログラム
US12/046,021 US8306823B2 (en) 2007-03-28 2008-03-11 Dialog detecting apparatus, dialog detecting method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007085983A JP4364251B2 (ja) 2007-03-28 2007-03-28 対話を検出する装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2008242318A true JP2008242318A (ja) 2008-10-09
JP4364251B2 JP4364251B2 (ja) 2009-11-11

Family

ID=39795842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007085983A Expired - Fee Related JP4364251B2 (ja) 2007-03-28 2007-03-28 対話を検出する装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US8306823B2 (ja)
JP (1) JP4364251B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266722A (ja) * 2009-05-15 2010-11-25 National Institute Of Information & Communication Technology 会話グループ把握装置、会話グループ把握方法、及びプログラム
WO2012001928A1 (ja) * 2010-06-30 2012-01-05 パナソニック株式会社 会話検出装置、補聴器及び会話検出方法
WO2012042768A1 (ja) * 2010-09-28 2012-04-05 パナソニック株式会社 音声処理装置および音声処理方法
JP2012205147A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および音声制御システム
JP2012211874A (ja) * 2011-03-31 2012-11-01 Fujitsu Ltd 携帯端末装置の位置判定システムおよび携帯端末装置
JP2013005418A (ja) * 2011-06-22 2013-01-07 Canon Inc 撮像装置及び再生装置
JP2013225002A (ja) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> データ分析装置、データ分析方法およびデータ分析プログラム
JP2013225003A (ja) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> 音声データ分析装置、音声データ分析方法および音声データ分析プログラム
JP5607627B2 (ja) * 2010-02-25 2014-10-15 パナソニック株式会社 信号処理装置及び信号処理方法
KR20150111932A (ko) * 2013-01-28 2015-10-06 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 호 관련 서비스의 통지를 제공하는 기법
JP2015215601A (ja) * 2014-04-24 2015-12-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 複数の端末による会議向け収音システムの構成方法およびサーバ装置
WO2016157642A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017062307A (ja) * 2015-09-24 2017-03-30 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
CN110706702A (zh) * 2019-10-15 2020-01-17 芜湖盟博科技有限公司 一种语音识别无限级多轮对话方法
WO2022230136A1 (ja) * 2021-04-28 2022-11-03 株式会社I’mbesideyou 動画像分析システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5197276B2 (ja) * 2008-02-26 2013-05-15 株式会社東芝 情報提示装置および情報提示方法
JP5639546B2 (ja) * 2011-08-05 2014-12-10 株式会社東芝 情報処理装置及び情報処理方法
JP6031750B2 (ja) * 2011-11-25 2016-11-24 株式会社リコー 表示制御装置、画像表示システム、表示制御方法およびプログラム
US20140081637A1 (en) * 2012-09-14 2014-03-20 Google Inc. Turn-Taking Patterns for Conversation Identification
CN110289013B (zh) * 2019-07-24 2023-12-19 腾讯科技(深圳)有限公司 多音频采集源检测方法、装置、存储介质和计算机设备
CN112269897B (zh) * 2020-10-20 2024-04-05 上海明略人工智能(集团)有限公司 语音采集设备的确定方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6263049B1 (en) * 1996-10-10 2001-07-17 Envision Telephony, Inc. Non-random call center supervisory method and apparatus
US20020036694A1 (en) * 1998-05-07 2002-03-28 Merril Jonathan R. Method and system for the storage and retrieval of web-based educational materials
JP4168539B2 (ja) 1999-08-03 2008-10-22 富士ゼロックス株式会社 対話情報配信システムおよび対話情報配信装置
US20060067500A1 (en) * 2000-05-15 2006-03-30 Christofferson Frank C Teleconferencing bridge with edgepoint mixing
AU2002230887A1 (en) * 2000-12-15 2002-06-24 Polycom, Inc. System and method for device co-location discrimination
JP2004030293A (ja) 2002-06-26 2004-01-29 Ricoh Co Ltd 監視システム
US6882971B2 (en) * 2002-07-18 2005-04-19 General Instrument Corporation Method and apparatus for improving listener differentiation of talkers during a conference call
JP4005470B2 (ja) * 2002-10-09 2007-11-07 オリンパス株式会社 情報処理装置及び情報処理プログラム
US7617094B2 (en) * 2003-02-28 2009-11-10 Palo Alto Research Center Incorporated Methods, apparatus, and products for identifying a conversation
US7933226B2 (en) * 2003-10-22 2011-04-26 Palo Alto Research Center Incorporated System and method for providing communication channels that each comprise at least one property dynamically changeable during social interactions
US7190775B2 (en) * 2003-10-29 2007-03-13 Broadcom Corporation High quality audio conferencing with adaptive beamforming
JP4116600B2 (ja) 2004-08-24 2008-07-09 日本電信電話株式会社 収音方法、収音装置、収音プログラム、およびこれを記録した記録媒体
US9300790B2 (en) * 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8000466B2 (en) * 2005-09-01 2011-08-16 Siemens Enterprise Communications, Inc. Method and apparatus for multiparty collaboration enhancement
JP4439462B2 (ja) 2005-11-29 2010-03-24 株式会社東芝 情報提示方法、情報提示装置及び情報提示プログラム
US7876890B2 (en) * 2006-06-15 2011-01-25 Avaya Inc. Method for coordinating co-resident teleconferencing endpoints to avoid feedback
US20080037446A1 (en) * 2006-08-08 2008-02-14 Cisco Technology, Inc. Facilitating connection to a conference call
JP4215792B2 (ja) * 2006-09-22 2009-01-28 株式会社東芝 会議支援装置、会議支援方法および会議支援プログラム
JP2008084110A (ja) 2006-09-28 2008-04-10 Toshiba Corp 情報表示装置、情報表示方法及び情報表示プログラム
US7848738B2 (en) * 2007-03-19 2010-12-07 Avaya Inc. Teleconferencing system with multiple channels at each location
JP4469867B2 (ja) 2007-03-27 2010-06-02 株式会社東芝 コミュニケーションの状況を管理する装置、方法およびプログラム

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266722A (ja) * 2009-05-15 2010-11-25 National Institute Of Information & Communication Technology 会話グループ把握装置、会話グループ把握方法、及びプログラム
JP5607627B2 (ja) * 2010-02-25 2014-10-15 パナソニック株式会社 信号処理装置及び信号処理方法
WO2012001928A1 (ja) * 2010-06-30 2012-01-05 パナソニック株式会社 会話検出装置、補聴器及び会話検出方法
US9084062B2 (en) 2010-06-30 2015-07-14 Panasonic Intellectual Property Management Co., Ltd. Conversation detection apparatus, hearing aid, and conversation detection method
JPWO2012001928A1 (ja) * 2010-06-30 2013-08-22 パナソニック株式会社 会話検出装置、補聴器及び会話検出方法
JP5581329B2 (ja) * 2010-06-30 2014-08-27 パナソニック株式会社 会話検出装置、補聴器及び会話検出方法
WO2012042768A1 (ja) * 2010-09-28 2012-04-05 パナソニック株式会社 音声処理装置および音声処理方法
JP5740575B2 (ja) * 2010-09-28 2015-06-24 パナソニックIpマネジメント株式会社 音声処理装置および音声処理方法
US9064501B2 (en) 2010-09-28 2015-06-23 Panasonic Intellectual Property Management Co., Ltd. Speech processing device and speech processing method
JPWO2012042768A1 (ja) * 2010-09-28 2014-02-03 パナソニック株式会社 音声処理装置および音声処理方法
JP2012205147A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および音声制御システム
US9026437B2 (en) 2011-03-31 2015-05-05 Fujitsu Limited Location determination system and mobile terminal
JP2012211874A (ja) * 2011-03-31 2012-11-01 Fujitsu Ltd 携帯端末装置の位置判定システムおよび携帯端末装置
JP2013005418A (ja) * 2011-06-22 2013-01-07 Canon Inc 撮像装置及び再生装置
JP2013225002A (ja) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> データ分析装置、データ分析方法およびデータ分析プログラム
JP2013225003A (ja) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> 音声データ分析装置、音声データ分析方法および音声データ分析プログラム
KR102171049B1 (ko) * 2013-01-28 2020-10-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 호 관련 서비스의 통지를 제공하는 기법
KR20150111932A (ko) * 2013-01-28 2015-10-06 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 호 관련 서비스의 통지를 제공하는 기법
JP2015215601A (ja) * 2014-04-24 2015-12-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 複数の端末による会議向け収音システムの構成方法およびサーバ装置
WO2016157642A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2016158267A1 (ja) * 2015-03-27 2018-01-25 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016158267A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017062307A (ja) * 2015-09-24 2017-03-30 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
CN110706702A (zh) * 2019-10-15 2020-01-17 芜湖盟博科技有限公司 一种语音识别无限级多轮对话方法
CN110706702B (zh) * 2019-10-15 2021-11-09 芜湖盟博科技有限公司 一种语音识别无限级多轮对话方法
WO2022230136A1 (ja) * 2021-04-28 2022-11-03 株式会社I’mbesideyou 動画像分析システム

Also Published As

Publication number Publication date
US20080243494A1 (en) 2008-10-02
US8306823B2 (en) 2012-11-06
JP4364251B2 (ja) 2009-11-11

Similar Documents

Publication Publication Date Title
JP4364251B2 (ja) 対話を検出する装置、方法およびプログラム
US20220392489A1 (en) Enhancing audio using multiple recording devices
KR101726945B1 (ko) 수동 시작/종료 포인팅 및 트리거 구문들에 대한 필요성의 저감
US9293133B2 (en) Improving voice communication over a network
US9271111B2 (en) Response endpoint selection
US9294617B2 (en) Identifying a contact based on a voice communication session
US8811638B2 (en) Audible assistance
US20130211826A1 (en) Audio Signals as Buffered Streams of Audio Signals and Metadata
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
WO2014099872A1 (en) Multi-purpose stylus for a computing device
KR101559364B1 (ko) 페이스 투 페이스 인터랙션 모니터링을 수행하는 모바일 장치, 이를 이용하는 인터랙션 모니터링 방법, 이를 포함하는 인터랙션 모니터링 시스템 및 이에 의해 수행되는 인터랙션 모니터링 모바일 애플리케이션
JP4469867B2 (ja) コミュニケーションの状況を管理する装置、方法およびプログラム
JP2018171683A (ja) ロボットの制御プログラム、ロボット装置、及びロボットの制御方法
JP2024507916A (ja) オーディオ信号の処理方法、装置、電子機器、及びコンピュータプログラム
WO2016157993A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2006201496A (ja) フィルタリング装置
JP2021113835A (ja) 音声処理装置および音声処理方法
JP2010103704A (ja) 音声変換装置
JP2007259427A (ja) 携帯端末装置
KR101562901B1 (ko) 대화 지원 서비스 제공 시스템 및 방법
JP2008124597A (ja) 音声会議システム
JP2020052511A (ja) 要約生成装置、要約生成方法、及びプログラム
JP7103681B2 (ja) 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム
US20220013128A1 (en) Conversation support system, conversation support method and computer readable storage medium
WO2024023930A1 (ja) 変換装置、変換方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4364251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees