JP2011165056A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2011165056A
JP2011165056A JP2010028968A JP2010028968A JP2011165056A JP 2011165056 A JP2011165056 A JP 2011165056A JP 2010028968 A JP2010028968 A JP 2010028968A JP 2010028968 A JP2010028968 A JP 2010028968A JP 2011165056 A JP2011165056 A JP 2011165056A
Authority
JP
Japan
Prior art keywords
information
sound source
unit
processing apparatus
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010028968A
Other languages
English (en)
Other versions
JP5534413B2 (ja
Inventor
Takeyuki Tominaga
武之 冨永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010028968A priority Critical patent/JP5534413B2/ja
Publication of JP2011165056A publication Critical patent/JP2011165056A/ja
Application granted granted Critical
Publication of JP5534413B2 publication Critical patent/JP5534413B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】使い勝手をより向上させることができる情報処理装置を提供する。
【解決手段】音声入力部1は、入力された音声に対応する音声信号に位相差が生じるように、その数及び配置が決定された複数のマイクロホンを用いて周囲の音声を入力する。音源定位分離部2は、複数のマイクロホンにそれぞれ入力された音声に対応する音声信号の位相差に基づいてその音声信号に対応する音声が発せられた音源の位置を特定し、特定された音源の位置に基づいて音声信号から音声情報を音源ごとに分離抽出する。音声解析部3は、音源定位分離部2によって分離抽出された音声情報を解析して、音声情報に対応する文章情報を作成し、作成された文章情報を音源に対応付ける。記憶部4は、音声解析部3によって作成された文章情報を蓄積する。
【選択図】図1

Description

本発明は、情報処理装置及びコンピュータに実行させるプログラムに関する。
会議中の音声を録音し、その音声を再生しながら議事録を作成することが一般的に行われている。しかしながら、この方法では、録音された音声を注意深く聞き取る必要があるため、議事録を作成する者の負担は大きい。音声認識により、収集された音声から発言内容を認識して議事録を自動的に作成することができれば、議事録を作成する者の負担は、大きく軽減される。
議事録には、発言と、その発言を行った発言者とを対応づけて記録するのが望ましい。そこで、複数の参加者各々の音声を含む発言者識別情報を予め保持していき、音声認識により、発言者識別情報に含まれる音声情報に基づいて認識された発言内容に対応する発言者を特定し、発言内容を発言者と対応付けた上で、議事録を作成する議事録情報生成システム等が提案されている(例えば、特許文献1参照)。
特開2009−86207号公報
しかしながら、上記特許文献1に開示された議事録情報生成システム等では、発言者を特定するために、音声データを含む発言者識別情報の事前登録が必要となる。このような事前登録は、ユーザにとっては非常に煩わしいものであり、このことが使い勝手の向上を妨げている。
本発明は、上記実情に鑑みてなされたものであり、使い勝手をさらに向上させることができる情報処理装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の観点に係る情報処理装置は、
入力された音声に対応する音声信号に位相差が生じるように、その数及び配置が決定された複数のマイクロホンを用いて周囲の音声を入力する音声入力部と、
前記複数のマイクロホンにそれぞれ入力された音声に対応する音声信号の位相差に基づいてその音声信号に対応する音声が発せられた音源の位置を特定し、特定された前記音源の位置に基づいて、前記音声信号から音声情報を前記音源ごとに分離抽出する音源定位分離部と、
前記音源定位分離部によって分離抽出された音声情報を解析して、前記音声情報を文章情報に変換し、変換された前記文章情報を前記音源に対応付ける音声解析部と、
前記音声解析部によって変換され、前記音源と対応付けされた前記文章情報を蓄積する文章情報記憶部と、
前記文章情報記憶部に蓄積された前記文章情報を表示する表示部と、
前記音声入力部、前記音源定位分離部、前記音声解析部、前記文章情報記憶部及び前記表示部を制御する制御部と、
を備える。
この場合、自機の周囲を区切ることにより規定される複数の領域各々の範囲に関するエリア情報を記憶するエリア情報記憶部をさらに備え、
前記制御部は、
前記音源定位分離部に、
特定された前記音源の位置が同一の前記領域に位置する前記音声情報を、同一の前記音源からのものとして、前記音声信号から分離抽出させ、
前記音声解析部に、
前記音声情報から変換された文章情報を、前記音源が位置する前記領域に対応付けさせ、
前記文章情報記憶部に、
前記領域と対応付けされた前記文章情報を蓄積させる、
こととしてもよい。
この場合、前記制御部は、
前記複数の領域の画像を前記表示部に表示させる、
こととしてもよい。
この場合、前記制御部は、
音声が発せられた前記音源の位置に、その音声が発せられた順番又は前記音声に対応する前記文章情報を、前記複数の領域の画像に重ね合わせて前記表示部に表示させる、
こととしてもよい。
この場合、前記制御部は、
前記表示部に表示される前記文章情報が重なり合う場合、古い方の前記文章情報の表示を削除又は移動させる、
こととしてもよい。
また、前記制御部は、
最新の前記文章情報に係る前記領域を前記表示部に強調表示させる、
こととしてもよい。
また、前記制御部は、
操作入力に従って、前記各領域の範囲を調整し、
前記エリア情報記憶部に格納される前記エリア情報を更新し、
前記表示部に、調整後の前記各領域の範囲を表示させる、
こととしてもよい。
また、前記複数の領域各々は、
自機を基準として、水平面内の全方位を任意の角度で区切ることにより規定されている、
こととしてもよい。
また、自機の位置情報を検出する位置情報検出部をさらに備え、
前記制御部は、
前記音声定位分離部に、
前記位置情報検出部によって検出された前記位置情報に基づいて、特定された前記音源の位置を補正させ、補正された前記音源の位置に基づいて前記音声信号から音声情報を前記音源ごとに分離抽出させる、
こととしてもよい。
また、計時を行い、日時情報を作成する時計部をさらに備え、
前記制御部は、
日時情報及び参加者情報を含むイベントのスケジュールに関する情報としてのスケジュール情報から、前記時計部で作成された前記日時情報に対応する前記参加者情報を抽出して前記表示部に表示させ、
操作入力に従って、表示された前記参加者情報に係る参加者と前記音源との対応付けを行い、
前記文章情報記憶部に蓄積された前記文章情報と前記参加者との対応付けを行い、
前記表示部に、前記参加者と対応付けされた前記文書情報を表示させる、
こととしてもよい。
この場合、前記スケジュール情報を記憶するスケジュール記憶部をさらに備え、
前記制御部は、
前記スケジュール記憶部に記憶された前記スケジュール情報から前記表示部に表示させる前記参加者情報を抽出する、
こととしてもよい。
また、外部機器とデータ通信可能な通信部をさらに備え、
前記制御部は、
前記通信部を介して、外部記憶媒体から取得した前記スケジュール情報から前記表示部に表示させる前記参加者情報を抽出する、
こととしてもよい。
また、前記制御部は、
操作入力に従って、前記参加者と前記音源との対応付けが行われず、前記時計部によってタイムアウト時間が計時されると、前記文章情報と前記参加者との対応付けを終了する、
こととしてもよい。
また、前記制御部は、
前記複数の領域の画像を前記表示部に表示させ、
音声が発せられた前記音源の位置に、前記音源に対応付けされた前記参加者の識別情報を、前記複数の領域の画像に重ね合わせて前記表示部に表示させる、
こととしてもよい。
また、前記スケジュール情報を記憶するスケジュール記憶部と、
外部機器とデータ通信可能な通信部と、
をさらに備え、
前記制御部は、
前記通信部を介して、外部記憶媒体から取得した前記スケジュール情報と、前記スケジュール記憶部に記憶された前記スケジュール情報とが同一となるように、
前記外部記憶媒体から取得した前記スケジュール情報が更新された場合に、更新された前記スケジュール情報を用いて前記スケジュール記憶部に記憶された前記スケジュール情報を更新し、
前記スケジュール記憶部に記憶された前記スケジュール情報が更新された場合に、更新された前記スケジュール情報を用いて前記外部記憶媒体の前記スケジュール情報を更新する、
こととしてもよい。
また、前記音源定位分離部によって分離抽出された前記音声情報を記憶する音声情報記憶部と、
前記音声情報記憶部に記憶された前記音声情報に基づく音声を再生する音声再生部と、
をさらに備え、
前記制御部は、
前記音声再生部による再生が行われる間、前記表示部に、前記文章情報記憶部に蓄積された前記文章情報を表示させるとともに、再生中の前記音声情報に係る前記文章情報を強調表示させる、
こととしてもよい。
この場合、前記制御部は、
前記表示部に、前記文章情報とともに、議事が行われた場所の見取り図を表示させ、表示された前記見取り図上の前記音源の位置に、前記音源に対応付けされた前記参加者の識別情報を表示させるとともに、
再生中の前記音声情報に係る参加者の識別情報を強調表示させる、
こととしてもよい。
本発明の第2の観点に係るプログラムは、
コンピュータを、
入力された音声に対応する音声信号に位相差が生じるように、その数及び配置が決定された複数のマイクロホン各々に入力された音声に対応する音声信号の位相差に基づいてその音声信号に対応する音声が発せられた音源の位置を特定し、特定された前記音源の位置に基づいて前記音声信号から音声情報を前記音源ごとに分離抽出する音源定位分離手段と、
前記音源定位分離手段によって分離抽出された音声情報を解析して、前記音声情報を文章情報に変換し、変換された前記文章情報を前記音源に対応付ける音声解析手段と、
前記音声解析手段によって変換され、前記音源と対応付けされた前記文章情報を蓄積する文章情報記憶手段と、
前記文章情報記憶手段に蓄積された前記文章情報を表示する表示手段と、
前記音源定位分離手段、前記音声解析手段、前記文章情報記憶手段及び前記表示手段を制御する制御手段と、
して機能させる。
本発明によれば、複数のマイクロホンにそれぞれ入力された音声に対応する音声信号の位相差に基づいて特定された音源の位置に基づいて、同じ位置から発生された音声を同一人物、すなわち同一の音源からの音声として扱う。このようにすれば、音声データを含む発言者識別情報を予め用意することなく、発言内容を発言者に対応づけた議事録を自動的に作成することができるので、使い勝手がさらに向上する。
本発明の実施形態1に係る情報処理装置の構成を示すブロック図である。 図2(A)は、情報処理装置の周囲のエリアの一例である。図2(B)は、記憶部に記憶されるエリア情報の一例である。 解析文章情報の一例である。 図1の情報処理装置における音源定位・音声分離処理のフローチャートである。 図1の情報処理装置における解析・文章作成処理のフローチャートである。 会議室で行われている会議の様子の一例である。 音声記録中に表示部に表示される画像の一例である。 表示される議事録の一例である。 本発明の実施形態2に係る情報処理装置の構成を示すブロック図である。 図9の情報処理装置における音源定位・音声分離処理のフローチャートである。 録音中に情報処理装置が回転した様子を示す図である。 情報処理装置の回転に伴って変化した表示部の画像の一例を示す図である。 本発明の実施形態3に係る情報処理装置の構成を示すブロック図である。 スケジュール情報の一例を示す図である。 音源を発言者に対応させる場合の解析・文章作成処理のフローチャートである。 音源を発言者に対応させる際の表示画像の一例を示す図である。 録音された音声を再生する際の表示画像の一例を示す図である。
以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、全図面において、同一の構成要素については同一の符号が用いられる。
(実施形態1)
まず、本発明の実施形態1について説明する。
本実施形態に係る情報処理装置100は、携帯電話に組み込まれている。図1に示すように、情報処理装置100は、音声入力部1、音源定位分離部2、音声解析部3、記憶部4、操作入力部5、表示部6及び制御部7を備える。
音声入力部1は、複数のマイクロホンを備える。音声入力部1には、複数のマイクロホンを用いて周囲の音声を入力する。各マイクロホンは、入力された音声に対応する音声信号をそれぞれ出力する。複数のマイクロホンは、それぞれに入力された音声信号に位相差が生じ、その位相差に基づいて、情報処理装置100に対する音源の位置や方位を十分に特定できるように、その数と配置が決められている。
音源定位分離部2は、音声入力部1が備える複数のマイクロホンにそれぞれ入力された音声信号の位相差に基づいて、その音声信号に対応する音声が発せられた音源(すなわちその音声に係る発言を行った参加者)の位置を特定し、音源の位置を定める(定位する)。
音源定位分離部2は、特定された音源の位置に基づいて、複数のマイクロホン各々で入力された音声信号から、目的とする音(以下、「目的音」という)、すなわち音声情報を、音源ごとに分離抽出する。音源定位分離部2は、音源が移動した場合でも、その音源からの音声を分離抽出することができる。このような音源定位分離部2における音源の定位機能及び音声の分離抽出機能は、例えば、特開2008−278433号公報にすでに開示されている。
音声解析部3は、音源定位分離部2によって分離抽出された音声情報を解析する。音声解析部3は、音声情報を文章情報に変換する。音声解析部3は、音声の周波数、速度、アクセントやイントネーションなどの特徴を解析し、予め記憶された単語辞書情報を参照しつつ、音声情報を文章情報に変換する。音声解析部3は、変換された文章情報を、音源に対応づける。
記憶部4は、各種情報を記憶する。記憶部4は、HDD(ハードディスクドライブ)やSDメモリのような大容量のメモリである。記憶部4は、情報処理装置100に内蔵されたメモリであってもよいし、外部メモリであってもよい。
記憶部4は、エリア情報8、音声情報9及び解析文章情報10を記憶する。すなわち、記憶部4が、エリア情報記憶部、音声情報記憶部及び文章情報記憶部に対応する。
エリア情報8は、自機の周囲を区切ることにより規定される複数のエリア各々の範囲に関する情報である。本実施形態では、複数のエリアは、情報処理装置100を基準として、水平面内の全方位を、任意の角度で区切ることにより規定されている。このようにすれば、音声の方位だけで音源を特定することができる。例えば、図2(A)に示すように、情報処理装置(携帯電話)100の全方位を45度間隔の8つのエリアA乃至Hに区切る場合には、エリア情報8として、図2(B)に示すような情報が記憶される。図2(B)に示すように、エリア情報8では、各エリアを区切る角度によって規定される範囲11と、そのエリアに対応するエリア名12とが対応付けられて登録される。エリア情報8は、音源定位分離部2が、音声情報を分離抽出する際、音声解析部3が、文章情報を音源に対応づける際に参照される。
図1に戻り、音声情報9は、音源定位分離部2によって分離抽出された音声情報である。音源定位分離部2は、分離抽出した音声情報を、音源に対応付けて、音声情報9として、記憶部4に記憶する。
解析文章情報10は、音声解析部3によって作成された文章情報を含む。解析文章情報10には、文章情報だけでなく、その文章情報に係る音声を発した音源の情報が、付帯情報として含まれている。音声解析部3は、文章情報を作成した後、作成した文章情報に、音源の情報を対応付けして、解析文章情報10として記憶部4に記憶する。
図3には、解析文章情報10の一例を示すテーブルが示されている。図3に示すように、解析文章情報10には、文章情報13が時系列で(すなわち順番に)蓄積される。この文章情報13には、音声が入力された順番を示す番号(音声No.)14が付されている。その番号14の順に文章情報13が蓄積されている。さらに、各文章情報13には、音源の定位情報として、音源定位15及びエリア名16が対応付けられて記憶されている。
図1に戻り、操作入力部5は、ボタンやタッチパネル等を有し、それらを介してユーザの操作入力を受け付ける。なお、操作入力部5は、ボタンやタッチパネルだけでなく、情報処理装置100を手に持ったユーザにより情報処理装置100に加えられた振動や情報処理装置100の傾きや、ユーザの音声入力を受け付けるものであってもよい。
表示部6は、記憶部4に蓄積された解析文章情報10の少なくとも一部を表示する。表示部6は、画像を表示する表示用パネルである。表示用パネルとしては、有機EL(Electro-Luminescence)や液晶パネルを用いることができる。表示部6が、タッチパネル機能を有するようにして、操作入力部5の一部を兼ねるようにしてもよい。
制御部7は、上記構成要素、すなわち音声入力部1、音源定位分離部2、音声解析部3、記憶部4及び表示部6を統括制御する。制御部7は、情報処理を行うプロセッサを備える。このプロセッサがプログラムを実行することにより、上記制御が実現される。なお、音源定位分離部2及び音声解析部3も、プロセッサを備え、このプロセッサがプログラムを実行することにより、上記機能を実現するように構成してもよい。
次に、本実施形態に係る情報処理装置100の動作について説明する。図4及び図5のフローチャートには、情報処理装置100の処理手順、すなわち制御部7のプロセッサによって実行されるプログラムが示されている。
図4のフローチャートには、入力された音声に基づいて、音源の位置を特定し、音声情報9を音源ごとに分離抽出する音源定位・音声分離処理が示されている。また、図5には、音源ごとに抽出分離された音声情報9を解析し、解析文章情報10を作成する解析・文章作成処理が示されている。
(音源定位・音声分離処理)
まず、音源定位・音声分離処理について説明する。
操作入力部5が処理開始の操作入力を受け付けると、制御部7は、音源定位・音声分離処理を開始する。図4に示すように、まず、制御部7は、音声入力部1に音声が入力されているか否かを判定する(ステップS1)。
音声入力部1への音声の入力が有る場合(ステップS1;Yes)、制御部7は、音源定位分離部2に、音声入力部1から出力される音声信号(複数のマイクロホン各々から出力される音声信号)の位相差に基づいて、音源の位置を特定(定位)させ、音源ごとに音声情報を分離抽出させる(ステップS2)。ここで、音源定位分離部2は、特定された音源の位置が同一のエリア(図2(A)及び図2(B)参照)に位置する音声情報を、同一の音源からのものとして、音声信号から分離抽出する。
続いて、制御部7は、音源定位分離部2によって分離抽出した音声情報を、音源ごとに、音声情報9として、記憶部4に記憶させる(ステップS3)。その後、制御部7は、ステップS1に戻る。
このように、制御部7は、音声入力部1への音声の入力が停止しない限り(ステップS1;No)、音声入力部1への音声の入力の有無の判定(ステップS1)、音源定位分離部2による音源定位・分離抽出(ステップS2)、分離抽出した音声情報9の記憶(ステップS3)を繰り返す。これにより、記憶部4に音声情報9が蓄積される。
音声入力部1への音声の入力がなくなると(ステップS1:No)、制御部7は、音源定位・音声分離処理を終了する。
(解析・文章作成処理)
続いて、解析・文章作成処理について説明する。操作入力部5が処理開始の操作入力を受け付けると、制御部7は、解析・文章作成処理を開始する。図5に示すように、まず、制御部7は、記憶部4に蓄積された音声情報9の中に、まだ解析していない(未解析の)音声情報9が有るか否かを判定する(ステップS11)。
未解析の音声情報9が有る場合(ステップS11;Yes)、制御部7は、音声解析部3に、記憶部4からその音声情報9を読み出させる(ステップS12)。続いて、制御部7は、音声解析部3に、読み出した音声情報9を解析させ、音声情報9を文章情報13に変換させる(ステップS13)。続いて、制御部7は、音声解析部3に、文章情報13を、エリア情報8と対応づけて解析文章情報10を作成させる(ステップS14)。これにより、文章情報13は、音源が位置するエリアに対応付けられるようになる。
続いて、制御部7は、音声解析部3に、解析文章情報10を記憶部4に記憶させる(ステップS15)。これにより、エリアと対応付けられた文章情報13を含む解析文章情報10が、記憶部4に蓄積される。
続いて、制御部7は、解析文章情報10の少なくとも一部(各エリアと対応付けされた文章情報13を含む)を、記憶部4から読み出して、議事録として表示部6に表示させる(ステップS16)。その後、制御部7は、ステップS11に戻る。
このように、制御部7は、未解析の音声情報9が有る限り(ステップS11;Yes)、音声解析部3による音声情報9の読み出し(ステップS12)、音声解析部3による音声解析及び文章情報13への変換(ステップS13)、音声解析部3による解析文章情報10の作成(ステップS14)、解析文章情報10の記憶(ステップS15)、議事録(解析文章情報10の少なくとも一部)の表示(ステップS16)を繰り返す。
未解析の音声情報9がなくなると(ステップS11;No)、制御部7は、解析・文章作成処理を終了する。
なお、図4に示す音源定位・音声分離処理と、図5に示す解析・文章作成処理とは、この順に行うようにしてもよいし、同時並列に行うようにしてもよい。
次に、図6乃至図9を参照して、本実施形態にかかる情報処理装置100を用いた議事録の作成の具体例について説明する。
図6には、会議室20で行われている会議の様子が示されている。この会議には、4人の参加者が参加している。図6に示すように、4人の参加者のうち、テーブル21の周囲に参加者22A、22B、22Cが着席している。テーブル21上には、情報処理装置100としての携帯電話が置かれている。それぞれの参加者と情報処理装置100との位置関係は、22Aが左前、22Bが正面、22Cが右側となっている。参加者22Bの後ろには、ホワイトボード23が設置されている。残る1人の参加者は、情報処理装置100の所有者である。この参加者は、情報処理装置100を操作すべく手前側に座っているため、図示されていない。
情報処理装置100の所有者が、操作入力部5に議事録作成開始の操作入力を行うと、音声入力部1による音声入力が開始され、音源定位・音声分離処理(図4参照)と、解析・文章作成処理(図5参照)が実行され、議事録の作成が開始される。議事録が作成される間、表示部6には、図7又は図8に示す表示画像が表示される。これらの表示画像は、制御部7が、操作入力に従って、表示部6に表示させるものである。
図7に示すように、表示部6の画面の中心には、情報処理装置100のアイコンが表示されている。また、その情報処理装置100のアイコンの周囲に、8つのエリアA乃至Hを示す画像が表示されている。8つのエリアA乃至Hは、情報処理装置100の周囲を区切ることにより規定される8つのエリアの表示画像である。
各エリアには、1から9までの番号のアイコンが表示されている。これは、エリアEで、1番目、2番目、3番目、6番目の発言がなされ、エリアAで、4番目、9番目の発言がなされ、エリアCで、5番目、7番目の発言がなされ、エリアFで、8番目の発言がなされたことを示すものである。すなわち、この表示画像は、音声が発せられた音源の位置に、その音声が発せられた順番を示すアイコンを表示して、それを8つのエリアの画像に重ね合わせたものである。制御部7は、表示部6に、このような表示画像を表示させる。
ところで、実際の会議では参加者(発言者)の頭の方向や角度は常に変化しているので、同じ発言者であってもその発言された位置(すなわち音源の位置)は1つに定まらず、ある程度のばらつきが生じる。そこで、本実施形態では、例えば情報処理装置100を基準として会議室20の水平面内の全方位を任意の角度範囲で区切ることにより規定されるエリア1つ1つを参加者1人1人に対応させる。このようにすれば、発言元、すなわち音源である発言者がある程度動いたとしても、同一エリアからの音声情報を同一人物の発言内容としてまとめることができる。
例えば、図7に示すように、エリアAは、図6には図示されていない情報処理装置100の所有者に対応している。また、エリアCは、参加者22Aに対応し、エリアEは参加者22Bに対応し、エリアFは参加者22Cに対応している。
なお、制御部7は、発言ごとの音源の位置(音源定位)をリアルタイムで表示する場合、例えば、音声を検知したエリア、すなわち、最新の解析文章情報10に係るエリアを明滅などで表示部6に強調表示させ、ユーザに議事の進行状況を確認しやすくするようにしてもよい。図7では、最新の9番目の発言に係るエリアAが網掛け表示されている。
また、角度範囲は、すべてのエリアで同じでなくともよい。例えば、発言中に立ち上がるような、大きな動作を伴う発言者が位置するエリアに対しては、そのエリアの角度範囲を広めに設定するのが望ましい。このようにすれば、発言を別の発言者による発言と混同し難くなるからである。
そこで、本実施形態では、各エリアの角度範囲を個別に変更可能とする。例えば、タッチパネル等の操作入力部5による操作入力に従って、制御部7は、表示部6に、図2(A)に示すような画像を表示させる。そして、操作入力部5の操作により(すなわちユーザがタッチパネルをさわって)エリアの境界を示す棒線をずらすことで表示部6に表示された各エリアの角度範囲を調整することができる。制御部7は、調整されたエリアの角度範囲に基づいて、エリア情報8を更新する。
なお、図2(B)に示す画像を表示し、操作入力部5を用いた数値入力によりテーブルの範囲11の数値を変更するようにしてもよい。また、表示部6に表示されたメニュー画面(不図示)から変更したいエリアを指定し、角度を数値入力することで変更するようにしてもよい。いずれにしても、表示部6により表示されるエリアの画像には、操作入力により調整されたエリアの角度範囲が反映される。
また、図7では、発言位置に、表示部6に発言順を示す番号を表示しているが、発言順の番号ではなく、音声解析部3の音声解析により得られた発言に係る文章情報13を、発言位置にそのまま直接表示するようにしてもよい。
このとき、発言位置が近接または重複し、表示部6に表示される文章情報13の表示が重なり合う場合には、制御部7は、表示部6に、古い方の文章情報13を削除し、最新の文章情報13のみを表示させるようにしてもよい。また、制御部7は、表示部6に、古い文章情報13を中央の情報処理装置(携帯電話)100のアイコンを中心とする同心円外側に移動させ、元の位置に最新の文章情報13のみを表示させるようにしてもよい。このようにすれば、表示部6の画面に同時に表示させる文章の数を減らすことができるので、発言内容を確認し易くなる。
いずれにしても、図7に示すように、エリアの画像を表示部6に表示するようにすれば、エリアがどのように分割されているのかを、把握するのが容易となる。また、そのエリアの画像に、音源の位置を重ね合わせて表示すれば、音源の位置を視覚的に把握するのが容易となる。
図8には、表示部6に表示された議事録の一例が示されている。図8に示すように、この議事録は、図3の解析文章情報10の文章情報13が表示されたものである。なお、この議事録では、音源定位の基準となるエリア名16が表示されているが、各エリア名16に参加者の名前が対応付けられて記憶部4に記憶されている場合には、エリア名16の代わりに参加者名を表示するようにしてもよい。
また、図7及び図8の表示画像は、操作入力部5への操作入力により、制御部7が、随時切り替え可能とするのが望ましい。
また、制御部7は、音声入力部1から入力された複数のマイクロホン各々の音声信号を記憶部4に記憶しておき、会議終了後に、制御部7が、音源定位・音声分離処理と、解析・文章作成処理とを行うようにしてもよい。
以上詳細に説明したように、音声入力部1の複数のマイクロホンにそれぞれ入力された音声に対応する音声信号の位相差に基づいて、音源定位分離部2により特定された音源の位置に基づいて、同じ位置から発生された音声を同一人物、すなわち同一の音源からの音声として扱い、音声解析部3により音声解析を行って発言内容と発言者とが対応付けられた解析文章情報10(議事録データ)を作成する。
このようにすれば、音声データを含む発言者識別情報を予め用意することなく、発言内容を発言者に対応づけた議事録を自動的に作成することができるので、使い勝手がより向上する。
また、本実施形態によれば、声色が類似した発言者が会議に参加したり、複数の発言者が同時に発言したりするような、聞き取りにくい状態であっても、発言者をその発言が行われた位置から判別して、議事録を作成することができる。
(実施形態2)
次に、本発明の実施形態2について説明する。
本実施形態に係る情報処理装置100は、会議中に自機の位置が変更された場合にも、議事録の作成を不都合なく続行することができる。
図9には、本実施形態に係る情報処理装置100の構成が示されている。図9に示すように、本実施形態に係る情報処理装置100は、位置・回転検出部40をさらに備え、記憶部4に、位置・回転情報41が記憶される点が、上記実施形態1と異なる。
位置情報検出部としての位置・回転検出部40は、自機の位置情報、すなわち位置及び回転(向き)を検出する。位置・回転検出部40は、ジャイロセンサや地磁気センサ、加速度センサ、GPS(Global Positioning System)装置、IEEE802.11a/b/g/nなどに準拠した無線LANのインターフェイス等を備えている。
位置・回転検出部40は、タイマを備えている。位置・回転検出部40は、自機の位置及び回転を取得し、取得された自機の位置及び回転の情報を、時間情報とともに位置・回転情報41として記憶する。
図10には、自機位置及び回転の変更を補正する音源定位・音声分離処理が示されている。操作入力部5が処理開始の操作入力を受け付けると、制御部7は、この音源定位・音声分離処理を開始する。図10に示すように、まず、制御部7は、位置・回転検出部40に、情報処理装置100(自機)の位置及び回転を検出させる(ステップS5)。続いて、制御部7は、位置・回転検出部40に、検出した情報処理装置100の位置及び回転を、基準位置として記憶部4の位置・回転情報41に記憶させる(ステップS6)。
続いて、制御部7は、音声入力部1への音声の入力が有るか否かを判定する(ステップS1)。音声入力部1への音声の入力が有る場合(ステップS1;Yes)、制御部7は、音源定位分離部2に、音源定位及び音声の分離抽出(ステップS2)を、上記実施形態1と同様に行わせる。
続いて、制御部7は、位置・回転検出部40に、自機の位置及び回転を検出させる(ステップS7)。続いて、制御部7は、記憶部4から位置・回転情報41を読み出し、ステップS7で検出された、自機の位置及び回転と、記憶部4に格納された基準位置との差分をとり、音源定位分離部2に、その差分を補正値として用いて音源定位15(音源の位置、図3参照)を補正させる(ステップS8)。
続いて、制御部7は、音源定位分離部2に、補正された音源ごとに、分離抽出された音声情報9を、記憶部4に記憶させる(ステップS3)。その後、制御部7は、ステップS1に戻る。
このように、制御部7は、音声入力部1への音声の入力が停止しない限り(ステップS1;No)、音声入力部1への音声の入力の有無の判定(ステップS1;No)、音源定位及び分離抽出(ステップS2)、自機の位置・回転の検出(ステップS7)、音源定位の補正(ステップS8)、記憶部4への音声情報9の記憶(ステップS3)を繰り返す。これにより、記憶部4には、音声情報9が蓄積される。
例えば、図11には、録音中に情報処理装置100が回転した様子が示されている。図11に示すように、情報処理装置100が破線で示す位置で録音を開始してから録音中に矢印方向に回転したとする。この回転に伴って音源と情報処理装置100との位置関係が変化する。本実施形態では、この変化が、位置・回転検出部40により検出され、音源定位が補正される。
図12には、情報処理装置100の回転に伴って変化した表示部6の画面の一例が示されている。位置・回転検出部40により検出された情報処理装置100の回転(図11参照)に伴って、図12に示すように、情報処理装置100のアイコン50が回転する。この表示を見れば、情報処理装置100の位置及び回転変化に伴う音源定位の補正が実施されていることを確認することができる。
以上詳細に説明したように、本実施形態によれば、録音中に情報処理装置100の位置及び回転が変更された場合であっても、音源の位置の検出精度の低下を防止することができる。
(実施形態3)
次に、本発明の実施形態3について説明する。
本実施形態に係る情報処理装置100は、スケジュール情報と連携して議事録を作成する。図13には、本実施形態に係る情報処理装置100の構成が示されている。図13に示すように、本実施形態に係る情報処理装置100は、時計部60と、通信部61とをさらに備え、記憶部4に、スケジュール情報62が記憶されている点が、上記実施形態1と異なる。
時計部60は、計時を行い、日時情報を作成する。また、時計部60は、計時開始から一定時間が経過したこと(タイムアウト)を制御部7に通知する。なお、時計部60では、日時情報を取得し補正する場合には、電波時計のように無線電波から時間情報を取得し補正する方法や、GPSを用いて位置情報を取得する際に衛星から時間情報を取得し補正する方法を採用することができる。
通信部61は、外部と通信を行う。通信部61の通信方式としては、例えばPHS(Personal Handy-phone System)、PDC(Personal Digital Cellular)、GSM(Global System for Mobile Communications)、CDMA(Code Division Multiple Access)、W−CDMA(登録商標、Wideband Code Division Multiple Access)、CDMA−2000(登録商標)、DSRC(Dedicated Short Range Communication)、WiMax(登録商標、Worldwide Interoperability for Microwave Access)、WiFi(登録商標、802.11a/b/g/n)やBluetooth(登録商標)等の通信方式の少なくとも1つを採用することができる。
スケジュール情報62は、記憶部4に保持されている。スケジュール情報62は、例えば会議が行われる日時、場所、会議に参加する参加者などのスケジュールに関する情報を含む。図14には、記憶部4に保持されたスケジュール情報62の一例が示されている。図14に示すように、スケジュール情報62には、スケジュールの番号(No.)81、実施日及び開始・終了時刻などを示す日時情報(日時)82、住所や部屋名を示す場所情報(場所)83、参加者名等の参加者の識別情報を示す参加者情報(参加者)84が登録されている。
なお、情報処理装置100が携帯電話やパーソナルコンピュータなどのように電話番号を記載した電話帳情報や、Eメールアドレスを記載したアドレス帳情報などを保持する場合には、電話帳情報及びアドレス帳情報を参加者情報84として用いてもよい。また、参加者情報84として、実際に参加者の情報が記憶されている場所の参照が可能なリンク情報を登録するようにしてもよい。
本実施形態では、制御部7は、スケジュール情報62に基づいて、時計部60で作成された日時情報に対応するスケジュール情報62から参加者情報84を抽出して、表示部6に表示させる。また、制御部7は、操作入力部5への操作入力に従って、表示された参加者と音源との対応付けを行う。さらに、制御部7は、表示された参加者と音源との対応付けに基づいて、記憶部4に蓄積された解析文章情報10と、音源と対応付けられた参加者との対応付けを行う。より具体的には、解析文章情報10に、音源に対応する参加者の識別情報が付加される。そして、制御部7は、表示部6に、参加者と対応付けされた文書情報13を表示させる。
外部記憶媒体70は、各種データを記憶する。外部記憶媒体70は、通信部61とデータ送受信が可能である。外部記憶媒体70としては、通信ネットワークに接続されたサーバ、ネットワークに接続されたハードディスク、通信機能を有する携帯型のハードディスクやシリコンメモリを採用することができる。
外部記憶媒体70は、スケジュール情報71を記憶する。スケジュール情報71は、関係者によって共有される情報であり、関係者によって参照され得る。また、スケジュール情報71には、会議室20の予約情報や、会議室20の見取り図などの情報が付加されていてもよい。
図15には、スケジュール情報62から会議へ参加する参加者情報を抽出し、分離・解析した音源を参加者に対応させる場合の解析・文章作成処理が示されている。図15に示すように、この解析・文章作成処理では、ステップS11乃至S16の処理は、図5に示す上記実施形態1に係る解析・文章作成処理のそれらと同じである。
未解析の音声情報がない場合(ステップS11;No)、制御部7は、時計部60から日時情報を読み出す(ステップS17)。続いて、制御部7は、スケジュール情報62を読み出し、該日時情報に対応する日時に該当する会議があり、その会議に参加者情報84が登録されているか否かを判定する(ステップS18)。参加者情報84が登録されていない場合(ステップS18;No)、制御部7は、解析・文章作成処理を終了する。
参加者情報84が有る場合(ステップS18;Yes)、制御部7は、該当する参加者情報84を、各エリアの音源の候補として表示部6に表示させる(ステップS19)。この表示と同時に、制御部7は、時計部60に計時を開始させる(ステップS20)。時計部60は、10秒程度でタイムアウトし、この時点から10秒経過すると、タイムアウトを制御部7に通知する。
続いて、制御部7は、タイムアウトしたか否かを判定する(ステップS21)。ここでは、計時が開始されたばかりなので判定が否定される(ステップS21;No)。続いて、制御部7は、操作入力部5への操作入力により、表示部6のエリアの画像上に表示された参加者の候補から、参加者が指定されたか否かを判定する(ステップS22)。参加者が指定されていない場合(ステップS22;No)、制御部7は、ステップS21に戻る。
操作入力部5への操作入力により、参加者が指定されると(ステップS22;Yes)、制御部7は、指定された参加者の名前をエリアの画像に重ね合わせて表示させ、各エリアに対応する参加者の名前を、記憶部4の解析文章情報10に記憶する(ステップS23)。
続いて、制御部7は、未選択の参加者の候補が有るか否かを判定する(ステップS24)。未選択の参加者の候補が有る場合(ステップS24;Yes)、制御部7は、時計部60のタイマをリセットし(ステップS25)、ステップS21に戻る。
このようにして、タイムアウトするか(ステップS21;Yes)、未選択の参加者の候補がなくなるまで(ステップS24;No)、上記ステップS21からステップS24が繰り返される。
また、ユーザからの入力が無く、タイムアウトした場合(ステップS21;Yes)、制御部7は、未選択の参加者の候補を表示部6の表示から消去する(ステップS26)。その後、制御部7は、解析・文章作成処理を終了する。
図16には、このときの表示画像の一例が示されている。この表示画像は、図7に示す表示画像に、スケジュール情報62から読み出した参加者名をオーバーレイ表示したものである。図16に示すように、この表示画像には、選択操作中の参加者の候補全体のリスト91(○○部長、□□部長、△△課長)が表示される。さらに、この表示画像には、選択待ちの参加者の候補92、93(○○部長、□□部長)と、選択済みの参加者94(××課長)とが表示されている。このように、そのエリアの画像に、参加者の名前を重ね合わせて表示すれば、参加者の位置を視覚的に把握するのが容易となる。
なお、制御部7は、タイムアウトでなく、ユーザの操作入力により、ステップS26に進むようにしてもよい。いずれにしても、これにより、参加者と音源との対応づけのために、システムがフリーズするのを防止することができる。
なお、本実施形態では、制御部7は、上記ステップS17からステップS26までの、スケジュール情報62に基づいて発言者(音源)と参加者を対応付ける処理を、解析・文章作成処理の中で行ったが、これには限られない。この処理を、操作入力部5からの操作を契機にして単独で行うようにしてもよい。このようにすれば、会議中だけでなく会議終了後においても、記憶部4に保持された解析文章情報10に対して、スケジュール情報62の参加者と発言者を対応付ける処理が可能となる。
また、タイムアウト時間は、10秒には限られず、システムやユーザに適した長さに変更することができる。
また、記憶部4に記憶されたスケジュール情報62だけでなく、通信部61を介して外部記憶媒体70に記憶されたスケジュール情報71を取得して、発言者(音源)と参加者を対応付ける処理を行ってもよい。このように、本発明は、スケジュール情報が管理される場所には、限られない。
さらに、制御部7は、スケジュール情報62とスケジュール情報71とが、常に同一となるように、外部記憶媒体70から取得したスケジュール情報71が更新された場合に、更新されたスケジュール情報71を用いて記憶部4に記憶されたスケジュール情報62を更新し、記憶部4に記憶されたスケジュール情報62が更新された場合に、更新されたスケジュール情報62を用いて外部記憶媒体70のスケジュール情報71を更新するようにしてもよい。このようにすれば、情報処理装置100において更新されたスケジュール情報62により、外部記憶媒体70のスケジュール情報71を更新して、関係者に通知することができる。また、ネットワーク経由で他の関係者により更新されたスケジュール情報71を、情報処理装置100のスケジュール情報62にて取得し、最新のスケジュールに従って、参加者を登録することができるようになる。
なお、情報処理装置100は、記憶部4に記憶された音声情報に基づく音声を再生するスピーカ等を含む音声再生部を備えるようにしてもよい。
さらに、スケジュール情報62又はスケジュール情報71に、会議室20の見取り図(テーブルや椅子の配置図)のデータが含まれている場合、制御部7は、表示部6に、会議室20の見取り図に参加者の位置を重ね合わせて表示させ、議事録の作成に用いるようにしてもよい。
例えば、情報処理装置100で録音された音声を音声再生部で再生する間、制御部7は、表示部6に、会議室20の見取り図を用いて図17に示すような表示画像を表示させるようにしてもよい。
図17に示すように、この表示画像には、室内図表示部101と、文章表示部102とが設けられている。室内図表示部101には、会議室20の見取り図が表示されている。会議室20の見取り図上には、参加者アイコン103が表示されている。再生中の音声に係る参加者アイコン103は、分かり易くするために、強調表示されている(図17では”本人”)。このようにすれば、録音された音声を聞く者の臨場感を増すことができるので、議事の内容をより理解しやすくなる。
文章表示部102には、文章情報13が、表示されている。文章情報13には、文章アイコン104が発言順に表示されている。再生中の音声に係る文章アイコン104は、分かりやすくするために、強調表示されている(図17では、一番下の文章アイコン104)。このようにすれば、録音された音声を聞く者が、その音声に係る文章を視覚で把握することができるので、議事の内容をより理解しやすくなる。
なお、会議室20の見取り図における参加者アイコン103の位置は、室内図表示部101の表示時に、操作入力部5への操作入力により、実際の参加者の位置と合わせておくのが望ましい。このようにすれば、他の参加者の画像中の位置と音源の位置とを正確に対応させることができる。
もっとも、会議室20の見取り図は、議事録作成中に表示するようにしてもよい。例えば、図7に示すようなエリアの画像と重ね合わせて表示するようにしてもよい。
以上詳細に説明したように、本実施形態によれば、参加者に対応した議事録を作成することができるので、議事録作成の際の使い勝手をより向上させることができる。
なお、上記各実施形態では、情報処理装置100の周囲のエリアを任意の角度で区切ったが、本発明はこれには限られず、エリアは、矩形状に区切られていてもよい。要は、本発明で適用されるエリアは、同一の音源からの音声であるとみなせるエリアであればよい。
また、上記各実施形態では、情報処理装置100が、携帯電話等である場合について説明したが、マイクロホンを備えた携帯型音楽再生装置、ICレコーダ、PDA(Personal Digital Assistant)、PND(Personal Navigation Device)、PHS(Personal Handy-phone System)、PC(Personal Computer)及びデジタルカメラなど他の情報処理装置であってもよい。なお、情報処理装置100を、携帯端末とすれば、持ち運びが容易になる。
なお、上記実施の形態において、実行されるプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical Disk)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをインストールすることにより、上述の処理を実行するシステムを構成することとしてもよい。
また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、ダウンロード等するようにしてもよい。
また、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、ダウンロード等してもよい。
なお、本発明は、上記実施の形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で実施の形態及び図面に変更を加えることができる。
本発明は、議事録の作成に好適である。
1…音声入力部、2…音源定位分離部、3…音声解析部、4…記憶部、5…操作入力部、6…表示部、7…制御部、8…エリア情報、9…音声情報、10…解析文章情報、11…範囲、12…エリア名、13…文章情報、14…番号、15…音源定位、16…エリア名、20…会議室、21…テーブル、22A、22B、22C…参加者、23…ホワイトボード、40…位置・回転検出部、41…位置・回転情報、50…アイコン、60…時計部、61…通信部、62…スケジュール情報、70…外部記憶媒体、71…スケジュール情報、81…番号、82…日時情報、83…場所情報、84…参加者情報、100…情報処理装置、101…室内図表示部、102…文章表示部、103…参加者アイコン、104…文章アイコン

Claims (18)

  1. 入力された音声に対応する音声信号に位相差が生じるように、その数及び配置が決定された複数のマイクロホンを用いて周囲の音声を入力する音声入力部と、
    前記複数のマイクロホンにそれぞれ入力された音声に対応する音声信号の位相差に基づいてその音声信号に対応する音声が発せられた音源の位置を特定し、特定された前記音源の位置に基づいて、前記音声信号から音声情報を前記音源ごとに分離抽出する音源定位分離部と、
    前記音源定位分離部によって分離抽出された音声情報を解析して、前記音声情報を文章情報に変換し、変換された前記文章情報を前記音源に対応付ける音声解析部と、
    前記音声解析部によって変換され、前記音源と対応付けされた前記文章情報を蓄積する文章情報記憶部と、
    前記文章情報記憶部に蓄積された前記文章情報を表示する表示部と、
    前記音声入力部、前記音源定位分離部、前記音声解析部、前記文章情報記憶部及び前記表示部を制御する制御部と、
    を備える情報処理装置。
  2. 自機の周囲を区切ることにより規定される複数の領域各々の範囲に関するエリア情報を記憶するエリア情報記憶部をさらに備え、
    前記制御部は、
    前記音源定位分離部に、
    特定された前記音源の位置が同一の前記領域に位置する前記音声情報を、同一の前記音源からのものとして、前記音声信号から分離抽出させ、
    前記音声解析部に、
    前記音声情報から変換された文章情報を、前記音源が位置する前記領域に対応付けさせ、
    前記文章情報記憶部に、
    前記領域と対応付けされた前記文章情報を蓄積させる、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記制御部は、
    前記複数の領域の画像を前記表示部に表示させる、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記制御部は、
    音声が発せられた前記音源の位置に、その音声が発せられた順番又は前記音声に対応する前記文章情報を、前記複数の領域の画像に重ね合わせて前記表示部に表示させる、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記制御部は、
    前記表示部に表示される前記文章情報が重なり合う場合、古い方の前記文章情報の表示を削除又は移動させる、
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記制御部は、
    最新の前記文章情報に係る前記領域を前記表示部に強調表示させる、
    ことを特徴とする請求項2乃至5のいずれか一項に記載の情報処理装置。
  7. 前記制御部は、
    操作入力に従って、前記各領域の範囲を調整し、
    前記エリア情報記憶部に格納される前記エリア情報を更新し、
    前記表示部に、調整後の前記各領域の範囲を表示させる、
    ことを特徴とする請求項2乃至6のいずれか一項に記載の情報処理装置。
  8. 前記複数の領域各々は、
    自機を基準として、水平面内の全方位を任意の角度で区切ることにより規定されている、
    ことを特徴とする請求項2乃至7のいずれか一項に記載の情報処理装置。
  9. 自機の位置情報を検出する位置情報検出部をさらに備え、
    前記制御部は、
    前記音声定位分離部に、
    前記位置情報検出部によって検出された前記位置情報に基づいて、特定された前記音源の位置を補正させ、補正された前記音源の位置に基づいて前記音声信号から音声情報を前記音源ごとに分離抽出させる
    ことを特徴とする請求項1に記載の情報処理装置。
  10. 計時を行い、日時情報を作成する時計部をさらに備え、
    前記制御部は、
    日時情報及び参加者情報を含むイベントのスケジュールに関する情報としてのスケジュール情報から、前記時計部で作成された前記日時情報に対応する前記参加者情報を抽出して前記表示部に表示させ、
    操作入力に従って、表示された前記参加者情報に係る参加者と前記音源との対応付けを行い、
    前記文章情報記憶部に蓄積された前記文章情報と前記参加者との対応付けを行い、
    前記表示部に、前記参加者と対応付けされた前記文書情報を表示させる、
    ことを特徴とする請求項1に記載の情報処理装置。
  11. 前記スケジュール情報を記憶するスケジュール記憶部をさらに備え、
    前記制御部は、
    前記スケジュール記憶部に記憶された前記スケジュール情報から前記表示部に表示させる前記参加者情報を抽出する、
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 外部機器とデータ通信可能な通信部をさらに備え、
    前記制御部は、
    前記通信部を介して、外部記憶媒体から取得した前記スケジュール情報から前記表示部に表示させる前記参加者情報を抽出する、
    ことを特徴とする請求項10に記載の情報処理装置。
  13. 前記制御部は、
    操作入力に従って、前記参加者と前記音源との対応付けが行われず、前記時計部によってタイムアウト時間が計時されると、前記文章情報と前記参加者との対応付けを終了する、
    ことを特徴とする請求項10乃至12のいずれか一項に記載の情報処理装置。
  14. 前記制御部は、
    前記複数の領域の画像を前記表示部に表示させ、
    音声が発せられた前記音源の位置に、前記音源に対応付けされた前記参加者の識別情報を、前記複数の領域の画像に重ね合わせて前記表示部に表示させる、
    ことを特徴とする請求項10乃至13のいずれか一項に記載の情報処理装置。
  15. 前記スケジュール情報を記憶するスケジュール記憶部と、
    外部機器とデータ通信可能な通信部と、
    をさらに備え、
    前記制御部は、
    前記通信部を介して、外部記憶媒体から取得した前記スケジュール情報と、前記スケジュール記憶部に記憶された前記スケジュール情報とが同一となるように、
    前記外部記憶媒体から取得した前記スケジュール情報が更新された場合に、更新された前記スケジュール情報を用いて前記スケジュール記憶部に記憶された前記スケジュール情報を更新し、
    前記スケジュール記憶部に記憶された前記スケジュール情報が更新された場合に、更新された前記スケジュール情報を用いて前記外部記憶媒体の前記スケジュール情報を更新する、
    ことを特徴とする請求項10に記載の情報処理装置。
  16. 前記音源定位分離部によって分離抽出された前記音声情報を記憶する音声情報記憶部と、
    前記音声情報記憶部に記憶された前記音声情報に基づく音声を再生する音声再生部と、
    をさらに備え、
    前記制御部は、
    前記音声再生部による再生が行われる間、前記表示部に、前記文章情報記憶部に蓄積された前記文章情報を表示させるとともに、再生中の前記音声情報に係る前記文章情報を強調表示させる、
    ことを特徴とする請求項10乃至15のいずれか一項に記載の情報処理装置。
  17. 前記制御部は、
    前記表示部に、前記文章情報とともに、議事が行われた場所の見取り図を表示させ、表示された前記見取り図上の前記音源の位置に、前記音源に対応付けされた前記参加者の識別情報を表示させるとともに、
    再生中の前記音声情報に係る参加者の識別情報を強調表示させる、
    ことを特徴とする請求項16に記載の情報処理装置。
  18. コンピュータを、
    入力された音声に対応する音声信号に位相差が生じるように、その数及び配置が決定された複数のマイクロホン各々に入力された音声に対応する音声信号の位相差に基づいてその音声信号に対応する音声が発せられた音源の位置を特定し、特定された前記音源の位置に基づいて前記音声信号から音声情報を前記音源ごとに分離抽出する音源定位分離手段と、
    前記音源定位分離手段によって分離抽出された音声情報を解析して、前記音声情報を文章情報に変換し、変換された前記文章情報を前記音源に対応付ける音声解析手段と、
    前記音声解析手段によって変換され、前記音源と対応付けされた前記文章情報を蓄積する文章情報記憶手段と、
    前記文章情報記憶手段に蓄積された前記文章情報を表示する表示手段と、
    前記音源定位分離手段、前記音声解析手段、前記文章情報記憶手段及び前記表示手段を制御する制御手段と、
    して機能させるプログラム。
JP2010028968A 2010-02-12 2010-02-12 情報処理装置及びプログラム Expired - Fee Related JP5534413B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010028968A JP5534413B2 (ja) 2010-02-12 2010-02-12 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010028968A JP5534413B2 (ja) 2010-02-12 2010-02-12 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2011165056A true JP2011165056A (ja) 2011-08-25
JP5534413B2 JP5534413B2 (ja) 2014-07-02

Family

ID=44595642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010028968A Expired - Fee Related JP5534413B2 (ja) 2010-02-12 2010-02-12 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5534413B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013072554A2 (en) * 2011-11-17 2013-05-23 Nokia Corporation Spatial visual effect creation and display such as for a screensaver
CN103561370A (zh) * 2013-11-06 2014-02-05 彭庆国 一种智能型多功能耳机
EP2843916A3 (en) * 2013-08-26 2015-06-10 Samsung Electronics Co., Ltd Method for voice recording and electronic device thereof
JP2016504648A (ja) * 2012-11-14 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 物理空間においてサウンドフィールドを表現するための方法および装置
CN106297794A (zh) * 2015-05-22 2017-01-04 西安中兴新软件有限责任公司 一种语音文字的转换方法及设备
JP2017129873A (ja) * 2017-03-06 2017-07-27 本田技研工業株式会社 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム
US9842599B2 (en) 2013-09-20 2017-12-12 Fujitsu Limited Voice processing apparatus and voice processing method
JP2018156050A (ja) * 2017-03-21 2018-10-04 株式会社東芝 信号処理装置、信号処理方法および音声の対応づけ提示装置
JP2018156047A (ja) * 2017-03-21 2018-10-04 株式会社東芝 信号処理装置、信号処理方法および属性付与装置
US10148903B2 (en) 2012-04-05 2018-12-04 Nokia Technologies Oy Flexible spatial audio capture apparatus
JP2019050482A (ja) * 2017-09-08 2019-03-28 オリンパス株式会社 情報取得機器、表示方法およびプログラム
JP2022075641A (ja) * 2020-11-05 2022-05-18 オーディオテクニカ ユーエス インコーポレーテッド 高度な機能を備えたマイクロフォン
KR20220160173A (ko) * 2021-05-27 2022-12-06 주식회사 아모센스 음성을 처리하기 위한 음성 처리 장치, 음성 처리 시스템 및 음성 처리 방법
JP7290524B2 (ja) 2019-09-18 2023-06-13 シャープ株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
WO2023157963A1 (ja) * 2022-02-21 2023-08-24 ピクシーダストテクノロジーズ株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983985A (ja) * 1995-09-19 1997-03-28 Matsushita Electric Ind Co Ltd 画像表示方法
JP2002344915A (ja) * 2001-05-14 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> コミュニケーション把握装置、および、その方法
JP2003339037A (ja) * 2002-05-17 2003-11-28 Pioneer Electronic Corp ネットワーク会議システム、ネットワーク会議方法およびネットワーク会議プログラム
JP2005333211A (ja) * 2004-05-18 2005-12-02 Sony Corp 音響収録方法、音響収録再生方法、音響収録装置および音響再生装置
JP2007265171A (ja) * 2006-03-29 2007-10-11 Toshiba Corp 入力装置およびその方法
JP2007329702A (ja) * 2006-06-08 2007-12-20 Toyota Motor Corp 受音装置と音声認識装置とそれらを搭載している可動体
JP2008032825A (ja) * 2006-07-26 2008-02-14 Fujitsu Fsas Inc 発言者表示システム、発言者表示方法および発言者表示プログラム
JP2008067178A (ja) * 2006-09-08 2008-03-21 Yamaha Corp 受信端末および音声通信システム
JP2008275987A (ja) * 2007-05-01 2008-11-13 Yamaha Corp 音声認識装置および会議システム
JP2009301125A (ja) * 2008-06-10 2009-12-24 Hitachi Ltd 会議音声録音システム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983985A (ja) * 1995-09-19 1997-03-28 Matsushita Electric Ind Co Ltd 画像表示方法
JP2002344915A (ja) * 2001-05-14 2002-11-29 Nippon Telegr & Teleph Corp <Ntt> コミュニケーション把握装置、および、その方法
JP2003339037A (ja) * 2002-05-17 2003-11-28 Pioneer Electronic Corp ネットワーク会議システム、ネットワーク会議方法およびネットワーク会議プログラム
JP2005333211A (ja) * 2004-05-18 2005-12-02 Sony Corp 音響収録方法、音響収録再生方法、音響収録装置および音響再生装置
JP2007265171A (ja) * 2006-03-29 2007-10-11 Toshiba Corp 入力装置およびその方法
JP2007329702A (ja) * 2006-06-08 2007-12-20 Toyota Motor Corp 受音装置と音声認識装置とそれらを搭載している可動体
JP2008032825A (ja) * 2006-07-26 2008-02-14 Fujitsu Fsas Inc 発言者表示システム、発言者表示方法および発言者表示プログラム
JP2008067178A (ja) * 2006-09-08 2008-03-21 Yamaha Corp 受信端末および音声通信システム
JP2008275987A (ja) * 2007-05-01 2008-11-13 Yamaha Corp 音声認識装置および会議システム
JP2009301125A (ja) * 2008-06-10 2009-12-24 Hitachi Ltd 会議音声録音システム

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013072554A3 (en) * 2011-11-17 2013-07-11 Nokia Corporation Spatial visual effect creation and display such as for a screensaver
WO2013072554A2 (en) * 2011-11-17 2013-05-23 Nokia Corporation Spatial visual effect creation and display such as for a screensaver
US9285452B2 (en) 2011-11-17 2016-03-15 Nokia Technologies Oy Spatial visual effect creation and display such as for a screensaver
US10419712B2 (en) 2012-04-05 2019-09-17 Nokia Technologies Oy Flexible spatial audio capture apparatus
US10148903B2 (en) 2012-04-05 2018-12-04 Nokia Technologies Oy Flexible spatial audio capture apparatus
KR101762522B1 (ko) 2012-11-14 2017-07-27 퀄컴 인코포레이티드 물리적 공간에서 사운드 필드를 표현하기 위한 방법들 및 장치들
JP2016504648A (ja) * 2012-11-14 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 物理空間においてサウンドフィールドを表現するための方法および装置
JP2016505918A (ja) * 2012-11-14 2016-02-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated スマートディレクショナルコンファレンシングを有するデバイス及びシステム
EP3611909A1 (en) * 2013-08-26 2020-02-19 Samsung Electronics Co., Ltd. Method for voice recording and electronic device thereof
EP2843916A3 (en) * 2013-08-26 2015-06-10 Samsung Electronics Co., Ltd Method for voice recording and electronic device thereof
US9947363B2 (en) 2013-08-26 2018-04-17 Samsung Electronics Co., Ltd. Method for voice recording and electronic device thereof
US11049519B2 (en) 2013-08-26 2021-06-29 Samsung Electronics Co., Ltd. Method for voice recording and electronic device thereof
US10332556B2 (en) 2013-08-26 2019-06-25 Samsung Electronics Co., Ltd. Method for voice recording and electronic device thereof
US9842599B2 (en) 2013-09-20 2017-12-12 Fujitsu Limited Voice processing apparatus and voice processing method
CN103561370A (zh) * 2013-11-06 2014-02-05 彭庆国 一种智能型多功能耳机
CN106297794A (zh) * 2015-05-22 2017-01-04 西安中兴新软件有限责任公司 一种语音文字的转换方法及设备
JP2017129873A (ja) * 2017-03-06 2017-07-27 本田技研工業株式会社 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム
JP2018156047A (ja) * 2017-03-21 2018-10-04 株式会社東芝 信号処理装置、信号処理方法および属性付与装置
JP2018156050A (ja) * 2017-03-21 2018-10-04 株式会社東芝 信号処理装置、信号処理方法および音声の対応づけ提示装置
JP2019050482A (ja) * 2017-09-08 2019-03-28 オリンパス株式会社 情報取得機器、表示方法およびプログラム
JP7290524B2 (ja) 2019-09-18 2023-06-13 シャープ株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
JP2022075641A (ja) * 2020-11-05 2022-05-18 オーディオテクニカ ユーエス インコーポレーテッド 高度な機能を備えたマイクロフォン
KR20220160173A (ko) * 2021-05-27 2022-12-06 주식회사 아모센스 음성을 처리하기 위한 음성 처리 장치, 음성 처리 시스템 및 음성 처리 방법
KR102575293B1 (ko) * 2021-05-27 2023-09-06 주식회사 아모센스 음성을 처리하기 위한 음성 처리 장치, 음성 처리 시스템 및 음성 처리 방법
WO2023157963A1 (ja) * 2022-02-21 2023-08-24 ピクシーダストテクノロジーズ株式会社 情報処理装置、情報処理方法、及びプログラム
JP7399413B1 (ja) 2022-02-21 2023-12-18 ピクシーダストテクノロジーズ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP5534413B2 (ja) 2014-07-02

Similar Documents

Publication Publication Date Title
JP5534413B2 (ja) 情報処理装置及びプログラム
JP5928048B2 (ja) 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
US9477850B2 (en) Method for displaying contents and electronic device thereof
US20140051399A1 (en) Methods and devices for storing recognized phrases
US9122304B2 (en) Method and apparatus for providing function of portable terminal using color sensor
US11211073B2 (en) Display control of different verbatim text of vocal deliverance of performer-of-interest in a live event
JPWO2008041318A1 (ja) アプリケーション起動装置、アプリケーション起動方法、アプリケーション起動プログラムおよび記録媒体
US9786267B2 (en) Method and apparatus for recording and playing user voice in mobile terminal by synchronizing with text
JP2018032330A (ja) 情報処理システム、情報処理装置、サーバ、情報処理方法及びプログラム
AU2014200042B2 (en) Method and apparatus for controlling contents in electronic device
JP6477822B2 (ja) 端末装置、端末装置の制御方法および制御プログラム
US9104378B2 (en) Method for processing data and electronic device thereof
JP4781368B2 (ja) 音声認識装置、表示方法及び表示処理プログラム
US20140156256A1 (en) Interface device for processing voice of user and method thereof
JP2007241795A (ja) 電子機器および操作ヘルプ提示方法
CN105682187B (zh) 图标显示方法及装置
JPWO2018043137A1 (ja) 情報処理装置及び情報処理方法
US20210224066A1 (en) Information processing device and information processing method
JP2016208364A (ja) コンテンツ再生システム、コンテンツ再生装置、コンテンツ関連情報配信装置、コンテンツ再生方法、及びコンテンツ再生プログラム
JP6962849B2 (ja) 会議支援装置、会議支援制御方法およびプログラム
JP2006064671A (ja) 情報提供装置、及び携帯情報端末
JP2021103903A (ja) 電子機器、制御方法、およびプログラム
US20150192425A1 (en) Facility search apparatus and facility search method
KR20140020121A (ko) 일정 관리 기능을 제공하기 위한 방법 및 그 전자 장치
JP6733751B2 (ja) 車載装置、車載装置の制御方法および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140225

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140417

R150 Certificate of patent or registration of utility model

Ref document number: 5534413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees