JP6150707B2 - 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム - Google Patents

音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム Download PDF

Info

Publication number
JP6150707B2
JP6150707B2 JP2013218487A JP2013218487A JP6150707B2 JP 6150707 B2 JP6150707 B2 JP 6150707B2 JP 2013218487 A JP2013218487 A JP 2013218487A JP 2013218487 A JP2013218487 A JP 2013218487A JP 6150707 B2 JP6150707 B2 JP 6150707B2
Authority
JP
Japan
Prior art keywords
voice
audio
terminal
output
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013218487A
Other languages
English (en)
Other versions
JP2015081949A (ja
Inventor
龍一 清重
龍一 清重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013218487A priority Critical patent/JP6150707B2/ja
Priority to US14/498,821 priority patent/US9570056B2/en
Publication of JP2015081949A publication Critical patent/JP2015081949A/ja
Application granted granted Critical
Publication of JP6150707B2 publication Critical patent/JP6150707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0083Recording/reproducing or transmission of music for electrophonic musical instruments using wireless transmission, e.g. radio, light, infrared
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephone Function (AREA)

Description

本発明は、複数の音声データを合成する技術に関する。
取材や会議の議事録を作成するために音声情報を記録するICレコーダー(録音機)が知られている。ICレコーダーはマイクを具備しており、音声情報をデジタル音声データとして記録することができる。ICレコーダーが記録した音声データは、パソコンなどの電子機器を使用して再生することが可能である。
一方、従来のビジネス用途だけでなく、風や、滝、虫の鳴き声などの自然が奏でる音の録音、モータースポーツや航空ショーなどで響くエンジン音の録音、演奏会や楽器の練習で発生する音楽の録音など、ICレコーダーは様々な用途で使用されてきている。主にこれらのような趣味でICレコーダーを利用する場合、高音質な録音であって、定位感(sound localization)、つまり、3次元空間的な音の感覚を得られるような録音が望まれている。
上記の場合、ステレオ録音を行うことが望ましい。ステレオ録音では、2本のマイクが適切な距離だけ離れて設置された状態で録音が行われる。しかしながら、マイクケーブルの取り扱いなど、面倒な処置が多い。ケーブルを無線に変更すれば、ケーブルの取り扱いや設置の容易性は高まるが、2本のマイク間で同期を取ることが難しくなる。
特許文献1では、送信装置から複数の出力装置に送信される音声データの同期を取る方法が提示されている。この方法では、各装置の時刻が基準時刻に同期しており、送信装置が出力装置にタイムスタンプを要求した時刻と、送信装置が出力装置から応答を受信した時刻とをもとに、出力装置から音声データが出力される時刻が決定される。
特開2004−193868号公報
しかしながら、特許文献1で提示されている方法では、各装置の時刻が基準時刻に同期していることが前提となっているため、装置内の時刻が基準時刻と異なる装置間では同期を取ることができない。更に、基準時刻を得るために、基準時刻が取得可能な電波時計やGPSなどの装置を使用する必要がある。
本発明は、上述した課題に鑑みてなされたものであって、基準時刻が取得可能な装置を使用せずに、複数の音声データの時刻を調整することを目的とする。
本発明は、上記の課題を解決するためになされたもので、第1の音声データを含む音声データを記録する記録モジュールと、前記記録モジュールに記録されている音声データに基づく音声を出力する音声出力モジュールと、他の端末から出力された音声と、前記他の端末を除く音源から出力された音声とを入力する音声入力モジュールと、前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出する音声検出部と、前記音声出力モジュールから出力された音声の入力が前記他の端末で開始された時刻を示す第1の情報と、前記他の端末から出力されて前記音声入力モジュールに入力された音声の出力が前記他の端末で開始された時刻を示す第2の情報と、を前記他の端末から受信し、前記音源から出力されて前記他の端末に入力された音声に基づく第2の音声データを前記他の端末から受信する無線通信モジュールと、前記音声出力モジュールから音声の出力が開始された時刻と、前記音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、自端末と前記他の端末との時刻の差分を算出する時刻差分算出部と、前記時刻差分算出部によって算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するデータ合成部と、を有する音声データ合成端末である。
また、本発明は、第1の音声データを含む音声データを記録する記録モジュールと、前記記録モジュールに記録されている音声データに基づく音声を出力する音声出力モジュールと、他の端末から出力された音声と、前記他の端末を除く音源から出力された音声とを入力する音声入力モジュールと、前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出する音声検出部と、前記第1の音声データと一致する音声データが検出された場合、前記記録モジュールに記録されている音声データに基づく音声を前記音声出力モジュールから出力させる制御部と、前記他の端末から出力された音声の入力が前記音声入力モジュールで開始された時刻を示す第1の情報と、前記音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を前記他の端末に送信し、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第2の音声データを前記他の端末に送信する無線通信モジュールと、を有する音声データ記録端末である。
また、本発明は、音声データ合成端末と、音声データ記録端末とを有する音声データ合成システムであって、前記音声データ合成端末は、第1の音声データを含む音声データを記録する第1の記録モジュールと、前記第1の記録モジュールに記録されている音声データに基づく音声を出力する第1の音声出力モジュールと、前記音声データ記録端末から出力された音声と、前記音声データ記録端末を除く音源から出力された音声とを入力する第1の音声入力モジュールと、前記音声データ記録端末から出力されて前記第1の音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出する第1の音声検出部と、前記第1の音声出力モジュールから出力された音声の入力が前記音声データ記録端末で開始された時刻を示す第1の情報と、前記音声データ記録端末から出力されて前記第1の音声入力モジュールに入力された音声の出力が前記音声データ記録端末で開始された時刻を示す第2の情報と、を前記音声データ記録端末から受信し、前記音源から出力されて前記音声データ記録端末に入力された音声に基づく第2の音声データを前記音声データ記録端末から受信する第1の無線通信モジュールと、前記第1の音声出力モジュールから音声の出力が開始された時刻と、前記第1の音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、前記音声データ合成端末と前記音声データ記録端末との時刻の差分を算出する時刻差分算出部と、前記時刻差分算出部によって算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記第1の音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するデータ合成部と、を有し、前記音声データ記録端末は、第4の音声データを含む音声データを記録する第2の記録モジュールと、前記第2の記録モジュールに記録されている音声データに基づく音声を出力する第2の音声出力モジュールと、前記音声データ合成端末から出力された音声と、前記音源から出力された音声とを入力する第2の音声入力モジュールと、前記音声データ合成端末から出力されて前記第2の音声入力モジュールに入力された音声に基づく音声データから、前記第4の音声データと一致する音声データを検出する第2の音声検出部と、前記第4の音声データと一致する音声データが検出された場合、前記第2の記録モジュールに記録されている音声データに基づく音声を前記第2の音声出力モジュールから出力させる制御部と、前記音声データ合成端末から出力された音声の入力が前記第2の音声入力モジュールで開始された時刻を示す第1の情報と、前記第2の音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を前記音声データ合成端末に送信し、前記音源から出力されて前記第2の音声入力モジュールに入力された音声に基づく前記第2の音声データを前記音声データ合成端末に送信する第2の無線通信モジュールと、を有する音声データ合成システムである。
また、本発明は、第1の音声データを含む音声データを記録する記録モジュールに記録されている音声データに基づく音声を音声出力モジュールが出力するステップと、他の端末から出力された音声を音声入力モジュールが入力するステップと、前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを音声検出部が検出するステップと、前記音声出力モジュールから出力された音声の入力が前記他の端末で開始された時刻を示す第1の情報と、前記他の端末から出力されて前記音声入力モジュールに入力された音声の出力が前記他の端末で開始された時刻を示す第2の情報と、を無線通信モジュールが前記他の端末から受信するステップと、前記音声出力モジュールから音声の出力が開始された時刻と、前記音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、自端末と前記他の端末との時刻の差分を時刻差分算出部が算出するステップと、前記他の端末を除く音源から出力された音声を前記音声入力モジュールが入力するステップと、前記音源から出力されて前記他の端末に入力された音声に基づく第2の音声データを前記無線通信モジュールが前記他の端末から受信するステップと、データ合成部が、算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するステップと、を有する音声データ合成方法である。
また、本発明は、他の端末から出力された音声を音声入力モジュールが入力するステップと、前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、第1の音声データを含む音声データを記録する記録モジュールに記録されている前記第1の音声データと一致する音声データを音声検出部が検出するステップと、前記第1の音声データと一致する音声データが検出された場合、前記記録モジュールに記録されている音声データに基づく音声を音声出力モジュールが出力するステップと、前記他の端末から出力された音声の入力が前記音声入力モジュールで開始された時刻を示す第1の情報と、前記音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を無線通信モジュールが前記他の端末に送信するステップと、前記他の端末を除く音源から出力された音声を前記音声入力モジュールが入力するステップと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第2の音声データを前記無線通信モジュールが前記他の端末に送信するステップと、を有する音声出力方法である。
また、本発明は、第1の音声データを含む音声データを記録する記録モジュールに記録されている音声データに基づく音声を音声出力モジュールに出力させるステップと、他の端末から出力された音声を音声入力モジュールに入力させるステップと、前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出するステップと、前記音声出力モジュールから出力された音声の入力が前記他の端末で開始された時刻を示す第1の情報と、前記他の端末から出力されて前記音声入力モジュールに入力された音声の出力が前記他の端末で開始された時刻を示す第2の情報と、を無線通信モジュールに前記他の端末から受信させるステップと、前記音声出力モジュールから音声の出力が開始された時刻と、前記音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、自端末と前記他の端末との時刻の差分を算出するステップと、前記他の端末を除く音源から出力された音声を前記音声入力モジュールに入力させるステップと、前記音源から出力されて前記他の端末に入力された音声に基づく第2の音声データを前記無線通信モジュールに前記他の端末から受信させるステップと、算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するステップと、をコンピュータに実行させるためのプログラムである。
また、本発明は、他の端末から出力された音声を音声入力モジュールに入力させるステップと、前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、第1の音声データを含む音声データを記録する記録モジュールに記録されている前記第1の音声データと一致する音声データを検出するステップと、前記第1の音声データと一致する音声データが検出された場合、前記記録モジュールに記録されている音声データに基づく音声を音声出力モジュールに出力させるステップと、前記他の端末から出力された音声の入力が前記音声入力モジュールで開始された時刻を示す第1の情報と、前記音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を無線通信モジュールに前記他の端末へ送信させるステップと、前記他の端末を除く音源から出力された音声を前記音声入力モジュールに入力させるステップと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第2の音声データを前記無線通信モジュールに前記他の端末へ送信させるステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、端末間の時刻の差分が算出され、算出された時刻の差分に基づいて、合成される音声データ間の時刻の差が調整される。これによって、基準時刻が取得可能な装置を使用せずに、複数の音声データの時刻を調整することができる。
本発明の一実施形態による音声データ合成システムの構成を示すブロック図である。 本発明の一実施形態による録音機の構成を示すブロック図である。 本発明の一実施形態による音声データ合成システムの動作を示すシーケンス図である。 本発明の一実施形態における同期用の音声信号パターンのタイミングチャートである。 本発明の一実施形態による録音機の動作の手順を示すフローチャートである。 本発明の一実施形態による録音機の動作の手順を示すフローチャートである。 本発明の一実施形態による録音機の動作の手順を示すフローチャートである。 本発明の一実施形態による録音機の動作の手順を示すフローチャートである。 本発明の一実施形態における音声データのタイミングチャートである。 本発明の一実施形態における音声データのタイミングチャートである。
以下、図面を参照し、本発明の実施形態を説明する。
(概要説明)
図1は、本発明の一実施形態による音声データ合成システムの構成を示している。音声データ合成システムは、音源Sが発生する音声を記録する録音機101,102を有する。録音機101,102は、会議や、音楽イベント、楽器演奏などで発生する音声を録音する機能と、通信機能とを具備する。
録音の対象となる音声は、人間の声又は各種楽器の音を含み得る。あるいは、録音の対象となる音声は、風や水の音、動物や虫の鳴き声などの自然界で発生する音、車や飛行機等のエンジンや、サイレン、スピーカーの音などの人工的に発生する音を含み得る。つまり、録音の対象となる音声は、上記に列挙した声や音の1つ、もしくは複数の組合せである。また、録音機101,102が取り扱う音声データは、生の音声に基づくアナログ音声信号をデジタルデータに変換することにより生成されたデータであってもよいし、音階や、音の強さ、テンポ等を指定する情報に基づいてデジタル的に生成されたデータであってもよい。音源Sは、人間、楽器、風、水、動物、虫、エンジン、サイレン、スピーカー等である。
録音機101,102は通信機能によってネットワークを構成している。図1では、音源Sが例えば楽器である場合、楽器の演奏をステレオ録音するために、録音機101,102をそれぞれ左チャンネル、右チャンネルに割り当てて、それらをステレオマイクとして使用することが想定されている。
録音機101,102は、それぞれ同一の音源Sから発生した音声を記録(録音)する。録音機101,102のうち一方の録音機で記録された音声データが最終的に他方の録音機に転送され、2つの音声データが1つの音声データに合成される。
録音機101,102はそれぞれ独立したクロックを生成し、音声データに記録される時刻に差分が生じる。このため、録音機101,102で記録された音声データを単純に合成すると、演奏タイミングにずれが生じ、適切な定位感が得られない。これを改善するために、本実施形態による録音機101,102は、通信機能、音声出力機能、音声入力機能を使用してデジタルデータ及びアナログ音声を伝達することで、録音機101,102の時刻差分を得る。この時刻差分を得る方法について以下で説明する。
(システム構成)
図2は、本実施形態による録音機101,102の構成の一例を示している。一例として、録音機101,102の構成は同一である。録音機101,102は、スピーカー201、信号発生器202、A/D変換器203、マイク204、CPU205、時刻差分算出部206、音声データ照合部207、メッセージ処理部208、クロック生成部209、通信部210、操作部211、表示部212、データ合成部213、記録部214を有する。
スピーカー201は、アナログ音声信号を音声に変換し、音声を出力する。信号発生器202は、デジタル音声データに基づいてアナログ音声信号を発生し、アナログ音声信号をスピーカー201に出力する。スピーカー201及び信号発生器202は、記録部214に記録されている音声データに基づく音声を出力する音声出力モジュール215(音声出力デバイス)を構成する。
マイク204は、入力された音声をアナログ音声信号に変換する。A/D変換器203は、マイク204で変換されたアナログ音声信号をデジタル音声データに変換する。マイク204及びA/D変換器203は、他の端末(録音機101又は録音機102)から出力された音声と、他の端末を除く音源Sから出力された音声とを入力する音声入力モジュール216(音声入力デバイス)を構成する。
CPU205は、録音機101,102内の各部を制御する。クロック生成部209は、クロックを生成し、録音機101,102内の時刻(システム時刻)をカウントする。クロック生成部209がカウントした時刻はCPU205によって取得される。メッセージ処理部208は、通信部210を介して送信されるメッセージの生成を行う。また、メッセージ処理部208は、通信部210を介して受信されるメッセージの処理を行う。
音声データ照合部207は、A/D変換器203によって変換されたデジタル音声データと、記録部214に記録されている音声データとを照合する。これによって、音声データ照合部207は、音声入力モジュール216に入力された音声に基づく音声データから、記録部214に記録されている音声データと一致する音声データを検出する。時刻差分算出部206は、クロック生成部209から得た時刻情報と、通信部210を介して取得した時刻情報と、に基づいて、自端末と他の端末とのシステム時刻の差分(時刻差分)を算出する。
通信部210は、無線LAN(Local Area Network)などの無線通信ネットワークを構成している他の端末と無線通信を行う無線通信モジュール(無線通信デバイス)である。具体的には、通信部210は、時刻差分を算出するために必要なメッセージの送受信を無線により行う。また、通信部210は、自端末で記録された音声データを他の端末に無線により送信する。あるいは、通信部210は、他の端末で記録されて他の端末から送信された音声データを無線により受信する。
操作部211(操作モジュール、操作デバイス)は、ユーザが行う操作を受け付ける。表示部212(表示モジュール、表示デバイス)は、ユーザに入力を促すメニューや処理結果等を表示する。データ合成部213は、記録部214に記録されている音声データと、他の端末から受信された音声データとを合成し、1つの音声データを生成する。
記録部214は、端末に固有の特定の音声パターンを記録した音声データや、音声入力モジュール216に入力された音声に基づく音声データ、データ合成部213によって合成された音声データ等のデータや情報を記録(記憶)する記録モジュール(記録デバイス、記憶部、記憶モジュール、記憶デバイス)である。記録部214は、不揮発性記録媒体と揮発性記録媒体とのどちらでもよい。端末に固有の特定の音声パターンを記録した音声データは、生の音声から生成されたアナログ音声信号をデジタルデータに変換することにより生成されたデータと、音階や、音の強さ、テンポ等を指定する情報に基づいてデジタル的に生成されたデータとのどちらでもよい。
以下で説明する例では、録音機101が、録音機101,102の双方で記録された音声データを合成する。この例では、録音機101が本発明の一態様による音声データ合成端末に対応し、録音機102が本発明の一態様による音声データ記録端末に対応する。操作部211及び表示部212は音声データ合成端末に必須の構成ではない。また、時刻差分算出部206、操作部211、表示部212、データ合成部213は音声データ記録端末に必須の構成ではない。
記録部214は、CPU205の動作を制御するためのプログラムや必要なデータを記録してもよい。また、時刻差分算出部206、音声データ照合部207、メッセージ処理部208、データ合成部213の機能をCPU205が実現してもよい。時刻差分算出部206、音声データ照合部207、メッセージ処理部208、データ合成部213の機能は、例えばこれらの動作を制御するためのプログラムをCPU205が読み込んで実行することにより、ソフトウェアの機能として実現可能である。また、このプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。また、上述したプログラムは、このプログラムを記憶装置等に格納したコンピュータから、伝送媒体を介して、あるいは伝送媒体中の伝送波により録音機101,102に伝送されることで録音機101,102に入力されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように、情報を伝送する機能を有する媒体である。また、上述したプログラムは、前述した機能の一部を実現してもよい。更に、上述したプログラムは、前述した機能をコンピュータに既に記録されているプログラムとの組合せで実現できる、いわゆる差分ファイル(差分プログラム)であってもよい。
(動作シーケンス)
図3は、無線通信ネットワークを構成している録音機101,102間の時刻差分の算出と録音とを行う動作シーケンスを示している。最初に、録音機101において、通信部210は同期開始通知を録音機102に送信する(ステップS301)。同期開始通知は、時刻の同期を行うための処理の開始を通知するメッセージである。同期開始通知は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データを含む。録音機102において、端末(録音機101)に固有の特定の音声パターンを示す音声データが予め記録部214に記録されている場合には、同期開始通知に含まれる情報は、その音声データを指定する情報であってもよい。
録音機102において、通信部210は、録音機101から送信された同期開始通知を受信する。同期開始通知が受信されると、CPU205は、録音を開始し、録音が開始された時刻T20を記録部214に記録する。時刻T20は、録音の開始直後にマイク204から出力されたアナログ音声信号がA/D変換器203によって音声データに変換される時刻よりも前の時刻である。
続いて、録音機101において、音声出力モジュール215は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データに基づく音声(再生音声)を出力する(ステップS302)。この音声は、端末(録音機101)に固有の特定の信号パターンを変換した音声である。更に、CPU205は、音声の出力を開始した時刻T11を記録部214に記録する。更に、CPU205は、録音を開始し、録音が開始された時刻T10を記録部214に記録する。時刻T10は、録音の開始直後にマイク204から出力されたアナログ音声信号がA/D変換器203によって音声データに変換される時刻よりも前の時刻である。
録音機102において、時刻T20で録音が開始された後、音声入力モジュール216は、録音機101から出力された音声を入力する。更に、音声データ照合部207は、録音機101から出力された音声の入力を開始した時刻T21を、後述する方法で検出する。検出された時刻T21は記録部214に記録される。また、CPU205は、A/D変換器203から出力された音声データを記録部214に記録する。
続いて、録音機102において、音声出力モジュール215は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データに基づく音声(再生音声)を出力する(ステップS303)。この音声は、同期開始通知に含まれる、端末(録音機101)に固有の特定の信号パターンを変換した音声である。更に、CPU205は、音声を出力した時刻T22を記録部214に記録する。
録音機101において、時刻T10で録音が開始された後、音声入力モジュール216は、録音機102から出力された音声を入力する。更に、音声データ照合部207は、録音機102から出力された音声の入力を開始した時刻T12を、後述する方法で検出する。検出された時刻T12は記録部214に記録される。また、CPU205は、A/D変換器203から出力された音声データを記録部214に記録する。
録音機102において、上記の一連の処理が実行された後、通信部210は同期処理通知を録音機101に送信する(ステップS304)。同期処理通知は、時刻の同期を行うための処理に必要な情報を通知するメッセージである。同期処理通知は、記録部214に記録された時刻T21,T22を含む。
録音機101において、通信部210は、録音機102から送信された同期処理通知を受信する。時刻差分算出部206は、以下で説明するように、録音機101と録音機102との時刻の差分を算出する。ここで、録音機102において、ステップS302で録音機101から出力された音声が入力された時刻T21から、ステップS303で音声が出力された時刻T22までの経過時間をtとする。また、録音機101から出力された音声が録音機102に到達するのに要する時間をΔtとする。時刻差分は以下のようにして求めることができる。
時刻T11と時刻T12の間には、以下の(1)式及び(2)式が成り立つ。(1)式において、T21’は、録音機101から音声の出力が開始された時刻T11と同じ絶対時刻における録音機102内の時刻である。(1)式において、T22’は、録音機101に音声の入力が開始された時刻T12と同じ絶対時刻における録音機102内の時刻である。
T12−T11=T22’−T21’=t+Δt×2 ・・・(1)
=T22−T21 ・・・(2)
(1)式及び(2)式から、以下の(3)式が成り立つ。また、以下の(4)式及び(5)式が成り立つ。時刻差分算出部206は、(3)式により時間Δtを算出し、(4)式及び(5)式により時刻T21’,T22’を算出する。
Δt={(T12−T11)−(T22−T21)}/2 ・・・(3)
T21’=T21−Δt ・・・(4)
T22’=T22+Δt ・・・(5)
求める時刻差分は、録音機101内の時刻T11と録音機102内の時刻T21’との差分又は録音機101内の時刻T12と録音機102内の時刻T22’との差分である。従って、求める時刻差分をΔTとすると、時刻差分算出部206は、以下の(6)式又は(7)式によりΔTを算出する。
ΔT=T11−T21’ ・・・(6)
ΔT=T12−T22’ ・・・(7)
時刻差分が算出された後、録音機101において、通信部210は録音開始通知を録音機102に送信する(ステップS305)。録音開始通知は、録音(音声データの記録)の開始を通知するメッセージである。更に、CPU205は、録音を開始する。
録音機102において、通信部210は、録音機101から送信された録音開始通知を受信する。CPU205は、録音開始通知に基づいて録音を開始する。
録音機101,102において、録音が開始された後、音声入力モジュール216は、音源Sから出力された音声を入力する。CPU205は、A/D変換器203から出力された音声データを記録部214に記録する。
録音の実行中、録音機102において、通信部210は、記録部214に順次記録された音声データを含むメッセージを録音機101に送信する(ステップS306)。
録音機101において、通信部210は、録音機102から送信されたメッセージを受信する。データ合成部213は、時刻差分算出部206によって算出された時刻差分に基づいて、録音機102から受信された音声データと、音源Sから出力されて音声入力モジュール216に入力された音声に基づく音声データとの時刻の差を調整した後、それらの音声データを合成する。
録音が終了する際、録音機101において、通信部210は、録音終了通知を録音機102に送信する(ステップS307)。録音終了通知は、録音(音声データの記録)の終了を通知するメッセージである。更に、CPU205は、録音を終了する。
録音機102において、通信部210は、録音機101から送信された録音終了通知を受信する。CPU205は、録音終了通知に基づいて録音を終了する。
本実施形態に示す例では、ステップS303で録音機102は、録音機101に固有の特定の音声パターンを示す音声データに基づく音声を出力する。他の例として、ステップS303で録音機102は、録音機102に固有の特定の音声パターンを示す音声データに基づく音声を出力してもよい。この場合、録音機101は、録音機102に固有の特定の音声パターンを示す音声データを記録部214に予め保持する。この場合、録音機102は、録音機101から録音機102に送信される同期開始通知と同様のメッセージを録音機101に送信してもよい。つまり、録音機102は、録音機102に固有の特定の音声パターンを示す音声データを含むメッセージを録音機101に送信してもよい。
(同期用の信号パターン)
図4は、同期用の音声信号パターン(例えば、信号発生器202が出力するアナログ音声信号のパターン)の一例を示している。図4の横方向は時間を示し、図4の縦方向は信号値を示している。音声信号パターンSP1は、録音機101が発生する音声信号パターンであり、音声信号パターンSP2は、録音機102が発生する音声信号パターンである。
図4に示す例では、音声信号パターンは矩形波である。実際に発生する音声の周波数を可聴領域外の周波数にするために、音声信号パターンの1波長は、図4に示すように、例えば周波数が30kHzであれば33μsに設定されている。端末に固有の情報として例えば、端末毎に割り当てられているMAC(Media Access Control)アドレスが用いられる。
1波長分の音声信号パターンを例えば無音状態又は発音状態にすることによって、1波長に対して2値を割り当てることが可能である。無音状態では1波長全体の信号値が0である。発音状態では、例えば1波長の前半の信号値が0よりも大きな所定値であり、1波長の後半の信号値が0である。1波長につき2値の割り当てが可能な音声信号パターンを8波長分用いることによって、16進数で0x00〜0xFFまでの数字を表現することができる。8波長分の音声信号パターンを6つ組み合わせることで、端末に固有の音声信号パターンが構成される。
録音機102において、音声データ照合部207は、録音機101から受信された同期開始通知に含まれる音声データのパターンと、録音機101から出力された音声に対応する音声データのパターンとを照合する。これによって、音声データ照合部207は、音声入力モジュール216に入力された音声が、録音機101から出力された音声であるか否かを判定する。録音機102は、同期開始通知を受信した時刻T20から録音を開始している。録音機102において、音声データ照合部207は、時刻T20から記録した音声データを解析することにより、録音機101から出力された音声が入力された時刻T21を取得することができる。
例えば、音声データ照合部207は、音声データを時刻T20から順にたどりながら上記の照合を行う。音声データ照合部207は、8波長分の音声信号パターンを6つ組み合わせたパターンに対応する音声データの範囲で照合を行う。この範囲において、同期開始通知に含まれる音声データのパターンと、録音機101から出力された音声に対応する音声データのパターンとが完全に一致した場合に、音声データ照合部207は、音声入力モジュール216に入力された音声が、録音機101から出力された音声であると判定する。この場合に、音声データ照合部207は、音声信号パターンの最初の振幅が出現したタイミングを時刻T21として検出する。
同様の方法により、録音機101において、音声データ照合部207は、記録部214に記録されている音声データのパターンと、録音機102から出力された音声に対応する音声データのパターンとを照合する。記録部214に記録されている音声データは、録音機102に送信された同期開始通知に含まれる音声データと同一である。この照合により、音声データ照合部207は、録音機102から出力された音声を取得した時刻T12を取得する。
図4には、録音機101から音声の出力が開始された時刻T11と同じ絶対時刻における録音機102内の時刻T21’と、録音機101から出力された音声が録音機102に到達するのに要する時間Δtとが示されている。時刻差分算出部206は、前述した(4)式により時刻T21’を算出する。また、時刻差分算出部206は、前述した(5)式により時刻T22’を算出することも可能である。
(録音機101の同期処理時の動作)
図5は、録音機101が時刻差分を算出する処理の流れを示している。処理が開始された時点で、録音機101は、録音機102とネットワークを介して接続している状態にある。処理が開始されると、CPU205は、録音機101のモードが同期処理モードに移行するか否かを判定する(ステップS501)。録音機101のモードが同期処理モードに移行しない場合、処理が終了する。また、録音機101のモードが同期処理モードに移行する場合、以降の処理が行われる。
録音機101のモードが同期処理モードに移行する条件として、例えば録音機101と録音機102とが、最後にネットワークを介して接続したときに同期処理を実行した形跡が無いことが挙げられる。あるいは、録音機101のモードが同期処理モードに移行する条件として、ユーザの操作により同期処理モードが選択されることが挙げられる。録音機101,102が、ネットワークを介して接続している間だけ時刻差分の情報を保持するように構成されている場合、録音機101が時刻差分の情報を持っていないことを検出することで、録音機101と録音機102とが、最後にネットワークを介して接続したときに同期処理を実行した形跡が無いことを知ることができる。
録音機101のモードが同期処理モードに移行する場合、メッセージ処理部208は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データを含む同期開始通知を生成する(ステップS502)。通信部210は、生成された同期開始通知を録音機102に送信する(ステップS503)。つまり、ステップS503で通信部210は、記録部214に記録されている音声データを示す第3の情報を他の端末(録音機102)に送信する。また、ステップS503でCPU205は、通信部210に対して、記録部214に記録されている音声データを示す第3の情報を他の端末(録音機102)へ送信させる。
同期開始通知の送信が完了した後、CPU205は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データを信号発生器202に出力する。信号発生器202は、音声データに基づいてアナログ音声信号を発生し、発生したアナログ音声信号をスピーカー201に出力する。スピーカー201は、アナログ音声信号に基づいて音声を出力する(ステップS504)。つまり、ステップS504で音声出力モジュール215は、記録部214に記録されている音声データに基づく音声を出力する。また、ステップS504でCPU205は、記録部214に記録されている音声データに基づく音声を音声出力モジュール215に出力させる。
更に、CPU205は、音声の出力を開始した時刻T11を記録部214に記録する(ステップS505)。続いて、CPU205は、A/D変換器203及びマイク204を起動して状態を初期化することにより、録音を開始する(ステップS506)更に、CPU205は、録音が開始された時刻T10を記録部214に記録する(ステップS507)。
録音の開始後、録音機102から音声が出力される。マイク204は、録音機102から出力された音声をアナログ音声信号に変換し、変換されたアナログ音声信号をA/D変換器203に出力する(ステップS508)。A/D変換器203は、アナログ音声信号をA/D変換してデジタル音声データを得る(ステップS509)。つまり、ステップS508,S509で音声入力モジュール216は、他の端末(録音機102)から出力された音声を入力する。また、ステップS508,S509でCPU205は、他の端末(録音機102)から出力された音声を音声入力モジュール216に入力させる。
CPU205は、ステップS509で得られた音声データを記録部214に記録する(ステップS510)。続いて、CPU205は、一連の処理を実行するのに要する時間をタイムアウトとして設定し、現在の時刻が、一連の処理が終了する予定時刻を経過したか否かを判定する(ステップS511)。このとき、一連の処理を実行するのに要する時間として、例えば5秒がタイムアウトとして設定される。音声の出力を開始した時刻T11にタイムアウトを加算した時刻が終了予定時刻である。
現在の時刻が終了予定時刻を経過していない場合、ステップS508の処理が再度行われる。また、現在の時刻が終了予定時刻を経過した場合、CPU205は、A/D変換器203及びマイク204を停止させることにより、録音を終了する(ステップS512)。
続いて、音声データ照合部207は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データと、ステップS508〜S510の処理により記録部214に記録された音声データとを照合し、2つの音声データが一致するか否かを判定する(ステップS513)。ステップS513では、ステップS508〜S510の処理により記録部214に記録された音声データのパターンの中に、端末(録音機101)に固有の特定の音声パターンと一致するパターンが含まれている場合に、2つの音声データが一致すると判定され、それ以外の場合に、2つの音声データが一致しないと判定される。ステップS513の処理を行うことにより、音声データ照合部207は、他の端末(録音機102)から出力されて音声入力モジュール216に入力された音声に基づく音声データから、記録部214に記録されている音声データと一致する音声データを検出する。
2つの音声データが一致しなかった場合、処理が終了する。また、2つの音声データが一致した場合、音声データ照合部207は、図4を用いて説明した方法により、音声の入力を開始した時刻T12を検出し、検出した時刻T12をCPU205に出力する。CPU205は時刻T12を記録部214に記録する(ステップS514)。
続いて、通信部210は、録音機102から送信された同期処理通知を受信する。メッセージ処理部208は、同期処理通知を処理し、同期処理通知に含まれる時刻T21,T22の情報をCPU205に出力する(ステップS515)。つまり、ステップS515で通信部210は、ステップS504で音声出力モジュール215から出力された音声の入力が他の端末(録音機102)で開始された時刻T21を示す第1の情報と、他の端末(録音機102)から出力され、音声入力モジュール216に入力された音声の出力が他の端末(録音機102)で開始された時刻T22を示す第2の情報と、を他の端末(録音機102)から受信する。また、ステップS515でCPU205は、時刻T21を示す第1の情報と、時刻T22を示す第2の情報と、を通信部210に他の端末(録音機102)から受信させる。
CPU205は、メッセージ処理部208からの情報に基づいて、同期処理通知に時刻情報が含まれていたか否かを判定する(ステップS516)。同期処理通知に時刻情報が含まれていなかった場合、時刻差分の算出に失敗し、処理が終了する。また、同期処理通知に時刻情報が含まれていた場合、時刻差分算出部206は、ステップS504で音声出力モジュール215から音声の出力が開始された時刻T11と、音声入力モジュール216に、記録部214に記録されている音声データ(録音機101に固有の特定の音声パターンを示す音声データ)と一致する音声データに対応する音声の入力が開始された時刻T12と、他の端末(録音機102)から受信された第1の情報が示す時刻T21と、他の端末(録音機102)から受信された第2の情報が示す時刻T22と、に基づいて、自端末(録音機101)と他の端末(録音機102)との時刻の差分を算出する(ステップS517)。
ステップS517で算出された時刻差分は記録部214に記録され、音声データの合成の際に用いられる。時刻差分が算出されると、処理が終了する。
(録音機102の同期処理時の動作)
図6は、録音機101が時刻差分を求める処理に対応して録音機102が行う処理の流れを示している。処理が開始された時点で、録音機102は、録音機101とネットワークを介して接続している状態にある。処理が開始されると、通信部210は、録音機101から送信された同期開始通知を受信する。メッセージ処理部208は、同期開始通知を処理し、同期開始通知に含まれる音声データをCPU205に出力する。CPU205は、この音声データを記録部214に記録する(ステップS601)。つまり、ステップS601で通信部210は、音声データを示す第3の情報を他の端末(録音機101)から受信する。また、ステップS601でCPU205は、音声データを示す第3の情報を通信部210に他の端末(録音機101)から受信させる。
続いて、CPU205は、A/D変換器203及びマイク204を起動して状態を初期化することにより、録音を開始する(ステップS602)。更に、CPU205は、録音が開始された時刻T20を記録部214に記録する(ステップS603)。
録音の開始後、録音機101から音声が出力される。録音が開始された後、マイク204は、録音機101から出力された音声をアナログ音声信号に変換し、変換されたアナログ音声信号をA/D変換器203に出力する(ステップS604)。A/D変換器203は、アナログ音声信号をA/D変換してデジタル音声データを得る(ステップS605)。つまり、ステップS603,S604で音声入力モジュール216は、他の端末(録音機101)から出力された音声を入力する。また、ステップS603,S604でCPU205は、他の端末(録音機102)から出力された音声を音声入力モジュール216に入力させる。
CPU205は、ステップS605で得られた音声データを記録部214に記録する(ステップS606)。続いて、CPU205は、一連の処理を実行するのに要する時間をタイムアウトとして設定し、現在の時刻が、一連の処理が終了する予定時刻を経過したか否かを判定する(ステップS607)。このとき、一連の処理を実行するのに要する時間として、例えば5秒がタイムアウトとして設定される。音声の出力を開始した時刻T11にタイムアウトを加算した時刻が終了予定時刻である。
現在の時刻が終了予定時刻を経過していない場合、ステップS604の処理が再度行われる。また、現在の時刻が終了予定時刻を経過した場合、CPU205は、A/D変換器203及びマイク204を停止させることにより、録音を終了する(ステップS608)。
続いて、音声データ照合部207は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データと、ステップS604〜S606の処理により記録部214に記録された音声データとを照合し、2つの音声データが一致するか否かを判定する(ステップS609)。端末(録音機101)に固有の特定の音声パターンを示す音声データは、ステップS601で受信された同期開始通知に含まれていた音声データである。ステップS609では、ステップS604〜S606の処理により記録部214に記録された音声データのパターンの中に、端末(録音機101)に固有の特定の音声パターンと一致するパターンが含まれている場合に、2つの音声データが一致すると判定され、それ以外の場合に、2つの音声データが一致しないと判定される。ステップS609の処理を行うことにより、音声データ照合部207は、他の端末(録音機102)から出力されて音声入力モジュール216に入力された音声に基づく音声データから、記録部214に記録されている音声データと一致する音声データを検出する。
2つの音声データが一致しなかった場合、ステップS613の処理が行われる。また、2つの音声データが一致した場合、音声データ照合部207は、図4を用いて説明した方法により、音声の入力を開始した時刻T21を検出し、検出した時刻T21をCPU205に出力する。CPU205は時刻T21を記録部214に記録する(ステップS610)。
続いて、CPU205は、記録部214に記録されている、端末(録音機101)に固有の特定の音声パターンを示す音声データを記録部214から読み出し、信号発生器202に出力する。信号発生器202は、音声データに基づいてアナログ音声信号を発生し、発生したアナログ音声信号をスピーカー201に出力する。スピーカー201は、アナログ音声信号に基づいて音声を出力する(ステップS611)。つまり、ステップS611で音声出力モジュール215は、記録部214に記録されている音声データ(第3の情報が示す音声データ)に基づく音声を出力する。また、ステップS611でCPU205は、記録部214に記録されている音声データ(第3の情報が示す音声データ)に基づく音声を音声出力モジュール215に出力させる。
更に、CPU205は、音声の出力を開始した時刻T22を記録部214に記録する(ステップS612)。続いて、メッセージ処理部208は、記録部214に記録された時刻T21,T22を含む同期処理通知を生成する。通信部210は、生成された同期処理通知を録音機101に送信する(ステップS613)。つまり、ステップS613で通信部210は、音声入力モジュール216に音声の入力が開始された時刻T21を示す第1の情報と、音声出力モジュール215から音声の出力が開始された時刻T22を示す第2の情報と、を他の端末(録音機101)に送信する。また、ステップS613でCPU205は、時刻T21を示す第1の情報と、時刻T22を示す第2の情報と、を通信部210に他の端末(録音機101)へ送信させる。
ただし、ステップS609で2つの音声データが一致しなかった場合、ステップS613では、時刻T21,T22を含まない同期処理通知が録音機101に送信される。同期処理通知が送信された後、処理が終了する。
(録音機101の同期録音実行時の動作)
図7は、録音機101と録音機102が同期して録音を行う際に録音機101が行う処理の流れを示している。処理が開始された時点で、録音機101は、録音機102とネットワークを介して接続している状態にある。処理が開始されると、操作部211はユーザから録音を開始する操作を受け付ける。この操作に基づき、メッセージ処理部208は録音開始通知を生成し、通信部210は、生成された録音開始通知を録音機102に送信する(ステップS701)。つまり、ステップS701で通信部210は、録音の開始を示す情報を他の端末(録音機102)に送信する。また、ステップS701でCPU205は、録音の開始を示す情報を通信部210に他の端末(録音機102)へ送信させる。
続いて、CPU205は、A/D変換器203及びマイク204を起動して状態を初期化することにより、録音を開始する(ステップS702)。更に、CPU205は、録音が開始された時刻を記録部214に記録する(ステップS703)。続いて、CPU205は、操作部211の状態を監視し、操作部211がユーザから録音を終了する操作を受け付けたか否かを判定する(ステップS704)。
操作部211がユーザから録音を終了する操作を受け付けた場合、メッセージ処理部208は録音終了通知を生成し、通信部210は、生成された録音終了通知を録音機102に送信する(ステップS711)。つまり、ステップS711で通信部210は、録音の終了を示す情報を他の端末(録音機102)に送信する。また、ステップS711でCPU205は、録音の終了を示す情報を通信部210に他の端末(録音機102)へ送信させる。
録音終了通知が送信された後、CPU205は、A/D変換器203及びマイク204を停止させることにより、録音を終了する(ステップS712)。これによって、同期録音に関する処理が終了する。
操作部211がユーザから録音を終了する操作を受け付けていない場合、マイク204は、音源Sから出力された音声をアナログ音声信号に変換し、変換されたアナログ音声信号をA/D変換器203に出力する(ステップS705)。A/D変換器203は、アナログ音声信号をA/D変換してデジタル音声データを得る(ステップS706)。つまり、ステップS705,S706で音声入力モジュール216は、他の端末(録音機102)を除く音源Sから出力された音声を入力する。また、ステップS705,S706でCPU205は、他の端末(録音機102)を除く音源Sから出力された音声を音声入力モジュール216に入力させる。
CPU205は、ステップS706で得られた音声データを記録部214に記録する(ステップS707)。このとき、ステップS703で記録部214に記録された時刻が音声データに記録される。続いて、CPU205は、通信部210の状態を監視し、録音機102から送信された音声データが受信されたか否かを判定する(ステップS708)。音声データが受信されていない場合、ステップS704の処理が行われる。
通信部210は、音声データを含むメッセージを録音機102から受信する。メッセージ処理部208は、受信されたメッセージを処理し、メッセージに含まれる音声データをCPU205に通知する。つまり、通信部210は、音源Sから出力されて他の端末(録音機102)に入力された音声に基づく音声データを他の端末(録音機102)から受信する。また、CPU205は、音源Sから出力されて他の端末(録音機102)に入力された音声に基づく音声データを通信部210に他の端末(録音機102)から受信させる。この場合、ステップS708で音声データが受信されたと判定される。
音声データが受信された場合、データ合成部213は、時刻差分算出部206によって算出された時刻差分に基づいて、録音機102から受信された音声データと、音源Sから出力されて音声入力モジュール216に入力された音声に基づく音声データとの時刻の差(録音機101と録音機102との相対時刻)を調整する。このとき、各音声データの時刻が一致するように、2つの音声データの一方又は両方の時刻が調整される。更に、データ合成部213は、各音声データを合成する(ステップS709)。データ合成部213は、合成した音声データを記録部214に記録する(ステップS710)。続いて、ステップS704の処理が行われる。
(録音機102の同期録音実行時の動作)
図8は、録音機101と録音機102が同期して録音を行う際に録音機102が行う処理の流れを示している。処理が開始された時点で、録音機102は、録音機101とネットワークを介して接続している状態にある。処理が開始されると、通信部210は、録音機101から送信された録音開始通知を受信する。メッセージ処理部208は、録音開始通知を処理し、録音の開始をCPU205に通知する(ステップS801)。つまり、ステップS801で通信部210は、録音の開始を示す情報を他の端末(録音機101)から受信する。また、ステップS801でCPU205は、録音の開始を示す情報を通信部210に他の端末(録音機101)から受信させる。
続いて、CPU205は、A/D変換器203及びマイク204を起動して状態を初期化することにより、録音を開始する(ステップS802)。更に、CPU205は、録音が開始された時刻を記録部214に記録する(ステップS803)。
続いて、CPU205は、通信部210の状態を監視し、録音機101から送信された録音終了通知が受信されたか否かを判定する(ステップS804)。録音終了通知が受信された場合、CPU205は、A/D変換器203及びマイク204を停止させることにより、録音を終了する(ステップS809)。これによって、同期録音に関する処理が終了する。
録音終了通知が受信されていない場合、マイク204は、音源Sから出力された音声をアナログ音声信号に変換し、変換されたアナログ音声信号をA/D変換器203に出力する(ステップS805)。A/D変換器203は、アナログ音声信号をA/D変換してデジタル音声データを得る(ステップS806)。つまり、ステップS805,S806で音声入力モジュール216は、他の端末(録音機101)を除く音源Sから出力された音声を入力する。また、ステップS805,S806でCPU205は、他の端末(録音機101)を除く音源Sから出力された音声を音声入力モジュール216に入力させる。
CPU205は、ステップS806で得られた音声データを記録部214に記録する(ステップS807)。このとき、ステップS803で記録部214に記録された時刻が音声データに記録される。
続いて、メッセージ処理部208は、ステップS807で記録部214に記録された音声データを含むメッセージを生成し、通信部210は、生成されたメッセージを他の端末(録音機101)に送信する(ステップS808)。つまり、ステップS808で通信部210は、音源Sから出力されて音声入力モジュール216に入力された音声に基づく音声データを他の端末(録音機101)に送信する。また、ステップS808でCPU205は、音源Sから出力されて音声入力モジュール216に入力された音声に基づく音声データを通信部210に他の端末(録音機101)へ送信させる。続いて、ステップS804の処理が行われる。
以上の処理により、録音機101と録音機102との同期録音による音声データを得ることができる。
(音声データ)
図9は音声データのタイムチャートの一例である。図9の横方向はタイムラインを示している。音声データD1は、録音機101で記録された音声データであり、音声データD2は、録音機102で記録された音声データである。録音開始時に音声データD1に記録される時刻(録音開始時刻)が時刻TS101であり、録音開始時に音声データD2に記録される時刻(録音開始時刻)が時刻TS102である。録音機101と録音機102とで内部の時刻が異なり、且つ、録音開始通知の到達時間や内部処理時間の影響により、図9に示すように、音声データD1と音声データD2はタイムライン上で同期していない。
音声データD1のタイムライン上の時刻をTS102、TS103、・・・、TS10Nとし、音声データD2のタイムライン上の時刻をTS202、TS203、・・・、TS20Nとすると、それぞれの時刻は、録音開始時刻TS101,TS201から算出することができる。例えば、時刻TS102,TS103がそれぞれ録音開始から10秒後、20秒後のタイミングであれば、それぞれの時刻はTS101+10、TS102+20となる。同様に、音声データD2に関しても時刻TS202,TS203等を算出することができる。
時刻TS103と時刻TS203とは、時刻差分だけ離れている。同様に、時刻TS102と時刻TS202とは時刻差分だけ離れている。従って、音声データD1と音声データD2とを相対的に時刻差分だけずらしてタイミングを合わせることにより、合成データを得ることができる。
図10は、時刻が調整された音声データを示している。音声データD1のタイムライン上の時刻TS102,TS103と、音声データD2のタイムライン上の時刻TS202,TS203とが一致している。録音機101と録音機102では録音開始及び録音終了のタイミングが完全に同期できるわけでない。このため、音声データ長に若干の差が発生する。例えば、図10に示すように、音声データD1の録音開始の時刻TS101と音声データD2の録音開始の時刻TS201とがずれている。また、音声データD1の録音終了の時刻TS10Nと音声データD2の録音終了の時刻TS20Nとがずれている。図10では、2つの音声データのデータ長を合わせるために、データ長がより長い音声データに対応するデータが無い部分が無音データで埋められている(図10の斜線部)。あるいは、データ長がより短い音声データにデータ長を合わせるために、データ長がより長い音声データの端部を切り取ってもよい。
本実施形態によれば、第1の音声データを含む音声データを記録する記録モジュール(記録部214)と、記録モジュールに記録されている音声データに基づく音声を出力する音声出力モジュール215と、他の端末(録音機102)から出力された音声と、他の端末を除く音源Sから出力された音声とを入力する音声入力モジュール216と、他の端末から出力されて音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データと一致する音声データを検出する音声検出部(音声データ照合部207)と、音声出力モジュール215から出力された音声の入力が他の端末で開始された時刻T21を示す第1の情報と、他の端末から出力されて音声入力モジュール216に入力された音声の出力が他の端末で開始された時刻T22を示す第2の情報と、を他の端末から受信し、音源Sから出力されて他の端末に入力された音声に基づく第2の音声データを他の端末から受信する無線通信モジュール(通信部210)と、音声出力モジュール215から音声の出力が開始された時刻T11と、音声入力モジュール216に、第1の音声データと一致する音声データに対応する音声の入力が開始された時刻T12と、第1の情報が示す時刻T21と、第2の情報が示す時刻T22と、に基づいて、自端末(録音機101)と他の端末との時刻の差分を算出する時刻差分算出部206と、時刻差分算出部206によって算出された時刻の差分に基づいて、第2の音声データと、音源Sから出力されて音声入力モジュール216に入力された音声に基づく第3の音声データとの時刻の差を調整した後、第2の音声データと第3の音声データとを合成するデータ合成部213と、を有する音声データ合成端末(録音機101)が構成される。
また、本実施形態によれば、第1の音声データを含む音声データを記録する記録モジュール(記録部214)と、記録モジュールに記録されている音声データに基づく音声を出力する音声出力モジュール215と、他の端末(録音機101)から出力された音声と、他の端末を除く音源Sから出力された音声とを入力する音声入力モジュール216と、他の端末から出力されて音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データと一致する音声データを検出する音声検出部(音声データ照合部207)と、第1の音声データと一致する音声データが検出された場合、記録モジュールに記録されている音声データに基づく音声を音声出力モジュール215から出力させる制御部(CPU205)と、他の端末から出力された音声の入力が音声入力モジュール216で開始された時刻T21を示す第1の情報と、音声出力モジュール215から音声の出力が開始された時刻T22を示す第2の情報と、を他の端末に送信し、音源Sから出力されて音声入力モジュール216に入力された音声に基づく第2の音声データを他の端末に送信する無線通信モジュール(通信部210)と、を有する音声データ記録端末(録音機102)が構成される。
また、本実施形態によれば、音声データ合成端末(録音機101)と、音声データ記録端末(録音機102)とを有する音声データ合成システムであって、音声データ合成端末は、第1の音声データを含む音声データを記録する第1の記録モジュール(記録部214)と、第1の記録モジュールに記録されている音声データに基づく音声を出力する第1の音声出力モジュール215と、音声データ記録端末から出力された音声と、音声データ記録端末を除く音源Sから出力された音声とを入力する第1の音声入力モジュール216と、音声データ記録端末から出力されて第1の音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データと一致する音声データを検出する第1の音声検出部(音声データ照合部207)と、第1の音声出力モジュール215から出力された音声の入力が音声データ記録端末で開始された時刻T21を示す第1の情報と、音声データ記録端末から出力されて第1の音声入力モジュール216に入力された音声の出力が音声データ記録端末で開始された時刻T22を示す第2の情報と、を音声データ記録端末から受信し、音源Sから出力されて音声データ記録端末に入力された音声に基づく第2の音声データを音声データ記録端末から受信する第1の無線通信モジュール(通信部210)と、第1の音声出力モジュール215から音声の出力が開始された時刻T11と、第1の音声入力モジュール216に、第1の音声データと一致する音声データに対応する音声の入力が開始された時刻T12と、第1の情報が示す時刻T21と、第2の情報が示す時刻T22と、に基づいて、音声データ合成端末と音声データ記録端末との時刻の差分を算出する時刻差分算出部206と、時刻差分算出部206によって算出された時刻の差分に基づいて、第2の音声データと、音源Sから出力されて第1の音声入力モジュール216に入力された音声に基づく第3の音声データとの時刻の差を調整した後、第2の音声データと第3の音声データとを合成するデータ合成部213と、を有する音声データ合成システムが構成される。
また、本実施形態による音声データ合成システムにおける音声データ記録端末は、第4の音声データを含む音声データを記録する第2の記録モジュール(記録部214)と、第2の記録モジュールに記録されている音声データに基づく音声を出力する第2の音声出力モジュール215と、音声データ合成端末から出力された音声と、音源Sから出力された音声とを入力する第2の音声入力モジュール216と、音声データ合成端末から出力されて第2の音声入力モジュール216に入力された音声に基づく音声データから、第4の音声データと一致する音声データを検出する第2の音声検出部(音声データ照合部207)と、第4の音声データと一致する音声データが検出された場合、第2の記録モジュールに記録されている音声データに基づく音声を第2の音声出力モジュール215から出力させる制御部(CPU205)と、音声データ合成端末から出力された音声の入力が第2の音声入力モジュール216で開始された時刻T21を示す第1の情報と、第2の音声出力モジュール215から音声の出力が開始された時刻T22を示す第2の情報と、を音声データ合成端末に送信し、音源Sから出力されて第2の音声入力モジュール216に入力された音声に基づく第2の音声データを音声データ合成端末に送信する第2の無線通信モジュール(通信部210)と、を有する。
また、本実施形態によれば、第1の音声データを含む音声データを記録する記録モジュール(記録部214)に記録されている音声データに基づく音声を音声出力モジュール215が出力するステップS504と、他の端末(録音機102)から出力された音声を音声入力モジュール216が入力するステップS508,S509と、他の端末から出力されて音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データと一致する音声データを音声検出部(音声データ照合部207)が検出するステップS513と、音声出力モジュール215から出力された音声の入力が他の端末で開始された時刻T21を示す第1の情報と、他の端末から出力されて音声入力モジュール216に入力された音声の出力が他の端末で開始された時刻T22を示す第2の情報と、を無線通信モジュール(通信部210)が他の端末から受信するステップS515と、音声出力モジュール215から音声の出力が開始された時刻T11と、音声入力モジュール216に、第1の音声データと一致する音声データに対応する音声の入力が開始された時刻T12と、第1の情報が示す時刻T21と、第2の情報が示す時刻T22と、に基づいて、自端末(録音機101)と他の端末との時刻の差分を時刻差分算出部206が算出するステップS517と、他の端末を除く音源Sから出力された音声を音声入力モジュール216が入力するステップS705,S706と、音源Sから出力されて他の端末に入力された音声に基づく第2の音声データを無線通信モジュールが他の端末から受信するステップS708と、データ合成部213が、算出された時刻の差分に基づいて、第2の音声データと、音源Sから出力されて音声入力モジュール216に入力された音声に基づく第3の音声データとの時刻の差を調整した後、第2の音声データと第3の音声データとを合成するステップS709と、を有する音声データ合成方法が構成される。
また、本実施形態によれば、他の端末(録音機101)から出力された音声を音声入力モジュール216が入力するステップS604,S605と、他の端末から出力されて音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データを含む音声データを記録する記録モジュール(記録部214)に記録されている第1の音声データと一致する音声データを音声検出部(音声データ照合部207)が検出するステップS609と、第1の音声データと一致する音声データが検出された場合、記録モジュールに記録されている音声データに基づく音声を音声出力モジュール215が出力するステップS611と、他の端末から出力された音声の入力が音声入力モジュール216で開始された時刻T21を示す第1の情報と、音声出力モジュール215から音声の出力が開始された時刻T22を示す第2の情報と、を無線通信モジュール(通信部210)が他の端末に送信するステップS613と、他の端末を除く音源Sから出力された音声を音声入力モジュール216が入力するステップS805,S806と、音源Sから出力されて音声入力モジュール216に入力された音声に基づく第2の音声データを無線通信モジュールが他の端末に送信するステップS808と、を有する音声出力方法が構成される。
また、本実施形態によれば、第1の音声データを含む音声データを記録する記録モジュール(記録部214)に記録されている音声データに基づく音声を音声出力モジュール215に出力させるステップS504と、他の端末(録音機102)から出力された音声を音声入力モジュール216に入力させるステップS508,S509と、他の端末から出力されて音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データと一致する音声データを検出するステップS513と、音声出力モジュール215から出力された音声の入力が他の端末で開始された時刻T21を示す第1の情報と、他の端末から出力されて音声入力モジュール216に入力された音声の出力が他の端末で開始された時刻T22を示す第2の情報と、を無線通信モジュール(通信部210)に他の端末から受信させるステップS515と、音声出力モジュール215から音声の出力が開始された時刻T11と、音声入力モジュール216に、第1の音声データと一致する音声データに対応する音声の入力が開始された時刻T12と、第1の情報が示す時刻T21と、第2の情報が示す時刻T22と、に基づいて、自端末(録音機101)と他の端末との時刻の差分を算出するステップS517と、他の端末を除く音源Sから出力された音声を音声入力モジュール216に入力させるステップS705,S706と、音源Sから出力されて他の端末に入力された音声に基づく第2の音声データを無線通信モジュール(通信部210)に他の端末から受信させるステップS708と、算出された時刻の差分に基づいて、第2の音声データと、音源Sから出力されて音声入力モジュール216に入力された音声に基づく第3の音声データとの時刻の差を調整した後、第2の音声データと第3の音声データとを合成するステップS709と、をコンピュータに実行させるためのプログラムが構成される。
また、本実施形態によれば、他の端末(録音機101)から出力された音声を音声入力モジュール216に入力させるステップS604,S605と、他の端末から出力されて音声入力モジュール216に入力された音声に基づく音声データから、第1の音声データを含む音声データを記録する記録モジュール(記録部214)に記録されている第1の音声データと一致する音声データを検出するステップS609と、第1の音声データと一致する音声データが検出された場合、記録モジュールに記録されている音声データに基づく音声を音声出力モジュール215に出力させるステップS611と、他の端末から出力された音声の入力が音声入力モジュール216で開始された時刻T21を示す第1の情報と、音声出力モジュール215から音声の出力が開始された時刻T22を示す第2の情報と、を無線通信モジュール(通信部210)に他の端末へ送信させるステップS613と、他の端末を除く音源Sから出力された音声を音声入力モジュール216に入力させるステップS805,S806と、音源Sから出力されて音声入力モジュール216に入力された音声に基づく第2の音声データを無線通信モジュールに他の端末へ送信させるステップS808と、をコンピュータに実行させるためのプログラムが構成される。
本実施形態では、端末間の時刻差分が算出され、算出された時刻差分に基づいて、合成される音声データ間の時刻の差が調整される。これによって、基準時刻が取得可能な装置を使用せずに、複数の音声データの時刻を調整することができる。また、無線ネットワークを介して接続されている、時刻が同期していない端末間で簡便にマルチチャンネル録音を行うことができる。
また、同期処理において、端末間で第1の音声データ(録音機101に固有の特定の音声パターンを示す音声データ)を共通に用いて音声の入力・出力(ステップS302,S303)を行うことによって、各端末が同期処理のために記憶する音声データの記憶量を減らすことができる。更に、同期処理において、同期処理を行う端末(録音機101)に固有の特定の音声パターンを示す音声データを用いることによって、同期録音を行わない端末が同期録音を行う端末の周囲にあっても、同期録音を行わない端末の影響を受けることなく、同期処理を行うことができる。
以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
101,102 録音機、201 スピーカー、202 信号発生器、203 A/D変換器、204 マイク、205 CPU、206 時刻差分算出部、207 音声データ照合部、208 メッセージ処理部、209 クロック生成部、210 通信部、211 操作部、212 表示部、213 データ合成部、214 記録部

Claims (11)

  1. 第1の音声データを含む音声データを記録する記録モジュールと、
    前記記録モジュールに記録されている音声データに基づく音声を出力する音声出力モジュールと、
    他の端末から出力された音声と、前記他の端末を除く音源から出力された音声とを入力する音声入力モジュールと、
    前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出する音声検出部と、
    前記音声出力モジュールから出力された音声の入力が前記他の端末で開始された時刻を示す第1の情報と、前記他の端末から出力されて前記音声入力モジュールに入力された音声の出力が前記他の端末で開始された時刻を示す第2の情報と、を前記他の端末から受信し、前記音源から出力されて前記他の端末に入力された音声に基づく第2の音声データを前記他の端末から受信する無線通信モジュールと、
    前記音声出力モジュールから音声の出力が開始された時刻と、前記音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、自端末と前記他の端末との時刻の差分を算出する時刻差分算出部と、
    前記時刻差分算出部によって算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するデータ合成部と、
    を有する音声データ合成端末。
  2. 前記音声出力モジュールは、前記第1の音声データに基づく音声を出力する請求項1に記載の音声データ合成端末。
  3. 前記無線通信モジュールは更に、前記第1の音声データを示す第3の情報を前記他の端末に送信する請求項2に記載の音声データ合成端末。
  4. 第1の音声データを含む音声データを記録する記録モジュールと、
    前記記録モジュールに記録されている音声データに基づく音声を出力する音声出力モジュールと、
    他の端末から出力された音声と、前記他の端末を除く音源から出力された音声とを入力する音声入力モジュールと、
    前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出する音声検出部と、
    前記第1の音声データと一致する音声データが検出された場合、前記記録モジュールに記録されている音声データに基づく音声を前記音声出力モジュールから出力させる制御部と、
    前記他の端末から出力された音声の入力が前記音声入力モジュールで開始された時刻を示す第1の情報と、前記音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を前記他の端末に送信し、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第2の音声データを前記他の端末に送信する無線通信モジュールと、
    を有する音声データ記録端末。
  5. 前記音声出力モジュールは、前記第1の音声データに基づく音声を出力する請求項4に記載の音声データ記録端末。
  6. 前記無線通信モジュールは更に、前記第1の音声データを示す第3の情報を前記他の端末から受信し、
    前記音声出力モジュールは、前記第3の情報が示す前記第1の音声データに基づく音声を出力する請求項5に記載の音声データ記録端末。
  7. 音声データ合成端末と、音声データ記録端末とを有する音声データ合成システムであって、
    前記音声データ合成端末は、
    第1の音声データを含む音声データを記録する第1の記録モジュールと、
    前記第1の記録モジュールに記録されている音声データに基づく音声を出力する第1の音声出力モジュールと、
    前記音声データ記録端末から出力された音声と、前記音声データ記録端末を除く音源から出力された音声とを入力する第1の音声入力モジュールと、
    前記音声データ記録端末から出力されて前記第1の音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出する第1の音声検出部と、
    前記第1の音声出力モジュールから出力された音声の入力が前記音声データ記録端末で開始された時刻を示す第1の情報と、前記音声データ記録端末から出力されて前記第1の音声入力モジュールに入力された音声の出力が前記音声データ記録端末で開始された時刻を示す第2の情報と、を前記音声データ記録端末から受信し、前記音源から出力されて前記音声データ記録端末に入力された音声に基づく第2の音声データを前記音声データ記録端末から受信する第1の無線通信モジュールと、
    前記第1の音声出力モジュールから音声の出力が開始された時刻と、前記第1の音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、前記音声データ合成端末と前記音声データ記録端末との時刻の差分を算出する時刻差分算出部と、
    前記時刻差分算出部によって算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記第1の音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するデータ合成部と、
    を有し、
    前記音声データ記録端末は、
    第4の音声データを含む音声データを記録する第2の記録モジュールと、
    前記第2の記録モジュールに記録されている音声データに基づく音声を出力する第2の音声出力モジュールと、
    前記音声データ合成端末から出力された音声と、前記音源から出力された音声とを入力する第2の音声入力モジュールと、
    前記音声データ合成端末から出力されて前記第2の音声入力モジュールに入力された音声に基づく音声データから、前記第4の音声データと一致する音声データを検出する第2の音声検出部と、
    前記第4の音声データと一致する音声データが検出された場合、前記第2の記録モジュールに記録されている音声データに基づく音声を前記第2の音声出力モジュールから出力させる制御部と、
    前記音声データ合成端末から出力された音声の入力が前記第2の音声入力モジュールで開始された時刻を示す第1の情報と、前記第2の音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を前記音声データ合成端末に送信し、前記音源から出力されて前記第2の音声入力モジュールに入力された音声に基づく前記第2の音声データを前記音声データ合成端末に送信する第2の無線通信モジュールと、
    を有する音声データ合成システム。
  8. 第1の音声データを含む音声データを記録する記録モジュールに記録されている音声データに基づく音声を音声出力モジュールが出力するステップと、
    他の端末から出力された音声を音声入力モジュールが入力するステップと、
    前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを音声検出部が検出するステップと、
    前記音声出力モジュールから出力された音声の入力が前記他の端末で開始された時刻を示す第1の情報と、前記他の端末から出力されて前記音声入力モジュールに入力された音声の出力が前記他の端末で開始された時刻を示す第2の情報と、を無線通信モジュールが前記他の端末から受信するステップと、
    前記音声出力モジュールから音声の出力が開始された時刻と、前記音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、自端末と前記他の端末との時刻の差分を時刻差分算出部が算出するステップと、
    前記他の端末を除く音源から出力された音声を前記音声入力モジュールが入力するステップと、
    前記音源から出力されて前記他の端末に入力された音声に基づく第2の音声データを前記無線通信モジュールが前記他の端末から受信するステップと、
    データ合成部が、算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するステップと、
    を有する音声データ合成方法。
  9. 他の端末から出力された音声を音声入力モジュールが入力するステップと、
    前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、第1の音声データを含む音声データを記録する記録モジュールに記録されている前記第1の音声データと一致する音声データを音声検出部が検出するステップと、
    前記第1の音声データと一致する音声データが検出された場合、前記記録モジュールに記録されている音声データに基づく音声を音声出力モジュールが出力するステップと、
    前記他の端末から出力された音声の入力が前記音声入力モジュールで開始された時刻を示す第1の情報と、前記音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を無線通信モジュールが前記他の端末に送信するステップと、
    前記他の端末を除く音源から出力された音声を前記音声入力モジュールが入力するステップと、
    前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第2の音声データを前記無線通信モジュールが前記他の端末に送信するステップと、
    を有する音声出力方法。
  10. 第1の音声データを含む音声データを記録する記録モジュールに記録されている音声データに基づく音声を音声出力モジュールに出力させるステップと、
    他の端末から出力された音声を音声入力モジュールに入力させるステップと、
    前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、前記第1の音声データと一致する音声データを検出するステップと、
    前記音声出力モジュールから出力された音声の入力が前記他の端末で開始された時刻を示す第1の情報と、前記他の端末から出力されて前記音声入力モジュールに入力された音声の出力が前記他の端末で開始された時刻を示す第2の情報と、を無線通信モジュールに前記他の端末から受信させるステップと、
    前記音声出力モジュールから音声の出力が開始された時刻と、前記音声入力モジュールに、前記第1の音声データと一致する音声データに対応する音声の入力が開始された時刻と、前記第1の情報が示す時刻と、前記第2の情報が示す時刻と、に基づいて、自端末と前記他の端末との時刻の差分を算出するステップと、
    前記他の端末を除く音源から出力された音声を前記音声入力モジュールに入力させるステップと、
    前記音源から出力されて前記他の端末に入力された音声に基づく第2の音声データを前記無線通信モジュールに前記他の端末から受信させるステップと、
    算出された前記時刻の差分に基づいて、前記第2の音声データと、前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第3の音声データとの時刻の差を調整した後、前記第2の音声データと前記第3の音声データとを合成するステップと、
    をコンピュータに実行させるためのプログラム。
  11. 他の端末から出力された音声を音声入力モジュールに入力させるステップと、
    前記他の端末から出力されて前記音声入力モジュールに入力された音声に基づく音声データから、第1の音声データを含む音声データを記録する記録モジュールに記録されている前記第1の音声データと一致する音声データを検出するステップと、
    前記第1の音声データと一致する音声データが検出された場合、前記記録モジュールに記録されている音声データに基づく音声を音声出力モジュールに出力させるステップと、
    前記他の端末から出力された音声の入力が前記音声入力モジュールで開始された時刻を示す第1の情報と、前記音声出力モジュールから音声の出力が開始された時刻を示す第2の情報と、を無線通信モジュールに前記他の端末へ送信させるステップと、
    前記他の端末を除く音源から出力された音声を前記音声入力モジュールに入力させるステップと、
    前記音源から出力されて前記音声入力モジュールに入力された音声に基づく第2の音声データを前記無線通信モジュールに前記他の端末へ送信させるステップと、
    をコンピュータに実行させるためのプログラム。
JP2013218487A 2013-10-21 2013-10-21 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム Active JP6150707B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013218487A JP6150707B2 (ja) 2013-10-21 2013-10-21 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム
US14/498,821 US9570056B2 (en) 2013-10-21 2014-09-26 Audio data synthesis method, audio output method, and program for synthesizing audio data based on a time difference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013218487A JP6150707B2 (ja) 2013-10-21 2013-10-21 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015081949A JP2015081949A (ja) 2015-04-27
JP6150707B2 true JP6150707B2 (ja) 2017-06-21

Family

ID=52826947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013218487A Active JP6150707B2 (ja) 2013-10-21 2013-10-21 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム

Country Status (2)

Country Link
US (1) US9570056B2 (ja)
JP (1) JP6150707B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10356393B1 (en) * 2015-02-16 2019-07-16 Amazon Technologies, Inc. High resolution 3D content
JP6853153B2 (ja) * 2017-09-27 2021-03-31 株式会社デンソーエレクトロニクス 警報装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0759176A (ja) * 1993-08-10 1995-03-03 Toshiba Corp 遠隔監視制御装置
JP2004193868A (ja) 2002-12-10 2004-07-08 Alps Electric Co Ltd 無線送受信システム及び無線送受信方法
JP2004325775A (ja) * 2003-04-24 2004-11-18 Kawai Musical Instr Mfg Co Ltd 合奏用ミキシングサーバ及び合奏用演奏装置
JP2008039411A (ja) * 2006-08-01 2008-02-21 Orion Denki Kk 電子機器の時刻合わせシステム
JP5308837B2 (ja) * 2009-01-16 2013-10-09 ヤフー株式会社 携帯端末同期システムおよび方法
JP2013135310A (ja) * 2011-12-26 2013-07-08 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体、及び、情報処理システム

Also Published As

Publication number Publication date
US9570056B2 (en) 2017-02-14
US20150112686A1 (en) 2015-04-23
JP2015081949A (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
JP6860055B2 (ja) 情報提供方法、端末装置の動作方法、情報提供システム、端末装置およびプログラム
AU2015297648B2 (en) Terminal device, information providing system, information presentation method, and information providing method
JP6662063B2 (ja) 収録データ処理方法
WO2017197309A1 (en) Distributed volume control for speech recognition
JP5887446B1 (ja) 情報管理システム、情報管理方法およびプログラム
ATE427008T1 (de) Verfahren und vorrichtung zur erzeugung von daten uber die gegenseitige lage von mindestens drei schallwandlern
CN107182009A (zh) 音频同步方法及相关电子设备
JP2007013707A (ja) ワイヤレススピーカシステム、音声信号送信装置、再生音位相同期装置、再生音位相同期方法並びに再生音位相同期プログラム
US11727950B2 (en) Systems, devices, and methods for synchronizing audio
JP6150707B2 (ja) 音声データ合成端末、音声データ記録端末、音声データ合成方法、音声出力方法、及びプログラム
JP6073145B2 (ja) 歌唱音声データ生成装置、及び、歌唱動画データ生成装置
WO2017067319A1 (zh) 信息传输方法和装置、及终端
WO2020079918A1 (ja) 情報処理装置及び情報処理方法
JP7284570B2 (ja) 音声再生システムおよびプログラム
EP2881950B1 (en) Recording method, recording system, recording program, recording program storage medium, acoustic processing method, and acoustic processing device
JP7111103B2 (ja) 撮像システム、撮像装置及び撮像方法
CN113163302B (zh) 真无线多声道扬声装置及其多音源发声的方法
US10080252B2 (en) Synchronous recording of audio using wireless data transmission
JP3227725U (ja) 文字表示機能付き補聴システム
JP2004170717A (ja) カラオケシステム
TWI750565B (zh) 真無線多聲道揚聲裝置及其多音源發聲之方法
US10489107B2 (en) Instruction information transmitting apparatus, instruction information transmitting system, and instruction information transmitting method
JP2023044750A (ja) 音波出力装置、音波出力方法、および音波出力プログラム
JP6140533B2 (ja) 通信デュエット時の演奏開始に特徴を有する通信カラオケシステム
JP2022061361A (ja) イベント検出装置、イベント検出方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160627

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170523

R151 Written notification of patent or utility model registration

Ref document number: 6150707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250