JP2016082422A - 音響信号処理装置 - Google Patents

音響信号処理装置 Download PDF

Info

Publication number
JP2016082422A
JP2016082422A JP2014212416A JP2014212416A JP2016082422A JP 2016082422 A JP2016082422 A JP 2016082422A JP 2014212416 A JP2014212416 A JP 2014212416A JP 2014212416 A JP2014212416 A JP 2014212416A JP 2016082422 A JP2016082422 A JP 2016082422A
Authority
JP
Japan
Prior art keywords
acoustic signal
position information
acoustic
recording
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014212416A
Other languages
English (en)
Inventor
近藤 多伸
Kazunobu Kondo
多伸 近藤
藤島 琢哉
Takuya Fujishima
琢哉 藤島
好史 大泉
Yoshifumi Oizumi
好史 大泉
梨沙 福田
Risa Fukuda
梨沙 福田
隆広 赤羽根
Takahiro Akabane
隆広 赤羽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014212416A priority Critical patent/JP2016082422A/ja
Priority to PCT/JP2015/079365 priority patent/WO2016060261A1/ja
Publication of JP2016082422A publication Critical patent/JP2016082422A/ja
Priority to US15/488,253 priority patent/US20170223452A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】複数の音響信号を容易に選択して混合することが可能な音響信号処理装置を提供する。
【解決手段】複数の端末装置1により収録された音響信号が位置情報と対応付けられ、記録データとしてデータベース2に記憶される。同期混合装置3は、データベース2から記録データを取得し、各記録データの位置情報に基づいて収録マークを地図画像上に表示する。ユーザが抽出条件を指定すると、抽出条件を満たす記録データが抽出される。それにより、同期混合装置3は、地図画像上に表示される収録マークを更新する。ユーザが地図画像上の収録マークを選択すると、同期混合装置3は、該当する記録データ中の音響信号の同期混合処理を行う。
【選択図】図1

Description

本発明は、複数の位置で収録された音響信号を合成する音響信号処理装置に関する。
異なる複数の位置で収録された音声信号を合成する音声合成装置が知られている(例えば、特許文献1参照)。特許文献1に記載された音声合成装置では、記憶装置は、空間内の異なる位置にて収集された音声を示す音声データを記憶する。設定部は、受音点の位置を利用者からの指示に応じて可変に設定する。音声合成部は、複数個の音声データの各々を、当該音声データに対応する収音点の位置と受音点の位置との関係に応じて処理することにより、音声を合成する。
特開2009−300576号公報
特許文献1に記載された音声合成装置では、記憶装置に多数の音声データが記憶されている場合、多数の音声データから合成対象となる複数の音声データを選択する作業が煩雑になることがある。
本発明の目的は、複数の音響信号を容易に選択して混合することが可能な音響信号処理装置を提供することである。
(1)本発明に係る音響信号処理装置は、音響空間内の複数の位置で収録された音を示す複数の音響信号を、収録位置を示す位置情報と対応付けて取得する取得手段と、取得手段により取得された複数の位置情報に基づいて、取得手段により取得された複数の音響信号から混合対象となる音響信号を選択する選択手段と、選択手段により選択された複数の音響信号を混合する混合手段とを備える。
その音響信号処理装置において、音響空間内の複数の位置で収録された音を示す複数の音響信号が位置情報と対応付けて取得される。それにより、複数の位置情報に基づいて複数の音響信号を容易に選択して混合することが可能となる。
(2)選択手段は、取得手段により取得された複数の位置情報を提示する提示手段と、提示手段により提示された位置情報の選択操作を検出する操作検出手段と、選択操作の検出に基づいて、選択された位置情報に対応する音響信号を選択する音響信号選択手段とを含んでもよい。
このような構成により、ユーザは、提示された複数の位置情報に基づいて、混合対象となる複数の音響信号を容易に選択することができる。
(3)提示手段は、地図画像を表示するとともに、複数の位置情報を地図画像上に表示する表示手段を含み、操作検出手段は、地図画像上での位置情報の選択操作を検出してもよい。
このような構成により、ユーザは、地図画像上に表示された複数の位置情報に基づいて、同一の音響空間内で取得された複数の音響信号を視覚的にかつ容易に選択することができる。
(4)音響信号処理装置は、音響信号の抽出条件を設定する設定手段と、取得手段により取得された複数の音響信号および複数の位置情報のうち抽出条件を満足する音響信号および位置情報を抽出する抽出手段とをさらに備え、提示手段は、抽出手段により抽出された位置情報を提示してもよい。
この場合、抽出条件を満足する音響信号が抽出されるので、抽出条件を適切に設定することにより選択対象となる音響信号および位置情報を絞り込むことができる。
(5)取得手段は、各音響信号の収録時刻を示す時間情報を音響信号に対応付けて取得し、設定手段は、音の収録時刻に関する時間条件を抽出条件として設定し、抽出手段は、時間条件を満足する時間情報に対応する音響信号および位置情報を抽出してもよい。
この場合、選択対象となる音響信号および位置情報を所望の時間帯に取得された音響信号および位置情報に絞り込むことができる。それにより、選択された複数の音響信号の同期および混合が容易になる。
(6)本発明に係る音響信号処理プログラムは、音響空間内の複数の位置で収録された音を示す複数の音響信号を、収録位置を示す位置情報と対応付けて取得する取得ステップと、取得された複数の位置情報に基づいて、取得された複数の音響信号から混合対象となる音響信号を選択する選択ステップと、選択された複数の音響信号を混合する混合ステップとを、コンピュータに実行させる。
その音響信号処理プログラムによれば、音響空間内の複数の位置で収録された音を示す複数の音響信号が位置情報と対応付けて取得される。それにより、複数の位置情報に基づいて複数の音響信号を容易に選択して混合することが可能となる。
本発明によれば、複数の位置情報に基づいて複数の音響信号を容易に選択して混合することが可能となる。
本発明の一実施の形態に係る音響信号処理システムの構成を示すブロック図である。 端末装置の構成を示すブロック図である。 同期混合装置の構成を示すブロック図である。 データベースに記憶される記録データの構成を示す模式図である。 同期混合装置の機能的な構成を示すブロック図である。 同期混合装置のタッチパネルディスプレイに表示される地図画像および収録マークの例を示す図である。 端末装置の動作を示すフローチャートである。 端末装置の動作を示すフローチャートである。
以下、本発明の実施の形態に係る音響信号処理システムについて図面を用いて詳細に説明する。
(1)音響信号処理システム
図1は本発明の一実施の形態に係る音響信号処理システムの構成を示すブロック図である。図1の音響信号処理システム100は、複数の端末装置1、データベース2および同期混合装置3により構成される。複数の端末装置1は、演奏ホール、野外コンサート会場または収録スタジオ等の音響空間内で発音源S0から放射された音を収録するために用いられる。発音源S0は、例えば、1または複数の楽器、歌手等である。音は、例えば楽器の演奏音、歌手の発声音等である。音響空間とは、発音源S0から放射された音が到達する範囲の空間である。
端末装置1としては、例えば携帯電話機、スマートフォンまたはタブレット端末等の携帯可能な装置を用いることができる。データベース2には、各端末装置1により収録された音を表す音響信号が収録位置を示す位置情報とともに記憶される。端末装置1の詳細については後述する。データベース2は、例えばウェブサーバ等のサーバ装置に構築される。また、同期混合装置3は、データベース2に記憶される複数の音響信号の同期を取ってそれらの音響信号を混合する。同期混合装置3としては、例えばパーソナルコンピュータ、スマートフォン、タブレット端末またはサーバ装置等を用いることができる。同期混合装置3の詳細については後述する。
図2は端末装置1の構成を示すブロック図である。端末装置1は、制御装置10、記憶装置11、計時装置12、収音装置13、放音装置14、表示装置15、入力装置16、位置センサ17、撮像装置18、および通信装置19を含む。制御装置10は、例えばCPU(中央演算処理装置)およびメモリを含む。記憶装置11は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。この記憶装置11には、後述するデータ取得処理プログラムおよび後述する複数の記録データが記憶される。なお、データ取得処理プログラムは、電話回線またはインターネット等の通信網を介した配信の形態で提供されて記憶装置11にインストールされてもよい。制御装置10は、記憶装置11に記憶されるデータ取得処理プログラムを実行することによりデータ取得処理を行う。
計時装置12は、タイマ等を含み、現在の時刻を時間情報として生成する。収音装置13は、マイクロフォン等を含み、音響空間内の音を収集し、音を表す音響信号を生成する。放音装置14は、スピーカまたはヘッドフォン等を含み、音響信号を音として放射する。
表示装置15は、液晶表示装置または有機EL(エレクトロルミネッセンス)表示装置等からなる。入力装置16は、各種ボタン、キーボード、マウス等を含む。本実施の形態では、表示装置15および入力装置16がタッチパネルディスプレイTP1として一体化されている。位置センサ17は、例えばGPS(Global Positioning System)からなり、端末装置1の現在の位置を示す位置情報を生成する。撮像装置18は、CCD(電荷結合素子)カメラ等を含み、撮像により画像データを生成する。
通信装置19は、電話回線またはインターネット等の通信網を介してデータベース2に記録データを送信する。また、通信装置19は、通信網を介して他の端末装置1と通信を行うことができる。さらに、通信装置19は、音響空間内の他の端末装置1との間で例えばBluetooth(登録商標)またはWi−Fi(登録商標)等の通信方式で近距離無線通信を行うことができる。
上記の記憶装置11には、収音装置13により生成された音響信号、位置センサ17により生成された位置情報、計時装置12により生成された時間情報およびユーザの操作により付与されたタグが記録データとして記憶される。
図3は同期混合装置3の構成を示すブロック図である。同期混合装置3は、制御装置30、記憶装置31、放音装置32、表示装置33、入力装置34および通信装置35を含む。制御装置30、記憶装置31、放音装置32、表示装置33、入力装置34および通信装置35の構成は、端末装置1の制御装置10、記憶装置11、放音装置14、表示装置15、入力装置16および通信装置19の構成とそれぞれ同様である。本実施の形態では、表示装置33および入力装置34がタッチパネルディスプレイTP2として一体化されている。
記憶装置31には、後述する同期混合処理プログラムが記憶されるとともに、端末装置1から取得された複数の記録データが記憶される。なお、同期混合処理プログラムは、電話回線またはインターネット等の通信網を介した配信の形態で提供されて記憶装置31にインストールされてもよい。制御装置30は、記憶装置31に記憶される同期混合処理プログラムを実行することにより同期混合処理を行う。通信装置35は、電話回線またはインターネット等の通信網を介してデータベース2から記録データを取得する。また、通信装置35は、通信網を介して端末装置1と通信を行うことができる。さらに、通信装置35は、音響空間内の端末装置1との間で近距離無線通信を行うことができる。
(2)記録データ
図4はデータベース2に記憶される記録データの構成を示す模式図である。データベース2には、複数の端末装置1から送信された複数の記録データが記憶される。図4に示すように、各記録データは、音響信号、位置情報、時間情報およびタグを含む。図4の例では、記憶装置31に、記録データD1〜D10が記憶される。記録データD1〜D10は、音響信号a1〜a10、位置情報p1〜p10および時間情報t1〜t10を含む。また、記録データD1〜D3は共通のタグg1を含み、記録データD4〜D10は共通のタグg2を含む。記録データが端末装置1の撮像装置18により生成された画像データを含んでいてもよい。
音響信号は、音の波形信号を所定のサンプリング周期でサンプリングすることにより得られる複数のサンプリング値からなるオーディオデータであってもよく、MIDI(Musical Instrument Digital Interface)データ等の他の形式の信号であってもよい。位置情報は、音響信号の収録時の端末装置1の位置を表すデータであり、端末装置1の絶対位置を示していてもよく、他の端末装置1との相対位置を示していてもよい。時間情報は、音響信号の収録の開始日時および終了日時を含む。タグは、音響信号のグループを表す。各タグは、ユーザの操作により付与される。なお、データベース2において、音響信号の類似性分析により各記録データにタグが自動的に付与されてもよい。この場合、予め設定された類似性を有する音響信号に共通のタグが付与される。
(3)同期混合装置3の機能的な構成
図5は同期混合装置3の機能的な構成を示すブロック図である。図1の制御装置30が記憶装置31に記憶される同期混合処理プログラムを実行することにより、図5に示す取得部310、表示部320、抽出部330、音響信号選択部340、記憶部350、操作検出部360、設定部370および混合部380の機能が実現される。
取得部310は、図1のデータベース2から記録データを取得する。記憶部350は、取得部310により取得された記録データを記録する。表示部320は、タッチパネルディスプレイTP2に地図画像および収録マークを表示させる。操作検出部360は、タッチパネルディスプレイTP2を用いたユーザの操作を検出する。設定部370は、抽出条件を設定する。抽出部330は、記憶部350に記憶される記録データから抽出条件を満足する記録データを抽出する。音響信号選択部340は、ユーザの操作に基づいて抽出部330により抽出された記録データのいずれかを選択する。混合部380は、選択された記録データ中の音響信号について同期混合処理を行う。
(4)地図画像および収録マークの表示
図6(a),(b),(c)は同期混合装置3のタッチパネルディスプレイTP2に表示される地図画像および収録マークの例を示す図である。図6の例では、野外コンサート会場を含む地図画像200の領域が表示される。
図6(a)に示すように、複数の端末装置1による音響信号の収録位置に収録マーク300が表示される。初期状態では、同期混合装置3の記憶装置31に記憶される複数の記録データに対応する収録マーク300のうち地図画像200の範囲内にある収録マーク300が表示される。同じ位置で異なる複数の日時で収録が行われた場合には、同じ位置に複数の収録マーク300が重なって表示される。
ユーザが抽出条件を指定すると、抽出条件を満たす記録データが抽出される。それにより、図6(b)に示すように、抽出された記録データに対応する収録マーク300が表示される。さらに、ユーザが表示された収録マーク300を選択すると、図6(c)に示すように、選択された収録マーク300のみが表示される。以下に示すように、選択された複数の収録マーク300に対応する複数の音響信号についての同期混合処理が行われる。
(5)端末装置1の動作
図7および図8は図2の端末装置1によるデータ取得処理を示すフローチャートである。まず、図2の制御装置10は、ユーザによる収録開始指示がタッチパネルディスプレイTP1により検出された否かを判定する(ステップS1)。収録開始指示が検出された場合には、制御装置10は、計時装置12により生成される現在の時刻を開始日時として取得する(ステップS2)。また、制御装置10は、位置センサ17により生成される位置情報を取得し(ステップS3)、収音装置13により生成される音響信号の収録動作を行う(ステップS4)。
その後、制御装置10は、ユーザによる収録終了指示がタッチパネルディスプレイTP1により検出された否かを判定する(ステップS5)。収録終了指示が検出されない場合には、ステップS4に戻り、収録動作を継続する。収録終了指示が検出された場合には、制御装置10は、計時装置12により生成される現在の時刻を終了日時として取得する(ステップS6)。これにより、開始日時および終了日時を含む時間情報が得られる。その後、制御装置10は、収録動作により取得した音響信号、位置情報および時間情報を1組の記録データとして記憶装置11に記憶する(ステップS7)。
さらに、制御装置10は、ユーザによるタグの付与指示がタッチパネルディスプレイTP1により検出されたか否かを判定する(ステップS8)。ユーザは、収録した音響信号をグループ分けするためのグループ識別子としてタグを収録データに付与することができる。例えば、同一の発音源S0からの同一の楽曲に対応する音響信号に同一のタグを付与することができる。また、同一の日時に収録された同一の楽曲に対応する音響信号に同一のタグを付与してもよく、異なる日時に収録された同一の楽曲に対応する音響信号に同一のタグを付与してもよい。類似性分析により類似性の高い音響信号に同一のタグが付与されてもよい。
タグの付与指示が検出された場合には、制御装置10は記憶装置11に記憶される記録データにタグを付与する(ステップS9)。タグの付与指示が検出されない場合には、制御装置10はステップS10に進む。
ステップS10では、制御装置10は、ユーザによる音響信号の編集操作がタッチパネルディスプレイTP1により検出されたか否かを判定する。編集操作が検出された場合には、制御装置10は音響信号を編集する(ステップS11)。この場合、タッチパネルディスプレイTP1に音響信号の波形等を含む編集画面が表示される。ユーザは、編集画面上で音響信号の編集操作を行うことができる。音響信号の編集操作としては、例えば音量の調整または音響効果の付与等が挙げられる。また、編集操作として、例えば、ユーザがタッチパネルディスプレイTP1に表示される地図画像200上の各収録マーク300を2本の指で拡大または縮小することにより音響信号の音量を調整してもよい。あるいは、ユーザが各収録マーク300の周囲を右回りまたは左回りに指でなぞることにより音響信号の音量を調整してもよい。ステップS10で編集操作が検出されない場合には、制御装置10はステップS12に進む。
ステップS12では、制御装置10は、ユーザによる再収録指示がタッチパネルディスプレイTP1により検出されたか否かを判定する(ステップS12)。再収録指示が検出された場合には、制御装置10はステップS1に戻る。
ステップS12で再収録指示が検出されない場合には、制御装置10は、ユーザによる記録データの送信指示がタッチパネルディスプレイTP1により検出されたか否かを判定する(ステップS13)。送信指示が検出されない場合には、制御装置10はステップS12に戻る。送信指示が検出された場合には、制御装置10は、通信装置19により記録データをデータベース2に送信し(ステップS14)、ステップS12に戻る。
(6)同期混合装置3の動作
図8は同期混合装置3による同期混合処理を示すフローチャートである。まず、図3の制御装置30は、タッチパネルディスプレイTP2に地図画像の既定の範囲を表示させる(ステップS21)。既定の表示範囲は、同期混合装置3が存在する位置を含む範囲であってもよく、前回の同期混合処理の終了時に表示された範囲であってもよい。
制御装置30は、ユーザによる表示範囲の変更操作がタッチパネルディスプレイTP2により検出されたか否かを判定する(ステップS22)。表示範囲の変更操作が検出された場合には、制御装置30は、タッチパネルディスプレイTP2に地図画像の変更後の範囲を表示させる(ステップS23)。表示範囲の変更操作が検出されない場合には、制御装置30はステップS24に進む。
ステップS24では、制御装置30は、地図画像の表示範囲内の位置情報を有する記録データを記憶装置31から取得し(ステップS24)、該当する位置情報を収録マークとしてタッチパネルディスプレイTP2の地図画像上に表示させる(ステップS25)。例えば、図6(a)に示すように、地図画像200の範囲内に複数の収録マーク300が表示される。
この状態で、制御装置30は、ユーザによる抽出条件の指定がタッチパネルディスプレイTP2により検出されたか否かを判定する(ステップS26)。抽出条件の指定が検出されていない場合には、制御装置30はステップS29に進む。
抽出条件の指定が検出された場合には、制御装置30は、抽出条件に基づいて記録データを抽出する(ステップS27)。抽出条件としては、時間範囲を指定することができる。この場合、指定された時間範囲内の時間情報を含む記録データを抽出することができる。それにより、同じ場所で複数回の収録が行われた場合に、同じ日時に収録された複数の記録データを抽出することができる。なお、ユーザが複数の時間範囲を指定した場合に、各時間範囲に属する収録マークが異なる色のレイヤーに表示されてもよい。
また、抽出条件として、タグを指定することができる。この場合、タッチパネルディスプレイTP2にタグ一覧が表示される。それにより、同一グループに属する記録データを抽出することができる。タグが類似性分析により付与されている場合には、類似性の高い楽曲の記録データを抽出することができる。同じ楽曲が複数回収録された場合に、それらの楽曲の記録データを抽出することができる。
次に、制御装置30は、抽出された記録データの位置情報に基づいて地図画像上に表示される収録マークを更新する(ステップS28)。例えば、図6(b)に示されるように、抽出された記録データに対応する収録マーク300が表示される。
次に、制御装置30は、ユーザによる音響信号の編集操作がタッチパネルディスプレイTP2により検出されたか否かを判定する(ステップS29)。編集操作が検出された場合には、制御装置10は音響信号を編集する(ステップS30)。この場合、タッチパネルディスプレイTP2に音響信号の波形等を含む編集画面が表示される。ユーザは、編集画面上で音響信号の編集操作を行うことができる。編集操作が検出されない場合には、制御装置30はステップS31に進む。
ステップ31では、制御装置30は、ユーザによる収録マークの選択操作がタッチパネルディスプレイTP2により検出されたか否かを判定する(ステップS31)。ユーザは、タッチパネルディスプレイTP2の地図画像上に表示された複数の収録マークのいずれかを混合対象として選択することができる。収録マークの選択操作が検出された場合には、制御装置30は、選択された収録マークに対応する記録データを選択する(ステップS32)。収録マークの選択操作が検出されない場合には、制御装置30は、ステップS27で抽出された記録データを混合対象として選択し、ステップS27で記録データが抽出されていない場合には、ステップS24で取得された記録データを混合対象として選択する。
その後、制御装置30は、ユーザによる同期混合指示がタッチパネルディスプレイTP2により検出されたか否かを判定する(ステップS33)。同期混合指示が検出された場合には、制御装置30は同期混合処理を実行する(ステップS34)。この場合、選択された複数の記録データ中の音響信号が時間情報に基づいて同期され、同期された音響信号が混合される。なお、音響信号の一般的な相互相関に基づいて音響信号の同期を行ってもよい。さらに、サンプリング周波数補正技術を用いることにより同期の精度を向上させてもよい。混合後の音響信号は、記憶装置31に記憶される。同期混合指示が検出されない場合には、制御装置30はステップS35に進む。
ステップS35では、制御装置30は、ユーザによる再生指示がタッチパネルディスプレイTP2により検出されたか否かを判定する(ステップS35)。再生指示が検出された場合には、制御装置30は、記憶装置31に記憶された混合後の音響信号を放音装置14により音として再生する(ステップS36)。再生指示が検出されない場合には、制御装置30はステップS37に進む。
ステップS37では、制御装置30は、ユーザによる終了指示がタッチパネルディスプレイTP2により検出されたか否かを判定する。終了指示が検出されない場合には、制御装置30はステップS21に戻り、終了指示が検出された場合には同期混合処理を終了する。
(7)実施の形態の効果
本実施の形態に係る音響信号処理システム100においては、地図画像上に音響信号の収録位置を示す複数の収録マークが表示される。ユーザは、地図画像上の複数の収録マークに基づいて、複数の音響信号から混合対象となる複数の音響信号を視覚的にかつ容易に選択することができる。
この場合、ユーザは、抽出条件を適切に指定することにより選択対象となる記録データを容易に絞り込むことができる。特に、選択対象となる記録データを所望の時間帯に取得された記録データまたは所望のグループの記録データに絞り込むことができる。それにより、所望の音響信号の同期および混合が容易になる。
(8)他の実施の形態
上記実施の形態では、音響信号処理装置として同期混合装置3が用いられるが、音響信号処理装置として複数の端末装置1のうちいずれか1つが用いられてもよい。その場合、その端末装置1の記憶装置11がデータベース2の代わりに用いられてもよい。また、上記実施の形態では、図1の端末装置1がデータ取得処理を行い、同期混合装置3が同期混合処理を行っているが、サーバ装置がデータ取得処理の一部を行ってもよく、サーバ装置が同期混合処理を行ってもよい。さらに、データ取得処理プログラムがウェブプログラムとして提供され、端末装置1がウェブプログラムを実行することによりデータ取得処理を行ってもよい。また、同期混合処理プログラムがウェブプログラムとして提供され、同期混合装置3またはサーバ装置がウェブプログラムを実行することにより同期混合処理を行ってもよい。
また、上記実施の形態では、複数の端末装置1が非同期に動作しているが、複数の端末装置1が互いに同期して動作してもよい。例えば、複数の端末装置1が互いに通信を行うことにより、収録開始および収録終了の指示が相互に送信されてもよい。この場合、収録開始タイミングおよび収録終了タイミングが同期するように収録開始および収録終了の指示が送信されてもよい。それにより、複数の音響信号の同期混合処理が容易になる。なお、収録開始タイミングおよび収録終了タイミングは、厳密に一致していなくてもよい。その場合には、時間情報または音響信号の相互相関に基づいて複数の音響信号の同期が取られる。
上記実施の形態では、音響信号処理プログラムの一実施の形態として同期混合処理プログラムが実行されているが、音響信号処理プログラムは、上記実施の形態の同期混合処理プログラムに限定されない。音響信号処理プログラムは、音響空間内の複数の位置で収録された音を示す複数の音響信号を、収録位置を示す位置情報と対応付けて取得する取得ステップと、取得された複数の位置情報に基づいて、取得された複数の音響信号から混合対象となる音響信号を選択する選択ステップと、選択された複数の音響信号を混合する混合ステップとを、コンピュータに実行させるものである。
また、音響信号処理プログラムは、上記実施の形態における記憶装置31に限らず、ディジタルバーサタイルディスク(DVD)、フラッシュメモリ、メモリカード等の各種記録媒体に格納された状態で提供されてもよい。
(9)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
上記実施の形態では、制御装置30および通信装置35が取得手段の例であり、制御装置30およびタッチパネルディスプレイTP2が選択手段の例であり、制御装置30が混合手段の例である。タッチパネルディスプレイTP2が提示手段、操作検出手段、表示手段および設定手段の例であり、制御装置30が音声信号選択手段および抽出手段の例である。
また、取得部310が取得手段の例であり、表示部320、操作検出部360および音響信号選択部340が選択手段の例であり、混合部380が混合手段の例であり、表示部320が提示手段または表示手段の例であり、操作検出部360が操作検出手段の例であり、音響信号選択部340が音声信号検出手段の例であり、抽出部330が抽出手段の例であり、設定部370が設定手段の例である。
請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
本発明は、音響空間内の複数の位置で収録した複数の音響信号の同期混合処理等に利用することができる。
1…端末装置、2…データベース、3…同期混合装置、10,30…制御装置、11,31…記憶装置、12…計時装置、13…収音装置、14,32…放音装置、15,33…表示装置、16,34…入力装置、17…位置センサ、18…撮像装置、19,35…通信装置、100…音響信号処理システム、310…取得部、320…表示部、330…抽出部、340…音響信号選択部、350…記憶部、360…操作検出部、370…設定部、380…混合部、S0…発音源、TP1,TP2…タッチパネルディスプレイ

Claims (5)

  1. 音響空間内の複数の位置で収録された音を示す複数の音響信号を、収録位置を示す位置情報と対応付けて取得する取得手段と、
    前記取得手段により取得された複数の位置情報に基づいて、前記取得手段により取得された複数の音響信号から混合対象となる音響信号を選択する選択手段と、
    前記選択手段により選択された複数の音響信号を混合する混合手段とを備える、音響信号処理装置。
  2. 前記選択手段は、
    前記取得手段により取得された複数の位置情報を提示する提示手段と、
    前記提示手段により提示された位置情報の選択操作を検出する操作検出手段と、
    前記選択操作の検出に基づいて、選択された位置情報に対応する音響信号を選択する音響信号選択手段とを含む、請求項1記載の音響信号処理装置。
  3. 前記提示手段は、地図画像を表示するとともに、前記複数の位置情報を前記地図画像上に表示する表示手段を含み、
    前記操作検出手段は、前記地図画像上での位置情報の選択操作を検出する、請求項2記載の音響信号処理装置。
  4. 音響信号の抽出条件を設定する設定手段と、
    前記取得手段により取得された複数の音響信号および複数の位置情報のうち前記抽出条件を満足する音響信号および位置情報を抽出する抽出手段とをさらに備え、
    前記提示手段は、前記抽出手段により抽出された位置情報を提示する、請求項2または3記載の音響信号処理装置。
  5. 前記取得手段は、各音響信号の収録時刻を示す時間情報を音響信号に対応付けて取得し、
    前記設定手段は、音の収録時刻に関する時間条件を前記抽出条件として設定し、
    前記抽出手段は、前記時間条件を満足する時間情報に対応する音響信号および位置情報を抽出する、請求項4記載の音響信号処理装置。
JP2014212416A 2014-10-17 2014-10-17 音響信号処理装置 Pending JP2016082422A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014212416A JP2016082422A (ja) 2014-10-17 2014-10-17 音響信号処理装置
PCT/JP2015/079365 WO2016060261A1 (ja) 2014-10-17 2015-10-16 音響信号処理装置及び音響信号処理方法
US15/488,253 US20170223452A1 (en) 2014-10-17 2017-04-14 Sound signal processing apparatus, system, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014212416A JP2016082422A (ja) 2014-10-17 2014-10-17 音響信号処理装置

Publications (1)

Publication Number Publication Date
JP2016082422A true JP2016082422A (ja) 2016-05-16

Family

ID=55746793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014212416A Pending JP2016082422A (ja) 2014-10-17 2014-10-17 音響信号処理装置

Country Status (3)

Country Link
US (1) US20170223452A1 (ja)
JP (1) JP2016082422A (ja)
WO (1) WO2016060261A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207492A (ja) * 2001-01-11 2002-07-26 Sony Corp 実演システム、実演収録装置、実演管理装置、ネットワークを介した実演方法
JP2005244664A (ja) * 2004-02-26 2005-09-08 Toshiba Corp 音配信装置およびその方法、音再生装置、バイノーラルシステム、バイノーラル音響配信装置およびその方法、バイノーラル音響再生装置、記録媒体作成装置およびその方法、画像配信装置、画像表示装置
JP2009239469A (ja) * 2008-03-26 2009-10-15 Yamaha Corp ミキシング装置及びプログラム
JP2013150234A (ja) * 2012-01-23 2013-08-01 Yamaha Corp 音響信号処理システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8301076B2 (en) * 2007-08-21 2012-10-30 Syracuse University System and method for distributed audio recording and collaborative mixing
CN102713664B (zh) * 2010-01-12 2016-03-16 诺基亚技术有限公司 协作式位置/方位估计
EP2537350A4 (en) * 2010-02-17 2016-07-13 Nokia Technologies Oy PROCESSING AN AUDIO RECORDING OF MULTIPLE DEVICES

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207492A (ja) * 2001-01-11 2002-07-26 Sony Corp 実演システム、実演収録装置、実演管理装置、ネットワークを介した実演方法
JP2005244664A (ja) * 2004-02-26 2005-09-08 Toshiba Corp 音配信装置およびその方法、音再生装置、バイノーラルシステム、バイノーラル音響配信装置およびその方法、バイノーラル音響再生装置、記録媒体作成装置およびその方法、画像配信装置、画像表示装置
JP2009239469A (ja) * 2008-03-26 2009-10-15 Yamaha Corp ミキシング装置及びプログラム
JP2013150234A (ja) * 2012-01-23 2013-08-01 Yamaha Corp 音響信号処理システム

Also Published As

Publication number Publication date
WO2016060261A1 (ja) 2016-04-21
US20170223452A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6387468B2 (ja) ナビゲーション方法、装置、プログラム及び記録媒体
US9607594B2 (en) Multimedia apparatus, music composing method thereof, and song correcting method thereof
KR101597512B1 (ko) 휴대 단말기의 운용 방법 및 이를 기반으로 하는 휴대 단말기
US10509529B2 (en) Dynamic navigation object for a step-sequencer
JP5534413B2 (ja) 情報処理装置及びプログラム
CN105117102B (zh) 音频界面显示方法和装置
US9281793B2 (en) Systems, methods, and apparatus for generating an audio signal based on color values of an image
US9076264B1 (en) Sound sequencing system and method
JP2014164630A (ja) 情報処理装置、情報処理方法およびプログラム
JP2013025554A (ja) マーク情報記録装置、マーク情報提示装置、マーク情報記録方法及びマーク情報提示方法
JP6225989B2 (ja) 振動データ生成プログラム、および振動データ生成装置
EP3989083A1 (en) Information processing system, information processing method, and recording medium
KR20120129015A (ko) 어학 컨텐츠 생성 방법 및 이를 위한 단말기
JPWO2018207936A1 (ja) 譜面自動検出方法および装置
JP2009169795A (ja) 情報処理装置および方法、並びにプログラム
KR101713242B1 (ko) 악보 기반 검색 서비스 제공 장치 및 이를 이용한 방법
WO2016060261A1 (ja) 音響信号処理装置及び音響信号処理方法
JP6533108B2 (ja) カラオケ楽曲演奏時における背景映像対応システム
JP6278403B2 (ja) カラオケ管理システム
JP2016208364A (ja) コンテンツ再生システム、コンテンツ再生装置、コンテンツ関連情報配信装置、コンテンツ再生方法、及びコンテンツ再生プログラム
JP2015179323A (ja) 表示制御装置、表示制御方法及び表示制御プログラム
KR20130076852A (ko) 어학 컨텐츠 생성 방법 및 이를 위한 단말기
CN113343022A (zh) 歌曲教学方法、装置、终端和存储介质
JP5794934B2 (ja) コラボレーション歌唱の録画システム
JP2014109601A (ja) 音声処理システム、音声処理装置、音声処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181204