JP2005150993A - オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム - Google Patents

オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2005150993A
JP2005150993A JP2003383359A JP2003383359A JP2005150993A JP 2005150993 A JP2005150993 A JP 2005150993A JP 2003383359 A JP2003383359 A JP 2003383359A JP 2003383359 A JP2003383359 A JP 2003383359A JP 2005150993 A JP2005150993 A JP 2005150993A
Authority
JP
Japan
Prior art keywords
time
sound
data
audio data
sound object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003383359A
Other languages
English (en)
Inventor
Hideyuki Ono
秀行 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003383359A priority Critical patent/JP2005150993A/ja
Publication of JP2005150993A publication Critical patent/JP2005150993A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

【課題】 オーディオデータの編集、記録、再生を直感的に行なうことを可能とした装置、方法を提供する。
【解決手段】 音声データに対応して設定される音オブジェクト表示データをディスプレイに表示し、音オブジェクト表示データに対応するユーザ操作情報を入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成し、生成した時刻対応操作履歴情報に基づいて音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行する。例えば、ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻位置対応イベントテーブルに基づいて、音声データのサラウンド空間における出力値調整を実行する。ユーザは、ディスプレイに表示された音オブジェクトの表示データを操作するのみで、サラウンド音の調整を行うことが可能となる。
【選択図】 図1

Description

本発明は、オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラムに関する。特に、GUI(Graphic User Interface)を適用して、GUI上に音場フィールドを設定し、音源としての音オブジェクト表示データを操作することで、音声データファイルの再生位置やタイミングなど、様々な再生環境を容易に設定可能とし、オーディオデータの記録、編集、再生処理を、専門的な知識を必要とすることなく直感的な操作で行なうことを可能としたオーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラムに関する。
音楽、あるいは波の音、鳥の声などの様々な音源を編集し、聴取者の周囲に配置したスピーカから出力させるためのオーディオデータ、例えばサラウンドコンテンツの生成処理は、従来は専門的な知識と機材を必要としていたが、昨今では、オーディオデータのミキシング処理などを可能としたソフトウェアプログラムを利用することで、比較的容易にサラウンドコンテンツを生成することが可能である。
例えば、代表的なオーディオ編集ソフトウェアとして、スタインバーグ・Cubase SXなどがある。このような、オーディオ編集ソフトウェアを利用することにより、様々な音源データのミキシング処理をPC上で操作可能となり、サラウンドコンテンツの作成ができる。
従来のオーディオ編集ソフトウェアを利用してサラウンドコンテンツを作成する際には、例えば、以下の処理が必要となる。
(a)各音源の時間軸上での編集処理を可能としたタイムラインエディター上に設定される各音源の割り当てトラックであるオーディオトラックに対して素材の記録をする。
(b)オーディオトラック上のオーディオセグメントを編集することで素材のライフサイクル、すなわち、音源出力有効期限を設定する。
(c)オーディオトラックに対応したオーディオミキサーを操作することで、各オーディオセグメントの音量を設定する。
(d)各オーディオトラックに対してサラウンドバスに送るための設定をする。サラウンドバスとは、聴取者の周囲に配置した各スピーカの出力配分を設定可能としたサラウンドパンに接続されたバスである。
(e)サラウンドパンを操作することで、各スピーカへの出力バスの音量を設定する。
上述の処理は、オーディオミキサー操作に慣れたユーザにとっては、困難な処理ではないが、セグメントとオーディオトラック、オーディオミキサー、サラウンドバスの対応など内部のミキサー構造を、十分理解しないユーザにとっては決して容易な処理ではなく、ユーザの意図するサラウンドコンテンツの生成が困難になるという問題がある。
また、サラウンドコンテンツなどのオーディオデータの再生処理において、音源の空間的な配置をユーザが指定、変更して音楽的臨場感の形成を可能とした装置および方法が特許文献1に開示されている。この特許文献1に記載された技術は、様々な音源を任意の位置に配置して再生処理を行なうことで、聴取者の位置に応じた最適な再生空間を設定することを可能としたものである。
しかし、この特許文献に記載の技術は、予め位置調整可能な複数の音源データを保有し、再生処理においてのみ、音源位置の変更を可能としいるものであり、ユーザによる新たなサラウンドコンテンツの生成や編集処理を可能としたものではない。
特開2000−69600号公報
上述したように、従来のオーディオ編集ソフトウェアを利用してユーザの意図するサラウンドコンテンツを作成、編集するには、ミキシング処理において実行される様々な具体的処理形態を理解していることが要請され、ミキシング処理に不慣れなユーザにとっては扱いづらいという問題があった。
本発明は、このような状況に鑑みてなされたものであり、GUI(Graphic User Interface)を適用して、GUI上に音場フィールドを設定し、音源としての音オブジェクトを操作することで、音声データファイルの再生位置やタイミングなど、様々な再生環境を容易に設定可能とし、オーディオデータの記録、編集、再生処理を、専門的な知識を必要とすることなく直感的な操作で行なうことを可能としたオーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
本発明の第1の側面は、
オーディオデータ処理装置であり、
音声データに対応して設定される音オブジェクト表示データをディスプレイに表示するGUIと、
前記音オブジェクト表示データに対応する操作情報を前記GUIから入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成するGUI・プロジェクトデータ解釈モジュールと、
前記音オブジェクトに対応する時刻対応操作履歴情報に基づいて、前記音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行するオーディオ信号処理部と、
を有することを特徴とするオーディオデータ処理装置にある。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUIは、ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、前記GUI・プロジェクトデータ解釈モジュールは、音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成し、前記オーディオ信号処理部は、前記時刻位置対応イベントテーブルの設定された音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUIは、ディスプレイに表示した音場フィールド内に配置された複数の音オブジェクト表示データの音場フィールド内の位置情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、
前記GUI・プロジェクトデータ解釈モジュールは、前記複数の音オブジェクト表示データの音場フィールド内の位置情報を、各音オブジェクト毎に時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成し、前記オーディオ信号処理部は、前記時刻位置対応イベントテーブルの設定された複数の音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、各音オブジェクトに対応する前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行し、複数の音オブジェクトに対応する複数の音声データのミックスされたサラウンド音声出力を実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUIは、前記音オブジェクト表示データの音量調整情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、前記GUI・プロジェクトデータ解釈モジュールは、音オブジェクト表示データの音量調整情報を時刻対応のデータとして設定した時刻対応音量調整履歴情報を時刻音量対応イベントテーブルとして生成し、前記オーディオ信号処理部は、前記時刻音量対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力値調整を、前記時刻音量対応イベントテーブルに設定された音量情報に対応した音量調整処理として実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUIは、前記音オブジェクト表示データの発生および消滅情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、前記GUI・プロジェクトデータ解釈モジュールは、音オブジェクト表示データの発生および消滅情報を時刻対応のデータとして設定した時刻対応履歴情報を時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルとして生成し、前記オーディオ信号処理部は、記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力開始および出力停止を、前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルに設定された発生および消滅情報に対応した処理として実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記オーディオ信号処理部は、複数の入力音声データの各々に対応してトラック割り当てを実行し、トラック毎の出力調整処理を並列に実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUIは、前記音オブジェクト表示データを、音声データに対応付けた絵柄データ部と、音量情報表示部とを含む表示データとしてディスプレイに表示する処理を実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUI・プロジェクトデータ解釈モジュールは、1以上の前記音オブジェクト表示データに対応する操作情報を前記GUIから入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成し、生成した音オブジェクトに対応する時刻対応操作履歴情報と、音オブジェクトに対応する音声データファイルの参照情報とを含むプロジェクトデータファイルを生成する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記オーディオ信号処理部は、前記プロジェクトデータファイルに基づく音声データ再生処理において、該プロジェクトデータファイルに設定された音声データファイルの参照情報に基づいて音声データファイルを取得し、該プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って、音声データの出力調整を行って再生処理を実行する構成であることを特徴とする。
さらに、本発明のオーディオデータ処理装置の一実施態様において、前記GUI・プロジェクトデータ解釈モジュールは、前記プロジェクトデータファイルに基づく音声データ再生処理において、前記音オブジェクト表示データを、ディスプレイに表示した音場フィールド内において、前記プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って移動表示させる制御を行なう構成であることを特徴とする。
さらに、本発明の第2の側面は、
オーディオデータ処理方法であり、
音声データに対応して設定される音オブジェクト表示データをディスプレイに表示するユーザインタフェース表示ステップと、
前記音オブジェクト表示データに対応するユーザ操作情報を入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成する操作履歴情報生成ステップと、
前記音オブジェクトに対応する時刻対応操作履歴情報に基づいて、前記音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行するオーディオ信号処理ステップと、
を有することを特徴とするオーディオデータ処理方法にある。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオデータ処理方法は、さらに、ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成するステップを有し、
前記オーディオ信号処理ステップは、前記時刻位置対応イベントテーブルの設定された音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオデータ処理方法は、さらに、ディスプレイに表示した音場フィールド内に配置された複数の音オブジェクト表示データの音場フィールド内の位置情報に基づいて、各音オブジェクト毎に時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成するステップを有し、前記オーディオ信号処理ステップは、前記時刻位置対応イベントテーブルの設定された複数の音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、各音オブジェクトに対応する前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行し、複数の音オブジェクトに対応する複数の音声データのミックスされたサラウンド音声出力を実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオデータ処理方法は、さらに、前記音オブジェクト表示データの音量調整情報を時刻対応のデータとして設定した時刻対応音量調整履歴情報を時刻音量対応イベントテーブルとして生成するステップを有し、前記オーディオ信号処理ステップは、前記時刻音量対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力値調整を、前記時刻音量対応イベントテーブルに設定された音量情報に対応した音量調整処理として実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオデータ処理方法は、さらに、前記音オブジェクト表示データの発生および消滅情報を時刻対応のデータとして設定した時刻対応履歴情報を時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルとして生成するステップを有し、前記オーディオ信号処理ステップは、前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力開始および出力停止を、前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルに設定された発生および消滅情報に対応した処理として実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオ信号処理ステップは、複数の入力音声データの各々に対応してトラック割り当てを実行し、トラック毎の出力調整処理を並列に実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記ユーザインタフェース表示ステップは、前記音オブジェクト表示データを、音声データに対応付けた絵柄データ部と、音量情報表示部とを含む表示データとしてディスプレイに表示する処理を実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオデータ処理方法は、さらに、1以上の前記音オブジェクト表示データに対応する操作情報に基づいて音オブジェクトに対応する時刻対応操作履歴情報を生成し、生成した音オブジェクトに対応する時刻対応操作履歴情報と、音オブジェクトに対応する音声データファイルの参照情報とを含むプロジェクトデータファイルを生成するステップを有することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオ信号処理ステップは、前記プロジェクトデータファイルに基づく音声データ再生処理において、該プロジェクトデータファイルに設定された音声データファイルの参照情報に基づいて音声データファイルを取得し、該プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って、音声データの出力調整を行って再生処理を実行することを特徴とする。
さらに、本発明のオーディオデータ処理方法の一実施態様において、前記オーディオデータ処理方法は、さらに、前記プロジェクトデータファイルに基づく音声データ再生処理において、前記音オブジェクト表示データを、ディスプレイに表示した音場フィールド内において、前記プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って移動表示させる制御を行なうステップを有することを特徴とする。
さらに、本発明の第3の側面は、
オーディオデータ処理を実行するコンピュータ・プログラムであり、
音声データに対応して設定される音オブジェクト表示データをディスプレイに表示するユーザインタフェース表示ステップと、
前記音オブジェクト表示データに対応するユーザ操作情報を入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成する操作履歴情報生成ステップと、
前記音オブジェクトに対応する時刻対応操作履歴情報に基づいて、前記音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行するオーディオ信号処理ステップと、
を有することを特徴とするコンピュータ・プログラムにある。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータ・システムに対して、コンピュータ可読な形式で提供する記録媒体、通信媒体、例えば、CDやFD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明のオーディオデータ処理装置および方法では、音声データに対応して設定される音オブジェクト表示データをディスプレイに表示し、音オブジェクト表示データに対応するユーザ操作情報を入力して時刻対応操作履歴情報を生成し、時刻対応操作履歴情報に基づいて音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行する。例えば、ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻位置対応イベントテーブルを生成して、時刻位置対応イベントテーブルの設定情報に基づいて、音声データのサラウンド空間における出力値調整実行することができる。従って、ユーザは、ディスプレイに表示された音オブジェクトの表示データを操作するのみで、サラウンド音の調整を行うことが可能となり、専門的な知識を持たないユーザにとって利用しやすいオーディオデータ処理装置が実現される。
さらに、本発明の構成によれば、音オブジェクト表示データの音量調整情報発生および消滅情報を時刻対応のデータとして設定したイベントテーブルを生成し、生成したイベントテーブルに基づいて、音オブジェクトに対応する音声データの出力開始および出力停止、音量調整が可能となるので、ユーザは、ディスプレイに表示された音オブジェクトの表示データを操作するのみで、音声データの出力開始および出力停止、音量調整を行うことが可能となり、専門的な知識を持たないユーザにとって利用しやすいオーディオデータ処理装置が実現される。
さらに、本発明の構成によれば、複数の音オブジェクトを個別に操作して、操作情報を1つのファイルとして設定したプロジェクトデータファイルを生成、保持し、このプロジェクトデータファイルを指定した再生処理を可能としたので、時刻対応テーブルとして設定した複数の音オブジェクトの位置、音量調整情報に基づいて、ミックスされた複数の音声データのサラウンドコンテンツの生成や、再生処理を容易に実行することができ、専門的な知識を持たないユーザにとって利用しやすいオーディオデータ処理装置が実現される。
以下、本発明のオーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラムの詳細について、図面を参照して詳細に説明する。
背景技術の欄で説明したように、オーディオ編集ソフトウェアを利用してサラウンドコンテンツを作成する際に行なう処理としては、例えば、以下の処理がある。
(a)各音源の時間軸上での編集処理を可能としたタイムラインエディター上に設定される各音源の割り当てトラックであるオーディオトラックに対して素材の記録をする。
(b)オーディオトラック上のオーディオセグメントを編集することで素材のライフサイクル、すなわち、音源出力有効期限を設定する。
(c)オーディオトラックに対応したオーディオミキサーを操作することで、各オーディオセグメントの音量を設定する。
(d)各オーディオトラックに対してサラウンドバスに送るための設定をする。サラウンドバスとは、聴取者の周囲に配置した各スピーカの出力配分を設定可能としたサラウンドパンに接続されたバスである。
(e)サラウンドパンを操作することで、各スピーカへの出力バスの音量を設定する。
これらの処理は、オーディオミキサー操作に慣れたユーザにとって使いやすい半面、セグメントとオーディオトラック、オーディオミキサー、サラウンドバスの対応など内部のミキサー構造を、十分理解しないと、ユーザの意図するサラウンドコンテンツの生成が困難であり、ミキシング処理等に不慣れなユーザにとっては使いにくいという問題がある。
本発明では、PC等のデータ処理装置におけるディスプレイに表示したGUI(Graphic User Interface)を適用して、GUI上に音場フィールドを設定し、例えば記録用の音源としての音オブジェクトを設定し、音オブジェクト対応の表示データを操作することで、音声データファイルの再生位置やタイミングなど、様々な再生環境を容易に設定可能としている。
具体的には、
音オブジェクト対応の表示データを、GUI上に音場フィールドなどにおいて動かすことで、出力先バスの音量を設定する。 音オブジェクトのライフサイクルをGUI上で設定可能とし、音オブジェクトに対応する音源素材のライフサイクルを設定する。
音オブジェクト毎に音量調整用のフェーダーをGUI上で設定可能とし、各音オブジェクトの音量を決定する。
などの処理を可能とし、音オブジェクトに対する操作がミキサーの操作に連動する設定とし、サラウンドコンテンツを作成する際に必要となる様々な処理を、すべて音オブジェクトに対するユーザ操作によって実現し、ユーザに過大な知識を要求することなく、ユーザの意図するサラウンドコンテンツの生成、編集、再生を可能としたものである。
以下、図面を参照して、本発明の一実施の形態を詳述する。図1は、本発明のオーディオデータ処理装置を、パーソナルコンピュータをデータ処理部として設定した場合の全体構成を示す図である。
各種情報処理を実行するデータ処理装置(PC:パーソナルコンピュータ)200に対して、モニター102、キーボード103及びマウス104が接続される。データ処理装置200には、マルチチャンネルオーディオインターフェース105が接続されている。
マルチチャンネルオーディオインターフェース105は、マイク106から入力されるマイクレベルのアナログ音声信号を内蔵のマイクアンプにより増幅して、さらにAD変換処理によってデジタル音声信号を生成して、生成したデジタルデータをデータ処理装置(PC)200に入力する。
データ処理装置(PC)200に入力されたデジタル音声信号は、データ処理装置(PC)200に内蔵されたハードディスクドライブ等の記憶部に音声データファイルとして保存される。
記憶部に保存されたデジタル音声信号はデータ処理装置(PC)200において、ミックス処理、フィルター処理などのデジタル信号処理を施された後に、マルチチャンネルオーディオインターフェース105に出力され、DA変換されアナログ音声信号となり、マルチチャンネルアンプ107によって増幅されてマルチチャンネルスピーカ108に出力され、再生される。
マルチチャンネルスピーカ108は、例えば、図2に示すように、聴取者110の前方左にサラウンドのLチャンネル(フロント左チャンネル)スピーカ121、前方右にRチャンネル(フロント右チャンネル)スピーカ122、聴取者110の後方左にSLチャンネル(サラウンドリア左チャンネル)スピーカ123、聴取者110の後方右にSRチャンネル(サラウンドリア右チャンネル)スピーカ124、聴取者110の正面前方にC(フロントセンターチャンネル)チャンネルスピーカ125が配置された構成例がある。なお、図2に示すスピーカ位置は一例であり、この他にも、様々なスピーカ配置構成からなるマルチチャンネルスピーカを自在に設定可能である。
次に、データ処理装置(PC)200の具体的ハードウェア構成について、図3を参照して詳細に説明する。CPU(Central Processing Unit)210は、データ処理装置(PC)200において実行する各種処理プログラム、すなわちオーディオデータの生成、編集、再生処理プログラムの実行制御部である。
メモリ(RAM)209は、各種プログラムを実行するためのワークエリア、パラメーター格納領域、プログラム格納領域として利用される。CPUバスがCPU210、RAM209を接続し、PCI(Peripheral Component Interconnect)ブリッジ212が、CPUバスとPCIバスを接続している。
CPU210には、モニター102に対する表示信号を生成するビデオインタフェース211が、AGPバスを介して接続されている。
PCIバスには、ATAインタフェース213、オーディオインターフェース105が接続されている。ATAインタフェース213には、CPU210によって実行されるオペレーティングシステムやオーディオデータの記録、再生、編集処理プログラム等の各種アプリケーションプログラムを格納したハードディスクドライブ214が接続されている。ATAインタフェース213はハードディスクドライブ214に対するアクセス制御を行う。
CPU210は、データ処理装置(PC)200の電源投入に応じてハードディスクドライブ214からオペレーティングシステム(OS)を読み出し、メモリ209に展開して実行する。そしてCPU210はオペレーティングシステムの実行環境下において、ユーザによるキーボード103及びマウス105の操作に応じてハードディスクドライブ214から各種アプリケーションプログラム、すなわち、オーディオデータの記録、再生、編集処理プログラム等の各種アプリケーションプログラムを読み出して実行することにより、各種機能を実行する。
本発明のオーディオデータ処理装置のデータ処理部としてのパーソナルコンピュータは、ハードディスクドライブ214に格納されたオーディオデータの記録・編集・再生プログラムをCPU210が読み出して実行する。オーディオデータの記録・編集・再生プログラムの実行により、音声データの記録、信号処理、マルチチャンネルオーディオインターフェース105を介した音声データのマルチチャンネルスピーカ108に対する出力を実行する。
オーディオデータの記録、再生、編集処理プログラムの実行において設定される処理モジュール構成および処理モジュール間の転送データ構成について、図4を参照して説明する。
GUI部254は、オーディオデータの記録、再生、編集処理プログラムの各種操作画面をモニター102に表示する処理を実行するとともに、ユーザによるキーボード103及びマウス104の入力操作に応じた操作命令を生成し、GUI・プロジェクトデータ解釈モジュール部253に送出する。
GUI・プロジェクトデータ解釈モジュール部253は、GUI部254から送出された操作命令に応じて音声データの記録及び再生を制御する。例えば、GUI・プロジェクトデータ解釈モジュール部253は、ユーザの操作に応じてGUI部254からオーディオデータ記録命令が供給されると、オーディオ信号処理モジュール部252に対して記録命令を出力する。
記録命令を受け取ったオーディオ信号処理モジュール部252は、オーディオドライバ250を介してマルチチャンネルオーディオインターフェース105から供給される音声データを受け取り、ハードディスクドライバ251を介して音声データファイルとしてハードディスクドライブ214に保存することで記録を行う。
またGUI・プロジェクトデータ解釈モジュール部253は、ユーザの操作に応じてGUI部254からオーディオデータ再生命令が供給されると、オーディオ信号処理モジュール部253に対して再生命令を出力する。再生命令を受け取ったオーディオ信号処理モジュール部253は、ハードディスクドライバ251を介して、ハードディスクドライブ214からの音声データファイルを受け取り、音量調整・ミックスなどの信号処理を施し、オーディオドライバ250を介してマルチチャンネルオーディオインターフェース105に対してデジタル音声データを送出し、マルチチャンネルオーディオインターフェース105において、D/A変換がなされ、図1に示すマルチチャンネルアンプ107によって増幅されてマルチチャンネルスピーカ108に出力され、再生される。
さらにGUI・プロジェクトデータ解釈モジュール部253は、ユーザの操作に応じてGUI部254から再生時の音声データ読み込みタイミング、ミックスなど信号処理パラメーターの変更タイミングの情報を受け取り、記憶・再現することができる。これらの情報はプロジェクトデータファイルとしてハードディスクドライバ251を介してプロジェクトデータファイルとしてハードディスクドライブ214のハードディスクに保存される。
また、GUI・プロジェクトデータ解釈モジュール部253は、音声データに上記信号処理を施した結果、すなわち、プロジェクトデータファイルに格納された再生時の音声データ読み込みタイミング、ミックスなど信号処理パラメーターの変更タイミングの情報を適用した信号処理を施した結果を新たな音声データファイルとして設定し、これをハードディスクドライブ214に出力し、新規なオーディオデータファイルとして保存することができる。
次に、オーディオ信号処理モジュール252において実行する信号処理の詳細について図5を参照して説明する。
オーディオ信号の記録処理時においては、マイク106から入力される音声信号、あるいはハードディスク等に格納された音声データファイルからのファイル入力データが、それぞれ出力調整可能なトラックに割り当てられ、各トラックに対してフェーダー281やサラウンドパンによって出力調整がなされる。
例えば、マイク106から入力される音声信号は、オーディオドライバ250を介してオーディオ信号処理モジュール252に入力され、図5に示すマイク入力287として解釈される。
マイク入力287は、オーディオ信号処理モジュール252に構成されるミキシング処理部280に送られるとともに、ハードディスクに格納するためのファイル出力とされる。ミキシング処理部280ではフェーダー281による音量調整、メーター282によるピークレベル検出を行ない、サラウンドパン283を介してサラウンド各スピーカにおける出力比などを調整し、ステレオ感、サラウンド感を設定するための処理としてのパンニング処理を行なわれる。
パンニング処理の結果がオーディオデータバス285(LFEバス〜SRバス)に出力され、その他の再生音声データ、例えばファイル入力などの他トラックデータに基づく調整データとミックスされマルチチャンネルデータとなり、オーディオドライバ250を介してマルチチャンネルオーディオインターフェース105に出力される。
マルチチャンネルデータとは、例えば、図2を参照して説明したようなスピーカ配置に対応した出力データであり、サラウンドのL(フロント左チャンネル)、R(フロント右チャンネル)、C(フロントセンターチャンネル)、SL(サラウンドリア左チャンネル)、SR(サラウンドリア右チャンネル)に、低音専用チャンネルとしてのLFE(Low Frequency Enhancement)サブウーファーチャンネルの5.1チャンネルデータである。LFEチャンネルに関しては、低音専用チャンネルであるため、出力データの最終段でローパスフィルタ(Low Pass Filter)284を適用して低域抽出を行う。
オーディオデータの再生時には、ハードディスク等の記憶部に記憶された音声データファイルを受け取ったオーディオ信号処理モジュール252は、図5に示すように、これをファイル入力288として解釈し、ファイル入力288はミキシング処理部280に送られる。ミキシング処理部ではフェーダー281による音量調整、メーター282によるピークレベル検出をし、サラウンドパン283を介してパンニングした結果がオーディオデータバス284に出力され、その他の再生音声データやモニタリング音声データとミックスされマルチチャンネルデータとなり、オーディオドライバ250を介してマルチチャンネルオーディオインターフェース105に出力される。
なお、オーディオデータの記録処理と再生処理は同時に行うことができる。また、オーディオ信号処理モジュール252は、マイク入力や、入力ファイル等の音声データを同時に複数受け取ることができ、ミキシング処理部280において、それぞれのデータに対してフェーダー281による音量調整、メーター282によるピークレベル検出、サラウンドパン283によるパンニング処理を並列に実行可能であり、その処理結果をオーディオデータバス284に出力し、その他の再生音声データやモニタリング音声データとミックスされマルチチャンネルデータとして、オーディオドライバ250を介してマルチチャンネルオーディオインターフェース105に出力することができる。
図5に示すように、サラウンドパン283は複数のサラウンドパンによって構成され、それぞれがマイク入力や、入力ファイル等、個別の音声データに対応して、各入力音声データ毎にステレオ感、サラウンド感を設定する処理が実行される。
1つのサラウンドパンの詳細構成について、図6を参照して説明する。サラウンドパン300は、マイク入力や、入力ファイル等の音声データの入力に対して、出力するチャンネル数分のフェーダー301〜306を有し、それぞれ独立して音量調整することができる。音量調整された音声データは、LFEバス〜SRバスによって構成されるオーディオデータバス285に出力される。
オーディオデータバス285には、図5に示すサラウンドパン283を構成する他のサラウンドパンから出力される他の再生音声データやモニタリング音声データとミックスされマルチチャンネルデータとなり、オーディオドライバ250を介してマルチチャンネルオーディオインターフェース105に出力される。
次に、図4に示すGUI254の処理について説明する。図7を参照して、具体的なディスプレイ表示例および操作処理例について説明する。
図7は、本発明のオーディオデータ処理装置において、オーディオデータの記録、再生、編集処理を実行する際に、オーディオデータ記録、再生、編集処理アプリケーションプログラムに基づいて、モニター102のディスプレイに表示されるユーザインタフェース(GUI)である。
GUI上には、音オブジェクト選択ボタン群400が表示される。図に示す音オブジェクト選択ボタン群400は、人の顔、鳥、波などの図柄を設定したアイコン群として設定され、それぞれのアイコンが、記憶部(ハードディスクなど)に格納された個別の音声データファイル(例えばWAVファイル)に対応付けられている。
図に示す音オブジェクト選択ボタン群400から、ユーザがマウスなどによって、ある音オブジェクト(アイコン)をクリックすることで、音声データファイルと対応付けられた音オブジェクトを選択し、GUIの左側に設定された音場フィールド413内の任意位置で再びクリックすることで音場フィールドに選択した音オブジェクトを貼り付けることができる。
音場フィールド413は、例えば、先に図2を参照して説明したサラウンドスピーカの設定されたサラウンド空間に対応するフィールドである。
音場フィールド413に貼り付けられた音オブジェクト414は、例えば波の音データを格納した音声データファイル(例えばWAVファイル)に対応付けられている。
音場フィールド413に貼り付けられた音オブジェクト414は、再度、マウス等によってクリックすることで選択状態、すなわち音オブジェクト414に対応する音声データの出力値を調整することが可能な状態に設定される。
選択状態となった音オブジェクトの音量情報、LFE音量情報は選択オブジェクト情報エリア405に表示され、選択オブジェクト音量調整フェーダー406aおよび選択オブジェクトLFE音量調整フェーダー406bをマウスなどによって調整することで、選択状態となった音オブジェクトの音量、LFE音量の調整が可能となる。
また、選択状態となった音オブジェクトの音場フィールド413における位置情報に基づいて、サラウンドパンの各出力バスの調整値、すなわち、図6に示すフェーダー301〜305の調整パラメーターが設定される。すなわち、音場フィールド413は、先に図2を参照して説明したサラウンド空間に対応し、図8に示すように、音場フィールド413に各種の音オブジェクトを配置することで、複数スピーカ121〜125をユーザ(聴取者)110の周囲に配置したサラウンド空間440において、各音オブジェクトに対応する音声データファイルの音データの音源が、サラウンド空間440の対応位置に存在するように設定される。
図の例では、波の音がユーザ110の左前方から聞こえ、悲鳴がユーザ110の右前方から聞こえ、拍手がユーザ110の左後方から聞こえるように図6に示すフェーダー301〜305の調整パラメーターが設定される。
選択オブジェクト音量調整フェーダー406aは、図5に示したオーディオ信号処理モジュールに構成されたフェーダー280に対応している。選択オブジェクトLFE音量調整フェーダー406bは、図6を参照して説明したサラウンドパンに設定されたLFE(Low Frequency Enhancement)サブウーファーチャンネル調整用の音量調整フェーダー306に対応している。
音オブジェクトの詳細について図9を参照して説明する。音オブジェクトは、音を表すアイコン(絵柄)450と、ピークレベルメーター表示部451と、音量表示部452と、LFE音量表示部453とを有している。
ピークレベルメーター表示部451は、図5に示したオーディオ信号処理モジュールに構成されたメーター281と連動する。音量表示部452は、図5に示したオーディオ信号処理モジュールに構成されたフェーダー280に連動する。なお、音声データ編集時には、選択オブジェクト音量調整フェーダー406aに対応して表示が変更される。LFE音量表示部453は、図6を参照して説明したサラウンドパンに設定されたLFE(Low Frequency Enhancement)サブウーファーチャンネル調整用の音量調整フェーダー306に連動する。なお、音声データ編集時には、選択オブジェクトLFE音量調整フェーダー406bに対応して表示が変更される。
選択オブジェクト音量調整フェーダー406aと、選択オブジェクトLFE音量調整フェーダー406bの調整結果はGUI・プロジェクトデータ解釈モジュール部253(図4参照)において、音オブジェクトに対応する音声データファイルに対応付けて設定されるプロジェクトデータファイルとして記憶される。
プロジェクトデータファイルを指定した再生処理を行なうことで、プロジェクトデータファイルによって読み出される音オブジェクトに対応した音声データファイルが再生され、プロジェクトデータファイルに記録された調整結果が、オーディオ信号処理モジュールに構成されたフェーダー280と、サラウンドパンに設定されたLFE(Low Frequency Enhancement)サブウーファーチャンネル調整用の音量調整フェーダー306の調整パラメーターとして適用される。
プロジェクト時間長表示エリア407は、プロジェクトデータファイル全体の再生時間を表しており、ユーザは書き換えることができる。現在時刻表示エリア408は、プロジェクト全体の再生時間の中の現在時刻を表しており、ユーザは書き換えることができる。現在表示されている音場フィールド413内の音オブジェクト414の位置、選択オブジェクト音量調整フェーダー406aの表す音量情報、選択オブジェクトLFE音量調整フェーダー406bの表すLFE音量情報、現在時刻スライダ412の位置はこの現在時刻に対応し、連動して動作する。
つまり、音オブジェクト414の位置、選択オブジェクト音量調整フェーダー406aの表す音量情報、選択オブジェクトLFE音量調整フェーダー406bの表すLFE音量情報は現在時刻に応じて変化する値であり、GUI・プロジェクトデータ解釈モジュール253はこれらの値を時刻と対にしたデータをプロジェクトデータファイルに設定して記憶する。
つまり、プロジェクトデータファイルは、図10に示すように、時間経過に伴う音オブジェクトの位置情報を記録した(a)時刻位置対応イベントテーブルと、時間経過に伴う音オブジェクトの音量情報を記録した(b)時刻音量対応イベントテーブルと、時間経過に伴う音オブジェクトのLFE音量情報を記録した(c)時刻LFE音量対応イベントテーブルと有している。なお、プロジェクトデータファイルは、この他、対応付けられた音声データファイル(WAVファイル)の参照情報を有している。
図7に戻り、オーディオデータ記録、再生、編集処理アプリケーションプログラムに基づいて、モニター102のディスプレイに表示されるユーザインタフェース(GUI)の説明を続ける。
再生・停止ボタン409の操作により、再生状態・停止状態を遷移することができる。再生状態に設定すると現在時刻表示エリア408は自動更新され、現在時刻表示エリア408がプロジェクト時間長表示エリア407の値と等しくなると自動停止し、停止状態に遷移する。停止状態、再生状態によらず、現在時刻スライダ412を動かすことで現在時刻を変更することができる。また、時刻リセットボタン410を操作することにより現在時刻を0にすることができる。
ユーザは再生状態でも音オブジェクト414の出現、位置移動、消滅の各種操作を行うことができ、同時に音オブジェクト414をクリックして選択することにより選択オブジェクト音量調整フェーダー406a、選択オブジェクトLFE音量調整フェーダー406bを操作することができ、その場合、現在時刻の遷移と相まって、GUI・プロジェクトデータ解釈モジュール253はこれらの値を連続的に時刻と対にしたテーブル(図10参照)として記憶する。記憶された各テーブル値は、プロジェクトデータファイルとして記録格納することが可能である。プロジェクトデータファイルを指定した再生を行なうことで、次回再生時に音やオブジェクトの動きに、記録されたテーブルに従った音オブジェクトの位置、音量、LFE音量とを連続的に反映させた再生処理が実行される。
選択オブジェクトの生存期間表示部411は、選択状態の音オブジェクトがどの時刻に音場フィールド413に現れ、どの時刻に消えるのかを示している。WAVファイルオブジェクト選択ボタン401は、特殊な音オブジェクト選択ボタンで、WAVファイル選択エリア402で前もって指定された音声データファイルを音オブジェクトとして貼り付けるために使用する。
記録オブジェクト選択ボタン404は、特殊なオブジェクト選択ボタンで、保存ファイルパス指定エリア403で前もって指定されたファイルパスに記録するための音オブジェクトを貼り付けるために使用する。このオブジェクトが貼り付けられると、マイク入力のモニタリングをしながら記録が行われる。
音場フィールド413は、前述したように、ユーザが再生音を聴く部屋などの空間を2次元的に表しており、上下方向と部屋の前後、左右方向と部屋の左右が対応付けられている。つまり再生状態で音オブジェクト414を移動させると、図6を参照して説明したサラウンドパンを構成するフェーダーの調整が実行される。
例えば、音オブジェクト414を音場フィールド413の上方向に移動させると、図6に示すサラウンドパンを構成するフェーダー中、フェーダー301、302の音量が低く抑えられ、フェーダー303〜305の音量が高くなるようにフェーダーの調整が実行される。
この結果、リアスピーカの出力を決定するSLバス315,SRバス316への出力が小さく、フロントスピーカの出力を決定するLバス312、Rバス313への出力が大きくなり、音オブジェクト414に対応する音声データ、例えば波の音が前方から聞こえるような設定がなされる。
また、音オブジェクト414を、音場フィールド413の左の方向に持っていくと、左側方向のスピーカの出力を決定するLバス312、SLバス315の出力が大きくなるように図6に示すサラウンドパンを構成するフェーダーの調整が実行されることになる。
このように、音オブジェクト414の音場フィールド413内における位置(座標)に基づいて、サラウンドパン内のフェーダーが調整されることになる。
音オブジェクトの音場フィールド413内における位置(座標)に基づくサラウンドパン内のフェーダー調整処理について、図11を参照して説明する。
音場フィールドの座標を正規化し、座標(0,0)(0,1)(1,1)(1,0)を頂点とする正方形とする。このとき、サラウンドのLFEチャンネルを除くスピーカ位置を、図11に示すように、仮想的にL(0,0)、R(0,1)、SL(0,1)、SR(1,1)、C(0.5,0)とする。
L,R,SL,SR,Cそれぞれのスピーカについて、音オブジェクトの位置と各スピーカの位置との距離L1〜L5をそれぞれ算出し、距離L1〜L5が1以上になるとフェーダー調整パラメーターとしてのフェーダー係数を0(−∞dB)とし、距離L1〜L5が0になるとフェーダー係数を1(0dB)とするdBスケールで計算を行う。なお、Cチャンネルについてはさらに1以下の係数をかけてL,Rとのバランスを取る処理としてもよい。LFEチャンネルについては前述のとおりGUI上選択オブジェクトLFE音量調整フェーダー406bより直接操作をする。
このように音オブジェクトの音場フィールド413内における位置(座標)に基づいて、L,R,SL,SR,Cそれぞれのスピーカに対応するサラウンドパンのフェーダー調整パラメーターが設定される。
プロジェクトデータファイルには、音オブジェクトの音場フィールド413内における位置(座標)情報の時間経過に伴う更新情報は、図10を参照して説明したように、時刻位置対応イベントテーブルとして記録され、プロジェクトデータファイルを指定した再生処理に際しては、この時刻位置対応イベントテーブルに基づいて、各時刻の音オブジェクト位置が取得され、取得された音オブジェクト位置情報に基づいて音オブジェクトの位置と各スピーカの位置との距離L1〜L5の算出処理がなされ、その算出結果に基づいて、サラウンドパンのフェーダー調整パラメーターが決定され、決定されたバラメーターを適用したフェーダー調整結果に基づいて音声データファイルの出力がなされる。
次に音オブジェクトのコンテキストメニューについて説明する。音オブジェクトのコンテキストメニューは音オブジェクト上にマウスカーソルを持っていき右クリックすることで現れる。それには以下の項目が存在する。
<この時刻に出現>
当該音オブジェクトが現在時刻に出現するよう設定する。
<この時刻で消滅>
当該音オブジェクトが現在時刻に消滅するよう設定する。
<常にある>
当該音オブジェクトが時刻0からプロジェクト時間内常に存在するよう設定する。
<出現点に移動>
当該音オブジェクトの出現時刻を現在時刻とする。
<消滅点に移動>
当該音オブジェクトの消滅時刻を現在時刻とする。
<削除>
当該音オブジェクトを削除する。
上述したように、本発明のオーディオデータ処理装置においては、音オブジェクトを置く、動かす、消す、という操作が音の出現、移動、消滅を表しており、操作と結果がユーザにわかりやすい形で提示できる。また、複数の音のパンニングを同一のフィールド上で表示・操作できるので、音同士の時間的・空間的な対応関係を確認しながら編集操作を行うことができる。
次に、本発明のオーディオデータ処理装置において実行する処理シーケンスについて図12以下のシーケンス図を参照して説明する。
まず、図12を参照して、オーディオデータの記録再生処理時の自動時刻更新に基づく音オブジェクトのパラメーター更新とGUI更新処理シーケンスについて説明する。
図12は、それぞれ図4に示す各モジュール、すなわち、GUI254、GUI・プロジェクトデータ解釈モジュール253、オーディオ信号処理モジュール252、オーディオドライバ250の各処理、および各モジュール間のデータ入出力シーケンスを示している。
オーディオデータの記録再生時には、まず、ステップS101において、オーディオハードウェアの持つサンプルカウンタを基準に、オーディオドライバで時刻更新割り込みが行われる。記録・編集・再生プログラムはこの割り込み信号を、オーディオ信号処理モジュール252で受け取り、ステップS102において、GUI・プロジェクトデータ解釈モジュール253に伝える。
ステップS103において、GUI・プロジェクトデータ解釈モジュール253は、自らの持つ現在時刻を、この割り込みにより更新し、ステップS104において、GUI254の時刻表示の更新をする。また、GUI・プロジェクトデータ解釈モジュール253は、ステップS105において、音オブジェクトの時刻位置対応イベントテーブル(図10参照)など、設定された時刻対応のイベントテーブルを参照し、ステップS106において、GUI254上の音オブジェクトの表示をイベントテーブルに基づいて更新し、ステップS107において、オーディオ信号処理モジュールの信号処理パラメーターを変更する。
このパラメーター変更によって、音オブジェクトに対応付けられた音声データの出力態様が時間とともに変更される。すなわち、サラウンドパンの各フェーダーの調整パラメーターがプロジェクトデータファイルの各イベントテーブルに基づいて更新されて、更新パラメーターに基づいて設定された音声データが出力されることになる。
次に、図13を参照して、音オブジェクト生成時の処理について説明する。ユーザがGUI254上で音オブジェクトの生成コマンドを入力すると、ステップS201において、GUI254からGUI・プロジェクトデータ解釈モジュール253に対して音オブジェクトの生成要求が出力される。
GUI・プロジェクトデータ解釈モジュール253は、GUI254から音オブジェクトの生成要求を入力すると、ステップS202において現在時刻を参照し、ステップS203において、音オブジェクトに対応する時刻イベントテーブル(図10参照)を生成する。さらに、ステップS204において、生成した時刻イベントテーブルに、現在時刻と生成イベント、すなわち、音オブジェクトの座標位置、音量情報、LFE音量情報を書き込み、同時にオーディオ信号処理モジュール252におけるトラック割り当てを行い、プロジェクトデータとして記憶する。さらに、ステップS205において、生成した時刻イベントテーブルに対応する音オブジェクト、パラメーターの表示をGUI254に要求する。
GUI・プロジェクトデータ解釈モジュール253において生成したプロジェクトデータファイルは、ハードディスク等の記憶部に記憶することが可能であり、プロジェクトデータファイルを指定した再生処理を行なうことで、プロジェクトデータファイルに設定された時刻イベントテーブル(図10参照)に従った音声データ再生が実現される。
プロジェクトデータファイルの全体構成について、図14を参照して説明する。プロジェクトデータファイルは、図14に示すように、再生時間全長情報と1つ以上の音オブジェクト情報との組み合わせから構成される。なお音オブジェクト情報を持たず再生時間全長情報のみによって構成されるプロジェクトデータファイルもある。
プロジェクトデータファイルに設定される各音オブジェクト情報は、音オブジェクトに関連付けされたWAVファイル等の音声データファイルのパス情報と、先に図10を参照して説明した時刻位置対応イベントテーブル、時刻音量対応イベントテーブル、時刻LFE音量イベントテーブル、さらに、音オブジェクトの発生、すなわち音声データファイルに基づく出力の開始時刻の設定情報としての時刻発生対応イベントテーブルと、音オブジェクトの消滅、すなわち音声データファイルに基づく出力の終了時刻の設定情報としての時刻消滅対応イベントテーブルとが含まれる。
音オブジェクト情報1〜nには、それぞれ異なるWAVファイル等の音声データファイルに対応する音オブジェクト情報が格納される。これらの複数の音オブジェクト情報1〜nを含むプロジェクトデータファイルを指定した再生を行なうことで、複数の異なる音声データファイルを混在させたサラウンドコンテンツの再生が可能となる。
次に、図15を参照して、音オブジェクトの移動・パラメーター変更・当該時刻での音オブジェクト消滅時の処理について説明する。ユーザがGUI254上で、音オブジェクトの時刻対応情報の設定、例えば音オブジェクトの移動・パラメーター変更、当該時刻での消滅などの設定要求を入力すると、ステップS301において、GUI254は、GUI・プロジェクトデータ解釈モジュール253に対して音オブジェクトの時刻対応情報の変更要求を出力する。
GUI・プロジェクトデータ解釈モジュール253は、GUI254から音オブジェクトの時刻対応情報の変更要求を入力すると、ステップS302において、現在時刻を参照し、ステップS303において、音オブジェクトの時刻イベントテーブル(図10参照)に現在時刻と当該イベントを書き込む。
その後、ステップS304において、時刻イベントテーブルに対応する音オブジェクト、パラメーターの表示をGUI254に要求する。これらの変更によるオーディオ信号処理モジュール252の信号処理パラメーターの更新は、図12を参照して説明した記録再生時の自動時刻更新による、音オブジェクトのパラメーター更新とGUI更新処理シーケンスに従って実行される。
次に、図16を参照して、音オブジェクト削除時の処理について説明する。ユーザがGUI254上で、音オブジェクトの削除要求を入力すると、ステップS401において、GUI254は、GUI・プロジェクトデータ解釈モジュール253に対して音オブジェクトの削除要求を出力する。
GUI・プロジェクトデータ解釈モジュール253は、GUI254から音オブジェクトの削除要求を入力すると、ステップS402において、音オブジェクトの時刻イベントテーブル(図10参照)を消去し、ステップS403において、その音オブジェクトに対応して設定されたトラック割り当てを解除し、ステップS404において、GUI254に対して、当該音オブジェクトとパラメーターを非表示とするコマンドを出力する。
なお、時刻イベントテーブルは、先に図10を参照して説明したように、各音オブジェクトに対応付けて設定され、時刻により逐次自動更新されるパラメーターを時刻イベントとして記録したテーブルである。音オブジェクトの持つGUI上の座標、音量、LFE音量については、図10に示して説明したとおりであり、さらに音オブジェクトの生成情報、消滅情報なども時刻イベントとして記録される。
この時刻イベント情報は、音オブジェクトを適用した音声データ記録処理に際して、GUIを介したユーザ操作により生成、更新されオーディオデータ処理装置のメモリに記憶される。この時刻イベント情報を持つデータを穂ゾーン、すなわちはーどでぃすくに記録する場合には、メモリに記憶された時刻イベント情報を持つプロジェクトデータファイルを生成する処理を実行する。
次に、図17を参照して、本発明のオーディオデータ処理装置において実行するオーディオデータの記録・編集・再生プログラムの状態遷移について説明する。
オーディオデータの記録・編集・再生プログラムの開始処理は、ステップS501に示すように、ユーザ操作によるプログラムの起動をトリガとして行なわれる処理である。
オーディオデータの記録・編集・再生プログラムを開始すると、ステップS502のプロジェクトデータファイルの読み込み、保存、ステップS503の表示対象時刻の更新による記録されたパラメーターの再現、ステップS504のユーザの編集操作によるパラメーターの記録が可能な状態となる。これらの処理は、プログラムが実行中は、随時可能な処理である。これらの処理はユーザ操作によるプログラムの終了まで続く。
プログラムが起動した状態では再生は停止状態であり、ステップS511に示すユーザ操作による再生命令により、再生状態に遷移する。再生状態では、ステップS514のユーザ操作による停止命令、もしくは再生終了に伴う自動遷移により、停止状態に遷移する。
再生状態の初期状態では記録は停止状態であるが、ステップS513に示すユーザ操作による記録命令により、記録状態に遷移する。記録状態はステップS512に示すユーザによる停止命令により、記録停止状態に遷移する。また、再生が停止状態になると、記録は自動的に停止する。
ステップS521に示すユーザ操作によるプログラムの終了要求によってオーディオデータの記録・編集・再生プログラムが終了する。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明のオーディオデータ処理装置および方法では、音声データに対応して設定される音オブジェクト表示データをディスプレイに表示し、音オブジェクト表示データに対応するユーザ操作情報を入力して時刻対応操作履歴情報を生成し、時刻対応操作履歴情報に基づいて音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行する。例えば、ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻位置対応イベントテーブルを生成して、時刻位置対応イベントテーブルの設定情報に基づいて、音声データのサラウンド空間における出力値調整実行することができる。従って、ユーザは、ディスプレイに表示された音オブジェクトの表示データを操作するのみで、サラウンド音の調整を行うことが可能となり、専門的な知識を持たないユーザにとって利用しやすいオーディオデータ処理装置が実現される。
さらに、本発明の構成によれば、音オブジェクト表示データの音量調整情報発生および消滅情報を時刻対応のデータとして設定したイベントテーブルを生成し、生成したイベントテーブルに基づいて、音オブジェクトに対応する音声データの出力開始および出力停止、音量調整が可能となるので、ユーザは、ディスプレイに表示された音オブジェクトの表示データを操作するのみで、音声データの出力開始および出力停止、音量調整を行うことが可能となり、専門的な知識を持たないユーザにとって利用しやすいオーディオデータ処理装置が実現される。
さらに、本発明の構成によれば、複数の音オブジェクトを個別に操作して、操作情報を1つのファイルとして設定したプロジェクトデータファイルを生成、保持し、このプロジェクトデータファイルを指定した再生処理を可能としたので、時刻対応テーブルとして設定した複数の音オブジェクトの位置、音量調整情報に基づいて、ミックスされた複数の音声データのサラウンドコンテンツの生成や、再生処理を容易に実行することができ、専門的な知識を持たないユーザにとって利用しやすいオーディオデータ処理装置が実現される。
本発明のオーディオデータ処理装置の構成を示すプロック図である。 本発明のオーディオデータ処理装置のデータ処理によって生成するコンテンツ出力のためのマルチチャンネルスピーカの構成例を示す図である。 本発明のオーディオデータ処理装置のデータ処理部(PC)の構成を示す図である。 オーディオデータの記録、再生、編集処理プログラムの実行において設定される処理モジュール構成および処理モジュール間の転送データ構成について説明する図である。 オーディオ信号処理モジュールにおいて実行する信号処理の詳細について説明する図である。 サラウンドパンの詳細構成について説明する図である。 本発明のオーディオデータ処理装置において、オーディオデータの記録、再生、編集処理を実行する際に、オーディオデータ記録、再生、編集処理アプリケーションプログラムに基づいてディスプレイに表示されるユーザインタフェース(GUI)の例を示す図である。 音場フィールドと、サラウンド空間の対応について説明する図である。 音オブジェクトの詳細について説明する図である。 時間経過に伴う音オブジェクトの情報を記録した時刻イベントテーブルの例を説明する図である。 ハッシュ情報サービスの適用によって生成した未完成の曲リストの例を示す図である。 オーディオデータの記録再生処理時の自動時刻更新に基づく音オブジェクトのパラメーター更新とGUI更新処理シーケンスについて説明する図である。 音オブジェクト生成時の処理について説明するシーケンス図である。 プロジェクトデータファイルの全体構成について説明する図である。 音オブジェクトの移動・パラメーター変更・当該時刻での音オブジェクト消滅時の処理について説明するシーケンス図である。 音オブジェクト削除時の処理について説明するシーケンス図である。 本発明のオーディオデータ処理装置において実行するオーディオデータの記録・編集・再生プログラムの状態遷移について説明する図である。
符号の説明
102 モニター
103 キーボード
104 マウス
105 マルチチャンネルオーディオインタフェース
106 マイク
107 マルチチャンネルアンプ
108 マルチチャンネルスピーカ
110 聴取者(ユーザ)
121〜125 スピーカ
200 データ処理差装置(PC)
209 RAM
210 CPU
211 ビデオインタフェース
212 CPU−PCIブリッジ
213 ATA IF
214 HDD
250 オーディオドライバ
251 HDDドライバ
252 オーディオ信号処理モジュール
253 GUI・プロジェクトデータ解釈モジュール
254 GUI
280 ミキシング処理部(オーディオ信号処理モジュール)
281 フェーダー
282 メーター
283 サラウンドパン
284 ローパスフィルタ
285 オーディオデータバス
300 サラウンドパン
301〜306 フェーダー
400 音オブジェクト選択ボタン群
401 WAVファイルオブジェクト選択ボタン
402 WAVファイル選択エリア
403 保存ファイルパス指定エリア
404 記録オブジェクト選択ボタン
405 選択オブジェクト情報エリア
406a 選択オブジェクト音量調整フェーダー
406b 選択オブジェクトLFE音量調整フェーダー
407 プロジェクト時間長表示エリア
408 現在時刻表示エリア
409 再生・停止ボタン
410 時刻リセットボタン
411 選択オブジェクトの生存期間表示部
412 現在時刻スライダ
413 音場フィールド
414 音オブジェクト
431 音オブジェクト
432 音オブジェクト
450 アイコン(絵柄)
451 ピークレベルメーター表示部
452 音量表示部
453 LFE音量表示部

Claims (21)

  1. オーディオデータ処理装置であり、
    音声データに対応して設定される音オブジェクト表示データをディスプレイに表示するGUIと、
    前記音オブジェクト表示データに対応する操作情報を前記GUIから入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成するGUI・プロジェクトデータ解釈モジュールと、
    前記音オブジェクトに対応する時刻対応操作履歴情報に基づいて、前記音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行するオーディオ信号処理部と、
    を有することを特徴とするオーディオデータ処理装置。
  2. 前記GUIは、
    ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、
    前記GUI・プロジェクトデータ解釈モジュールは、
    音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成し、
    前記オーディオ信号処理部は、
    前記時刻位置対応イベントテーブルの設定された音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  3. 前記GUIは、
    ディスプレイに表示した音場フィールド内に配置された複数の音オブジェクト表示データの音場フィールド内の位置情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、
    前記GUI・プロジェクトデータ解釈モジュールは、
    前記複数の音オブジェクト表示データの音場フィールド内の位置情報を、各音オブジェクト毎に時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成し、
    前記オーディオ信号処理部は、
    前記時刻位置対応イベントテーブルの設定された複数の音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、各音オブジェクトに対応する前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行し、複数の音オブジェクトに対応する複数の音声データのミックスされたサラウンド音声出力を実行する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  4. 前記GUIは、
    前記音オブジェクト表示データの音量調整情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、
    前記GUI・プロジェクトデータ解釈モジュールは、
    音オブジェクト表示データの音量調整情報を時刻対応のデータとして設定した時刻対応音量調整履歴情報を時刻音量対応イベントテーブルとして生成し、
    前記オーディオ信号処理部は、
    前記時刻音量対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力値調整を、前記時刻音量対応イベントテーブルに設定された音量情報に対応した音量調整処理として実行する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  5. 前記GUIは、
    前記音オブジェクト表示データの発生および消滅情報を前記GUI・プロジェクトデータ解釈モジュールに出力し、
    前記GUI・プロジェクトデータ解釈モジュールは、
    音オブジェクト表示データの発生および消滅情報を時刻対応のデータとして設定した時刻対応履歴情報を時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルとして生成し、
    前記オーディオ信号処理部は、
    前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力開始および出力停止を、前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルに設定された発生および消滅情報に対応した処理として実行する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  6. 前記オーディオ信号処理部は、
    複数の入力音声データの各々に対応してトラック割り当てを実行し、トラック毎の出力調整処理を並列に実行する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  7. 前記GUIは、
    前記音オブジェクト表示データを、音声データに対応付けた絵柄データ部と、音量情報表示部とを含む表示データとしてディスプレイに表示する処理を実行する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  8. 前記GUI・プロジェクトデータ解釈モジュールは、
    1以上の前記音オブジェクト表示データに対応する操作情報を前記GUIから入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成し、生成した音オブジェクトに対応する時刻対応操作履歴情報と、音オブジェクトに対応する音声データファイルの参照情報とを含むプロジェクトデータファイルを生成する構成であることを特徴とする請求項1に記載のオーディオデータ処理装置。
  9. 前記オーディオ信号処理部は、
    前記プロジェクトデータファイルに基づく音声データ再生処理において、該プロジェクトデータファイルに設定された音声データファイルの参照情報に基づいて音声データファイルを取得し、該プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って、音声データの出力調整を行って再生処理を実行する構成であることを特徴とする請求項8に記載のオーディオデータ処理装置。
  10. 前記GUI・プロジェクトデータ解釈モジュールは、
    前記プロジェクトデータファイルに基づく音声データ再生処理において、前記音オブジェクト表示データを、ディスプレイに表示した音場フィールド内において、前記プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って移動表示させる制御を行なう構成であることを特徴とする請求項8に記載のオーディオデータ処理装置。
  11. オーディオデータ処理方法であり、
    音声データに対応して設定される音オブジェクト表示データをディスプレイに表示するユーザインタフェース表示ステップと、
    前記音オブジェクト表示データに対応するユーザ操作情報を入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成する操作履歴情報生成ステップと、
    前記音オブジェクトに対応する時刻対応操作履歴情報に基づいて、前記音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行するオーディオ信号処理ステップと、
    を有することを特徴とするオーディオデータ処理方法。
  12. 前記オーディオデータ処理方法は、さらに、
    ディスプレイに表示した音場フィールド内に配置された音オブジェクト表示データの音場フィールド内の位置情報を時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成するステップを有し、
    前記オーディオ信号処理ステップは、
    前記時刻位置対応イベントテーブルの設定された音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行することを特徴とする請求項11に記載のオーディオデータ処理方法。
  13. 前記オーディオデータ処理方法は、さらに、
    ディスプレイに表示した音場フィールド内に配置された複数の音オブジェクト表示データの音場フィールド内の位置情報に基づいて、各音オブジェクト毎に時刻対応のデータとして設定した時刻対応操作履歴情報を時刻位置対応イベントテーブルとして生成するステップを有し、
    前記オーディオ信号処理ステップは、
    前記時刻位置対応イベントテーブルの設定された複数の音オブジェクトに対応する音声データのサラウンド空間における出力値調整を、各音オブジェクトに対応する前記時刻位置対応イベントテーブルに設定された位置情報に対応したサラウンド音声データ処理として実行し、複数の音オブジェクトに対応する複数の音声データのミックスされたサラウンド音声出力を実行することを特徴とする請求項11に記載のオーディオデータ処理方法。
  14. 前記オーディオデータ処理方法は、さらに、
    前記音オブジェクト表示データの音量調整情報を時刻対応のデータとして設定した時刻対応音量調整履歴情報を時刻音量対応イベントテーブルとして生成するステップを有し、
    前記オーディオ信号処理ステップは、
    前記時刻音量対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力値調整を、前記時刻音量対応イベントテーブルに設定された音量情報に対応した音量調整処理として実行することを特徴とする請求項11に記載のオーディオデータ処理方法。
  15. 前記オーディオデータ処理方法は、さらに、
    前記音オブジェクト表示データの発生および消滅情報を時刻対応のデータとして設定した時刻対応履歴情報を時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルとして生成するステップを有し、
    前記オーディオ信号処理ステップは、
    前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルの設定された音オブジェクトに対応する音声データの出力開始および出力停止を、前記時刻発生対応イベントテーブルおよび時刻消滅対応イベントテーブルに設定された発生および消滅情報に対応した処理として実行することを特徴とする請求項11に記載のオーディオデータ処理方法。
  16. 前記オーディオ信号処理ステップは、
    複数の入力音声データの各々に対応してトラック割り当てを実行し、トラック毎の出力調整処理を並列に実行することを特徴とする請求項11に記載のオーディオデータ処理方法。
  17. 前記ユーザインタフェース表示ステップは、
    前記音オブジェクト表示データを、音声データに対応付けた絵柄データ部と、音量情報表示部とを含む表示データとしてディスプレイに表示する処理を実行することを特徴とする請求項11に記載のオーディオデータ処理方法。
  18. 前記オーディオデータ処理方法は、さらに、
    1以上の前記音オブジェクト表示データに対応する操作情報に基づいて音オブジェクトに対応する時刻対応操作履歴情報を生成し、生成した音オブジェクトに対応する時刻対応操作履歴情報と、音オブジェクトに対応する音声データファイルの参照情報とを含むプロジェクトデータファイルを生成するステップを、
    有することを特徴とする請求項11に記載のオーディオデータ処理方法。
  19. 前記オーディオ信号処理ステップは、
    前記プロジェクトデータファイルに基づく音声データ再生処理において、該プロジェクトデータファイルに設定された音声データファイルの参照情報に基づいて音声データファイルを取得し、該プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って、音声データの出力調整を行って再生処理を実行することを特徴とする請求項18に記載のオーディオデータ処理方法。
  20. 前記オーディオデータ処理方法は、さらに、
    前記プロジェクトデータファイルに基づく音声データ再生処理において、前記音オブジェクト表示データを、ディスプレイに表示した音場フィールド内において、前記プロジェクトデータファイルに設定された時刻対応操作履歴情報に従って移動表示させる制御を行なうステップを、
    有することを特徴とする請求項18に記載のオーディオデータ処理方法。
  21. オーディオデータ処理を実行するコンピュータ・プログラムであり、
    音声データに対応して設定される音オブジェクト表示データをディスプレイに表示するユーザインタフェース表示ステップと、
    前記音オブジェクト表示データに対応するユーザ操作情報を入力して、音オブジェクトに対応する時刻対応操作履歴情報を生成する操作履歴情報生成ステップと、
    前記音オブジェクトに対応する時刻対応操作履歴情報に基づいて、前記音オブジェクトに対応する音声データの時刻対応の出力調整処理を実行するオーディオ信号処理ステップと、
    を有することを特徴とするコンピュータ・プログラム。
JP2003383359A 2003-11-13 2003-11-13 オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム Pending JP2005150993A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003383359A JP2005150993A (ja) 2003-11-13 2003-11-13 オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003383359A JP2005150993A (ja) 2003-11-13 2003-11-13 オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
JP2005150993A true JP2005150993A (ja) 2005-06-09

Family

ID=34692102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003383359A Pending JP2005150993A (ja) 2003-11-13 2003-11-13 オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP2005150993A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8124864B2 (en) 2009-12-04 2012-02-28 Roland Corporation User interface apparatus for displaying vocal or instrumental unit signals in an input musical tone signal
JP2012168552A (ja) * 2007-02-16 2012-09-06 Electronics & Telecommunications Research Inst オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
WO2018055860A1 (ja) * 2016-09-20 2018-03-29 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
CN112771495A (zh) * 2018-11-16 2021-05-07 深圳市欢太科技有限公司 一种音频模式调节的方法、装置及电子设备
JP2022083444A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを送信するコンピュータシステムおよびその方法
JP2022083443A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
JP2022083445A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168552A (ja) * 2007-02-16 2012-09-06 Electronics & Telecommunications Research Inst オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
US9135953B2 (en) 2007-02-16 2015-09-15 Electronics And Telecommunications Research Institute Method for creating, editing, and reproducing multi-object audio contents files for object-based audio service, and method for creating audio presets
US8124864B2 (en) 2009-12-04 2012-02-28 Roland Corporation User interface apparatus for displaying vocal or instrumental unit signals in an input musical tone signal
US8129606B2 (en) 2009-12-04 2012-03-06 Roland Corporation Musical tone signal-processing apparatus
US8207439B2 (en) 2009-12-04 2012-06-26 Roland Corporation Musical tone signal-processing apparatus
JPWO2018055860A1 (ja) * 2016-09-20 2019-07-04 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
WO2018055860A1 (ja) * 2016-09-20 2018-03-29 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
JP7003924B2 (ja) 2016-09-20 2022-01-21 ソニーグループ株式会社 情報処理装置と情報処理方法およびプログラム
CN112771495A (zh) * 2018-11-16 2021-05-07 深圳市欢太科技有限公司 一种音频模式调节的方法、装置及电子设备
JP2022083444A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを送信するコンピュータシステムおよびその方法
JP2022083443A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
JP2022083445A (ja) * 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法
US11930348B2 (en) 2020-11-24 2024-03-12 Naver Corporation Computer system for realizing customized being-there in association with audio and method thereof
US11930349B2 (en) 2020-11-24 2024-03-12 Naver Corporation Computer system for producing audio content for realizing customized being-there and method thereof
US11942096B2 (en) 2020-11-24 2024-03-26 Naver Corporation Computer system for transmitting audio content to realize customized being-there and method thereof

Similar Documents

Publication Publication Date Title
US11962993B2 (en) Grouping and transport of audio objects
US5151998A (en) sound editing system using control line for altering specified characteristic of adjacent segment of the stored waveform
JP4554716B2 (ja) オーディオ/ビデオデータの編集システム及び編集方法
US9972297B2 (en) Sound processing device, sound data selecting method and sound data selecting program
US9952739B2 (en) Modular audio control surface
JPH11341350A (ja) マルチメディア情報編集および再生装置、マルチメディア情報再生プログラムを記録した記録媒体ならびにシーケンス情報を記録した記録媒体
US9818448B1 (en) Media editing with linked time-based metadata
US20240073639A1 (en) Information processing apparatus and method, and program
JP2002100159A (ja) データ信号処理装置および方法、並びに記録媒体
JP2006268367A (ja) 複数のウィンドウを管理する方法
JP2005150993A (ja) オーディオデータ処理装置、およびオーディオデータ処理方法、並びにコンピュータ・プログラム
WO2008106216A1 (en) Graphical user interface, process, program, storage medium and computer system for arranging music
JP2007142899A (ja) ドットマトリクス表示器を有するディジタルミキサ
JP2003037806A (ja) ノンリニア編集方法、ノンリニア編集装置、プログラム及びそのプログラムを格納した記録媒体
JP2956125B2 (ja) 音源情報制御装置
US8761914B2 (en) Audio apparatus
KR101038102B1 (ko) 2차원 어레이 스피커를 위한 오디오 정보 생성 방법 및 이를 위한 기록매체
JP2018194683A (ja) オーディオ装置及びプログラム
US20150373472A1 (en) Data processing device and data processing program
KR101038101B1 (ko) 2차원 어레이 스피커를 위한 오디오 정보 생성 방법 및 이를 위한 기록매체
JP2009244344A (ja) ポート割り当て装置
WO2024101162A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP4484067B2 (ja) 音場制御装置及びプログラム
US20140281970A1 (en) Methods and apparatus for modifying audio information
WO2024004651A1 (ja) 音声再生装置、音声再生方法及び音声再生プログラム