JP2022145515A - スクリーンユニット - Google Patents
スクリーンユニット Download PDFInfo
- Publication number
- JP2022145515A JP2022145515A JP2022015666A JP2022015666A JP2022145515A JP 2022145515 A JP2022145515 A JP 2022145515A JP 2022015666 A JP2022015666 A JP 2022015666A JP 2022015666 A JP2022015666 A JP 2022015666A JP 2022145515 A JP2022145515 A JP 2022145515A
- Authority
- JP
- Japan
- Prior art keywords
- data
- channel
- digital
- bit
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006870 function Effects 0.000 claims description 5
- 230000005236 sound signal Effects 0.000 abstract description 44
- 238000003672 processing method Methods 0.000 abstract description 7
- 238000005070 sampling Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 238000000034 method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 3
- 230000001070 adhesive effect Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
- G03B21/56—Projection screens
- G03B21/58—Projection screens collapsible, e.g. foldable; of variable area
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Overhead Projectors And Projection Screens (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
【課題】様々なプロトコルを扱う様々な機器を集約して扱うことができるデータ処理方法を提供する。【解決手段】データ処理方法は、複数チャンネルのオーディオデータを格納したマルチトラックオーディオデータを生成するデータ処理方法であって、第1のチャンネルに、デジタルオーディオ信号のデータ列を格納し、第2のチャンネルに、前記デジタルオーディオ信号と関連し、オーディオデータとは異なるデジタル信号を、デジタルオーディオ信号のデータ列として格納する。【選択図】図4
Description
この発明の一実施形態は、複数チャンネルのオーディオデータを格納したマルチトラックオーディオデータを処理するデータ処理方法に関する。
特許文献1には、複数チャンネルのオーディオデータを受信し、チャンネル間の相関に基づいて残響のエフェクトの強さ、およびLCD等の表示部の照明の明るさまたは色を制御することが記載されている。
特許文献1の手法は、チャンネル間の相関によって残響のエフェクトの強さ、およびLCD等の表示部の照明の明るさまたは色を制御するだけである。
ライブ演奏等のイベントでは、音響機器、映像機器、および照明機器等の様々な機器を扱う。これらの機器でそれぞれ扱う信号は、異なるプロトコルを用いる。したがって、それぞれのプロトコルのデータを扱う複数の機器が必要になる。
そこで、本発明の一実施形態の目的は、様々なプロトコルを扱う様々な機器を集約して扱うことができるデータ処理方法を提供することを目的とする。
本発明の一実施形態に係るデータ処理方法は、複数チャンネルのオーディオデータを格納したマルチトラックオーディオデータを生成するデータ処理方法であって、第1のチャンネルに、デジタルオーディオ信号のデータ列を格納し、第2のチャンネルに、前記デジタルオーディオ信号と関連し、オーディオデータとは異なるデジタル信号を、デジタルオーディオ信号のデータ列として格納する。
本発明の一実施形態によれば、様々なプロトコルを扱う様々な機器を集約して扱うことができる。
図1は、データ処理システム1の構成を示すブロック図である。データ処理システム1は、データ処理装置10、ミキサ11、照明コントローラ12、映像機器13、GPI制御機器14、MIDI機器15、およびレーザーコントローラ16を備えている。
各機器は、例えば、USBケーブル、HDMI(登録商標)、イーサネット(登録商標)、またはMIDI等の通信規格で接続されている。各機器は、例えばライブ演奏等のイベントを行う会場に設置される。
ミキサ11は、マイク、楽器、またはアンプ等の複数の音響機器を接続する。ミキサ11は、複数の音響機器からデジタルまたはアナログのオーディオ信号を受信する。ミキサ11は、アナログのオーディオ信号を受信した場合、当該アナログオーディオ信号を例えばサンプリング周波数48kHz、24ビットのデジタルオーディオ信号に変換する。ミキサ11は、複数のデジタルオーディオ信号にミキシング、ゲイン調整、イコライジング、またはコンプレッシング等の信号処理を施す。ミキサ11は、信号処理後のデジタルオーディオ信号をデータ処理装置10に送信する。
照明コントローラ12は、ライブ演奏等のイベントの演出に利用される各種の照明をコントロールする。照明コントローラ12は、照明をコントロールするための所定の形式(例えばDMX512)の制御信号をデータ処理装置10に送信する。また、レーザーコントローラ16も、ライブ演奏等のイベントの演出に利用される各種のレーザーをコントロールするための所定の形式(例えばDMX512)の制御信号をデータ処理装置10に送信する。
映像機器13は、カメラを含み、イベントの演者等を撮影する。映像機器13は、カメラで撮影した映像データを所定の形式のデータ(例えばMPEG4)としてデータ処理装置10に送信する。GPI制御機器14は、センサ、プロセッサあるいはモータ等の機器の制御に用いられるGPI(General Purpose Interface)制御信号をデータ処理装置10に送信する。MIDI機器15は、例えば電子楽器を含み、MIDI(Musical Instrument Digital Interface)信号をデータ処理装置10に送信する。
図2は、データ処理装置10の主要構成を示すブロック図である。データ処理装置10は、一般的なパーソナルコンピュータ等からなり、表示器101、ユーザインタフェース(I/F)102、フラッシュメモリ103、CPU104、RAM105、および通信インタフェース(I/F)106を備えている。
表示器101は、例えばLCD(Liquid Crystal Display)またはOLED(Organic Light-Emitting Diode)等からなり、種々の情報を表示する。ユーザI/F102は、スイッチ、キーボード、マウス、トラックボール、またはタッチパネル等からなり、ユーザの操作を受け付ける。ユーザI/F102がタッチパネルである場合、該ユーザI/F102は、表示器101とともに、GUI(Graphical User Interface以下略)を構成する。
通信I/F106は、USBケーブル、HDMI(登録商標)、イーサネット(登録商標)、またはMIDI等の通信線を介して、ミキサ11、照明コントローラ12、映像機器13、GPI制御機器14、MIDI機器15、およびレーザーコントローラ16に接続される。通信I/F106は、ミキサ11からデジタルオーディオ信号を受信する。また、通信I/F106は、照明コントローラ12、映像機器13、GPI制御機器14、MIDI機器15、およびレーザーコントローラ16の機器から各種のデジタル信号を受信する。なお、ミキサ11は、デジタルオーディオ信号をDante(登録商標)等のプロトコルを用いて、イーサネット(登録商標)を介してデータ処理装置10に送信してもよい。
CPU104は、本発明の処理部に対応する。CPU104は、記憶媒体であるフラッシュメモリ103に記憶されているプログラムをRAM105に読み出して、所定の機能を実現する。例えば、CPU104は、表示器101にユーザの操作を受け付けるための画像を表示し、ユーザI/F102を介して、当該画像に対する選択操作等を受け付けることで、GUIを実現する。CPU104は、通信I/F106を介して他の機器からデジタル信号を受信する。CPU104は、受信したデジタル信号に基づいてマルチトラックオーディオデータを生成する。また、CPU104は、生成したマルチトラックオーディオデータをフラッシュメモリ103に記憶する。あるいは、CPU104は、生成したマルチトラックオーディオデータを配信する。
なお、CPU104が読み出すプログラムは、自装置内のフラッシュメモリ103に記憶されている必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU104は、該サーバから都度プログラムをRAM105に読み出して実行すればよい。
マルチトラックオーディオデータは、例えばDante(登録商標)のプロトコルに準拠する。例えば、Dante(登録商標)は、100base-TXにおいて64チャンネルの音信号を伝送できる。各チャンネルは、例えばサンプリング周波数48kHz、24ビットのデジタルオーディオ信号(WAV形式等の非圧縮のデジタルオーディオデータ)を格納する。ただし、本発明においてマルチトラックオーディオデータのチャンネル数、サンプリング周波数、およびビット数はこの例に限らない。また、マルチトラックオーディオデータは、Dante(登録商標)のプロトコルに準拠する必要もない。
図3は、本発明の最小構成を示す機能的ブロック図である。図3に示す処理部154は、CPU104の実行するソフトウェアにより実現される。図4は、処理部154の動作を示すフローチャートである。処理部154は、ミキサ11、照明コントローラ12、映像機器13、GPI制御機器14、MIDI機器15、およびレーザーコントローラ16等の各機器からデジタル信号を受け付ける(S11)。処理部154は、ミキサ11からデジタルオーディオ信号を受信し、他の機器(例えば照明コントローラ12)から制御信号を受信する。
そして、処理部154は、受け付けた各機器からのデジタル信号に基づいてマルチトラックオーディオデータを生成する(S12)。具体的には、処理部154は、マルチトラックオーディオデータの第1のチャンネルにミキサ11から受け付けたデジタルオーディオ信号のデータ列を格納する。処理部154は、ミキサ11からDante(登録商標)のプロトコルに準拠したオーディオデータを受信した場合には、当該受信したオーディオデータの各チャンネルのデジタルオーディオ信号のデータ列をそのままマルチトラックオーディオデータの同じチャンネルに格納する。
また、処理部154は、マルチトラックオーディオデータの第2のチャンネルに、ミキサ11から受け付けたデジタルオーディオ信号と関連し、オーディオデータとは異なるデジタル信号を、デジタルオーディオ信号のデータ列として格納する。オーディオデータとは異なるデジタル信号は、照明コントローラ12、映像機器13、GPI制御機器14、MIDI機器15、およびレーザーコントローラ16の機器から受け付けたデジタル信号に対応する。処理部154は、これらの機器の少なくとも1つからオーディオデータとは異なるデジタル信号を受信し、受信したデータを第2のチャンネルのデジタルオーディオ信号のデータ列として格納する。図3は、一例として、処理部154が照明コントローラ12から照明の制御信号を含むDMX512のデジタル信号を受信する例を示す。
図5は、オーディオデータとは異なるデジタル信号をデジタルオーディオ信号のデータ列として格納する場合のフォーマットの一例を示す図である。上述の様に、マルチトラックオーディオデータの各チャンネルのデジタルオーディオ信号は、一例としてサンプリング周波数48kHz、24ビットのデジタルオーディオ信号である。図5は、マルチトラックオーディオデータにおける、あるチャンネルのあるサンプルのデータ列を示す。マルチトラックオーディオデータは、受信したデジタルオーディオ信号をそのままデジタルオーディオ信号のデータ列として格納した第1のチャンネルと、図5に示す様なデータ列からなる第2のチャンネルとを有する。第1のチャンネルおよび第2のチャンネルの数は、それぞれいくつであってもよい。一例として、処理部154は、第1のチャンネルとしてチャンネル1~32にミキサ11から受信したオーディオデータのデジタルオーディオ信号を格納し、第2のチャンネルとしてチャンネル33~64にミキサ11以外から受信したオーディオデータとは異なるデジタル信号を格納する。
図5に示す様に、第2チャンネルの各サンプルは、8ビットのヘッダ情報と、データ本体と、からなる。データ本体は、8ビットまたは16ビットのデータ列を含む。図3の例では、8ビットまたは16ビットのデータ列がDMX512のデジタル信号に対応する。
8ビットのヘッダ情報は、スタートビット、データサイズフラグ、およびタイプのデータを含む。スタートビットは、そのサンプルのデータが先頭データであるか否かを示す1ビットのデータである。スタートビットが1である場合、先頭データであることを示す。つまり、スタートビットが1を示すサンプルから次にスタートビットが1を示すまでのサンプルが、1つのDMX512の制御信号のデータに対応する。
データサイズフラグは、データサイズを示す1ビットのデータである。例えば、データサイズフラグが1である場合、1つのサンプル内に8ビットのデータが含まれていることを示し、データサイズフラグが0である場合、1つのサンプル内に16ビットのデータが含まれていることを示す。例えば、1つのDMX512のデータが24ビットのデータを含む場合、1つ目のサンプルのスタートビットは1、データサイズフラグは0になる。2つめのサンプルのスタートビットは0、データサイズフラグは1になる。1つのDMX512のデータが8ビットのデータである場合、各サンプルのスタートビットは0になる。
次に、タイプは、データの種類を示す識別情報であり、6ビットのデータである。この例ではタイプは、6ビットであるため、64個のデータ種別を示す。無論、ビット数は6ビットに限らない。タイプのビット数は、必要とする種別の数に応じたビット数に設定できる。
タイプは、例えば、「01」のデータであればDMX512のデータを示す。タイプは、例えば、「02」のデータであればMIDIのデータを示す。タイプは、例えば、「03」のデータであればGPIのデータを示す。また、タイプは、例えば、「00」のデータであればIdleデータ(空データ)を示す。ただし、全てのビットデータが1になる「3F」は、使用しないことが好ましい。処理部154が「3F」を使用しない場合、マルチトラックオーディオデータを再生する装置は、全てのビットデータが1の場合に何らかの障害が発生したと判断することができる。処理部154は、全てのビットデータが1の場合、マルチトラックオーディオデータを再生せず、制御信号を出力しない。これにより、処理部154は、異常な信号が出力された場合に、照明等の機器にダメージ等を与えることがない。 なお、処理部154は、タイプを「00」にして全てのビットデータを0、つまりIdleデータ(空データ)とする場合、スタートビットを1にして、全てのビットが0にならない様にすることが好ましい。これにより、マルチトラックオーディオデータを処理する装置は、全てのビットデータが0の場合に何らかの障害が発生したと判断することができる。処理部154は、全てのビットデータが0の場合、マルチトラックオーディオデータを再生せず、制御信号を出力しない。この場合も、処理部154は、異常な信号が出力された場合に、照明等の機器にダメージ等を与えることがない。
また、処理部154は、図5に示したデータ形式に一致しないデータが含まれている場合に、マルチトラックオーディオデータを再生せず、制御信号を出力しないようにしてもよい。例えば、データサイズフラグが1である場合、下位8ビットは全て0のビットデータビットとなる(または全て1のビットデータとなる)。したがって、処理部154は、データサイズフラグが1であるにも関わらず、下位8ビットに0および1のビットデータが混在している場合、マルチトラックオーディオデータを再生せず、制御信号を出力しない。この場合も、処理部154は、異常な信号が出力された場合に、照明等の機器にダメージ等を与えることがない。
なお、処理部154は、同じチャンネルに同じタイプのデータのみ含む様にしてもよいが、同じチャンネルに異なるタイプのデータを含んでもよい。つまり、処理部154は、第2のチャンネルのうち同じチャンネルには、1つの識別情報のみ含むようにしてもよいし、1つのチャンネルに複数の識別情報を含むようにしてもよい。
また、処理部154は、同じ種別のデータを予め決められた複数のチャンネルにまたがって格納してもよい。例えば、処理部154は、チャンネル33,34,35の3つのチャンネルにそれぞれ順番にデータを格納する。この場合、チャンネル33,34,35は、全て同じタイプのビットデータを含む。処理部154は、仮にチャンネル33,34,35のデータサイズフラグを全て0とすれば、1サンプルで3倍(48ビット)のデータを格納することができる。あるいは、処理部154は、例えば4つのチャンネルに同じ種別のデータを格納すれば1サンプルで4倍(64ビット)のデータを格納することができる。この様に、処理部154は、複数チャンネルにまたがってデータを格納することで、単位時間あたりのデータ量の多い種別のデータ(例えば映像データ)を1サンプル内に格納することもできる。
さらに、処理部154は、複数チャンネルにまたがってデータを格納する場合、代表して1つのチャンネル(例えばチャンネル33)にのみヘッダ情報を付加し、他のチャンネルはヘッダ情報を負荷しなくてもよい。この場合、処理部154は、代表のチャンネルに16ビットのデータを格納し、他のチャンネルは最大で24ビットのデータを格納することができる。すなわち、処理部154は、3つのチャンネルで、最大で64ビットのデータを格納することができる。なお、この場合、代表のチャンネルのデータサイズフラグは、1ビットではなく、例えば3ビット(8種類のデータサイズを示すビットデータ)であってもよい。
また、データ処理装置10は、ミキサ11等の音響機器から信号処理の内容を示す信号処理パラメータやミキサ11の基本設定に係るデータを受信し、第2のチャンネルにデジタルオーディオ信号のデータ列として格納してもよい。
なお、上述した様に、本発明においてマルチトラックオーディオデータのサンプリング周波数は48kHzに限らないし、ビット数は24ビットに限らない。例えば、マルチトラックオーディオデータのサンプリング周波数が96kHzである場合、処理部154は、2サンプルに1回の無効データとして、48kHzのサンプリングデータを生成してもよい。また、ビット数が32ビットである場合、処理部154は、下位の8ビットを使用せず、上位の24ビットを使用してもよい。
例えば、DMX512のビットレートは、250kbpsである。一方で48kHz、24ビットのデジタルオーディオデータのビットレートは、2304kbpsである。また、MIDIのビットレートは31.25kbpsである。つまり、デジタルオーディオデータのビットレートは、DMX512のビットレートの9.216倍であり、MIDIのビットレートの73.728倍である。したがって、データ処理装置10は、これらデジタルオーディオデータのビットレートよりも低いビットレートのデジタル信号を格納する場合、複数サンプルのうち少なくとも1つのサンプルを無効データとし、無効データ以外のサンプルにデータを格納する。例えば、データ処理装置10は、DMX512のデータを格納する場合、9サンプルのうち8サンプルを無効データとし、残りの1つのサンプルにDMX512のデータを格納する。この場合、再生側では第2チャンネルのデジタル信号が1サンプル程度ずれる可能性がある。しかし、サンプリング周波数48kHzの時間ずれは0.0208msecに過ぎず、仮に数サンプルずれた場合でも時間ずれは1msec未満に収まる。照明等の機器は、数msec程度の間隔で制御を行うため、1msec未満の時間ずれが生じたとしても制御のタイミングにずれが生じるおそれはない。
あるいは、上述したように、データ処理装置10は、同じチャンネルに異なるタイプのデータを含んでもよい。データ処理装置10は、1つのチャンネル内に複数種類のデータのデジタル信号を格納してもよい。また、同じ種類のデータであっても複数チャンネルを有するデータである場合、データ処理装置10は、1つのチャンネル内に複数チャンネルのデータのデジタル信号を格納してもよい。例えば、DMX512は、複数の照明機器を制御するために、複数チャンネルの制御信号を含む。したがって、データ処理装置10は、1つのチャンネル内に複数チャンネルのDMX512のデジタル信号を格納してもよい。 なお、DMX512が複数チャンネルの制御信号を含む場合、第2のチャンネルには、複数チャンネルのチャンネル番号を示すチャンネル情報が含まれていてもよい。1つのDMX512のデータが8ビットのデータであり、1サンプルのデータサイズが16ビットである場合、8ビットのデータが空きデータとなる。データ処理装置10は、空きデータの8ビットのデータにチャンネル情報を格納してもよい。あるいは、図5の例では、データの種類を示す識別情報は、6ビットのデータであったが、ヘッダ情報は、識別情報を4ビットのデータとして、2ビットをチャンネル情報としてもよい。
上述の様に、照明等の機器は、数msec程度の間隔で制御を行うため、1msec未満の時間ずれが生じたとしても制御のタイミングにずれが生じるおそれはない。ただし、DMX512は、最大512チャンネルの制御信号をシリアルに送信する。そのため、第2チャンネルのデジタル信号が1サンプルずれると、対象機器とは異なる機器に異なるチャンネルの制御信号が送信される可能性がある。しかし、上記の様に第2のチャンネルに、チャンネル情報が含まれていている場合、マルチトラックオーディオデータを再生するデータ処理装置10は、チャンネル情報に基づいて適切な機器に適切な制御信号を送信することができる。
以上の様にして、ライブ演奏を記録したマルチトラックデータが生成される。処理部154は、以上の様にして生成したマルチトラックオーディオデータを出力する(S13)。マルチトラックオーディオデータは、自装置のフラッシュメモリ103に保存してもよいし、通信I/F106を介して他装置に配信してもよい。
上述の様に、データ処理システム1は、例えばライブ演奏等のイベントを行う会場に設置される。データ処理装置10は、ライブ演奏時の音響機器から受信するデジタルオーディオ信号を第1のチャンネルに格納し、照明等の他の機器の制御信号を受信して第2のチャンネルに格納する。デジタルオーディオ信号および制御信号は、同じライブ演奏等のイベントの進行に合わせて生成されている。制御信号は、デジタルオーディオ信号のサンプリング周波数(例えば48kHz)と同じ周波数で格納されている。したがって、データ処理装置10は、第1のチャンネルに所定のサンプリング周波数(例えば48kHz)のデジタルオーディオ信号を格納し、第2のチャンネルに第1チャンネルと同じ周波数(48kHz)の制御信号を格納したマルチトラックオーディオデータを生成することで、タイムコードを使用することなく複数の機器で生成される複数のデジタル信号を同期して記録することができる。これにより、データ処理システム1は、複数の機器でそれぞれ用いられるプロトコル毎に専用の記録機器を用意して各データを個別に記録する必要がない。また、データ処理システム1は、複数の機器をタイムコードで同期させるためのタイムコード生成機、ケーブル、およびインタフェース等も不要である。また、データ処理システム1は、機器毎にタイムコードのフレームレートを合わせる等の設定も不要である。
なお、データ処理装置10は、映像データをマルチトラックオーディオデータに格納せず、別のデータとして記録してもよい。この場合、データ処理システム1は、タイムコード生成機器(不図示)を備えていてもよい。データ処理装置10は、さらにタイムコード生成機器からタイムコードを受信してもよい。この場合も、データ処理装置10は、受信したタイムコードを第2のチャンネルにデジタルオーディオ信号のデータ列として格納すればよい。この場合、データ処理システム1は、映像データに係るデジタル信号のフレームレートと、他のデジタル信号の少なくとも1つ(例えばミキサ11の出力するデジタルオーディオ信号)のフレームレートを合わせるだけで、映像データに係るデジタル信号および他の全てのデジタル信号を同期することができる。
本実施形態に示した第2のチャンネルは、オーディオデータとは異なるデジタル信号をデジタルオーディオ信号のデータ列として格納しているため、所定のマルチトラックオーディオデータのプロトコル(例えばDante(登録商標)のプロトコル)に準ずる。したがって、第2のチャンネルは、オーディオデータとして再生もできるし、DAW(Digital Audio Workstation)等のオーディオデータの編集アプリケーションプログラムを用いてコピー、カット、ペースト、あるいはタイミング調整等の編集を行うこともできる。例えば、ユーザは、DAWを用いて、ある時間帯に含まれている第1のチャンネルおよび第2のオーディオデータを異なる時間帯にカットアンドペーストする作業を行うと、オーディオデータだけでなく、DMX512データ等も同期を崩さずに異なる時間帯に移動させることもできる。
第2のチャンネルは、照明等の機器の位置情報を格納してもよい。位置情報は、例えば、ライブ会場のある位置を原点とした3軸直交座標で表される。データ処理装置10は、位置情報を取り出して、当該位置情報に基づいて、ライブ会場における照明等の機器の位置を表示器に表示してもよい。例えば、データ処理装置10は、ライブ会場の形状を示す3次元CADデータを取得し、当該3次元CADデータに基づくライブ会場の立体画像を表示する。そして、データ処理装置10は、当該立体画像に各機器を模した画像を表示することで、ライブ会場内の各機器の位置を表示する。これにより、再生会場の運営者は、表示器に表示された照明等の機器の位置を参考にして、ライブ会場と同じあるいは近い位置に照明等の機器をセッティングすることができる。 次に、図6は、ライブ演奏の再生環境下におけるデータ処理システム1Aの構成を示すブロック図である。データ処理システム1Aは、例えばライブ演奏等のイベントを遠隔地で再現するための会場に設置される。
データ処理システム1Aは、図1に示したデータ処理システム1と同じハードウェア構成を備える。そのため、全ての構成は同一の符号を付し、説明を省略する。ただし、映像機器13は、データ処理システム1ではカメラを備えていたが、データ処理システム1Aでは、カメラに代えて、映像データを再生する映像再生機器と、投影機等の映像表示機器を有する。
図7は、データ処理装置10の処理部154の再生時の動作を示すフローチャートである。まず、処理部154は、マルチトラックオーディオデータを受け付ける(S21)。マルチトラックオーディオデータは、ライブ演奏を行っている会場のデータ処理装置10から受信する、サーバから受信する。あるいは、データ処理装置10は、フラッシュメモリ103に記憶されている過去のライブ演奏に係るマルチトラックオーディオデータを読み出す。あるいは、データ処理装置10は、サーバ等の他装置に記憶されている過去のライブ演奏に係るマルチトラックオーディオデータを読み出す。
処理部154は、受け付けたマルチトラックオーディオデータをデコードしてデジタルオーディオ信号および他のデジタル信号を再生し(S22)、出力する(S23)。例えば、処理部154は、第1のチャンネルであるチャンネル1~32のデジタルオーディオ信号を取り出し、ミキサ11に出力する。ミキサ11は、受信したデジタルオーディオ信号をスピーカ等の音響機器に出力し、歌唱音や演奏音を再生する。
また、処理部154は、第2チャンネルであるチャンネル33~64の各サンプルについて、8ビットのヘッダ情報を読み出して、8ビットまたは16ビットのデータ本体を取り出す。第2チャンネルは、ミキサ11の信号処理パラメータや基本設定に係るデータを含んでいてもよい。処理部は、これらの信号処理パラメータや基本設定に係るデータを取り出し、ミキサ11に出力してもよい。
ミキサ11は、データ処理装置10から信号処理パラメータや設定データを受信し、当該信号処理パラメータや設定データに基づいて受信したオーディオ信号に各種の信号処理を施す。これにより、ミキサ11は、ライブ演奏と同じ状態で歌唱音や演奏音を再生する。
処理部154は、取り出したDMX512のデジタル信号を照明コントローラ12およびレーザーコントローラ16に出力する。照明コントローラ12およびレーザーコントローラ16は、それぞれ受信したDMX512のデジタル信号に基づいて照明およびレーザーを制御する。これにより、ライブ演奏時の照明やレーザー等の演出が再現される。
同様に、処理部154は、取り出したMIDIのデジタル信号およびGPIのデジタル信号をGPI制御機器14およびMIDI機器15に出力する。GPI制御機器14およびMIDI機器15は、それぞれ受信したデジタル信号に基づいてMIDI機器およびGPI機器を制御する。
また、処理部154は、第2チャンネルに映像データが含まれている場合には、当該映像データを取り出して、映像機器13に出力する。例えば、上述した様に、チャンネル33,34,35の3つのチャンネルに映像データが格納されている場合、処理部154は、チャンネル33,34,35の3つのチャンネルに含まれているデータを順番に取り出して、映像機器13に出力する。映像機器13は、映像再生機器および投影機を備える。映像機器13は、映像再生機器を用いて映像データを再生する。再生会場には、スクリーンが設置されている。映像機器13は、データ処理装置10から受信した映像データに基づいて、スクリーンにライブ映像を表示する。
映像データがマルチトラックオーディオデータとは別に記録され、かつタイムコードで同期される場合、データ処理装置10は、映像データおよびタイムコードを映像機器13に出力する。映像機器13は、タイムコードに基づいて映像データを再生し、スクリーンにライブ映像を表示する。また、映像機器13を除く他の機器は、マルチトラックオーディオデータに含まれるタイムコードに基づいて各機器を制御する。
なお、再生会場は、ライブ演奏等のイベントが行われた会場と同じハードウェア構成を備える必要はない。データ処理装置10は、再生会場に設置されている機器に合わせて、マルチトラックオーディオデータから必要なデータを取り出し、各機器に出力すればよい。
この様に、データ処理装置10は、再生会場において、各サンプルの第1のチャンネルのデジタルオーディオ信号を取り出して出力し、かつ各サンプルの第2のチャンネルの制御信号等のデジタル信号を取り出して出力することで、タイムコードを使用しなくとも複数の機器で複数のデジタル信号を同期して再生することができる。
なお、第2のチャンネルに格納された制御信号等のデジタル信号は、複数のサンプルで1つのデータを構成する場合がある。しかし、複数の機器で複数サンプルの時間ずれが生じたとしても、サンプリング周波数48kHzの時間ずれは1msec未満に収まる。照明等の機器は、数msec程度の間隔で制御を行うため、1msec未満の時間ずれが生じたとしても制御のタイミングにずれが生じるおそれはない。したがって、データ処理システム1Aは、音と映像の同期再生に加えて、照明等の機器も同期して演出を行うため、再生会場の視聴者は、ライブ演奏の会場とは異なる会場に居ながらもライブ演奏等のイベントに参加している様に知覚できる。
本実施形態に示したデータ処理システムは、テーマパーク等の映像、音響、および演出等を組み合わせる必要のあるシステムに適用することができる。あるいは、商業施設は、閉館時にBGMを出力し、照明を消灯する。本実施形態に示したデータ処理システムは、この様な商業施設における照明および音響を連動させるシステムに適用することもできる。
次に、再生会場で用いられるスクリーンの一例について説明する。従来、スクリーンは、主に水平方向に長いバーにスクリーンを吊るすタイプ、あるいは、金属フレームにスクリーンを貼るタイプ等があった。これらのスクリーンは、天井に吊り下げるための構造物が必要であった。また、従来のスクリーンは、投影面積を容易に変更することができず、様々な設備の会場で使用することができない課題があった。イベントの運営者は、大きな会場では面積の大きいスクリーンを用意するが、仮に会場の入口が狭い場合、面積の大きいスクリーンを持ち込むことは容易ではない。
そこで、本実施形態は、様々な設備の会場で設置可能であり、簡単に投影面積を変更するスクリーンを提供することを目的とする。
本実施形態のスクリーンユニットは、平面スクリーンとして機能するパネルと、前記パネルを背面から保持するフレームと、を有し、前記パネルは、複数の個別パネルに分解可能に構成されている。
図8は、スクリーンユニット5の斜視図である。スクリーンユニット5は、板状のパネル70と、フレーム80と、を有する。図8の例では、スクリーンユニット5は、12個の個別パネル70Aを有する。
図9は、パネル70を外した場合のフレーム80の斜視図である。フレーム80は、ベース81、後面ブロック82、連結部材83、前面ブロック84、および連結フレーム85を備えている。
前面ブロック84および後面ブロック82は、例えば直方体形状からなる。前面ブロック84は、板状の個別パネル70Aの四隅に対応して配置される。フレーム80は、20個の前面ブロック84を有し、これら20個の前面ブロック84を12個のパネルの各四隅に配置する。
後面ブロック82は、例えば直方体形状からなる。フレーム80は、前面ブロック84と同じ数の20個の後面ブロック82を有する。連結部材83は、後面ブロック82および前面ブロック84を前後に連結する。
ベース81は、フレーム80の最外周に配置されている14個の後面ブロック82を縦または横方向に並んで連結する。
連結フレーム85は、後面ブロック82と前面ブロック84を縦または横方向に並んで連結する。例えば、図中の右上の前面ブロック84は、連結フレーム85を介して、フレーム80を正面視して縦方向の1つ下側の後面ブロック82に連結される。また、例えば、図中の右上の前面ブロック84は、連結フレーム85を介して、フレーム80を正面視して横方向の1つ左側の後面ブロック82に連結される。
これにより、フレーム80は、20個の後面ブロック82および前面ブロック84を安定して連結する。フレーム80を正面視して縦方向の一番下に配置された5つの後面ブロック82および前面ブロック84は、床等に設置される。よって、フレーム80は、20個の前面ブロック84のそれぞれの底面の1つを正面に向けて配置し、自立する。
なお、ベース81は、中央で折れ曲がる。また、2つの連結フレーム85は、縦または横方向に並ぶ後面ブロック82および前面ブロック84の中央で回転可能に接続される。これにより、フレーム80は、小さく折りたたむことができる。
20個の前面ブロック84のそれぞれの底面の1つは、板状の個別パネル70Aの四隅に取り付けられる。図10は、個別パネル70Aの正面図および側面図である。図10の左側に示す図は、個別パネル70Aの正面図であり、右側に示す図は、個別パネル70Aの左側面図である。他の個別パネルも図10に示す個別パネル70Aと同じ構成を有する。
個別パネル70Aは、板材77と、スクリーン部材75と、マグネット78を有する。板材77は、金属、樹脂、または木の材料からなる平板状の部材である。板材77の前面には、スクリーン部材75が貼り付けられている。スクリーン部材75は、投影機の映像を投影する、白色の反射材である。
板材77の後面の四隅には、マグネット78が配置される。前面ブロック84が磁性体の金属である場合、個別パネル70Aは、マグネット78により前面ブロック84に吸着する。前面ブロック84は、スクリーン部材75を取り付けるためのガイドになると同時にスクリーン部材75を保持する保持部材として機能する。これにより、前面ブロック84は、スクリーン部材75が落下したりずれたりすることを防止することができる。イベントの運営者は、図9に示した状態のフレーム80に12個の個別パネル70Aを吸着させることで、1つのパネル70を構成する。すなわち、パネル70は、複数の個別パネル70Aに分解可能に構成されている。
この様に、スクリーンユニット5は、1つの大きなパネル70を個別パネル70Aに分解することができる。また、フレーム80は、小さく折りたたむことができる。したがって、イベントの運営者は、会場の狭い入口等からもスクリーンユニット5を容易に持ち込むことができる。また、フレーム80は自立するため、スクリーンを吊り下げたり固定したりするための構造物は不要である。また、スクリーンユニット5は、会場やイベントの内容に応じて自由にサイズや画角(縦横比)を変更することができる。イベントの運営者は、任意の数の個別パネル70Aを用意することで、会場やイベントの内容に合わせた最適な大きさや画角(縦横比)のスクリーンを簡単に設置することができる。
さらに、スクリーンユニット5は、正面視するとフレーム80等の構造物が見えない。したがって、イベントの参加者は、投影機の映像だけが見え、イベントへの没入感を高めることができる。
なお、個別パネル70Aをフレーム80に取り付ける手法は、マグネット78による吸着に限らない。例えば、個別パネル70Aは、面ファスナーにより前面ブロック84に取り付けてもよい。あるいは、個別パネル70Aは、前面ブロック84の後面からネジ止めすることで取り付けてもよい。
図11は、別の例に係る個別パネル70Aの正面図および側面図である。図11の左側に示す図は、2つの個別パネル70Aを縦に並べた場合の正面図であり、右側に示す図は、2つの個別パネル70Aを縦に並べた場合の左側面図である。
板材77の前面には、第1スクリーン部材75Aおよび第2スクリーン部材75Bが貼り付けられている。第2スクリーン部材75Bは、例えば接着剤で第1スクリーン部材に貼り付けられる。第1スクリーン部材75Aは、板材77の正面の全体を覆うように板材77に貼り付けられている。第2スクリーン部材75Bは、正面視して第1スクリーン部材75Aの面積よりも小さい面積を有する。そのため、個別パネル70Aを正面視すると、第2スクリーン部材75Bの外周部から第1スクリーン部材75Aが露出する。
第3スクリーン部材75Cは、複数の個別パネル70Aを並べた時に第1スクリーン部材75Aが露出する部分を覆うように、第1スクリーン部材75Aに貼り付けられる。第3スクリーン部材75Cの高さ(厚み)は、第2スクリーン部材75Bの高さ(厚み)と同じである。そのため、第2スクリーン部材75Bおよび第3スクリーン部材75Cの前面は同じ高さになる。よって、投影機の光を斜めに照射しても影を発生させない。
なお、第3スクリーン部材75Cは、図13に示す様に、両面テープ750で第1スクリーン部材75Aに貼り付けてもよい。この場合、第3スクリーン部材75Cの高さ(厚み)は、第2スクリーン部材75Bの高さ(厚み)よりも該両面テープ等の部材の厚みの分だけ薄くする。
また、第3スクリーン部材75Cは、図14に示す様に、薄い板状の磁性体760に接着剤で貼り付けてもよい。この場合、磁性体760は、板材77の後面に配置されたマグネット78に吸着される。したがって、第3スクリーン部材75Cは、磁性体760を介して第1スクリーン部材75Aに吸着される。これにより、第3スクリーン部材75Cは、接着剤や両面テープを用いることなく、磁力により簡単に取り付け、取り外しすることができる。なお、磁性体760は、平滑性と柔軟性の高い焼入リボン鋼等を使用することが好ましい。これにより、第3スクリーン部材75Cの強度を高くすることができる。 これにより、複数の個別パネル70Aを並べた時に、隙間が生じたとしても第3スクリーン部材75Cにより当該隙間が覆われる。そのため、スクリーンユニット5は、正面視すると複数の個別パネル70A間の隙間も見えなくなる。したがって、イベントの参加者は、複数の個別パネル70A間の隙間も全く気にならなくなり、投影機の映像だけが見え、イベントへの没入感をさらに高めることができる。
複数の個別パネル70A間の隙間を埋める手法は、図11の例に限らない。例えば、図12に示す様に、スクリーン部材75の面積を大きくして、当該面積の大きいスクリーン部材75が隣接する個別パネル70Aの正面の一部を覆う様にしてもよい。ただし、図11に示した様な複数の個別パネル70A間の隙間を埋める構成は、投影機の光を斜めに照射しても影を発生させないため、よりイベントへの没入感を高めさせることができる。
図15に示す様に、スクリーン部材75の背面および側面は、遮光材700を貼り付けてもよい。これにより、スクリーン部材75の背面および側面から外光が透過することがなくなる。よって、外光がスクリーン部材75に投影される映像に悪影響を及ぼすことがなくなる。
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。例えば、上記実施形態では、CPU104の読み出したプログラムにより本発明の処理部を構成したが、例えばFPGA(Field-Programmable Gate Array)により本発明の処理部を実現することも可能である。
1,1A…データ処理システム
10…データ処理装置
11…ミキサ
12…照明コントローラ
13…映像機器
14…GPI制御機器
15…MIDI機器
16…レーザーコントローラ
101…表示器
102…ユーザI/F
103…フラッシュメモリ
104…CPU
105…RAM
106…通信I/F
154…処理部
10…データ処理装置
11…ミキサ
12…照明コントローラ
13…映像機器
14…GPI制御機器
15…MIDI機器
16…レーザーコントローラ
101…表示器
102…ユーザI/F
103…フラッシュメモリ
104…CPU
105…RAM
106…通信I/F
154…処理部
この発明の一実施形態は、スクリーンユニットに関する。
従来、スクリーンは、主に水平方向に長いバーにスクリーンを吊るすタイプ、あるいは、金属フレームにスクリーンを貼るタイプ等があった。
これらのスクリーンは、天井に吊り下げるための構造物が必要であった。
また、従来のスクリーンは、投影面積を容易に変更することができず、様々な設備の会場で使用することができない課題があった。イベントの運営者は、大きな会場では面積の大きいスクリーンを用意するが、仮に会場の入口が狭い場合、面積の大きいスクリーンを持ち込むことは容易ではない。
そこで、本実施形態は、様々な設備の会場で設置可能であり、簡単に投影面積を変更するスクリーンを提供することを目的とする。
本発明の一実施形態に係るスクリーンユニットは、平面スクリーンとして機能するパネルと、前記パネルを背面から保持するフレームと、を有し、前記パネルは、複数の個別パネルに分解可能に構成されている。
本発明の一実施形態によれば、様々な設備の会場で設置可能であり、簡単に投影面積を変更することができる。
Claims (1)
- 平面スクリーンとして機能するパネルと、
前記パネルを背面から保持するフレームと、
を有し、
前記パネルは、複数の個別パネルに分解可能に構成されている、
スクリーンユニット。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021044311 | 2021-03-18 | ||
JP2021044311 | 2021-03-18 | ||
JP2021567814A JP7022872B1 (ja) | 2021-03-18 | 2021-08-17 | データ処理方法およびデータ処理装置 |
PCT/JP2021/030041 WO2022195911A1 (ja) | 2021-03-18 | 2021-08-17 | データ処理方法およびデータ処理装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021567814A Division JP7022872B1 (ja) | 2021-03-18 | 2021-08-17 | データ処理方法およびデータ処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022145515A true JP2022145515A (ja) | 2022-10-04 |
Family
ID=81073866
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021567814A Active JP7022872B1 (ja) | 2021-03-18 | 2021-08-17 | データ処理方法およびデータ処理装置 |
JP2022015666A Pending JP2022145515A (ja) | 2021-03-18 | 2022-02-03 | スクリーンユニット |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021567814A Active JP7022872B1 (ja) | 2021-03-18 | 2021-08-17 | データ処理方法およびデータ処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230418547A1 (ja) |
EP (1) | EP4311266A1 (ja) |
JP (2) | JP7022872B1 (ja) |
CN (1) | CN117044232A (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7978696B2 (en) * | 2006-05-17 | 2011-07-12 | Audinate Pty Limited | Redundant media packet streams |
WO2019044021A1 (ja) * | 2017-08-28 | 2019-03-07 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP7143632B2 (ja) * | 2018-05-25 | 2022-09-29 | ヤマハ株式会社 | 再生システムおよび再生方法 |
-
2021
- 2021-08-17 JP JP2021567814A patent/JP7022872B1/ja active Active
- 2021-08-17 CN CN202180095644.1A patent/CN117044232A/zh active Pending
- 2021-08-17 EP EP21931655.1A patent/EP4311266A1/en active Pending
-
2022
- 2022-02-03 JP JP2022015666A patent/JP2022145515A/ja active Pending
-
2023
- 2023-09-12 US US18/465,496 patent/US20230418547A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7022872B1 (ja) | 2022-02-18 |
US20230418547A1 (en) | 2023-12-28 |
CN117044232A (zh) | 2023-11-10 |
JPWO2022195911A1 (ja) | 2022-09-22 |
EP4311266A1 (en) | 2024-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6882618B2 (ja) | オーディオ信号処理システム及び方法 | |
US8456487B2 (en) | Virtual staging apparatus and method | |
US20090129753A1 (en) | Digital presentation apparatus and methods | |
US5745584A (en) | Sound bubble structures for sound reproducing arrays | |
CN105210388A (zh) | 管理沉浸式音频的混响场的方法 | |
WO2018195652A1 (en) | System, method and apparatus for co-locating visual images and associated sound | |
JP7143632B2 (ja) | 再生システムおよび再生方法 | |
EP2743917A1 (en) | Information system, information reproduction device, information generation method, and recording medium | |
Lombardo et al. | A virtual-reality reconstruction of poeme electronique based on philological research | |
WO2022195911A1 (ja) | データ処理方法およびデータ処理装置 | |
JP2022145515A (ja) | スクリーンユニット | |
KR102389040B1 (ko) | 콘텐츠 재생 프로그램, 콘텐츠 재생 방법 및 콘텐츠 재생 시스템 | |
JP2007158396A (ja) | 映像・音声同期伝送装置 | |
Bloomberg | Making Musical Magic Live | |
Reinhuber et al. | The Scale of Immersion: Different audio-visual experiences exemplified by the 360 video Secret Detours | |
Lossius | Sound space body: Reflections on artistic practice | |
Filimowicz | An audiovisual colocation display system | |
Malsky | The Grandeur (s) of CinemaScope: Early Experiments in Cinematic Stereophony | |
US20230276108A1 (en) | Apparatus and method for providing audio description content | |
US20240155284A1 (en) | Information processing apparatus and information processing method | |
Muench | An Evening at the Ballroom: Whatever Happened to Televanilla? | |
Martin | Being there: the creative use of location and post-production sound in documentaries | |
Brooks et al. | Making Connections Through the Fifth Wall: A New Creative Place for Performing Arts and Pedagogy in Higher Education Final Report for JISC (previously JANET) July 2015 | |
Bradley | A new materiality | |
Dehaan | Compositional Possibilities of New Interactive and Immersive Digital Formats |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |