JP2017520139A - エンドポイントミキシングシステムおよびその再生方法 - Google Patents

エンドポイントミキシングシステムおよびその再生方法 Download PDF

Info

Publication number
JP2017520139A
JP2017520139A JP2016565188A JP2016565188A JP2017520139A JP 2017520139 A JP2017520139 A JP 2017520139A JP 2016565188 A JP2016565188 A JP 2016565188A JP 2016565188 A JP2016565188 A JP 2016565188A JP 2017520139 A JP2017520139 A JP 2017520139A
Authority
JP
Japan
Prior art keywords
speaker
sound
robot
microphones
endpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016565188A
Other languages
English (en)
Other versions
JP6285574B2 (ja
Inventor
ワイ ミン ウォン,
ワイ ミン ウォン,
Original Assignee
サブ−インテリジェンス ロボティクス(エスアイアール) コーポレーション(ホンコン) リミテッド
サブ−インテリジェンス ロボティクス(エスアイアール) コーポレーション(ホンコン) リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サブ−インテリジェンス ロボティクス(エスアイアール) コーポレーション(ホンコン) リミテッド, サブ−インテリジェンス ロボティクス(エスアイアール) コーポレーション(ホンコン) リミテッド filed Critical サブ−インテリジェンス ロボティクス(エスアイアール) コーポレーション(ホンコン) リミテッド
Publication of JP2017520139A publication Critical patent/JP2017520139A/ja
Application granted granted Critical
Publication of JP6285574B2 publication Critical patent/JP6285574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/026Supports for loudspeaker casings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/021Transducers or their casings adapted for mounting in or to a wall or ceiling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/023Transducers incorporated in garment, rucksacks or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Stereophonic Arrangements (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

エンドポイントミキシング再生方法が提供される。発音体に対応しているマイクロフォンを設け、原初環境に一致しているエンドポイント環境を設け、マイクロフォンに対応しており、通信式に接続されている音響シミュレーション装置を設け、音響シミュレーション装置は、エンドポイント環境の位置に配備され、音声シミュレーション装置に接続された運動追跡装置を設ける工程(S0)と、マイクロフォンが、対応する発音体の音響を音声トラックにそれぞれ同期録音し、運動追跡装置が発音体の運動状態を運動状態ファイルに同期記録する工程(S1)と、音響シミュレーション装置が運動状態ファイルに記録された運動状態で同期運動し、マイクロフォンによってそれぞれに録音された音声トラックを同期再生し、EM音を再生する工程(S2)とを含む。現場で発音体により演奏されている音響を生成し、非常に良好な音質効果を得ることができる。【選択図】図2

Description

本発明は、音声の取得、伝送、保管、および、その再生のためのエンドポイントミキシング(EM)システムに関するものであり、更に、EM再生方法に関するものである。
現在のコンサート録音は、ライブコンサートのステレオ効果を実現することができない。録音を聴いた人が、直々にコンサートの現場に居合わせているかのような気分になることができない。一方、コンサートの録音用に採用されたマイクロフォンは、コンサートに於ける全ての発音体のディテールを完全に記録することができないうえに、コンサートの録音はライブコンサートの一つの音響または多様な音響のディテール全てを提示することができるというわけではない。
現在のコンサート録音ではライブコンサートのステレオ効果を実現することができず、また、ライブコンサートの音響のディテール全て、特に、多数音源の録音中および再生中の各発音体の位置と運動軌跡を十分に提示することができるというわけではない。本発明は、上記問題を克服することのできるEMシステムおよびEM再生方法を提供する。
本発明は、上記の技術的問題に以下のような技術的解決手段を提供する。
本発明は、EM再生方法、例えば、以下のような工程を含んでいる方法を提供する。
S0)原初環境に於いて複数の発音体に対応して複数のマイクロフォンを設け、原初環境の複数の発音体に対応するタイプおよびサイズのエンドポイント環境と、複数のマイクロフォンと1対1で対応しているとともに対応しているマイクロフォンに通信式に接続された複数の音響シミュレーション装置とを設け、音響シミュレーション装置は各々が、該音響シミュレーション装置に対応している発音体が原初環境で置かれていた位置と一致するような、エンドポイント環境のエンドポイント位置に配備され、複数の音響シミュレーション装置に通信式に接続された運動追跡装置を設ける工程。
S1)複数のマイクロフォンが、それらに対応する複数の発音体の音響を音声トラックにそれぞれ同期録音し、運動追跡装置が複数の発音体の運動状態を運動状態ファイルに同期記録する工程。
S2)複数の音響シミュレーション装置がそれらに対応する発音体の、運動状態ファイルに記録された運動状態で同期運動し、それらに対応するマイクロフォンによってそれぞれに録音された音声トラックを同期再生し、それによりEMを再生する工程。
本発明の前述のEM再生方法では、マイクロフォンはいずれも、それが対応している発音体に対向しており、どのマイクロフォンもそれに対応している発音体との間の距離が同一である。
本発明の前述のEM再生方法では、音響シミュレーション装置はスピーカーを備えている。
本発明の前述のEM再生方法では、音響シミュレーション装置の一部もしくは全部はスピーカーロボットであり、スピーカーロボットは各々がその最下部にロボット車輪を、その最上部にロボットアームを備えており、スピーカーはロボットアームのハンド部に配備されている。
工程S2は次のことを更に含んでいる。スピーカーロボットはそれぞれに対応している発音体の、運動状態ファイルに記録された運動軌跡に沿って運動する。
本発明の前述のEM再生方法では、全ての音響シミュレーション装置はスピーカーロボットであり、スピーカーロボットは各々がその最下部にロボット車輪を、その最上部にロボットアームを備えており、スピーカーがロボットアームのハンド部に配備されている。
工程S0はロボット家具を提供することを更に含んでおり、ロボット家具は、聴取者を乗せることができる可動ROBO椅子と、映像再生用の表示画面または映写画面を支持している可動ROBOスタンドとを備えている。
工程S2は以下のことを更に含んでいる。エンドポイント環境でROBO椅子、ROBOスタンド、および、スピーカーロボットを同期移動させて、これらの相対位置を維持する。
本発明の前述のEM再生方法では、スピーカーは、モーター制御されたガイドレールに滑動自在に配備されている。
工程S2は以下のことを更に含んでいる。スピーカーは、それらに対応している発音体の、運動状態ファイルに記録された運動軌跡に沿ってレール上を移動する。
本発明の前述のEM再生方法では、全てのスピーカーは、WiFiによって連結されている。
本発明の前述のEM再生方法では、工程S1は、以下のことを更に含んでいる。複数のマイクロフォンのうちの一部または全部に通信式に接続されているとともに、複数のマイクロフォンのうち一部または全部に対応している音響シミュレーション装置に通信式に接続されている音響修正装置を設け、音響修正装置は、複数のマイクロフォンの一部もしくは全部によりそれぞれ録音された音声トラックの音質を修正するか、または、複数のマイクロフォンのうち一部または全部によりそれぞれに録音された音声トラックに対する音響効果を向上させる。
工程S2は以下のことを更に含んでいる。複数のマイクロフォンのうち一部または全部に対応している音響シミュレーション装置は、それらに対応している、音響修正装置により修正された音声トラックを同期再生する。
本発明の前述のEM再生方法では、複数のマイクロフォンにより録音された音声トラックは、EMXファイル形式で保存される。
本発明は、EMシステムをさらに提供する。このEMシステムは、複数のマイクロフォンであって、これらに複数の発音体が原初環境で対応づけられて、それぞれに対応している発音体の音響を音声トラックに同期録音することが企図されているマイクロフォンと、複数の発音体の運動状態を運動状態ファイルに同期記録する運動追跡装置と、タイプおよびサイズが原初環境のものに一致しているエンドポイント環境と、複数の音響シミュレーション装置とから構成されている。音響シミュレーション装置は複数のマイクロフォンに1対1で対応しており、対応しているマイクロフォンおよび運動追跡装置に通信式に接続されており、対応している発音体の、運動状態ファイルに記録されている運動状態で同期運動し、対応しているマイクロフォンによって録音された音声トラックを同期再生し、それによりEMを実行する。どの音響シミュレーション装置も、該音響シミュレーション装置に対応している発音体が原初環境で置かれていた位置と一致するような、エンドポイント環境のエンドポイント位置に配備される。
本発明のEMシステムおよびその実行方法は、それぞれ、複数の発音体の音響を複数のマイクロフォンによって音声トラックに録音し、対応している音声トラックを発音体の位置に対応している複数のスピーカーにより再生する。これにより、現場で発音体により演奏されている音響を生成し、非常に良好な音質効果を生じる。
以下に、本発明を添付の図面と実施例を参照しながら更に説明してゆく。
本発明のEMシステムの実施例の手のひらスピーカーの概略図である。 本発明の実施例の一体型EM(IEM)主要製品の概略図である。 本発明の実施例の第1形態のIEM製品の概略図である。 図3に例示されている第1形態のIEM製品のシーリングブラケットの概略図である 本発明の実施例の第2形態のIEM製品の概略図である 本発明の実施例の第2形態のIEM製品の代替例の概略図である 本発明の実施例の第3形態のIEM製品の概略図である。
<定義―自然音>
神は宇宙を創造する。多くの物体または生物が音を立てることがある。いずれの音も、空間で独特の3次元位置を示す。聴取位置は、受信器(例えば人の耳など)を設置するのに利用される、1種の論理的3次元座標である。
聴取者は1または複数の受信器を有しており、数種類の神経網構造も有している。受信器により取得された音響信号は神経網構造に伝送される。神経網構造は、従来、その生物の脳であり、認識と記憶を形成することができる。
聴取者がいると想定して、その近辺の複数の発音体の音響が聴取者の受信器に直に伝送され、その間に聴取者に認識と記憶を持たせるプロセスを、第1次ミキシングプロセスと定義する。聴取位置、音響反射、および、それ以外の要因が、第1位ミキシングプロセスと同時に生じる音響に別な特徴を付加するプロセスを、第2次ミキシングプロセスと定義する。聴取者の正面で生じた音響が取得されて脳に伝送され、それにより認識と記憶を生じる。
前述の認識と記憶の形成プロセスは、以下に概括することができる。
音波が発音体により送られる→音響ミキシングプロセス(第1次ミキシングプロセスおよび第2次ミキシングプロセス)→受信器の正面で音響を生じる→認識および記憶が聴取者の脳により形成される
<定義―マイクロフォン>
マイクロフォンは受信器であり、聴取位置に配備されているが、この態様で、音響信号がマイクロフォンにより取得され、電子信号に変換され、次いでコンピュータに伝送される。
音響信号がマイクロフォンにより取得されてコンピュータに伝送される前述のプロセスは、以下に概括することができる。
音波が発音体により送られる→音響ミキシングプロセス(第1次ミキシングプロセスおよび第2次ミキシングプロセス)→受信器の正面で音響を生じる→電子信号
自然音とマイクロフォンの前述の原理に従って、本発明は、エンドポイント(EM)システムを提供する。このEMシステムは、
複数のマイクロフォンであって、これらに複数の発音体が原初環境で対応づけられて、それぞれに対応している発音体の音響を音声トラックに同期録音することが企図されているマイクロフォンと、複数の発音体の運動状態を運動状態ファイルに同期記録する運動追跡装置と、タイプおよびサイズが原初環境のものに一致しているエンドポイント環境と、複数のマイクロフォンに1対1で対応しており、対応しているマイクロフォンおよび運動追跡装置に通信式に接続されており、対応している発音体の、運動状態ファイルに記録されている運動状態で同期運動し、対応しているマイクロフォンによって録音された音声トラックを同期再生し、それによりEMを実行する複数の音響シミュレーション装置とから構成されており、どの音響シミュレーション装置も、該音響シミュレーション装置に対応している発音体が原初環境で置かれていた位置と一致するような、エンドポイント環境のエンドポイント位置に配備される。
<EM(エンドポイントミキシング)とは何か?>
マイクロフォンには、2つの主要な用途がある。一方は1つの発音体の音響を録音すること、他方は或る特定環境の音響を録音することである。
音声トラックごとに、EMを利用して1つの発音体の音響を録音し、次いで、電子信号をデジタル音声に変換してから、このデジタル音声を再生するために遠隔環境に伝送し、または、このデジタル音声を将来再生するためにコンピュータに保管する。
複数のデジタル音声トラックは、或る環境で再生することができるが、原則として、HiFi音響再生を実現することを目的としており、1音声トラックごとに1つのスピーカーでしか再生されない。
しかし、実際は、いくらかの変更もある。
1.2以上のスピーカーを使って1本の音声トラックを再生する。
2.特定の環境または発音体の録音がステレオである場合、または、もっと後の段階の製品録音中にステレオ効果またはサラウンド効果を作った場合、再生するのに2以上のスピーカーが必要となる。2つのスピーカー(すなわち、論理上の左スピーカーと論理上の右スピーカー)がある場合、ステレオ音声データを論理上の左スピーカーと論理上の右スピーカーに自然に位置づけることができ、2を超える数のスピーカーがあって、ステレオ音声データを左側音声データと右側音声データに分類することができる場合は、左側音声データを再生するのにどちらのスピーカーを使用し、右側音声データを再生するのにどちらのスピーカーを使用するかを予め設定する必要がある。サラウンド音響データを再生するスピーカーの構成は、サラウンドサウンド技術によって決定される。
ステレオ録音の応用と発音体を再生する2以上のスピーカーの適用により、発音体の音響イメージを大幅に拡大することができる。EMシステムでは、左チャンネルは音声トラックと見なされ、右チャンネルはもう1つの音声トラックと見なされ、これらは音声データの伝送および保存の期間中は独立状態を保っている。
エンドポイントとは、音声トラックを再生する環境のことを意味している。
エンドポイントにおいて、EMは既存のスピーカー技術の使用などのような新機能を導入している。
まず第1に、スピーカーによって発生される周波数スペクトルの2つの尺度を紹介する。
1.尺度1―スピーカーは、高度な一般化から高度な特殊化まで、或る程度は変更することができる。
2.尺度2―スピーカーは、特定の発音体をシミュレートすることにより、高度な一般化から高度な特殊化まで変更することができる。
現在使われているスピーカーの大半は、万能のスピーカーである。ハイエンドHiFiシステムは大いに一般化が進み、非常に広い音声域を高次元の音量かつ高い音質で再生することができる。他方で、スピーカーは、異なる音声域をカバーするのに、多数のスピーカーユニットから構成されている。
それにも関わらず、音響再生装置(またはスピーカー)で特定の発音体に音を似せることは、EMによって導入された新しい方法である。
<発音体に音を似せる>
岩が本来、音を発することができるとは知らなくても、自然界にある大半の物体、例えば、鳥、葉、風、水、雷などが音を立てることができることは分かっている。人類もまた発音体であり、楽器を作り、使用し、特異な音響を立てることができる。
人類の歴史では、取扱の都合上、発音体を分類する。どの範疇の特徴であれ、金管楽器、サクソフォン、アルト・サックス、女性歌手ホイットニー・ヒューストン、鳥、夜鳴鶯などと命名して同定するのである。
本願は、或るタイプの特定発音体、すなわち、単一発音体に音を似せるように共鳴装置を作成することを企図している。例えば、本願のここに提案する技術開発の方向は、以下の発音体をシミュレートすることができる。
鳥、夜鳴鶯、葉、蜂、クジラ、滝、金管楽器、弦楽器、ピアノ、ヴァイオリン、エレキギター、女声など。
技術開発方向を狭めてから、以下の発音体をシミュレートしてもよい。
ヤナギサワ―990アルト・サックス、ホイットニー・ヒューストンのような個々の歌手の声など。
本願は、EMが実現することができる全ての可能性を明らかにして、その技術開発方向を指し示す。
しかし、本願の範囲はまた、EMシステムとスピーカーの区分も定める。
<単一発音体の音響録音>
録音前および録音中に、以下に記すような現実の(仮想現実の)演壇の情報を取得する。
GPS位置、高度、方位計の示す演壇の方向および角度(演壇の配向は現実の(または仮想現実の)聴衆の向きとは逆の方向である)。
標的となる単一発音体についてのEM録音中、主眼点は上述の第2次ミキシングプロセスを排除することであり、聴取位置、音響反射、および、その他の要因は標的となる共鳴物の音響とは完全に異なる録音を残してしまう。換言すると、標的となる単一発音体のEM録音は、原初音響のディテールの全てを高分解能で録音すること重視している。
現在のスタジオ録音や、ライブショーの最中に個々のステージ上のマイクロフォンまたは電子楽器の線形信号を利用したマルチ音声トラック録音は、上述の主眼点の要件を満たしている。
音響の他にも、この録音プロセスは、録音の全期間中に合理的な周波数で発音体と音声取得活動とを同期させることに関する情報をデータに転換する。このデータは以下のものを無制限に含む。
3次元空間における参照定点と相対的な聴取位置、例えば、発音体ごとの配向。
この実施例では、どのマイクロフォンも、それに対応している発音体に対向しており、どのマイクロフォンも、それに対応している発音体との間の距離は同一である。
マイクロフォンとそれに対応している発音体が互いの対向している状態に限定されないものと理解すべきである。代替例として、マイクロフォンの配向は、それに対応している発音体と特定の角度を成すこともある。
<定義―リアルタイム対タイムシフト>
録音された音声データは、主として以下の2つの態様でエンドポイントに伝送される。
1.リアルタイム
2.タイムシフト
技術によってはそのいずれもが、コンピュータファイルの使用、保管、転送、および、利用者の必要に応じた再生などを含んでいるタイムシフトの概念を適用するものもある。本願では、タイムシフトを採用する場合は、前述の技術を全て利用する。
<EMの4つの形態>
EMの第1形態―全部が定位置を占めている複数の同期発音体のEMについて
録音時間には、全ての発音体が同じ時間に音を立てると思われるが、例えば、海辺で開催されるコンサートや音楽ホールにおけるオーケストラ演奏会などにおいて、どの発音体も3次元空間中の定位置を占めており、どの演奏家も定位置に着いている。ここでは、EMの目的は、原初環境およびこの原初環境に関連する全ての音響とをシミュレートすることのできるエンドポイントを確立することであり、具体的には、EMはエンドポイントにおける全ての歌手および楽器の音響の正確な再生に重点を置いている。再生プロセスはリアルタイムの場合もあればタイムシフトの場合もある。
第1形態のエンドポイントには、以下の特徴がある。
1.エンドポイントは、タイプおよびサイズが原初環境のものと一致しているエンドポイントである。
2.エンドポイントは、原初の発音体をシミュレートする音響シミュレーション装置から構成されており、例えば、エンドポイントは、ハイエンドHiFiシステムおよびハイエンドスピーカーを備えているか、或いは、HiFiシステムおよび特定音声域に好適な特殊スピーカーを備えている。
3.どの音響シミュレーション装置も、原初環境で発音体が置かれていた定位置に一致するような、エンドポイント環境のエンドポイント位置に配備されている。
例えば、海辺で開催されるコンサートでは、発音体は楽隊である。楽隊は、バス・ギター、第1エレキギター、第2エレキギター、アクースティック・ギターなどのような複数のギターを擁しており、また、鍵盤楽器、ドラム、歌手などを更に擁している。
海辺で開催されるライブコンサートをシミュレートするエンドポイントには、以下の特徴がある。
1.エンドポイント環境および原初環境が同じ海辺である。海に対する音響シミュレーション装置の向きは、海に対する楽隊の向きと同じである。
2.音響シミュレーション装置には、ギター・トークボックス、ステレオ・スピーカー、ドラムビート・シミュレーションスピーカー、シンギング・シミュレーションスピーカーなどがある。
3.エンドポイント環境では、複数のギター・トークボックスが複数のギターを1対1でシミュレートする。
4.鍵盤楽器の音響のシミュレーションの間はハム音が混ざるのが普通であるため、鍵盤楽器をシミュレートするには、エンドポイント環境でステレオ・スピーカーが使用される。
5.エンドポイント環境では、ドラムはドラムビート・シミュレーションスピーカーによってシミュレートされる。
6.エンドポイント環境では、歌唱はシンギング・シミュレーションスピーカーによりシミュレートされる。
7.音響シミュレーション装置はいずれも、エンドポイント環境(すなわち、原初環境)で発音体が置かれた定位置と同じエンドポイント位置に配備される。
代替例では、音楽ホールで開催されるオーケストラ演奏会に於いては、発音体は複数の楽器である。
音楽ホールで開催されるオーケストラ演奏会をシミュレートするエンドポイントは、以下の特徴を有している。
1.エンドポイント環境は、タイプおよびサイズが原初環境のものと一致する音楽ホールである。
2.音響シミュレーション装置は複数の特殊スピーカー(またはハイエンドHiFiシステム)を含んでおり、これは複数の楽器を1対1でシミュレートする。
3.全ての特殊スピーカー(またはハイエンドHiFiシステム)は、原初環境で複数の楽器が置かれていた定位置と一致するような、エンドポイント環境のエンドポイント位置に配備される。
第1形態のEMにより、演奏会は原初環境とは異なるエンドポイント環境で同期放送することができるようになり、或いは、リアルタイムの演奏会後の何時であれ、同じ環境で再生することができる。
EMの第2形態―全部または一部が動いている同期発音体のEMについて
前述の第1形態のEMに基づいて、第2形態のEMは、既存のスピーカーを基礎としたロボット工学技術を採用するか、または、既存のスピーカーをモータ制御されたガイドレール上に滑動自在に設置する。この態様で、スピーカーは、それに対応している発音体の、運動状態ファイルに記録されている運動軌跡に沿ってガイドレール上を移動することができる。
例えば、音響シミュレーション装置は一種のスピーカーロボットであり、スピーカーロボットは各々がその最下部にロボット車輪を、その最上部にロボットアームを備えており、スピーカーはロボットアームのハンド部に配備されている。音声再生中は、スピーカーロボットは特定の3次元位置に向かって移動し、音声トラックの保存情報に基づいてスピーカーの配向を調節する。
工程S2は更に以下のことを含んでいる。スピーカーロボットは、それに対応している発音体の、運動状態ファイルに記録されている運動軌跡に沿って移動する。
ここでは、運動状態ファイルはビデオ・ファイルである場合があり、或いは、原初環境における発音体の記録座標である場合もある。ここでは、運動状態ファイルは運動追跡装置により記録され、運動追跡装置は複数の音響シミュレーション装置に通信式に接続されている。
ガイドレールの上を移動するスピーカーの採用は、低コストで録音再生する方法であるが、再生された録音の効果は満足のゆくものではない。
再生中、これらのスピーカーロボットは、相互の衝突を避けるために互いに協働する必要がある。スピーカーロボット間の衝突回避を斟酌するならば、どのスピーカーロボットも、それが録音再生の全効果に与える衝撃を低減すべきである。もう1つの取組みは、スピーカーロボットの衝突が録音再生の効果に与える衝撃を最小限に抑えるように、スピーカーロボットを作動させることである。
これに代わるスピーカーの実用的応用例では、スピーカーロボットは歌手のようにステージ上を移動することができ、或いは、歌手のようにファンに手を振ることができる。
スピーカーロボットの代替の実用的応用例では、概して演奏家は実演中に踊ったり自らの身体を軽く震わせるので、それに応じてスピーカーロボットも録音中に震える。録音の再生中も、スピーカーロボットは同様に震える。これらスピーカーロボットは、ダンシング・ロボットスピーカー(DRS)とも呼ばれる。
たとえば、スピーカーロボットは、どんな外観を呈していてもよく、ありふれたスピーカーでも、動物でも、或いは、従来の人型ロボットでもよい。多様な外観の組合せが、スピーカーロボットの外観設計に同時に適用されてもよい。
EMの第3形態―非同期発音体のEMについて
録音中に発音体の一部または全部が異なる時間に実演される場合には、既存の音楽製品工場で音声トラックをEMXファイルに変換し、音楽製品工場が仮想現実位置情報を設定してエンドポイントに仮想現実位置情報を送り、エンドポイントで音声を再生することができるようになる。この形態のEMでは、タイムシフト伝送のみが発現する。ここでは、EMXは、EM音声データを含んでいるだけのファイル形式である。
エンドポイントの第3形態には、以下の特徴がある。
1.エンドポイントは、音声様式にふさわしいエンドポイント環境である。
2.エンドポイントは、原初発音体シミュレートする音響シミュレーション装置から構成されており、例えば、エンドポイントはハイエンドHiFiシステムおよびハイエンドスピーカーから構成され、または、HiFiシステムおよび特定の音声域域に好適な特殊スピーカーから構成されている。
3.どの音響シミュレーション装置も、原初環境で発音体が置かれていた定位置と一致するような、エンドポイント環境のエンドポイント位置に配備されている。
EMの第4形態―複数の自由発音体のEMについて
前述の第1形態のEM、第2形態のEM、第3形態のEMに基いて、第4形態のEMはスピーカーに以下の特徴があることを要件とする。
1.スピーカーは動くこと(移動、高速移動、および、飛行など)ができ、何であれ、人間に益する物体、動物、植物を傷つけたり損なうことを回避するように、スピーカーは運動中に安全予防措置をとる。楽曲が鳴るとき、スピーカーはビートに合わせて踊ることができる。スピーカーの運動が安全である限り、可聴域においてスピーカーの移動速度は無制限である。空中の音波伝送の時間遅延速度も補償される。
2.スピーカーは、予め定められた物理的限界内で移動する。スピーカーとして使用されているスピーカーロボットがEMシステムの一部である場合は、スピーカーロボットはそれぞれの原初運動位置にいつでも戻ることができる。ここでは、エンドポイントの物理的限界域は無制限である。
3.EMシステムは、どのスピーカーの音声トラックであれ、もう1つのスピーカーで再生されるようにするよう構成し直すことができる。
4.どの音声トラックの音量も、0から最大限まで調節可能である。
5.EMシステムまたはオンラインのインターネットサービスは、音質を修正するため、または、例えば、すべての音声トラックごとに残響および遅延を実行する等の、音響効果を向上させるために採用される。
6.スピーカーの音声トラック、スピーカー位置、スピーカー配向および角度、スピーカー運動、楽曲に合わせてのスピーカーのダンシング、スピーカー音量、および、スピーカー音響修正は、以下の要因によって決定される。
a)物理的制約――エンドポイントのタイプ、サイズ、および、間隔、すなわち、全てのスピーカーのタイプおよび質。
b)原初演奏についての楽曲創作者の考え方。
c)楽曲の様式と概念。
d)EMの国際サービス・センターの薦め。
e)EM支持者のソーシャルネットワークの薦め。
f)聴取者の向き、気分、および、心的状態。
g)ステレオ音声トラックとサラウンド音声トラックごとに音響イメージを創るようにとの聴取者の要望。
h)EM再生システムにおけるソフトウエアの所定のプログラム主題。
i)聴取者が熟考したうえでの決定または感情的決定。
7.他のEMシステムと同期した再生――該当EMシステムとそれ以外のEMシステムの同期再生が、コンピュータ・ネットワークによってつながれているEMシステムの相互の同時のサーバー伝送または情報伝送に基づいて実現される。
<EMに関する更なる議論>
<自動感応装置を用いた音量制御>
スピーカーの組み込みLinuxコンピュータ・センサーを採用することにより、EMシステムは、エンドポイントで音量を計算することができる。音量が大き過ぎる場合、EMシステムは視覚警報を出すことができるうえに、バランスのよい方法で全てのスピーカーの音量を安全音量レベルに自動調節することができる。
<聴取者の位置>
EMの使用は、再生されるEMの現場および聴取者を選ばず無制限であるが、人の数が多くない限り、ガイドを置いて、聴取者全員がEMを満足して聴くことができるようにする、すなはち、聴衆がその身体や物体により他の聴衆がEMを聴く妨げとなることがないようにする。
2以上の音声が同じEMシステムで多様な聴取者のために同時再生される場合、これら2以上の音声を別個に再生するスピーカーは互いから切り離される。
先行技術(例えば、サラウンドサウンドシステム)は、聴取者が特定領域にいることを要件としており、より厳密に言うと、ハイエンドHiFiシステムは聴取者が特定位置(すなわち、キング・シート)にいることを要件としていたが、これらの技術とは異なり、EMシステムは、聴取者がスピーカー領域の内外のいかなる位置にいてもよいとしている。音響シミュレーション装置がスピーカーロボットである場合、スピーカーロボットは自動配備されることにより聴取者が最適の音響を聴くことができるようにしてもよいし、或いは、スピーカーロボットが広い聴取角を呈するようにしてもよい。この場合、聴取者はスピーカーの間に座るかもしれないし、立ったままかもしれないし、それらの間を歩き廻るかもしれない。聴取者は耳をスピーカーに近づけることにより、より大きくより明瞭な音声トラックを聴くこともできる。例えば、歌唱またはヴァイオリンの音声トラックのディテールを聴くことができる。スピーカーから離れた位置にいる聴取者も音響を高品質で聴くことができる。このような設計のスピーカーは聴取者の位置を提供し、スピーカーに広い聴取角を持たせる。スピーカーの聴取角は360度の球面角を取ることができる。
本願は、音楽ホールの聴覚領域(すなわち、聴取位置領域)を確立するやり方は全く無制限であるが、音楽ホールに於ける一実施例を明示すると、音楽ホールの聴覚領域とは、音楽ホールの公の領域または寝室のことである。聴衆は全て、音楽ホールの聴覚領域の中央にあって、どのスピーカーの聴取角も360度である。このようなセッティングでは、スピーカーが録音されたEMを再生すると、音楽ホールの聴覚領域の多様な位置にある人々は、EMに傾聴している経験や海辺または賑やかな商業中心区を歩いている経験に似た、多様な音響を聴くことになる。更に、交響楽団が古典楽曲を演奏している場合、EMにより聴取者は楽団の間を通りぬけることができるようになり、或いは、EMにより聴取者はシンギング・シミュレーションスピーカーに耳を近づけることができるようになり、これにより聴取者は歌手の詠唱のディテールを全て聴くことができる。
しかし、前述のセッティングは、聴取者全員が最適聴取効果のある聴取者配向にあることを想定しなければならない。聴取者は、専門の装置の助けを借りれば、最高の音質を聞くこともできる。
<編集>
EMXファイル形式の最初のバージョンは、MIDIファイル形式に類似している。EMXファイル形式とMIDIファイル形式の主たる違いは以下のとおり。EMXファイル形式は広範囲向けに設計されており、楽曲創作者が録音、編集、および、聴取する必要と聴取者が聴取する必要に応じるのみならず、聴取者にも録音および編集が行えるようにする。EMXファイル形式とMIDIファイル形式のもう1つの主たる違いは以下のとおりである。EMXファイル形式により誰もが音声トラックを修正することができるようになり、1音声トラックを修正しても他の音声トラックは変わらずそのままである。
EMXファイルまたはEMVSファイルを採用してどの音声トラックでも修正することが誰にでもできるうえに、修正結果の音声トラックをもう1つ別のEMXファイルまたはEMVSファイルで保存するか、または、既存のファイル形式であるWAVまたはMP3で保存することもできる。EMVSは、EMの音声データおよび映像データを含んでいるファイル形式である。修正結果の音声トラックはリードオンリー・ファイルである場合もあれば、消去可能なファイルである場合もある。このような保存設計により、EMXファイルの音声トラックを誰でも簡単に書き加え、削除し、修正することができる。従って、一般人向けに音声編集機能を設けることにより、EMは楽曲創作の新しい時代を開けたのである。理論的には、EMXファイルの音声トラックの分量は無制限である。しかしながら、非常に大容量のEMXファイルはエンドポイントにセットされた非常に大型のEMシステムでしか再生することができず、或いは、エンドポイントで作動するクラウドサーバーを利用することによってしか再生することができない。
原初楽曲創作者は創作した音楽データの全部または一部を保護するにあたり、EMツール、EMXファイル形式、および、EMシステムの著作権保護を適用することにより当該音楽データをリリース後に修正不能にすることにより実施することができる。
さらに、オンラインのソーシャルネットワークおよび仮想組織の運用特性を利用することによって、EMは多様な才能を有する音楽家らが一緒に作業して国際的視野でEMXファイルを創作することができるようにする。
EMXファイル形式の特徴に従って、本実施例では、EMシステムは、音響修正装置を更に備えており、複数のマイクロフォンのそれらの一部もしくは全部に音響修正装置に通信式に接続されて、該一部もしくは全部によりそれぞれに録音された音声トラックの音質を修正するか或いは該一部もしくは全部によりそれぞれに録音された音声トラックの音響効果を向上させることを企図しており、複数のマイクロフォンの一部もしくは全部に対応している音響シミュレーション装置は、音響修正装置に通信式に接続されており、音響修正装置により修正された音声トラックを同期再生するよう企図している。
<サラウンドサウンドの先行技術との比較>
EMに基づいて、EMシステムでは、スピーカーの位置設定がスピーカー位置ごとのサラウンドサウンドの要件を満たす限りは、サラウンドサウンド(5.1サラウンドサウンド、6.1サラウンドサウンド、および、7.1サラウンドサウンドを含む)を再生するのにどんな種類のスピーカーでもサラウンドサウンドスピーカーとして使うことができる。いずれにせよ、特殊スピーカーはサラウンドサウンドを再生するのに好適ではないが、万能のスピーカーは推奨される。また、運動データしか読み込むことができないスピーカーロボットも利用することができない。
EMシステムには所定のサラウンドサウンド再生モードが設けられている。このサラウンドサウンド再生モードは、サラウンドサウンド技術のタイプに基づいてあらゆるスピーカーで音を生成することを企図している。EMは既存のサラウンドサウンド技術を適用してサラウンドサウンド音声データを復号化して再生する。
全てのスピーカーは、WiFiによって接続されているのが好ましい。
或る種のEMシステムは、単純なスピーカーロボットを使用する。例えば、「スピーカーを5.1サラウンドサウンドモードに設定」するボタンなどのようなボタンを押すことによって、好ましいサラウンドサウンド位置および実際のエンドポイント構成に基く物理的移動をスピーカーに自動的に遂行させる。全てのスピーカーの使用プロセスが終わってから、スピーカーは原初の位置に戻る。ここでは、WiFiによってEMシステムに接続されているとともにソフトロボット音楽家・ソフトウエアすなわちスピーカーロボット・モデルAが内部にインストールされている、ロボット車輪および垂直レールを備えている種類のスピーカーロボットが、サラウンドサウンドの目的に叶っている種類のスピーカーロボットである。しかし、本願はスピーカーロボット・モデルAの使用をサラウンドサウンドに限定するものではない。
<EMとMIDIの関係>
MIDIはEMXファイルに内蔵される。例えば、楽曲製作者または聴取者が万能MIDI楽器を特殊スピーカー位置に置くことができる。この論理上の決定は楽器の使用効果に基いて行われる。特殊スピーカーの位置に楽器を置くことは適切なマッピング法であり、例えば、MIDI三角形グランドピアノ(1番)を自動演奏ピアノ上に位置づけるのが最適である、といったふうに。
EMXファイルでは、運動データが音声トラックを利用することについてのデータは、標準的なデジタル音声データ形式よりはむしろ、既存のMIDIファイル形式を採用する。換言すると、原初の音声データは特定の音響チャネルでは伝送することができないが、入力装置の操作を取得してMIDIファイル形式で保存することはできる。
EMの再生は、以下の2つの態様により実現することができる。第1に、EMシステムのMIDIレンダリングモジュールにより、MIDIデータは音声データに変換され、この音声データが万能スピーカーによって再生される態様であり、第2に、MIDIデータストリームがスピーカーロボット向けに準備され、スピーカーロボットが直接それを再生する態様である。自動演奏ピアノの使用は、スピーカーロボットがどのようにEMシステムからMIDI運動データを受信するか、そして、スピーカーロボットがどのようにMIDI運動データをエンドポイントで再生される音響に変換するか説明する良い例である。
更に、既存のMIDI楽器はEMXファイル形式をサポートする。このように、エンドポイントユーザーはMIDI楽器を使うことで楽曲を生成して聴くことができる。
<WAM(ワイド・エリア・メディア)再生>
WAM再生の主要な目的は、WAM再生を従属装置で選択的に利用することでEMを鮮明に再生することである。
後段に、WAA(ワイド・エリア・オーディオ)再生の主要形態を記載する。EMシステムにおいて一部または全部のスピーカーを選択することにより、ユーザーはこれらスピーカーで音声を以下の態様で再生することができる。
1.全てのスピーカーが同じ音声トラック、すなわち、1本の音声トラックを再生する。
2.聴衆の近位にあるスピーカーのみが音響再生し、音響再生している全てのスピーカーは同じ音声トラックを再生するか、または、聴衆の向きに関連している多様な音声トラックを再生する。このように、EMシステムは、EMXファイルまたは既存のステレオ録音をこれらスピーカーで再生することができる。一方、聴衆はEM制御ツールを使うことでEMXファイルを再生することができ、EMXファイルのどの音声トラックでも、1または複数のスピーカーで再生させることができる。
WAVファイルも同様に再生される。
<音声および映像の放送>
EM放送は、音声および映像の放送の一形態である。
1.EM放送は、地球およびそれ以外の適当な惑星(火星など)をカバーする。
2.同じEMシステムの2つのスピーカー間の最大の伝送ラグタイムは60秒である。伝送ラグタイムとは、電子信号が録音装置で生成される時間とスピーカーが音波を送る時間の差である。
3.安全放送―エンドポイントの録音装置と全てのスピーカーとの間でデータを伝送している期間中は、聴取者の希望に基いた修正であることを唯一の例外として、データ修正は厳禁である。例えば、聴取者の決定により、クラウドサーバーにより放送フィードで供与される修正済みのレンタル音楽を採用する場合など。安全放送の要件は、公開鍵暗号化モジュールによりデジタル化された態様で示される。
本願は放送の基本的な要素をカバーするが、ここに記載する放送機能に限定されるものではなく、放送関連の領域は既存の放送技術を向上させて、例えば、EM音声、ケーブルテレビ放送網などを提供する。
音声データがEMデータ主題に連続的に入力されるという設計に基づいて、EMXファイルは、データストリームの条件を満たす使用方法である。よって、EMシステムは、音を再生している最中に、EMデータ主題をダウンロードすることができる。それは、大半の既存のインターネット・ビデオデータストリーム技術に類似している。EMデータストリームの帯域幅はビデオデータストリームの帯域幅より狭くなるため、EMXファイルを使った音声データストリームの再生は先行技術によって実現することができる。
ビデオ放送に好適なEMVSファイルのデータストリームとEMXファイルのデータストリームは、同じ再生方法を採用する。
音声および映像の放送は、ビデオサーバーによってビデオファイルをEMXファイルやEMVSファイルと置換するという態様で実現され、EMシステムにクライアントソフトウエアモジュールを追加している。このように、このクライアントソフトウエアモジュールは、EMデータ主題を受信し、EMデータ主題を復号化およびレンダリングし、音声トラックを配給し、スピーカーで音声再生を実現する。
<正規スピーカー、スピーカーロボット、または、万能ロボットの視覚効果および実体>
全てのスピーカーは、EMシステムに接続することができる。
しかしながら、本願が紹介しているスピーカーロボットはより多くの機能を持っており、それら機能は以下の規則に従う必要がある。
1.スピーカーロボットはどのような形態にでもすることができる。
2.屋外での使用時や暗い環境下で、スピーカーロボットの損傷、乱用、または、誤用を避けるために、スピーカーロボットはその存在を示すために明瞭な視覚信号を発する必要がある。例えば、スピーカーロボットは、近くの人々にその存在と位置を通知し、どこで、なぜ音が聞こえるかを人々に知らしめるために、「音声再生が進行中である」または「EMの第4形態」というスローガンを示すようにしてもよい。スピーカーロボットがスローガン表示を開始する際には、スローガンは十分適格であるべきである。それに続いて、スローガンはスピーカーが表示を開始した時に採用されたのと同じ明るさを維持し続けてもよいし、或いは、わずかに暗くなってもよいが、スローガンの明るさは、少なくとも10分ごとに1度は原初の明るさに回復されるべきである。
<ロボット家具>
EMシステムはロボット家具も含んでいる。ROBO椅子は、高容量の電池が備わった椅子であり、どの脚にもロボット車輪を有している。高容量の電池はROBO椅子の運動に電気エネルギーを供与する。ROBO椅子はスピーカーロボットに類似しており、1または複数の聴取者がROBO椅子に座ることができる。ROBO椅子は、EMシステムの指令に応じて移動することができる。
同様に、ROBOスタンドは、ロボットの一般的な目的に適った起立フレームである。ROBOスタンドは、主にビデオ再生表示画面(55ンチLEDテレビ画面などのような)あるいは映写スクリーンを支持するために使用される。
EMシステムはROBO椅子を中心と見なし、また、ROBO椅子、ROBOスタンド、および、スピーカーロボットに送信されるコマンドおよび制御信号を決定するにあたり、ROBO椅子、ROBOスタンド、および、エンドポイント環境の間の相対位置およびスピーカー間の相対的な位置をもって決定する。
具体的には、本実施例では、ROBO椅子、ROBOスタンド、および、エンドポイント環境間の相対位置とスピーカー間の相対位置について以下の三項目のみを決定する必要がある。
a)ROBO椅子とエンドポイント環境との間の3次元相対位置。
b)ROBO椅子とROBOスタンドとの間の3次元相対位置。
c)ROBO椅子とスピーカーロボットとの間の3次元相対位置。
エンドポイント環境でROBO椅子、ROBOスタンド、および、スピーカーロボットを同期移動させるとともに、エンドポイント環境に於けるROBO椅子、ROBOスタンド、および、スピーカーロボットの間の相対位置を計算して維持することにより、仮想現実の「家移動効果」を作成することができる。この家の移動効果は、エンドポイント環境に於けるROBO椅子、ROBOスタンド、および、ロボットスピーカーや、フロアタイプ、風、機械的精度、および、その他の要因に依存するが、これら要因の相互協働が家移動効果を最上効果に向上させることができる。
同様の方法はまた、屋外でも採用される。例えば、EMシステムがゆっくりと森を通過する場合、ユーザーは「森林移動」の効果を受けることがある。
代替実施例では、エンドポイント環境に於けるROBO椅子、ROBOスタンド、および、スピーカーロボットは自由に移動することができる。この自由移動は以下の基本原理を追従している必要がある。ユーザーが「家(またはエンドポイント環境)移動効果」を得ることを所望している間は、ROBOスタンドは使用されず、ROBO椅子およびスピーカーロボットは同じEMのスピーカー位置設定およびヒアリング規則を遵守する必要がある。
代替の実施例では、ウォーキングオーディエンス・リスニング技術は、スピーカーロボットの間に固定的に配備されているROBO椅子を移動させるように、または、聴取者とスピーカーロボットとの相対運動関係を維持するように採用される。
同様に、ロボット運動方法および遠隔制御能力は、他の家具にも同じような態様で拡張されており、家具の具体例は無制限であり、以下のものが含まれる。
テーブル類、ランプ類など。
<ウエアラブルEM製品>
<手のひら拡声器(パームスピーカー)>
スピーカーは服に取り付けることができる。この設定に適した多くの芸術的でファッショナブルなデザインがある。
パームスピーカーは、ウエアラブルEM製品である。これは、図1に例示されているように、手袋の掌部に配備された平たい円形のBluetoothスピーカーを備えている。一方、JMB2ソフトウエアバージョンはユーザーのスマートフォン上で作動する。JMB2は、スピーカーにインストールされて計算能力を示す装置であるとともに、RJ45のLANポートや音声出力DACモジュールなどのような入出力装置である。
手袋ごとにその内側に円形のLEDおよびジャイロスコープが取付けられる。ジャイロスコープは、手を上げるか下ろすかしたかどうかを検出することを企図しており、或いは、手のひらの向きを示すことを企図している。
ユーザーがBluetoothヘッドセットを有している場合は、JMB2の音声出力結果はユーザーの出す音響と交じる。ユーザーの出す音響はパームスピーカーで再生される。
<IEM(一体型EM)製品>
<IEMの主な製品>
IEMの主な製品の目的は、本願のEMの全ての機能を実現することである。
以下に推奨品を紹介するが、本出願の製品は以下の製品に限定されないが、本願の思想に従った全ての修正例や変更例は、本願の保護範囲内に入るものとする。
IEMの主な製品は電子製品であって、内蔵型のCPU、メモリ、および、ストレージなどがあり、EMのハードウエアシステムを制御することを企図している。ハードウエアシステムはLinuxシステムと、EMを制御するためのEMソフトウエアとがインストールされている。IEMの主な製品には、WiFiでLANと通信接続するためのWiFi通信モジュールも含まれている。また、IEMの主な製品は内部コンパートメントを備えている。コンパートメントには、レールに取付けられた少なくとも4つのスピーカーが配備されている。
IEMの主な製品は、以下の主たる特徴を有している。
これは、EM音声を再生することができる。
スピーカー間の位置は再生されるEM音声のタイプによって変わる。
図2を参照すると、IEMの主な製品は、スピーカーの移動中に、特にEMの音声再生中またはスピーカーの高速移動中に人や動物を傷つけることを回避するための保護レールのように見える。
<第1形態のIEM製品>
IEMの主な製品に基づいて、第1形態のIEM製品は以下の付加的な特徴を具有している。
1)図3は第1形態のIEM製品を例示している。IEM製品10の第1形態は、シーリングブラケット1とロボットを備えている。シーリングブラケット1は、固定的に天井に取り付けられる。シーリングブラケット1を除き、IEM製品10の第1形態の他の部分はロボットである。ロボットは、着脱可能にシーリングブラケット1上に配備されている。
2)シーリングブラケット1が取り付けられると、ブラケットを伸ばすことによりロボットの高さを調整することができる。ロボット高さ(すなわち、床面からロボットまでの高さ)は自動調整することができる。ロボット高さは1メートルから天井の高さまでである。従って、聴取者はロボットの高さを調節することで、自身と同一平面の音響を聴くことができる。
3)ロボットがシーリングブラケット1から取り外される際には、ロボットの底部カバーが取り外され、ロボットの底のロボット車輪2が露わになる。ロボットは屋内または屋外で使用することができる。ユーザーは、自身の携帯電話の遠隔制御ソフトウエアにより、ロボットに命じて音響再生させることができ、移動させることができ、自由運動をさせることができ、または、聴取者の命令に常時従わせることができる。視覚信号をユーザーの携帯電話に伝送して、この携帯電話で再生することができる。
4)複数の電球3が包囲する態様でロボットに配備されており、これらの電球3の通常の点灯は普通の壁スイッチによって制御されてもよいし、或いは、携帯電話(携帯電話で作動されるソフトウエア)により制御されてもよい。音声再生中に、娯楽のために、ユーザーが複数の電球3のフラッシュを多様な色で焚くようにしてもよい。
5)シーリングブラケット1が取り外されると、図4に例示されているとおりになる。これは、従来のランプのように働き、従来の壁ランプや携帯電話(携帯電話で作動されるソフトウエア)によって制御することができる。
<第2形態のIEM製品>
第1形態のIEM製品に基づいて、第2形態のIEM製品は以下の付加的特徴を具有している。
1)図5に例示されているように、ロボットアーム上の1または複数の透明な表示画面4がシーリングブラケットに取り付けられている。
2)衝突検出の結果に基づいて、1または複数の表示画面4は上向きまたは下向きに調節することができる。表示画面4は、使用中である場合は、図6に例示されているように、上向きに調整される。可聴アラームおよびLEDが1または複数の表示画面4に配備されている。
3)表示画面4は、JBOX−VIDEOに出力様式で接続されている。JBOX−VIDEOは、表示画面4を有しているコンピュータで作動するただのソフトウエアである。
4)従来の表示画面がこれらの透明表示画面4に置き換わってもよい。
<第3形態のIEM製品>
IEMの主な製品に基づいて、第3形態のIEM製品は以下の付加的特徴を具有している。
1)第3形態のIEM製品はスピーカーロボットである。スピーカーロボットは、ロボットを移動させることができるロボット車輪またはその他の構成部材を備えている。
2)第3形態のIEM製品は、図7に例示されているように、愛らしい外観を有している。その外観は蛸である。
3)いずれのスピーカーもロボットアームの末端に取り付けられている。
4)それは、第1形態のIEM製品と第2形態のIEM製品の特徴の一部または全部を有している。
第3形態のIEM製品は或る視覚的効果を有するようにするために、以下の手段を採用してもよい。
1)電球、LED、または、レーザーランプが第3形態のIEM製品に取付けられる。
2)第3形態のIEM製品の形状に基づいて、LEDが第3形態のIEM製品の全面に取り付けられる。
3)フラットパネルLED表示画面が第3形態のIEM製品に取り付けられている。
4)第3形態のIEM製品の近位にあるJBOX−VIDEO製品を用いて、フラットパネルLED表示画面を制御することができる。
5)第3形態のIEM製品の近位にあるモバイル装置を用いて、第3形態のIEM製品上の電球、LEDもしくはレーザーランプ、フラットパネルLED表示画面、または、これらの各種組合せを制御することができる。
<EM音楽の新世界――新しいエンドポイント環境、新しい楽器、新しい音楽のプレゼンテーションモード>
新しいEM使用モードでEM音楽を創作するのは、恐らく人類史上初めてのことである。人類は新しい革新的かつ精巧な世界を創造することができる。この新しい世界の具体例を以下に挙げる。
1)新しいエンドポイント環境――このエンドポイント環境は広大な地理的領域にまたがっている。例えば、10万のスピーカーが5万平米の庭で使用され、全てのスピーカーが音声トラックを再生する。
2)新しい楽器――発音体とEM技術により、人々のための新しい芸術的体験が創作される。例えば、5千体のガラスの柱があり、どのガラスの柱も高さ10メートルで水で満たされており、最上部にスピーカーが設けられている。全てのスピーカーがEMシステムに通信式に接続されており、柱は各々がハープの独特の和音の音響を生成する役割を負っている。このエンドポイント環境はEMXファイルやEMVSファイルのMIDI音声トラックを再生することを企図しており、または、電子ハープに接続することを企図している。音楽家がハープを演奏している際には、新しいエンドポイント環境が同期して音を立てる。ここでは、電子ハープは従来のハープであり、ハープの弦は全部がマイクロフォンに接続されている。
3)新しい音楽プレゼンテーションモード――全ての見込みのある容認された発音体が選択的にエンドポイント環境で使用される。例えば、コンサートで、聴衆は自身のウエアラブルEM(WEM)装置を着用し、従来のスピーカーがこのコンサートのステージ上に配置される。どの従来のスピーカーも、該従来のスピーカーを飛空させる飛行ロボットを備えている。スピーカーロボットもコンサート場の周りに分散させられており、その一部は、聴衆の周囲を回遊する。コンサート中に、音楽家が歌を歌い、音楽を演奏し、聴衆と対話し、聴衆に楽器を渡し、聴衆に両手を上げさせ、聴衆のWEMをEMシステムの一部にし、WEMをコンサート場の楽器の一部にする。聴衆はWEMにより歌を歌うことができる。オールインワン式に、音楽家は全ての資源を利用してコンサートを進行させるとともに、EMモードのコンサートに聴衆を熱中させることができる。
<技術的詳細>
<EMシステムの主な機能>
1)全てのスピーカーを列挙する。
2)全てのスピーカーの登録情報を取得し、リアルタイムデータベースに取り込む。
3)スピーカーは同期して音を立てる。
4)再生、停止、および、その他の指令を実現し、JBM2装置の制御を実現する。
5)同一性が認証されているクライアントからの問合せ情報に応えるために以下の情報を提供する。
a)全てのスピーカーの完全なリストは元より、スピーカーごとのタスクの完全なリスト。
b)単一スピーカーの、タイプ、声域、エンドポイント位置、状態、および、その他の情報。
<スピーカーの音響を同期する―アルゴリズム>
複数音声トラック相互の音声の差を弱めるために、異なる音声トラック上の同じ単一節を再生している任意の2つのスピーカー相互の時間差は、10ミリ秒から100ミリ秒未満とする。
上述の問題は多くの方法で解決することができるが、メッセージ転送とポーリングに基づく同期化法などが挙げられる。しかし、これらの方法では、異なる音声トラック上の同じ単一節を再生している任意の2つのスピーカー相互の時間差は、100ミリ秒から500ミリ秒の範囲に入る。
本願は、上記課題を解決するのに好ましい方法を提供する。この方法では、組み込みLinuxデバイスのスピーカーはどれも、少なくとも1日1回、同じインターネットタイムサーバと同期化され、全ての同期化活動(例えば、再生プロセスの開始時に同期化することなど)は2つの要因に基づくものとする。一方はEMシステムからの指令であり、これは将来のある時点における標的操作タイムスタンプを含んでいる。他方は組み込みLinuxクロックタイムであり、これの形式はOSエポックタイムである。
ユーザ間のインターネット通信が遅延していると仮定すると、本願のこの方法は、異なる音声トラック上の同じ単一節を再生している任意の2つのスピーカー相互の時間差を50ミリ秒以下に減じる。組み込みLinuxデバイスとタイムサーバとの間で、非常に小さなターンアラウンドタイムがある。この前提は、2014年の世界の全インターネット端末については正しかった。将来的に、ルーター技術の向上と電気ケーブルを光ケーブルに置換することとで、ターンアラウンドタイムは更に短くなり、それによって音声トラックの時間差の問題は完全に解消するであろう。EMシステムに小型の原子時計を取り付けることは、将来の解決策である。
JBM2装置を制御するために、以下の手順が採用されている。
EMシステムにおいて―
ユーザーが再生ボタンを押下した場合、「再生時刻」は2017-03-17_10:23:59.001(OSエポックタイム、精度1ミリ秒)が得られる。
次いで、「『再生時刻』に再生開始」という情報がこのEMシステム内の全てのスピーカーに送信される。
JBM2の場合―
「『再生時刻』に再生開始」という受信情報に基づいて、この情報の時刻が得られ、JBM2装置のローカル時刻がチェックされ、ローカル時間が「再生時刻」に達している場合は、アクションが実行される。
注意―
リストの再生を開始するには或るプロセスが必要であり、例えば、フォークを使用するプロセスが必要である。
インターネット通信は、TCP/IPを遵守している。このようにして、高品質情報伝送を確実にすることができる。
<スピーカーの音響を同期させる―オペレーティングシステム(OS)とマルチタスク考>
ほとんどの現代の計算機のオペレーティングシステムは、マルチタスクシステムである。様々な理由から、スピーカーの作動プログラムは目下のところ他のプログラムから独立している。その結果、各スピーカーの音響再生の開始時刻が不明である。
同じEM音声を再生する任意の2つのスピーカー間の時間差は20ミリ秒以下であり、任意の2つのスピーカーの同期期間が10秒を超過しないのがよい。
上記の要件を満たすために、本願は、以下の二つの方法を採用している。
方法1―ハードウエアとOSは同じ資源、同じ構成、同じ作動プログラム、および、同じ仕様のものを使用する。
方法2―「ロック−報告−取消し−アラームクロック−処理」アルゴリズムを採用する。
評価―
1)同一のハードウエアの2以上の部材を購入する顧客は、方法1を採用するとよい。
2)混合ハードウエア(例えば、IPhoneとコンピュータの組合せなど)を選んだ顧客は、同期問題にぶつかることがある。同期という同じ問題は以下のエンドポイントでも発現する。すなわち、同一エンドポイントの多様な物体が同じ楽曲の再生を試行している場合であり、これら多様な物体の具体例として、冷蔵庫とティーカップと携帯電話が挙げられる。この事例で方法2を採用してもよい。
3)古いハードウエアに新しいハードウエアを追加した顧客も同期という問題に遭遇するが、これは、古いハードウエアが相互識別可能であるのに対して、新しいハードウエアはより進歩している可能性があり、新しいハードウエアと古いハードウエアの双方のハードウエア仕様とソフトウエア仕様が異なっているせいである。この事例には方法2を採用するとよい。
4)一体型システムには、同期の問題はない。
<「ロック−報告−取消し」処理プロセス―アルゴリズム>
同じEMXファイルを再生する任務を負っているJBM2装置については、「ロック−報告−取消し」処理プロセスは、以下の工程を含む。
1)音量を0%に調整する。
2)音声処理モジュールを唯一の用途に制限する。
3)標的再生時刻のためにローカルクロックをリアルタイムで確認し、標的再生時刻が到来した時に音声データブロックを音声ハードウエアに取り込む。
4)音声データブロックの現実の再生時刻をEMシステムに送信することにより、音声データブロックの現実の再生時刻を決定し、EMシステムに報告する。
5)EMシステムの結果応答を待つ。
6)この結果応答が「取消して、音声処理モジュールの制限された開始時刻に関して音声処理モジュールの制限をやり直せ」であった場合は、再生が停止され、工程2が再開される。
7)7秒のうちに音量を一気に100%に調整する。
EMシステムでは―
1)スピーカー群の全てのスピーカーの全ての報告を待って収集する。
2)スピーカー群が時間差の要件を満たしているかどうかを確認するために、全ての報告を比較する。
3)スピーカー群の全てのデバイスに工程2の情報を送信する。いずれのスピーカーであれ要件を満たしていない場合、そのスピーカーが「取消して、音声処理モジュールの制限された開始時刻に関して音声処理モジュールの制限をやり直せ」を送信する。そうでなければ、「成功」を出す。
4)いずれかのスピーカーが要件を満たしていない場合は、工程1が再開される。
アルゴリズムの評価
1)小規模なシステムでは、JBM2の50単位未満の資源、基本的なハードウエア、ネットワーク、および、ソフトウエアが十分であること。
2)大規模なシステムでは、JBM2の10万単位の資源、ネットワーク、および、EMシステムが以下のとおりであることを必要とする。
a)十分なネットワーク資源である。
b)ネットワークは反応遅延が少なく、従って、長期化する「聴取者の待ち時間」を回避している。
c)EMシステムの処理資源が十分であり、これにより膨大な通信情報を同期送受信することを企図しているが、例えば、処理資源が10万単位ある。
<複数のRTMP(リアルタイム・メッセージ・プロトコル)データストリームを放送>
アドビ社のRTMPに基づいて、EMの放送局はRTMPでEM音声を提供する。1のRTMPデータストリームが1の音声トラックで相応じて再生される。
ローカルEMシステムは、音声データを復号化してから同期化法により全てのスピーカーの再生プロセスを同期化するようにした、ストリームメディアを採用する。
放送局マスターリストのファイル形式は、M3Uファイル形式である。
EMシステムは、予め配置された中央サーバーにM3U局リストをダウンロードする。選択インタフェースは、M3U局の選択を行うためにユーザーに提供される。
その後、EMシステムは、M3U局に接続されて、RTMPを使用することにより全ての音声トラックのコンテンツの同期ダウンロードを開始する。次に、復号化、同期、および、再生がEMシステムのスピーカーで遂行される。
<スピーカーロボットの詳細設計―WiFi経由でEMシステムに接続され、ソフトロボット音楽家ソフトウエアが内部インストールされた、ロボット車輪および垂直レールを備えている万能スピーカー、すなわち、スピーカーロボットA>
万能スピーカーに基いて、このスピーカーロボットは更に以下のものを備えている。
1)基体。
a)基体は高容量の電池を備えており、基体のドッキングステーションにより、または、電源に接続することにより、電池は反復充電することができる。
b)基体は、高容量の電池により動力供与される内蔵型JBM2を備えている。JBM2はまた、WiFi経由でEMシステムに接続されている。
c)ロボット車輪は基体の最下部に配備され、大容量電池により動力供与される。ロボット車輪の制御信号線はJBM2の背面側に配備されている。
d)基体は、その最下部に光学センサが更に配備され、レールの色を特定することを企図している。
e)基体は、その内部にスピーカーが更に受容されている。スピーカーは、音声信号を介してJBM2に接続されている。単一トラックスピーカーラインがスピーカーに接続されている。
f)基体は、その周囲の遮蔽物体を検出するためのセンサを更に含んでいる。
2)垂直ロボットアームは基体に配備されている。スピーカーは、ロボットアームの最上部に配置されている。サーボ機構はJBM2の後部に配備されている。垂直ロボットアームは、運動プラットフォームを有しており、2つの部分、または、単純な垂直レールから構成されているようにすることができる。
3)JBM2の内部に構築されている付加的ソフトウエアモジュールは、このスピーカーロボットの最下部でレール信号を識別し、EMXファイルからの復号化位置情報および直接情報に基いて、スピーカーの垂直高さは元よりスピーカーロボットのどの部位が動くかを確定する。 EMXファイル情報は、原初の発音体の位置や方向を模倣するロボット姿勢でマッピングされている。
4)ソフトウエアモジュールは、随時、衝突回避も実行する。
<関連アクセサリー>
1)ドッキングステーション―ロボットの使用を終えた後、ロボットをドッキングステーションに戻すことができる。ドッキングステーションは、ロボットの原初位置である。ドッキングステーションは、バッテリ充電器として使用され、それらが完全に充電されるまで、ロボットの高容量の電池を自動的に充電することができる。
<ソフトロボット音楽家ソフトウエアの設計>
ソフトロボット音楽家ソフトウエアには以下の特徴がある。
1)全ての音声トラックは同じビートで録音される必要がある。
2)楽曲の拍数(例えば、4分の4拍子の曲)を含んでいる少なくとも1つの基準MIDI音声トラックが利用可能である。
3)基準旋律調―正確な調律データは、ソフトロボット音楽家ソフトウエアで使用可能なチューニングである。
4)EMXファイル内の調音と和音を設定する。
前述の条件の全てを保有している場合、どのJMB2についても、Linuxシステムの組み込み仮想マシンで作動するソフトロボットをユーザーが選択的に初期化することができる。
ユーザは、1の発音体に対応している1または複数のソフトロボットを初期化し、1または複数のソフトロボットをスピーカーのところに送ることができるが、最大移動復元力を実現するためには、1体のソフトロボットしかスピーカーに配給しない。ユーザーは、多様なパラメータを有している同じソフトロボットに基いて、もう1体のソフトロボットを初期化または選択的に利用することができる。例えば、フェンダー・ストラトキャスター発音体の2体のソフトロボットは2つのスピーカーに分配される。一方のスピーカーは和音を演奏するためのものであり、他方のスピーカーはソロ演奏のためのものである。主要3和音の独鳥発音体の追加のソフトロボットがこれらスピーカーのうち一方に分配される。
全ての発音体は対応する人工知能(AI)モジュールに基準の旋律調、拍数、調音、および、既存の和音を追加し、既存の和音に合うように作られる音響を決定する。発音体は既存の和音から、打楽器のビート、鳥の歌、または、感情表現を象徴的に出すことができるばかりか、前の演奏に戻ったり次の演奏に進んだり、打楽器の律動を参考にし、尚且つ、AIの多様な要素を利用する。
<娯楽>
スピーカーロボットの動きを見ても聴衆を愉快がらせることはないが、全てのスピーカーロボットに光学装置や液晶ディスプレイを付加することで、スピーカーの動きをより愉快なものにすることができる。例えば、単純な音量レベルに合わせて光るLED線条、または、単純なレベルのレーザー銃ショーが、スピーカーロボットの運動に加えられてもよい。
<ロボット家具の詳細設計>
ROBO椅子の特徴がスピーカーロボットAのもの(WiFi経由でEMシステムに接続され、ソフトロボット音楽家ソフトウエアが内部にインストールされている、ロボット車輪および垂直レールを備えた万能スピーカー)と同じである場合、これは普通のスピーカーの代替とするために用いられる。 ROBO椅子は軌道を進むだけで位置決めされ、または、背壁上の基準点により特定の高さに配置することができる。安全のために、どのロボットアームもROBO椅子上に配備されているのはROBO椅子を持ち上げるためではない。ROBO椅子の上には、1つよりむしろ2つのスピーカーが配置されて、2つのスピーカーのうち一方はROBO椅子の左側にあり、他方は右側にある。聴取者がROBO椅子に座っている場合は、2つのスピーカーが聴取者の両耳に直面する。
ROBO椅子は、1座席、2座席、または、複数座席を有している。ROBO椅子の座席は多様なデザイン、多様な素材、および、多様なタイプを採用してもよい。ROBO椅子はマッサージ機能も有している。しかし、これら要素は全て、移動部材、バッテリ容量、および、バッテリ可用時間によって決まるサーボトルクおよびノイズレベルと平衡がとれた状態を維持する必要がある。
ROBOスタンドは汎用に適した起立フレームであり、LEDテレビ画面を支持することを企図している。ROBOスタンドとROBO椅子の違いは以下のとおりである。ROBO椅子は、ROBOスタンドに置換されてもよく、滑らかな動きで堅固かつ安全に有効負荷を支持することができる。
<WAM(ワイド・エリア・メディア)再生―アルゴリズム>
1.LAN内のEMシステムの全てのスピーカーは登録される。どのスピーカーも俯角で床面に投影される。スピーカーごとに全てマークされる。
2.EMシステムのどのスピーカーも、ユーザインターフェース上に記録(スピーカー、有効マーク、および、音量レベル)される。ユーザインタフェースは、APP、PCソフトウエア、iPADのウェブページであってもよい。
3.エンドポイントミキシングの最中は、要件に応じて、必要なスピーカーが提供される。
4.2秒間休止する。
5.工程2に戻る。
注意―EMシステムと全てのJBM2との間の通信は、TCP/IPに基づいている必要がある。EMシステムと全てのJBM2との間でリンクが既に確立されているものとする。EMシステムと全てJBM2が同じLAN内にある場合、または、インターネットの外に隔絶状態にある場合は、EMシステムと全てのJBM2との間のリンクを確立するために、仮想プライベートネットワーク(VPN)がTCP/IPに準拠するように確立される必要がある。
<EMXファイルの構造>
EMSファイルには、以下の情報を含んでいる。
ファイルの種類;
バージョン番号。
DRM(デジタル著作権管理)情報、所有者、著作権情報。
音声データ
位置指定情報
ソフトロボット音楽家用に限定した情報
音声トラックのメタデータ――音声トラックの詳細に関する情報、例えば、楽器のタイプおよび詳細なモデル、音楽家の名前、作詞家の名前、作曲家の名前、歌手の名前など。
音声トラック間のステレオ結合関係。
前述の内容によれば、本発明は、以下の工程を含む、EM再生方法を提供する。
原初環境の複数の発音体に対応している複数のマイクロフォンと、タイプおよびサイズが原初環境のものに一致しているエンドポイント環境と、複数のマイクロフォンに1対1で対応しており、対応しているマイクロフォンに通信式に接続されている複数の音響シミュレーション装置とを設け、どの音響シミュレーション装置も、該音響シミュレーション装置に対応している発音体が原初環境で置かれていた位置と一致するような、エンドポイント環境のエンドポイント位置に配備し、複数の音声シミュレーション装置に通信式に接続された運動追跡装置を設ける工程(S0)。
複数のマイクロフォンが、それらに対応する複数の発音体の音響を音声トラックにそれぞれ同期録音し、運動追跡装置が複数の発音体の運動状態を運動状態ファイルに同期記録する工程(S1)。
複数の音響シミュレーション装置がそれらに対応する発音体の、運動状態ファイルに記録された運動状態で同期運動し、それらに対応するマイクロフォンによってそれぞれに録音された音声トラックを同期再生し、それによりEMを実行する工程(S2)。
また、工程S1は以下のことを更に含んでいる。複数のマイクロフォンのうちのいくつかまたは全てに通信式に接続されているとともに、複数のマイクロフォンの一部または全部に対応している音響シミュレーション装置に同様に接続されている音響修正装置を設け、複数のマイクロフォンの一部または全てによってそれぞれに録音されている、音声トラックの音質を修正し、または、複数のマイクロフォンの一部または全てによってそれぞれに録音されている音声トラックに対して音響効果を向上させる。
工程S2は以下のことを更に含んでいる。複数のマイクロフォンの一部または全部に対応している音響シミュレーション装置は、これらに対応している、音響修正装置により修正された音声トラックを同期再生する。
本発明は、複数のマイクロフォンにより複数の発音体の音響をそれぞれに音声トラックに録音し、発音体の位置に対応している複数のスピーカーにより、対応している音声トラックを再生し、それによりEM音声を再生し、現場にある発音体によって演奏されている音響を再生することができるとともに、非常に良好な音質効果を奏することができる。
当業者であれば前述の説明に基づいて修正または変更を行うことができることが分かるはずである。このような修正および変更は全て、本発明の特許請求の範囲の保護範囲に入るものとする。

Claims (10)

  1. 原初環境の複数の発音体に対応している複数のマイクロフォンを設け、タイプおよびサイズが前記原初環境のものに一致しているエンドポイント環境を設け、複数の前記マイクロフォンに1対1で対応しており、対応している前記マイクロフォンに通信式に接続されている複数の音響シミュレーション装置を設け、前記音響シミュレーション装置は各々が、該音響シミュレーション装置に対応している発音体が前記原初環境で置かれていた位置と一致するような、前記エンドポイント環境のエンドポイント位置に配備され、複数の前記音声シミュレーション装置に通信式に接続された運動追跡装置を設ける工程(S0)と、
    複数のマイクロフォンが、それらに対応する複数の発音体の音響を音声トラックにそれぞれ同期録音し、前記運動追跡装置が複数の前記発音体の運動状態を運動状態ファイルに同期記録する工程(S1)と、
    複数の前記音響シミュレーション装置がそれらに対応する発音体の、前記運動状態ファイルに記録された前記運動状態で同期運動し、それらに対応する前記マイクロフォンによってそれぞれに録音された音声トラックを同期再生し、それによりEM音を再生する工程(S2)と、
    を含むことを特徴とする、エンドポイントミキシング再生方法。
  2. マイクロフォンはいずれも、それが対応している前記発音体に対向しており、どのマイクロフォンもそれに対応している前記発音体との間の距離が同一であることを特徴とする、請求項1に記載のエンドポイントミキシング再生方法。
  3. 前記音響シミュレーション装置はスピーカーを備えていることを特徴とする、請求項2に記載のエンドポイントミキシング再生方法。
  4. 前記音響シミュレーション装置はスピーカーロボットを備えており、前記スピーカーロボットは各々がその最下部にロボット車輪を、その最上部にロボットアームを備えており、前記スピーカーは前記ロボットアームのハンド部に配備されており、
    工程S2は、前記スピーカーロボットはそれぞれに対応している前記発音体の、前記運動状態ファイルに記録された運動軌跡に沿って運動することを更に含むことを特徴とする、請求項3に記載のエンドポイントミキシング再生方法。
  5. 前記音響シミュレーション装置はスピーカーロボットを備えており、前記スピーカーロボットは各々がその最下部にロボット車輪を、その最上部にロボットアームを備えており、前記スピーカーは前記ロボットアームの前記ハンド部に配備されており、
    工程S0はロボット家具を提供することを更に含んでおり、前記ロボット家具は、聴取者を乗せることができる可動ロボット椅子と、映像再生用の表示画面または映写画面を支持している可動ロボットスタンドとを備えており、
    工程S2は、前記エンドポイント環境で前記ロボット椅子、前記ロボットスタンド、および、スピーカーロボットを同期移動させて、これらの相対位置を維持することを更に含むことを特徴とする、請求項3に記載のエンドポイントミキシング再生方法。
  6. 前記スピーカーは、モーター制御されたガイドレールに滑動自在に配備されており、
    工程S2は、前記スピーカーが、それらに対応している発音体の、前記運動状態ファイルに記録された運動軌跡に沿って前記レール上を移動することを含むことを特徴とする、請求項5に記載のエンドポイントミキシング再生方法。
  7. 全てのスピーカーはWiFiによって連結されていることを特徴とする、請求項3〜請求項6のいずれか1項に記載のエンドポイントミキシング再生方法。
  8. 工程S1は、複数の前記マイクロフォンのうちの一部または全部に通信式に接続されているとともに、複数の前記マイクロフォンのうち一部または全部に対応している前記音響シミュレーション装置に通信式に接続されている音響修正装置を設け、前記音響修正装置は、複数の前記マイクロフォンの一部もしくは全部によりそれぞれ録音されている音声トラックの音質を修正するか、または、複数の前記マイクロフォンのうち一部または全部によりそれぞれに録音された前記音声トラックに対する音響効果を向上させることを含み、
    工程S2は、前記複数のマイクロフォンのうち一部または全部に対応している前記音響シミュレーション装置が、それらに対応している、前記音響修正装置により修正された音声トラックを同期再生することを含むことを特徴とする、請求項7に記載のエンドポイントミキシング再生方法。
  9. 複数の前記マイクロフォンにより録音された前記音声トラックは、EMXファイル形式で保存されることを特徴とする、請求項8に記載のエンドポイントミキシング再生方法。
  10. エンドポイントミキシングシステムは、
    複数のマイクロフォンであって、これらに複数の発音体が原初環境で対応づけられて、それぞれに対応している発音体の音響を音声トラックに同期録音することが企図されているマイクロフォンと、
    複数の発音体の運動状態を運動状態ファイルに同期記録する運動追跡装置と、
    タイプおよびサイズが原初環境のものに一致しているエンドポイント環境と、
    複数の音響シミュレーション装置とを備えており、
    前記音響シミュレーション装置は複数の前記マイクロフォンに1対1で対応しており、対応している前記マイクロフォンおよび前記運動追跡装置に通信式に接続されており、対応している前記発音体の、前記運動状態ファイルに記録されている前記運動状態で同期運動し、対応している前記マイクロフォンによって録音された前記音声トラックを同期再生し、それによりエンドポイントミキシング音声を再生し、
    どの音響シミュレーション装置も、該音響シミュレーション装置に対応している前記発音体が原初環境で置かれていた位置と一致するような、前記エンドポイント環境のエンドポイント位置に配備されるようにしたことを特徴とする、エンドポイントミキシングシステム。
JP2016565188A 2014-05-08 2015-03-13 エンドポイントミキシングシステムおよびその再生方法 Active JP6285574B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
HK14104355.5A HK1195445A2 (en) 2014-05-08 2014-05-08 Endpoint mixing system and reproduction method of endpoint mixed sounds
HK14104355.5 2014-05-08
PCT/CN2015/074243 WO2015169124A1 (zh) 2014-05-08 2015-03-13 终端混音系统和播放方法

Publications (2)

Publication Number Publication Date
JP2017520139A true JP2017520139A (ja) 2017-07-20
JP6285574B2 JP6285574B2 (ja) 2018-02-28

Family

ID=51845045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016565188A Active JP6285574B2 (ja) 2014-05-08 2015-03-13 エンドポイントミキシングシステムおよびその再生方法

Country Status (7)

Country Link
US (1) US9986364B2 (ja)
EP (1) EP3142383B1 (ja)
JP (1) JP6285574B2 (ja)
CN (1) CN106465008B (ja)
DK (1) DK3142383T3 (ja)
HK (1) HK1195445A2 (ja)
WO (1) WO2015169124A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190076845A (ko) * 2017-12-22 2019-07-02 주식회사 오드아이앤씨 공연 음악 플랫폼 시스템

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HK1195445A2 (en) * 2014-05-08 2014-11-07 黃偉明 Endpoint mixing system and reproduction method of endpoint mixed sounds
CN107566949A (zh) * 2016-06-30 2018-01-09 上海博泰悦臻网络技术服务有限公司 一种音效配置方法、系统、一种均衡器以及一种电子设备
HK1219390A2 (zh) * 2016-07-28 2017-03-31 Siremix Gmbh 終端混音設備
USD841621S1 (en) * 2016-12-29 2019-02-26 Facebook, Inc. Electronic device
US11853076B1 (en) 2017-07-21 2023-12-26 AI Incorporated Virtual reality concert system
US10317505B1 (en) 2018-03-29 2019-06-11 Microsoft Technology Licensing, Llc Composite sound output for network connected devices
CN110534110B (zh) * 2018-05-25 2022-04-15 深圳市优必选科技有限公司 一种机器人及提高其语音交互识别率的方法、装置和电路
USD888684S1 (en) * 2018-10-10 2020-06-30 Xiaofeng Gu Leopard headphone
CN110392276B (zh) * 2019-07-29 2021-06-22 湖南卡罗德音乐集团有限公司 一种基于rtmp协议同步传输midi的直播录播方法
US11496854B2 (en) 2021-03-01 2022-11-08 International Business Machines Corporation Mobility based auditory resonance manipulation
CN114666721B (zh) * 2022-05-05 2024-02-06 深圳市丰禾原电子科技有限公司 一种具有终端跟踪模式的wifi音箱及其控制方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0377500A (ja) * 1989-08-19 1991-04-03 Sanyo Electric Co Ltd 音場補正装置
JPH06318087A (ja) * 1993-05-07 1994-11-15 Mitsui Constr Co Ltd 舞台用音響制御方法と装置
JPH09205607A (ja) * 1996-01-25 1997-08-05 Sony Corp ビデオ記録装置および再生装置
JPH09219898A (ja) * 1996-02-13 1997-08-19 Tsunenari Kojima 電子音響装置
JP2000010560A (ja) * 1998-06-18 2000-01-14 Yamaha Corp 自動演奏装置およびフィンガリング記録装置
JP2003348698A (ja) * 2002-05-24 2003-12-05 Sony Corp 音響提示システムと音響提示制御装置と音響提示制御方法及び音響提示制御プログラム
JP2004219914A (ja) * 2003-01-17 2004-08-05 Sony Corp 情報伝送方法、情報伝送装置、情報記録方法、情報記録装置、情報再生方法、情報再生装置および記録媒体
JP2006142407A (ja) * 2004-11-17 2006-06-08 Sanyo Electric Co Ltd ロボット装置およびロボット装置システム
TW201225696A (en) * 2010-12-03 2012-06-16 Merry Electronics Co Ltd Interactive sound playback

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3705957A (en) * 1970-02-19 1972-12-12 David S Goldsmith Translational,rotational and vertical movement controlled sound source pick-up system
JP4423790B2 (ja) 2001-01-11 2010-03-03 ソニー株式会社 実演システム、ネットワークを介した実演方法
US8483757B2 (en) * 2004-01-09 2013-07-09 Revo Labs, Inc. Wireless multi-user audio system
US20070183618A1 (en) * 2004-02-10 2007-08-09 Masamitsu Ishii Moving object equipped with ultra-directional speaker
JP2005333211A (ja) * 2004-05-18 2005-12-02 Sony Corp 音響収録方法、音響収録再生方法、音響収録装置および音響再生装置
JP4629388B2 (ja) * 2004-08-27 2011-02-09 ソニー株式会社 音響生成方法、音響生成装置、音響再生方法及び音響再生装置
JP3112258U (ja) * 2005-05-02 2005-08-04 株式会社アガツマ 発音玩具
US20120306907A1 (en) 2011-06-03 2012-12-06 Huston Charles D System and Method for Inserting and Enhancing Messages Displayed to a User When Viewing a Venue
JP4678505B2 (ja) * 2005-08-16 2011-04-27 ソニー株式会社 2輪走行装置及び走行停止方法
US20080304677A1 (en) * 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
US20090238378A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Enhanced Immersive Soundscapes Production
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
JP5446275B2 (ja) * 2009-01-08 2014-03-19 ヤマハ株式会社 拡声システム
CN101590323B (zh) * 2009-07-08 2012-10-31 北京工业大学 独轮机器人系统及其控制方法
US20110096941A1 (en) * 2009-10-28 2011-04-28 Alcatel-Lucent Usa, Incorporated Self-steering directional loudspeakers and a method of operation thereof
CN103299649A (zh) * 2010-10-22 2013-09-11 Dts(英属维尔京群岛)有限公司 媒体分配架构
EP3893521B1 (en) * 2011-07-01 2024-06-19 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US9445174B2 (en) * 2012-06-14 2016-09-13 Nokia Technologies Oy Audio capture apparatus
CN103941223B (zh) * 2013-01-23 2017-11-28 Abb技术有限公司 声源定位系统及其方法
US10129658B2 (en) * 2013-07-22 2018-11-13 Massachusetts Institute Of Technology Method and apparatus for recovering audio signals from images
HK1195445A2 (en) * 2014-05-08 2014-11-07 黃偉明 Endpoint mixing system and reproduction method of endpoint mixed sounds

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0377500A (ja) * 1989-08-19 1991-04-03 Sanyo Electric Co Ltd 音場補正装置
JPH06318087A (ja) * 1993-05-07 1994-11-15 Mitsui Constr Co Ltd 舞台用音響制御方法と装置
JPH09205607A (ja) * 1996-01-25 1997-08-05 Sony Corp ビデオ記録装置および再生装置
JPH09219898A (ja) * 1996-02-13 1997-08-19 Tsunenari Kojima 電子音響装置
JP2000010560A (ja) * 1998-06-18 2000-01-14 Yamaha Corp 自動演奏装置およびフィンガリング記録装置
JP2003348698A (ja) * 2002-05-24 2003-12-05 Sony Corp 音響提示システムと音響提示制御装置と音響提示制御方法及び音響提示制御プログラム
JP2004219914A (ja) * 2003-01-17 2004-08-05 Sony Corp 情報伝送方法、情報伝送装置、情報記録方法、情報記録装置、情報再生方法、情報再生装置および記録媒体
JP2006142407A (ja) * 2004-11-17 2006-06-08 Sanyo Electric Co Ltd ロボット装置およびロボット装置システム
TW201225696A (en) * 2010-12-03 2012-06-16 Merry Electronics Co Ltd Interactive sound playback

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190076845A (ko) * 2017-12-22 2019-07-02 주식회사 오드아이앤씨 공연 음악 플랫폼 시스템
KR102224216B1 (ko) * 2017-12-22 2021-03-08 주식회사 오드아이앤씨 공연 음악 플랫폼 시스템

Also Published As

Publication number Publication date
US9986364B2 (en) 2018-05-29
JP6285574B2 (ja) 2018-02-28
CN106465008A (zh) 2017-02-22
EP3142383A1 (en) 2017-03-15
EP3142383B1 (en) 2019-04-17
WO2015169124A1 (zh) 2015-11-12
CN106465008B (zh) 2018-04-17
US20170055100A1 (en) 2017-02-23
EP3142383A4 (en) 2018-01-10
DK3142383T3 (da) 2019-07-22
HK1195445A2 (en) 2014-11-07

Similar Documents

Publication Publication Date Title
JP6285574B2 (ja) エンドポイントミキシングシステムおよびその再生方法
US10595147B2 (en) Method of providing to user 3D sound in virtual environment
US11437004B2 (en) Audio performance with far field microphone
Hunt et al. Multiple media interfaces for music therapy
CN110915240B (zh) 向用户提供交互式音乐创作的方法
Collins Studying Sound: A Theory and Practice of Sound Design
Bartlett Stereo microphone techniques
KR101809617B1 (ko) 마이콘서트시스템
Abel et al. Live Auralization of Cappella Romana at the Bing Concert Hall, Stanford University
JP5486941B2 (ja) 聴衆に唱和をうながす気分を楽しむカラオケ装置
Huber et al. Modern Recording Techniques: A Practical Guide to Modern Music Production
FR3110758A1 (fr) Dispositif de réalité virtuelle et/ou de réalité augmentée, système et méthodes correspondantes
Hamilton Perceptually coherent mapping schemata for virtual space and musical method
Dahlie In Concert with…: Concert Audio Engineers and Arena Sound Systems, 1965-2018
Morrill Loudspeakers and performers: some problems and proposals
RU2715958C2 (ru) Способ раздельного синхронного воспроизведения с использованием поющей куклы, управляемой со смартфона или компьютера
Dehaan Compositional Possibilities of New Interactive and Immersive Digital Formats
Des Allimes Portfolio of Original Compositions
Brech Three-Dimensional Kunstkopf Music and Audio Art
Munoz Space Time Exploration of Musical Instruments
Abel et al. 10 Live auralization of Cappella Romana at the Bing Concert Hall, Stanford University
Blessing Living Room Orchestra: Designing Embedded Furniture as a Family of Electronic Musical Instruments
Harju Exploring narrative possibilities of audio augmented reality with six degrees of freedom
Corah A framework for site-specific spatial audio applications
Morris FERIN MARTINO’S TOUR: LESSONS FROM ADAPTING THE SAME ALGORITHMIC ART INSTALLATION TO DIFFERENT VENUES AND PLATFORMS

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171215

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171218

TRDD Decision of grant or rejection written
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180201

R150 Certificate of patent or registration of utility model

Ref document number: 6285574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250