JP7242764B2 - 遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム - Google Patents

遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム Download PDF

Info

Publication number
JP7242764B2
JP7242764B2 JP2021104993A JP2021104993A JP7242764B2 JP 7242764 B2 JP7242764 B2 JP 7242764B2 JP 2021104993 A JP2021104993 A JP 2021104993A JP 2021104993 A JP2021104993 A JP 2021104993A JP 7242764 B2 JP7242764 B2 JP 7242764B2
Authority
JP
Japan
Prior art keywords
performance
musician
audio
timing information
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021104993A
Other languages
English (en)
Other versions
JP2022008251A (ja
Inventor
アルビー,ガルテン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2022008251A publication Critical patent/JP2022008251A/ja
Application granted granted Critical
Publication of JP7242764B2 publication Critical patent/JP7242764B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/0635Clock or time synchronisation in a network
    • H04J3/0638Clock or time synchronisation among nodes; Internode synchronisation
    • H04J3/0658Clock or time synchronisation among packet nodes
    • H04J3/0661Clock or time synchronisation among packet nodes using timestamps
    • H04J3/0667Bidirectional timestamps, e.g. NTP or PTP for compensation of clock drift and for compensation of propagation delays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/0635Clock or time synchronisation in a network
    • H04J3/0638Clock or time synchronisation among nodes; Internode synchronisation
    • H04J3/0658Clock or time synchronisation among packet nodes
    • H04J3/0661Clock or time synchronisation among packet nodes using timestamps
    • H04J3/0664Clock or time synchronisation among packet nodes using timestamps unidirectional timestamps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/10Active monitoring, e.g. heartbeat, ping or trace-route
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/245Ensemble, i.e. adding one or more voices, also instrumental voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

関連出願の相互参照
本出願は2020年6月25日出願の米国非仮特許出願第16/912,569号(発明の名称「Methods and Systems for Performing and Recording Live Internet Music Near Live with No Latency」)の優先権主張するものである。上記出願は、2020年6月25日出願の米国非仮特許出願第16/912,578号(発明の名称「Methods and Systems for Performing and Recording Live Internet Music Near Live with no Latency」)に関連する。上記二出願はその全体をここに参照援用する。
本開示は、音楽演奏及びレコーディングの分野、ならびにネットワークの遅延及び同期に関する。
音楽は通常、同時演奏と非同時演奏を組み合わせてレコーディングされている。つまり、一部またはすべてのミュージシャンが、一度に音楽を演奏し、それが1回の演奏として録音されている。本来、すべての音楽は、すべてのミュージシャンが1度に1回の演奏として演奏して録音されていた。1950年代には、レスポールは最初にマルチトラックレコーダーを創作し、事前に録音された音楽パートの上に第2の音楽パートが演奏できるようになった。その後、ミュージシャンは最初の録音で1つ以上の楽器の録音を開始し、その後に他の楽器を追加することにした。これはオーバーダビングとして知られている。
過去20年間、ミュージシャンは、異なる場所で他のミュージシャンとライブで(同時に)演奏ができることを常に望んでいたが、このことはある程度行われてきたものの、ほとんどの音楽スタイルにおいて、ネットワーク遅延は有効なレコーディングを行うには過大である。優れたミュージシャンは、数ミリ秒程度の不正確性で調子やドラムビートが「調子外れ」していても気付くことになる。光速でもロサンゼルスからニューヨークまでは約13ミリ秒(往復で26ミリ秒)要し、そのためミュージシャンがリアルタイムで一緒に演奏するにはこの遅延は過大である。
例示的な実施形態は、遅延を伴わずにニアライブでライブインターネット音楽を演奏及び録音するためのシステム及び方法を提供する。
例示的な方法は、プロセッサが、電子カウントインを生成するためにメモリ内に格納された命令を実行すること、電子カウントインを第1の演奏にバインドしてマスタークロックを生成すること、ならびに第1のミュージシャンの第1の演奏及び第1のタイミング情報をネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信することを含む。第1のミュージシャンの第1の演奏は、現場においてフル解像度でレコーディングされ、フル解像度のメディアサーバに送信され得、第1のタイミング情報は、マスタークロックに送信され得る。代替的に、第1のミュージシャンの第1の演奏の低解像度バージョンは、圧縮オーディオメディアサーバに送信され得、第1のタイミング情報はマスタークロックへ送信され得る。
続いて、例示的な実施形態によれば、第1のミュージシャンの第1の演奏は、第2のミュージシャンのサウンドデバイスに送信され、第2のミュージシャンは、第2の演奏を創作し、それと第2のタイミング情報をネットワークキャッシング、ストレージ、タイミング及びミキシング用モジュールに送信する。第1及び第2の演奏は、第1及び第2のタイミング情報と共にミックスされて、第1のミックスオーディオを生成し、これは、第3のミュージシャンのサウンドデバイスに送信されることができる。第3のミュージシャンは、第3のパフォーマンス及び第3のタイミング情報を創作し、これは第1のミックスオーディオとミックスされて、第2のミックスオーディオを生成する。このプロセスは、最後のミュージシャンが演奏して録音するまで繰り返されている。
メディアのネットワークキャッシング、ストレージ、タイミング、及びミキシング用の例示的なシステムは、ネットワークをピング(ping)し、第1のユーザデバイスへの帯域幅を決定するように構成されたインターネット帯域幅テストモジュールと、インターネット帯域幅テストモジュールに通信可能に結合された品質/遅延設定モジュールであって、帯域幅に基づいてメディアの解像度を判定するように構成された品質/遅延設定モジュールと、品質/遅延設定モジュールに通信可能に結合されたネットワークオーディオミキサーであって、判定された解像度に従ってメディアを第1のユーザデバイスに送信するように構成されたネットワークオーディオミキサーと、を含む。システムは、第1のユーザデバイスからメディア及びマスタークロック用の時間同期コードを受信するように構成されたフル解像度メディアサーバ、及び/または第1のユーザデバイスからメディア及びマスタークロック用の時間同期コードを受信するように構成された圧縮メディアサーバを含む。
続いて、様々な例示的な実施形態によれば、インターネット帯域幅テストモジュールは、ネットワークをピングし、第2のユーザデバイスに送信されるメディアの解像度を決定するために、第2のユーザデバイスへの帯域幅を判定する。さらなる例示的な実施形態では、メディアは、複数のミュージシャンの演奏を組み合わせた単一のミックストラックであり、演奏はある範囲の解像度を有している。この場合、フル解像度メディアサーバと圧縮メディアサーバの両方がメディアをネットワークオーディオミキサーに送信し、ネットワークオーディオミキサーはメディアを第2のユーザデバイスに送信する。システムは、第2のユーザデバイスから演奏を受信し、それを単一のミックストラックにミックスする。
インターネット帯域幅、遅延、品質、及びメディアのミキシングを管理するための例示的なシステムは、一定期間にわたって帯域幅を測定するための構成要素を制御するメモリに格納された命令を実行するプロセッサ、さまざまな圧縮レベルを変化させる構成要素、及び品質が経時的に変化する共通のタイムコードを使用して、さまざまな解像度をシームレスにつなぎ合わせるための構成要素を含む。すべての構成要素は互いに通信可能に結合され、単一フェーダーにバス接続されている。
本発明の上述の目的及び更なる目的、特徴、ならびに利点は、特に、添付の図面と併用されるときに、いくつかの具体的な実施形態の以下の詳細な説明を考慮して明確になることになり、様々な図面における同様の参照番号は、同様の構成要素を指定するために利用されている。
ミュージシャン、ネットワークサービス、及びオーディエンスを示すアーキテクチャの高レベル図である。 第1のミュージシャン、ネットワークスタック、及び送信スタックの詳細を示している。 時間が音楽サンプルとどのように関連しているかを示している。 これがオーディオだけでなくビデオでも使用できることを示している。 第2の(及びそれ以降の)ミュージシャン(複数可)に関連するネットワークスタック及び送信スタックを示している。 チェーン内のミュージシャンがネットワークスタック及び送信スタックによってどのように接続されているか、そして再生同期と帯域幅がどのように最適化されているかを示している。 音楽が1人のミュージシャンから次のミュージシャンに移動するときに、ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールがどのように連携するかを示している。 インターネットの帯域幅、遅延、品質、及びミキシングがどのように連携するかを示している。 さまざまな解像度で個々の演奏が作成されることができる方法を示している。 例示的なジャムバンドのシナリオを示している。 ジャムバンドシナリオのための例示的なタイミング状況を示している。 例示的な演劇用ポッドキャストのシナリオを示している。
全体を通して特定された要素は、例示的なものであり、それらの様々な代替物、同等物、または派生物を含み得る。ハードウェア、ソフトウェア、及びコンピュータ実行可能命令のさまざまな組み合わせが利用され得る。プログラムモジュール及びエンジンは、ルーチン、プログラム、オブジェクト、構成要素、及びデータ構造を含み得、これらは汎用または専用であり得るプロセッサによって実行されたとき、特定のタスクのパフォーマンスを実現する。コンピュータ可読記憶メディアに記憶されたコンピュータ実行可能命令及び関連するデータ構造は、方法のステップを実行するためのプログラミング手段、及び/または本明細書に開示される特定のシステム構成を実装する実施例を表す。
本開示は、事前に来るミュージシャンのサウンドに対して、ミュージシャンがリアルタイムで連続して一緒に演奏することを可能にするためのメカニズムを説明している。多数のミュージシャンが一緒に曲を演奏している場合、第1の人物が開始し、音楽は数ミリ秒の遅延で第2の人物に届くことがあるが、その第2の人物は彼らが聞いたものに合わせて演奏し、彼らにとっては、2つの演奏は完全に時間が一致したものになっている。ここで第3の人物は、初めの2人のこの演奏(互いに時間は一致している)を、第2の人物が聞いたように聞くが、彼らはこれを実際に演奏されたよりも遅れて聞く場合があり、彼らは聞いているもの同時に演奏することになり、彼らにとっては、3つのすべての楽器は完全に時間一致することになる。このことは制限なく継続することができる。
これを実現するために、一種の直列的なレコーディングが必要となる。しかしながら、オーディオがネットワークを介して転送されるため、容易に品質劣化する可能性がある。つまり、1人のミュージシャンのために音楽再生が開始されると、一時停止したり遅くしたりすることはできないが、正確なタイミングを可能にするためにビットレート(品質)が下がることがある。ここでは各演奏がフル解像度でクラウド(例えば、ネットワークサーバ)にレコーディングされ、必要に応じて圧縮されることが提案されている。また、最終的な演奏がクラウドに到達したときにフル解像度になるように、忠実度を維持するために現場でバッファリングする必要があることもあり得る。このように、演奏時にミュージシャンが聞く品質がわずかに損なわれたとしても、レコーディングとクラウドへの送信の品質を損なう必要はないため、最終的な結果は完全な忠実度で、最終的に再生するときには完璧なタイミングになる。
図1で分かるように、全体的なシステムは、個々のミュージシャン(及びその機器とソフトウェアとレコーディング)ならびにネットワークキャッシング、ストレージ、タイミング、及びミキシング用構成要素で構成されている。シナリオは以下のようになっている。
第1のミュージシャン(101)は、電子カウントイン(通常は1、2、3、4と言う)を言う、または生成することから開始する。様々な例示的な実施形態では、信号(デジタルデータまたはオーディオデータのいずれか)があり、これは曲の始まりを合図するとともに、他のミュージシャンがいつ開始するかを知るためのキューを出す。場合によっては、第1の(場合によっては後の)ミュージシャン(複数可)がそれに対して演奏するクリックトラック(メトロノーム)が存在することがある。他の場合では、それはボーカルのカウントオフまたは楽器によるピックアップである可能性がある。あるいは、指揮者によって与えられるような視覚的なキューである可能性がある。いずれの場合も、この最初のマーク(これも必ずしもダウンビートではない)は、共にマスタークロックになる第1の演奏に完全にバインドされており、これはすべてのローカルクロックと演奏の同期を維持するために使用されることになる。NTP、つまりネットワークタイムプロトコルを使用するのが最も容易であるが、NTPは通常100ミリ秒内でしか正確ではない。参加者のすべての演奏は、1ミリ秒未満の精度の共通クロックにバインドされている必要がある。第1のミュージシャン(101)の演奏及びタイミング情報(102)は、ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュール(103)に送信されている。
各ミュージシャンの演奏は、フル解像度で、現場でレコーディングされる。これは最終的にフル解像度メディアサーバ(104)に送信される。これはリアルタイムで送信されることはできるが、送信され得ない。最適な帯域幅がない状況では、これは後で送信されることができる。
遅延なくフル解像度のオーディオを送信するのに十分な帯域幅がない場合は、第1のミュージシャンの演奏の低解像度バージョンを圧縮オーディオメディアサーバ(105)に送信することができる。この低解像度バージョンは、後続のミュージシャンが自分の前に来るパートを聞いて、これに合わせて演奏するのに十分であるはずである。この低解像度バージョンは可能な限り高品質であるべきであり、理想的なネットワーク状況では、フル品質バージョンと実質的に区別がつかないはずである。しかし、帯域幅の状況によっては、フル解像度のオーディオが後で送信されることが可能である。
同時に、同一のメディアファイル(フル解像度と圧縮したもの両方)の一部として、タイミング情報がマスタークロック(106)に送信される。オーディオは通常、44.1、48、または96キロヘルツでレコーディングされており、解釈上、本明細書で必要とされる1ミリ秒よりもはるかに正確なクロックがあることになる。オーディオレコーディングに関連付けられたタイムスタンプは、クロックを設定及び同期するために使用されている。
第2のミュージシャン(107)が、フル解像度メディアサーバ(104)または圧縮オーディオメディアサーバ(105)から音楽を聞くと、ネットワーク帯域幅に応じて第2のミュージシャン(107)は演奏を追加する。第2のミュージシャンの演奏は、ここでネットワークキャッシング、ストレージ、タイミングモジュール(103)に送られ、オーディオ及びタイミング情報が保存される。同時に、最初の2人のミュージシャンのオーディオは、ネットワークオーディオミキサー(108)によって組み合わせられ(またはミキシングされ)、タイミング情報とともに第3のミュージシャン(109)に送られ、演奏はネットワークキャッシング、ストレージ及びタイミング用のモジュール(103)に返送され、そこで新たなオーディオ及びタイミング情報が、他の演奏とともに保存され、次いで、最後のミュージシャン(110)が演奏してレコーディングされるまで、さらなるミュージシャンに送信される。
ネットワークオーディオミキサー(108)は、個々のミュージシャンの演奏を相互に聞くために組み合わせるだけでなく、すべてのミュージシャンの積み重ねた演奏をオーディエンス(111)が聞くためにも組み合わせる。以下でより詳細に説明するように、ネットワークオーディオミキサー(108)は、様々なトラック(または演奏)を単に組み合わせるだけでなく、それらを最大限の忠実度をもたらすような方法で組み合わせる。したがって、例えば、帯域幅の制約のために1人のミュージシャンの演奏が低解像度である場合でも帯域幅が向上すると、品質も同様に向上することになる。さらに、フル解像度バージョンは最終的にフル解像度メディアサーバ(104)に到達し、その解像度がサーバに到達すると、それ以降それを聞く人は常にフル解像度のものを聞くことになる。長期的には、このことは、音楽が後に再生される場合(例えば、ライブ演奏の2時間後)、それがフル解像度のものになることを意味している。状況によっては、帯域幅が増加している一部のミュージシャンの解像度は、演奏が展開されると、彼らのパートの解像度は増したものとなることができる。
図2は、レコーディングならびにオーディオ及びタイミング情報の初期送信の詳細を提示している。同期のための信頼できる開始点は、プロセスの後半でこれらのシステム及びミュージシャンによって正確に識別される必要がある。例えば、ミュージシャンはカウントをとる(例えば、1、2、3、4)。「1」という単語が録音されるとき、オーディオ波形サンプルに基づいている特定の時間に生じる特定の識別可能な波形を有する。デジタル波形は、解釈上、1つの周波数(例えば、44.1kHz、48kHz、96kHzなど)でサンプリングされ、この場所は常に時間に関連付けられている。図2Aは、ピッチA4で演奏しているチェロのサンプルを示している。基本波は440Hzであり、これは約2.25ミリ秒となっている(波形の摂動は、倍音やボーイングなどのその他のノイズである)。レコーディングの共通点が見つかると、その点からピースの任意の場所までのミリ秒数が容易に計算されることができる。
同じタイミング情報はビデオにも適用されることができる。例えば、第1のミュージシャンが指揮者である場合、ミュージシャン達は依然として(同時にではなくても)タイミングを合わせて続くことができる。実際には、クリックトラックやドラムループのような共通のリズムが必要かも知れないが、理論的には、同じ指揮者や他の視覚的なキュー(フィルムスコアリングなど)に従うことを妨げるものはない。図2Bを参照すると、図2の左側に類似しているが、マイク(201)がカメラ(213)に置き換えられており、ビデオのレコーディング(214)が、サンプリングクロック(202)によってローカルレコーディング(203、204)に同期されたレコーディング要素に加えられている点が異なっている。
図2に戻ると、第1のミュージシャン(200)がマイク(201)にサウンドを出し、このことがオーディオ(または上で説明したビデオ)と共にクロック(202)を開始するサウンドはフル忠実度でレコーディング(203)され、送信用に準備される。レコーディング機器の電源がオンになり、ネットワークに接続された時点から、帯域幅をテストするためにネットワークがポーリングされる。帯域幅が十分である場合、次に、フル忠実度(ロスレス)バージョン(203)がタイミング情報とともに送信(205)される。しかし、帯域幅が十分でない場合、第1のミュージシャンのレコーディング環境にあるソフトウェアモジュールは、オーディオをより小さなファイルサイズに圧縮できる。例えば、オーディオコーデックAACは、48kHzのレコーディングから形成された128キロビット/秒(kbps)の妥当な忠実度であると見なされる。未圧縮ファイルは1536kbpsでストリーミングされ、ロスレス圧縮を使用しても依然として約800kbpsになる。(注記:いずれかの所与の解像度で複数のファイルを一緒に再生すると、楽器が単一レコーディングとして録音された場合よりも高い解像度のファイルになる。例えば、16ビットの48kオーディオの16チャネルは、共にミキシングされると、16ビットの48kオーディオの2チャネルよりも高い解像度になる。)遅延、帯域幅、品質のバランスについては、本開示の後半で詳しく説明している。
送信フォーマットに関して、クロックは常に各レコーディングの各バージョン(ロスレスと圧縮の両方)にバインドされることになる。送信スタック(205)を見るときは、それぞれが同じ対応する時間/同期コードを有する2つの別々のストリームとして見る必要がある。このようにして、音楽がネットワークキャッシング、ストレージ、タイミング、及びミキシング用構成要素(サーバ/サービス)(206)に到着したとき、サービスが解像度(208、209)間で切り替える必要がある場合、完全な同期を維持するために共通(マスター)クロック(207)を使用することができる。他のミュージシャンの演奏を組み合わせるとき、これはネットワークオーディオミキサー(210)によって行われる。
図3は、第2のミュージシャン(300)の追加を示している。オーディオ及び、場合によってビデオは、ネットワークキャッシング、ストレージ、タイミング、及びミキシング用サービス(301)からから来ており、ここでは、第1のミュージシャンからのメディアが格納され、ロスレスオーディオ(304)を含む送信スタック(302)プロトコルを使用してインターネット経由で送信されタイミング情報(303)にバインドされ、帯域幅に応じて、圧縮オーディオ(305)もタイミング情報(303)にバインドされている。このプロセス全体にビデオを含めることが可能であり、視聴覚技術分野に従事する者は、本開示のデータに基づいてビデオを使用して容易に構築することができる。十分な帯域幅がある場合は、圧縮オーディオは必要なくなり得る。オーディオが到着すると、最初にミキシングモジュール(306)に入り、第2のミュージシャンのモニター(307)(おそらくヘッドフォン)に供給される。第2のミュージシャンが演奏するか、または歌うと、直接注入(電子楽器、またはピエゾピックアップや磁気ピックアップなどの音響用電気ピックアップの場合)またはマイク(308)によってミキシングモジュールに送られ、そこで第1のミュージシャンのオーディオと組み合わせられ(ミキシングされ)、第2のミュージシャンは、演奏しながら両方のパートを聞くことができる。
第2のミュージシャンはロスレスでレコーディングされ(310)、オリジナルの録音と同じクロック同期(309)を使用してタイムスタンプが付加される。第2のミュージシャンからのオーディオは、同じ送信スタックプロトコル(312)を使用してオリジナルから受信したものと同じタイムコードで、ネットワークキャッシング、ストレージ、タイミング、及びミキシング用サービス(NCSTMS)(301)に送り返される。NCSTMSには既に第1のミュージシャンのオーディオ及び同じ同期タイムコードを有していることから、第1のミュージシャンのオーディオはNCSTMSに送り返す必要はない。NCSTMSには、様々なミュージシャンの演奏をミックスするネットワークオーディオミキサーがあることに留意されたい。これは個々のミュージシャンの場所にあるミキサーとは別のものである。
図4は、再生同期及び帯域幅最適化(408)を示している。上述のように、同期は、オーディオ(及びビデオ)のすべての解像度にわたって共有されている共通のタイムコードに基づいている。品質と遅延の間には、時々トレードオフ関係があり得る。ミュージシャン(ミュージシャンN)が800kbps(ロスレス圧縮)でフル解像度で送信すると、次のミュージシャン(ミュージシャンN+1)の帯域幅は少なくなる。例えば、ネットワークのスループットをテストしたことに基づくと、ミュージシャンNが800kbpsでストリーミングする場合は、ミュージシャンは、遅延が15秒になるように十分な音楽をキャッシュする必要がある。しかしながら、ミュージシャンNが128kbpsでオーディオを送受信した場合、遅延はわずか75ミリ秒になる。再生同期及び帯域幅最適化モジュール(408)は、解像度を選択できるため、オーディオをミュージシャンN+1に送信するために必要な帯域幅を選択できる。
これをもう少し詳しく見るために、図5と図6を参照されたい。
図5は、ミュージシャンN(500)を示している。ミュージシャンN(500)とNNCSTMモジュール(501)の間で利用可能な帯域幅を知るために、インターネット帯域幅テストモジュール(502)が使用されている。ネットワークを「ピング(ping)」して2点間の帯域幅を見つけることは、かなり標準的な方法であり、この機能は当該技術分野の従事者であれば誰でも利用できる。利用可能な帯域幅に基づいて、品質/遅延設定モジュール(503)は、ネットワークオーディオミキサーがミュージシャンNに送信すべきメディアの解像度を決定する(図6に詳細を示す)。帯域幅に応じて、ミュージシャンNは、メディアをマスタークロック(505)に送信される同期タイムコードと共にフル解像度メディアサーバ(506)または圧縮メディアサーバ(507)に送信する。「サーバ」とは、ホームコンピュータのハードドライブから、インターネット全体に広く分散しているサーバのアレイまで、あらゆるサーバ構成を意味することに留意すべきである。また「圧縮メディアサーバ」は、ビデオ及び/またはオーディオの複数の解像度を含むことができ、同様に分散されることもできる。チェーン内の次のミュージシャンであるミュージシャンN+1(508)にメディアを送信するため、帯域幅はインターネット帯域幅テストモジュール(502)によって再度テストされる必要がある。このことがミュージシャンN+1に送信されるメディアの解像度を決定する。ミュージシャンN+1に送信されるメディアは、これまでに演奏されたミュージシャンの個別レコーディングのすべてではなく、すべての演奏を組み合わせた単一のミックストラックであることに留意されたい。例えば、ミュージシャンN+1がチェーン内の5番目のミュージシャンであると仮定すると、これ以前のミュージシャンは、演奏品質に以下の帯域幅制限を有していたことになり、それらは、ミュージシャン1が800kbps(フルロスレス)、ミュージシャン2が450kbps、ミュージシャン3が800kbps、ミュージシャン4が325kbps及びミュージシャン5が800kbpsである。メディアは、フル解像度メディアサーバ(506)と圧縮メディアサーバ(507)の組み合わせから取得され、ネットワークオーディオミキサー(504)に送られる。組み合わせられた「ミックス」はミュージシャンN+1に送信されることになる。組み合わせられたミックスでは、ミュージシャン1と3のパートは、ミュージシャン2と4のパートよりも解像度が高くなることに留意されたい。他の演奏はすでにキャッシュされているため、NCSTMモジュールに返送されるメディアは、ミュージシャン5による新しい演奏のみであることに留意されたい。従って、ミュージシャン5に接続する際の帯域幅の制限は、ミュージシャン5のパートの品質にのみ影響し、さらには、チェーン内のミュージシャンにのみ影響し、すべてのミュージシャンのフル忠実度を受信することができる(いつ聞くかに応じて)最終的なリスナーには影響しない。
図6は、システムの帯域幅、品質、遅延、及びミキシング用構成要素を示している。音楽の品質に対する帯域幅の影響は、双方向で発生する。アップロード帯域幅は、個々の演奏の最初の送信の品質に影響する(同じ演奏のその後の送信では依然としてフル解像度である)。ダウンロード帯域幅は、ミュージシャンが合わせて演奏しているときに聞く品質に影響する。
アップロードするミュージシャンの作業環境には、帯域幅を測定する独自の機能があり、それによって、例えば、ある時点でフル帯域幅(605)が存在するようになり、帯域幅に応じて、異なるレベルの圧縮(606、607、608、609)がある可能性がある。システムは、経時的に変化する品質(タイミングではない)のみを伴う共通のタイムコードを使用して様々な解像度をシームレスにつなぎ合わせる。これらすべては、ミックス内のこのミュージシャンのレベル用の単一のフェーダーに仮想的にバス接続される(フェーダーを操作する人間がいる場合や、ミキシングを行うアルゴリズムがある場合がある)。このことは、チェーン内の第2のミュージシャン(610、611、612、613)などからN番目のミュージシャン(614、615、616)までに該当する。これらのレベルはミックスで組み合わされ、そのミックスがチェーン内の次のミュージシャン(508)にその帯域幅で送信される。NCSTMから個々のミュージシャンへの送信の帯域幅は、通常(今日一般的に行われているように)遅延がないことを確実にするために適切な帯域幅で送信されることに留意されたい。このことは、各ミュージシャンからのアップロード帯域幅とは無関係である。例えば、あるミュージシャンの帯域幅が特に低い場合、受信するストリームの品質が低くなる場合がある。しかしながら、これらは現場環境においてフル忠実度でレコーディングされ、低遅延リスナーに対する演奏の品質は、アップロード帯域幅を反映することになる。当然、前述のように、フル解像度の演奏がアップロードされると、後続のリスナーはフル解像度でそれを聞くことになる(当然、そのリスナーの帯域幅に依存する)。
様々な解像度の説明を明確にするために、図7を参照することが有用になり得る。これは、様々な解像度のオーディオが、どのようにレコーディングされ、格納されるかを示している。第1のミュージシャン(701)とは異なる解像度が経時的に複数の波形(702)として表示されていることに留意されたい。後続のミュージシャンは、第1のミュージシャンからの演奏を可変解像度であるが、単一の演奏として聞くことになる。第2のミュージシャンも、後続のミュージシャン(704)と同様に、複数の解像度(703)で録音される場合がある。上述のように、これらの異なる演奏は、フェーダー(602、603、604)を使用するミキシングエンジニアによってミキシングされ、後続のミュージシャンまたはオーディエンスが聞くことができるようになっている。オーディオの一部の高解像度がネットワークキャッシング、ストレージ、タイミング、及びミキシング構成要素にアップロードされると、それらは後続のミックス(パフォーマンスの終了後など)で使用されて品質を向上させることができることに再度留意されたい。
使用例として、図8に示されたジャムバンドのシナリオを参照する。ドラム(801)、パーカッション(802)、ベース(803)、ピアノ(804)、2本のギター(805及び806)の6人のミュージシャンが演奏すると仮定する。彼らはすべてNCSTM(807)に接続されており、オーディエンス(808)も同様である。ドラマーが演奏開始し、2小節後に、パーカッショニストとベースプレーヤーが参加すると仮定する。他のミュージシャンは、直後に、または数小節後に参加できる。各ミュージシャンは、前のミュージシャンを順番に聞くことだけができるが、レイアウトすることで順番は変更することができる。
図9を見ると、クロック(901)上の実際の時間は、一時停止せずに進行しているが、実際の小節番号(902)はミュージシャンに合わせて移動している。ドラマーの小節1(903)が始まりであるが、後続の各ミュージシャン(904)の小節1は少し遅れており、それぞれが前の小節1より少し長くなっている。ドラマー(905)が演奏を開始して、パーカッショニスト(906)、ベースプレーヤー(907)、キーボードプレーヤー(908)がそれに続いている。1人のギタープレーヤー(909)がキーボードプレーヤーの直後に、第2のギタープレーヤーの前に開始するが、自身のソロ演奏の間にもう一方のギターを聞きたいであろうと想定する。この文脈で「前に開始する」と言うときは、音楽の順序と混同しないように「ネットワークの順序」を指している。ミュージシャン(または所定のキューを受けたミキシングエンジニア)は、リセットまたは「位置の変更」を押したとすると、新しい位置の時点のオーディオが聞こえ始める。
図9では、灰色の領域(911、912及び913)は、誰かがレイアウトしていることを表している。従って、合計2秒の遅延があったとすると、ギタープレーヤーがスイッチを押すと、彼らは彼らがいる場所だが、すべてのミュージシャンが演奏している2秒後の音楽を聞くことになる。そのため、もし私が1つか2つの小節にレイアウトすると仮定すると、他のミュージシャンを聞きながら再び参加することができることになる。曲における場所を追跡するインタラクティブなコードチャートがあれば、これを計画したほうが容易かも知れないが、ミュージシャンは自身がどこにいるかを素早く認識できるようになるかも知れない。
この想像上のジャムバンドのシナリオでは、ミュージシャンは逆上ってレイアウトして戻って、他のミュージシャンの演奏を聞くことができ、ドラマーまたはパーカッショニストでさえ、レイアウトして数ビート後に戻るが、他のミュージシャンを聞くことができる。必ずしもキューの最後に移動する必要はない。おそらく、シンガーは常にキューの最後にいて、「ドロップバック」すると最後から2番目に移動するか、1つまたは2つの場所にドロップバックすることができる。例えば、ドラマーとパーカッショニストは場所を交換することができる。問いかけと受け答えタイプの演奏が多く行われる可能性があるが、その答えは最後の再生まで聞くことはないであろう。
別の使用例は、劇場型ポッドキャストシナリオである。このシナリオでは、図10に示すように、オンラインでニアライブのパフォーマンスを創作する複数の俳優がいる。これは台本によるものでも、インタビューまたはリアリティ番組のように自発的なものである場合もある。上で行っていたことを実行できるが、他にもいくつかのオプションがある。話し言葉は音楽ほど時間に敏感ではないので、もう少し時間で遊べる場合もある。また、パフォーマンスは、横並びであるよりも縦並びになっており、忠実度の要件もより柔軟になっている。ジャムバンドのシナリオでは、1人のミュージシャンが数小節をレイアウトすると、このミュージシャンが後でキューに入れることができる。また、間奏時間が短縮されることもできる。6人の俳優(1001、1002、1003、1004、1005及び1005)による演劇を仮定することにする。興味深くするために、俳優5と6(1005と1006)は同じ場所にいると仮定する。時間(1007)を追跡して、1分弱にわたって話をする俳優1(1001)から始める。俳優2(1002)は、彼らにとってリアルタイムでそれを聞いている。現在、俳優1は、1分も経たないうちに再参加することを計画している。議論のために、俳優1と2の間の遅延が100ミリ秒であると仮定することにする。俳優1が終了するとすぐに、俳優1はキューをジャンプすることができる。しかしながら、ここには2つの制約があり、1)俳優1は、俳優2が言うことを聞き逃したくない、2)俳優1は、俳優2のパートの少なくとも最後の部分を可能な限り変更されていない状態で聞きたい、そのために、それらのタイミングと抑揚は可能な限り自然になる。従って、解決策は次のようになり、それは、俳優1がキューをジャンプすると、俳優2より100ミリ秒遅れ、つまり、俳優2はすでに100ミリ秒話していることになる。そのため、俳優1がキューに戻るときは、その100ミリ秒を補う必要がある。これは、ピッチを変更せずにレコーディングを高速化するために広く使用される技術である。そのため、俳優1がキューに戻ると、俳優1は、録音から再生される俳優2を聞くことになるが、これはスピードアップされたものである。10%スピードアップされ(ピッチ変化がなければほとんど知覚できない)合計遅延が100ミリ秒である場合、俳優1は、俳優1のリアルタイムで、リアルスピードで俳優2を聞くことになる。これは、複数の俳優が入り、必要に応じて追いつくことで無期限に継続することができる。音楽のレコーディングシナリオと同様に、最終的な成果物(効果音が追加された話し言葉の場合)は、恐らくリアルタイムのライブよりも数分間遅れるだけになるであろう。
本発明の本質的な教示から逸脱することなく、修正を行ってもよい。本明細書に記載の様々な方法論を実施するために様々な代替的システムを利用してもよく、前述のシステムから特定の結果を得るために様々な方法を使用してもよい。

Claims (20)

  1. 遅延を伴わずにニアライブでライブインターネット音楽を演奏及びレコーディングするための方法であって、当該方法は、ロセッサによって実施され
    電子カウントインを生成するステップと、
    マスタークロックを生成するために前記電子カウントインを第1の演奏にバインドするステップと、
    第1のミュージシャンの第1の演奏及び第1のタイミング情報をネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信するステップと、
    第2のミュージシャンのサウンドデバイスによって前記第1のミュージシャンの前記第1の演奏を受信するステップであって、前記第1の演奏を受信したことに応答して、前記第2のミュージシャンによって第2の演奏が創作される、ステップと、
    前記第2の演奏及び第2のタイミング情報を前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信するステップと、
    第3のミュージシャンのサウンドデバイスによって第1のミックスされたオーディオを受信するステップであって、前記第1のミックスされたオーディオは、前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールによってミキシングされた前記第1の演奏及び前記第2の演奏を前記第1のタイミング情報及び第2のタイミング情報と共に含み、前記第1のミックスされたオーディオを受信したことに応答して、前記第3のミュージシャンによって第3の演奏が創作される、ステップと、
    前記第3の演奏及び第3のタイミング情報を前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信するステップと、
    第4のミュージシャンのサウンドデバイスによって第2のミックスされたオーディオを受信するステップであって、前記第2のミックスされたオーディオは、前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールによってミキシングされた前記第1のミックスされたオーディオ及び前記第3の演奏を前記第3のタイミング情報と共に含み、前記第2のミックスされたオーディオを受信したことに応答して、前記第4のミュージシャンによって第4の演奏が創作される、ステップと、
    を含む、法。
  2. 前記第1のミュージシャンの前記第1の演奏を現場においてフル解像度でレコーディングして、フル解像度メディアサーバに送信するステップと、
    前記第1のタイミング情報を前記マスタークロックに送信するステップと、
    をさらに含む、請求項1に記載の方法。
  3. 前記第1のミュージシャンの前記第1の演奏の1つ以上の低解像度バージョンを圧縮オーディオメディアサーバに送信するステップと、
    前記第1のタイミング情報を前記マスタークロックに送信するステップと、
    をさらに含む、請求項1に記載の方法。
  4. 複数のサウンドデバイスにおいて、ネットワークオーディオミキサーから、個々のミュージシャンの組み合わされた演奏を、互いに聞くために受信するステップと、
    複数のサウンドデバイスにおいて、前記個々のミュージシャンのすべての組み合わされた蓄積的な演奏をオーディエンスが聞くために受信するステップと、
    をさらに含む、請求項1に記載の方法。
  5. サウンドデバイスにおいてネットワークオーディオミキサーから解像度が向上したオーディオを受信するステップをさらに含む、
    請求項1に記載の方法。
  6. 前記電子カウントインは、オーディオ波形サンプルに基づいて特定時間に生じる特定の識別可能な波形を有す、請求項1に記載の方法。
  7. 前記電子カウントインがビデオである、請求項1に記載の方法。
  8. 前記電子カウントインが、オーディオ及びビデオである、請求項1に記載の方法。
  9. レコーディング機器を起動するステップと、
    域幅をテストするためにネットワークをポーリングするステップと、
    前記帯域幅が十分である場合、フル忠実度デジタルデータをそのタイミング情報と共に送信するステップと、
    前記帯域幅が十分でない場合、オーディオをより小さなファイルサイズに圧縮するステップと、
    をさらに含む、請求項1に記載の方法。
  10. 前記第1のタイミング情報が、それぞれのレコーディングのロスレスバージョン及び圧縮バージョンのためのタイミング情報を含む、請求項1に記載の方法。
  11. 前記ロスレスバージョンと前記圧縮バージョンとの間で切り替えるときに、レコーディングをストリーミングしながら同期を維持するステップをさらに含む、
    請求項10に記載の方法。
  12. 遅延を伴わずにニアライブでライブインターネット音楽を演奏及びレコーディングするためのシステムであって、
    ロセッサと、
    前記プロセッサに通信可能に結合されたメモリであって、前記メモリは、前記プロセッサによって実行されると、前記プロセッサに、
    電子カウントインを生成させ、
    マスタークロックを生成するために前記電子カウントインを第1の演奏にバインドさせ、
    第1のミュージシャンの第1の演奏及び第1のタイミング情報をネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信させ、
    第2のミュージシャンのサウンドデバイスによって前記第1のミュージシャンの前記第1の演奏を受信させることであって、前記第1の演奏を受信したことに応答して、前記第2のミュージシャンによって第2の演奏が創作され、
    前記第2の演奏及び第2のタイミング情報を前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信させ、
    第3のミュージシャンのサウンドデバイスによって第1のミックスされたオーディオを受信させることであって、前記第1のミックスされたオーディオは、前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールによってミキシングされた前記第1の演奏及び前記第2の演奏を前記第1のタイミング情報及び第2のタイミング情報と共に含み、前記第1のミックスされたオーディオを受信したことに応答して、前記第3のミュージシャンによって第3の演奏が創作され、
    前記第3の演奏及び第3のタイミング情報を前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールに送信させ、
    第4のミュージシャンのサウンドデバイスによって第2のミックスされたオーディオを受信させることであって、前記第2のミックスされたオーディオは、前記ネットワークキャッシング、ストレージ、タイミング、及びミキシング用モジュールによってミキシングされた前記第1のミックスされたオーディオ及び前記第3の演奏を前記第3のタイミング情報と共に含み、前記第2のミックスされたオーディオを受信したことに応答して、前記第4のミュージシャンによって第4の演奏が創作される、
    を実行させる命令を含む、システム。
  13. 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、さらに、
    前記第1のミュージシャンの前記第1の演奏を現場においてフル解像度でレコーディングして、フル解像度メディアサーバに送信させ、
    前記第1のタイミング情報を前記マスタークロックに送信させる、
    請求項12に記載のシステム。
  14. 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、さらに、
    前記第1のミュージシャンの前記第1の演奏の1つ以上の低解像度バージョンを圧縮オーディオメディアサーバに送信させ、
    前記第1のタイミング情報を前記マスタークロックに送信させる、
    請求項12に記載のシステム。
  15. 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、さらに、
    複数のサウンドデバイスにおいて、ネットワークオーディオミキサーから、個々のミュージシャンの組み合わされた演奏を、互いに聞くために受信させ、
    複数のサウンドデバイスにおいて、前記個々のミュージシャンのすべての組み合わされた蓄積的な演奏を、オーディエンスが聞くために受信させる、
    請求項12に記載のシステム。
  16. 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、さらに、
    サウンドデバイスにおいてネットワークオーディオミキサーから解像度が向上したオーディオを受信させる、
    請求項12に記載のシステム。
  17. 前記電子カウントインは、オーディオ波形サンプルに基づいて、特定時間に生じる特定の識別可能な波形を有する、
    請求項12に記載のシステム。
  18. 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、さらに、
    レコーディング機器を起動させ、
    帯域幅をテストするためにネットワークをポーリングさせ、
    前記帯域幅が十分である場合、フル忠実度デジタルデータをそのタイミング情報と共に送信させ、
    前記帯域幅が十分でない場合、オーディオをより小さなファイルサイズに圧縮させる、
    請求項12に記載のシステム。
  19. 前記第1のタイミング情報が、それぞれのレコーディングのロスレスバージョン及び圧縮バージョンのためのタイミング情報を含む、
    請求項12に記載のシステム。
  20. 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、さらに、
    前記ロスレスバージョンと前記圧縮バージョンとの間で切り替えるときに、レコーディングをストリーミングしながら同期を維持させる、
    請求項19に記載のシステム。
JP2021104993A 2020-06-25 2021-06-24 遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム Active JP7242764B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/912569 2020-06-25
US16/912,569 US11616589B2 (en) 2020-06-25 2020-06-25 Methods and systems for performing and recording live music near live with no latency

Publications (2)

Publication Number Publication Date
JP2022008251A JP2022008251A (ja) 2022-01-13
JP7242764B2 true JP7242764B2 (ja) 2023-03-20

Family

ID=76890780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021104993A Active JP7242764B2 (ja) 2020-06-25 2021-06-24 遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム

Country Status (5)

Country Link
US (1) US11616589B2 (ja)
EP (1) EP3930251A1 (ja)
JP (1) JP7242764B2 (ja)
KR (1) KR102546398B1 (ja)
CN (1) CN114120942A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11120782B1 (en) * 2020-04-20 2021-09-14 Mixed In Key Llc System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
US11616589B2 (en) 2020-06-25 2023-03-28 Sony Interactive Entertainment LLC Methods and systems for performing and recording live music near live with no latency
US11563504B2 (en) 2020-06-25 2023-01-24 Sony Interactive Entertainment LLC Methods and systems for performing and recording live music using audio waveform samples
JP2022041553A (ja) * 2020-09-01 2022-03-11 ヤマハ株式会社 通信制御方法
US11924317B1 (en) * 2020-09-25 2024-03-05 Apple Inc. Method and system for time-aligned media playback
WO2022232645A1 (en) * 2021-04-30 2022-11-03 Little Dog Live, LLC Audio workstation control over computing networks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145167A (ja) 1999-11-18 2001-05-25 Mega Chips Corp 情報通信端末
JP2002207492A (ja) 2001-01-11 2002-07-26 Sony Corp 実演システム、実演収録装置、実演管理装置、ネットワークを介した実演方法
JP2005219631A (ja) 2004-02-05 2005-08-18 Pioneer Electronic Corp 再生制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
US20150254056A1 (en) 2014-03-10 2015-09-10 JamKazam, Inc. Track based music management server and related methods for interactive music systems
JP2018515009A (ja) 2015-04-05 2018-06-07 クアルコム,インコーポレイテッド カンファレンスオーディオ管理
US20180196393A1 (en) 2017-01-06 2018-07-12 The Trustees Of Princeton University Global time server for high accuracy musical tempo and event synchronization

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100379289C (zh) * 2001-05-24 2008-04-02 Vixs系统公司 多媒体系统中管理信息资源及多路复用频道的方法与设备
EP3282699B1 (en) 2001-11-29 2019-10-23 Godo Kaisha IP Bridge 1 Coding distortion removal method
US20100166056A1 (en) 2002-12-10 2010-07-01 Steve Perlman System and method for encoding video using a selected tile and tile rotation pattern
ES2745045T3 (es) 2005-04-22 2020-02-27 Audinate Pty Ltd Red, dispositivo y método para transportar medios digitales
US7518051B2 (en) 2005-08-19 2009-04-14 William Gibbens Redmann Method and apparatus for remote real time collaborative music performance and recording thereof
US7593354B2 (en) 2006-03-22 2009-09-22 Musigy Usa, Inc. Method and system for low latency high quality music conferencing
US20080201424A1 (en) * 2006-05-01 2008-08-21 Thomas Darcie Method and apparatus for a virtual concert utilizing audio collaboration via a global computer network
JP4930113B2 (ja) * 2007-03-08 2012-05-16 ヤマハ株式会社 音響信号処理装置
US9602295B1 (en) * 2007-11-09 2017-03-21 Avaya Inc. Audio conferencing server for the internet
US20120203364A1 (en) 2011-02-08 2012-08-09 William Gibbens Redmann Method and apparatus for secure remote real time collaborative acoustic performance recordings
US8896652B2 (en) 2011-02-28 2014-11-25 Soryn Technologies Llc System and method for real-time video communications
WO2013109941A2 (en) 2012-01-19 2013-07-25 Vid Scale, Inc. Methods and systems for video delivery supporting adaption to viewing conditions
DK2936480T3 (en) 2012-12-21 2019-01-07 Jamhub Corp MULTIPORAL ANALOGUE SOUND NUTS WITH DIGITAL VECTOR OUTPUT FOR COLLABORATIVE MUSIC TREATMENT
US9398390B2 (en) 2013-03-13 2016-07-19 Beatport, LLC DJ stem systems and methods
US9270624B2 (en) * 2013-05-10 2016-02-23 Oracle International Corporation Cloud messaging services optimization through adaptive message compression
US9106887B1 (en) 2014-03-13 2015-08-11 Wowza Media Systems, LLC Adjusting encoding parameters at a mobile device based on a change in available network bandwidth
US9921799B2 (en) 2015-02-04 2018-03-20 MUMO, Inc. Computer systems for streaming influencer device audio content to listener devices
US10051202B2 (en) * 2015-02-24 2018-08-14 Newtek, Inc. Method and apparatus for adaptively mixing video source signals
US10742727B2 (en) 2016-03-15 2020-08-11 Arria Live Media, Inc. Interfacing legacy analog components to digital media systems
US10482574B2 (en) * 2016-07-06 2019-11-19 Gopro, Inc. Systems and methods for multi-resolution image stitching
EP3488439B1 (en) * 2016-07-22 2021-08-11 Dolby Laboratories Licensing Corporation Network-based processing and distribution of multimedia content of a live musical performance
CN110692252B (zh) * 2017-04-03 2022-11-01 思妙公司 具有用于广域广播的延迟管理的视听协作方法
US10311843B2 (en) 2017-07-18 2019-06-04 Vertical Craft Music composition tools on a single pane-of-glass
US10854181B2 (en) 2017-07-18 2020-12-01 Vertical Craft, LLC Music composition tools on a single pane-of-glass
US10043502B1 (en) 2017-07-18 2018-08-07 Vertical Craft, LLC Music composition tools on a single pane-of-glass
US10367593B2 (en) 2017-09-12 2019-07-30 Arria Live Media, Inc. Architecture for a wireless media system
US10469880B1 (en) 2017-09-25 2019-11-05 Amazon Technologies, Inc. Providing alternative live media content
US11616589B2 (en) 2020-06-25 2023-03-28 Sony Interactive Entertainment LLC Methods and systems for performing and recording live music near live with no latency
US11563504B2 (en) 2020-06-25 2023-01-24 Sony Interactive Entertainment LLC Methods and systems for performing and recording live music using audio waveform samples

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145167A (ja) 1999-11-18 2001-05-25 Mega Chips Corp 情報通信端末
JP2002207492A (ja) 2001-01-11 2002-07-26 Sony Corp 実演システム、実演収録装置、実演管理装置、ネットワークを介した実演方法
JP2005219631A (ja) 2004-02-05 2005-08-18 Pioneer Electronic Corp 再生制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
US20150254056A1 (en) 2014-03-10 2015-09-10 JamKazam, Inc. Track based music management server and related methods for interactive music systems
JP2018515009A (ja) 2015-04-05 2018-06-07 クアルコム,インコーポレイテッド カンファレンスオーディオ管理
US20180196393A1 (en) 2017-01-06 2018-07-12 The Trustees Of Princeton University Global time server for high accuracy musical tempo and event synchronization

Also Published As

Publication number Publication date
EP3930251A1 (en) 2021-12-29
CN114120942A (zh) 2022-03-01
US20210409138A1 (en) 2021-12-30
US11616589B2 (en) 2023-03-28
KR102546398B1 (ko) 2023-06-22
KR20220000381A (ko) 2022-01-03
JP2022008251A (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
JP7242764B2 (ja) 遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム
Rottondi et al. An overview on networked music performance technologies
JP4423790B2 (ja) 実演システム、ネットワークを介した実演方法
US7853342B2 (en) Method and apparatus for remote real time collaborative acoustic performance and recording thereof
JP5733321B2 (ja) 自動演奏装置
JP5729393B2 (ja) 演奏システム
US20100198992A1 (en) Synchronization of audio and video signals from remote sources over the internet
JP7456019B2 (ja) オーディオ波形サンプルを用いてライブ音楽を演奏及び録音するための方法及びシステム
US20100095829A1 (en) Rehearsal mix delivery
JP2009535988A (ja) データ信号を処理するシステム及び方法
US20100082768A1 (en) Providing components for multimedia presentations
CN112119456B (zh) 任意信号插入方法以及任意信号插入系统
WO2011115210A1 (ja) ミキシングデータ配信サーバ
JP4422656B2 (ja) ネットワークを用いた遠隔多地点合奏システム
JP2008233557A (ja) 電子楽器及びプログラム
JP7468111B2 (ja) 再生制御方法、制御システムおよびプログラム
WO2022190717A1 (ja) コンテンツデータ処理方法およびコンテンツデータ処理装置
WO2010113142A2 (en) Musical environment for remotely connected users

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150