JP7318990B2 - モバイル装置上の音声コンテンツを別個の視覚表示システムに同期させるためのシステムおよび方法 - Google Patents

モバイル装置上の音声コンテンツを別個の視覚表示システムに同期させるためのシステムおよび方法 Download PDF

Info

Publication number
JP7318990B2
JP7318990B2 JP2021563714A JP2021563714A JP7318990B2 JP 7318990 B2 JP7318990 B2 JP 7318990B2 JP 2021563714 A JP2021563714 A JP 2021563714A JP 2021563714 A JP2021563714 A JP 2021563714A JP 7318990 B2 JP7318990 B2 JP 7318990B2
Authority
JP
Japan
Prior art keywords
time
display system
visual display
audio content
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021563714A
Other languages
English (en)
Other versions
JP2022533534A (ja
Inventor
ケン-クウィン チャン,ジェイソン
ジョエル リー,クリスチャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cinewav Pte Ltd
Original Assignee
Cinewav Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cinewav Pte Ltd filed Critical Cinewav Pte Ltd
Publication of JP2022533534A publication Critical patent/JP2022533534A/ja
Application granted granted Critical
Publication of JP7318990B2 publication Critical patent/JP7318990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本開示は一般に、音声視覚システム(又は、視聴覚システム/オーディオビジュアルシステム)に関し、特に、パブリック音声視覚ショーにおける視聴者メンバー(又は、オーディエンスのメンバー)のオーディオ体験を強化することを対象とするシステムおよび方法に関する。より詳細には、本開示が1つまたは複数のスレーブコンピューティング装置上の音声コンテンツ(又は、オーディオコンテンツ)の再生を、別個のマスターコンピューティング装置上の音声コンテンツまたは視覚コンテンツ(又は、ビジュアルコンテンツ)に同期させることに関する。
本発明の背景についての以下の議論は、本発明の理解を容易にすることを意図している。しかし、この議論は引用された資料の何れかが出願の優先日現在のいずれかの管轄区域において公開され、既知であり、又は技術常識の一部であったことの確認又は承認ではないことを理解すべきである。
公共の環境における音声視覚ショーが不良な音響、電力不足の増幅器又はスピーカ、騒音公害(noise pollution)、無線周波数(RF)干渉(ラジオヘッドホンのようなRFデバイスを使用する場合)、又はスピーカと視聴者との間の大きな距離(光と音の速度の差のためにオーディオが視覚表示(又は、視覚ディスプレイ、ビジュアルディスプレイ)と同期しなくなる原因となる)のために、不十分なサウンドを有する多くの場合がある。そのような不十分な音響及び/又は視聴者メンバーと視覚表示との間の大きな距離は全体的な体験に深刻な影響を及ぼし、視聴者メンバーによるイベントの楽しみ及び不満の減少につながる可能性がある。
一部のアプリケーションは、インターネットまたはWIFIなどのローカル通信ネットワークを介するストリーミング技術を使用して、モバイル装置で再生される音声コンテンツを、別個の視覚コンテンツシステムで再生される視覚コンテンツに同期させようとした。しかしながら、ストリーミングは、大量のデータおよびバッテリを使用するモバイル装置においてリソース集約的である。さらに、音声コンテンツのストリーミングはネットワークレイテンシーまたはWIFIまたはデータ接続への干渉のために、ビデオコンテンツとの同期が外れることが多い。また、WIFI接続はモバイル装置から切断されたり、ルータごとの接続が制限されたりする可能性がある。公共の場面で音声視覚ショーを見るときには、軽微な同期問題及びドロップアウトでさえ問題である。一般的に、モバイル装置は正確な時間や一貫性のある時間を維持しない。また、ハードウェアやソフトウェアが異なると、音声コンテンツの再生時にドリフトが発生しやすくなる。したがって、モバイル装置上の音声コンテンツと、モバイル装置とは別個の視覚表示(又は、ビジュアルディスプレイ)システム上で再生される視覚コンテンツとの同期解除のリスクは高く、視聴者メンバーによる音声視覚ショーの楽しみを減らすことができる。
したがって、本開示の目的は、上述の問題および制限の大部分に対処することである。
以下はそのような態様の基本的な理解を提供するために、1つまたは複数の態様の簡略化された概要を提示する。この概要は、すべての企図された態様の広範な概観ではなく、すべての態様の重要なまたは重大な要素を識別することも、任意のまたはすべての態様の範囲を線引きすることも意図されていない。その唯一の目的は、後に提示されるより詳細な説明の前置きとして、1つまたは複数の態様のいくつかの概念を簡略化された形態で提示することである。
本開示の第1の態様によれば、モバイル装置上で再生するように構成された音声コンテンツを、別個の視覚表示システム上で再生するように構成された音声視覚表示の視覚コンテンツに同期させる方法が提供される。
この方法は、
第1の位置および時間において前記視覚表示システムによって制御される視覚出力装置(又は、ビジュアル出力デバイス)上で前記視覚コンテンツを提示するステップと、
前記視覚表示システムから、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップと、
前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは、前記視覚表示システム真時間と、視覚コンテンツ状態と、視覚コンテンツタイムコードとを含む、該ステップを有する。
この方法はさらに、処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
前記視覚コンテンツタイムコード、モバイル装置真時間、および前記視覚表示システム真時間に基づく音声コンテンツタイムコードを決定するステップを有し、
前記視覚コンテンツ状態が再生モードにあるときに第2の位置および時間において前記モバイル装置上で前記音声コンテンツを再生するようにトリガされたときに、前記音声コンテンツは、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードで再生される。
好ましくは、この方法は、
前記音声コンテンツタイムコードが前記視覚表示システム上の前記視覚コンテンツタイムコードと所定の時間隔を超えて非同期か否かを判定するステップと、
前記音声コンテンツタイムコードが前記所定の時間隔を超えて非同期である場合に応答して、前記モバイル装置上の前記音声コンテンツの再生を、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードに調整するステップを有する。
好ましくは、前記音声コンテンツタイムコードは、前記視覚コンテンツタイムコードと、前記モバイル装置真時間と前記視覚表示システム真時間の間の時間差との集計に基づいて決定される。
好ましくは、前記同期メッセージは、前記視覚コンテンツタイムコードに対する調整が行われたときに送信される。
好ましくは、前記同期メッセージは、前記視覚コンテンツ状態に対する状態変化があるときに送信される。
好ましくは、前記モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出された(又は、に由来した/derived from)タイムサーバ現在時間との間の時間差である。
好ましくは、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である。
好ましくは、所定の時間隔は約200msである。
本開示の第2の態様によれば、モバイル装置上で再生するように構成された従音声コンテンツ(又は、スレーブオーディオコンテンツ)を、ライブ視覚表示(又は、ライブビジュアルディスプレイ)と同期した主音声コンテンツ(又は、マスターオーディオコンテンツ)に同期させる方法が提供され、前記主音声コンテンツは、別個の視覚表示システム上で再生するように構成される。この方法は第1の位置および時間において前記視覚表示システム上で前記主音声コンテンツを再生するステップと、前記視覚表示システムから、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップと、前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップとを含み、前記同期メッセージは、前記視覚表示システム真時間、主音声コンテンツ状態および主音声コンテンツタイムコードを含む。この方法はさらに、前記処理サーバによって、周期的時間隔で、モバイル装置に同期メッセージを送信し、前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定することを含み、前記主音声コンテンツ状態が再生モードにあるときに第2の位置および時間において、前記モバイル装置上の前記従音声コンテンツを再生するようにトリガされたときに、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードで再生される。
好ましくは、本方法は、前記従音声コンテンツタイムコードが前記視覚表示システム上の前記主音声コンテンツとの所定の時間隔を超えて非同期か否かを決定し、前記従音声コンテンツタイムコードが前記所定の時間隔を超えて非同期である場合に応答して、前記モバイル装置上の前記従音声コンテンツの再生を、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記音声コンテンツタイムコードに調整する。
好ましくは、前記従音声コンテンツが前記ライブ視覚表示の一部を開始するための従音声キュートラックを含み、それによって、前記従音声キュートラックは前記音声キュートラックが前記主音声コンテンツと同期するように構成されるように、1つまたは複数のコンピューティング装置によって1つまたは複数の制御システムに送信される。
好ましくは、前記従音声コンテンツが前記主音声コンテンツと同期するように構成された音声記録(又は、ボイスレコーディング)に関連付けられた音声サウンドトラックを含む。
好ましくは、前記従音声コンテンツが前記主音声コンテンツと同期するように構成された音楽伴奏に関連付けられた音声サウンドトラックを含む。
好ましくは、前記主音声コンテンツがコントローラまたは手動オペレータによってライブ視覚表示の一部をトリガするように構成された音声キュートラックを含む。
好ましくは、前記従音声コンテンツが前記主音声コンテンツと同期するように構成された、手動オペレータによって、ライブ視覚表示の一部をトリガするように構成された従音声キュートラックを備える。
好ましくは、前記同期メッセージが前記視覚コンテンツタイムコードに対する調整が行われたときに送信される。
好ましくは、前記同期メッセージが前記視覚コンテンツ状態に対する状態変化があるときに送信される。
好ましくは、前記従音声コンテンツタイムコードが前記主音声コンテンツタイムコードと、前記モバイル装置真時間と前記視覚表示システム真時間との間の時間差との集計に基づいて決定され、前記モバイル装置真時間はモバイル装置ローカル時間とモバイル装置時間偏差とに基づいて決定され、前記モバイル装置時間偏差は前記モバイル装置ローカル時間と、前記モバイル装置と通信しているタイムサーバから導出されたタイムサーバ現在時間との間の時間差である。
好ましくは、前記視覚表示システム真時間が視覚表示システムローカル時間と視覚表示システム時間偏差とに基づいて決定され、前記視覚表示システム時間偏差は前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である。
好ましくは、前記所定の時間隔は約200msである。
本開示の第3の態様によれば、少なくとも1つのプロセッサと、少なくとも1つのコンピュータ読み取り可能な記憶媒体と、ネットワークに接続された同期アプリケーションとを有するモバイル装置上で実行するように構成された方法が提供される。この方法は前記モバイル装置上に記憶するように構成された音声コンテンツを送信し、モバイル装置ローカル時間とモバイル装置時間偏差に基づいてモバイル装置真時間を取得し、前記モバイル装置時間偏差は前記モバイル装置ローカル時間と、前記モバイル装置と通信しているタイムサーバから導出されたタイムサーバ現在時間との間の時間差であり、視覚表示システムとの無線通信において、周期的な時間隔で処理サーバからの同期メッセージを受信することを含み、前記同期メッセージは、視覚表示システム真時間、視覚コンテンツ状態、および視覚コンテンツタイムコードを含む。前記方法は前記視覚コンテンツタイムコード、前記モバイル装置真時間、および前記視覚表示システム真時間に基づく音声コンテンツタイムコードを決定することをさらに含み、前記視覚表示システム真時間は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差から取得され、前記視覚コンテンツ状態が再生モードにあるときに、前記音声コンテンツを前記モバイル装置上で再生するようにトリガされたときに、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードで前記音声コンテンツが再生されることを特徴とする。
本開示の第4の態様によれば、モバイル装置上で再生するように構成された従音声コンテンツを、別個の視覚表示システム上で再生するように構成された主音声コンテンツに同期させる方法が提供される。
この方法は前記視覚表示システムから、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップであって、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信しているタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは前記視覚表示システム真時間と、動作モードに関連付けられた主音声コンテンツ状態と、前記視覚表示システムの現在位置に関連付けられた主音声コンテンツタイムコードとを含む、該ステップと、前記処理サーバによって、周期的な時間隔で同期メッセージを前記モバイル装置に送信するステップとを含む。本方法はさらに、前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップであって、前記モバイル装置真時間は、前記モバイル装置ローカル時間と、前記モバイル装置と通信する前記タイムサーバから導出されたタイムサーバ現在時刻との間の時間差に基づく、該ステップを含み、前記主音声コンテンツ状態が再生モードにあるときに、前記モバイル装置上で前記従音声コンテンツを再生するようにトリガされたときに、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードで再生される。
本開示の第5の態様によれば、モバイル装置上で再生するように構成された従音声コンテンツを、別個の視覚表示システム上で再生するように構成された主音声コンテンツに同期させるためのシステムであって、
メモリと、
前記メモリに結合された1つまたは複数のプロセッサであって、前記メモリは前記プロセッサによって実行されたときに、前記プロセッサに、
前記視覚表示システムから、視覚表示システム真時間を取得するステップであって、前記視覚表示システム真時間は視覚表示システムローカル時間と視覚表示システム時間偏差とに基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは、前記視覚表示システム真時間、動作モードに関連付けられた主音声コンテンツ状態、および前記視覚表示システムの現在位置に関連付けられた主音声コンテンツタイムコードを含む、該ステップと、
前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
さらに、前記主音声コンテンツタイムコード、モバイル装置真時間、および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップであって、前記モバイル装置真時間は、前記モバイル装置ローカル時間とモバイル装置時間偏差に基づき、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信する前記タイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
を含む動作を実行させるプロセッサ実行可能コードを含む、該メモリを有し、
前記主音声コンテンツ状態が再生モードにあるときに前記モバイル装置上で前記従音声コンテンツを再生するようにトリガされたときに、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードで再生される、システムが提供される。
本発明のいくつかの実施形態は一例として示されており、添付の図面の図によって限定されない。
図面において、同様の参照符号は概して異なる図面を通じて同一の部分を指す。図面は必ずしも縮尺通りではなく、代わりに、概して、本発明の原理を示すことに重点が置かれている。様々な特徴または要素の寸法は、明確にするために任意に拡大または縮小されてもよい。以下の説明では、本発明の様々な実施形態が以下の図面を参照して説明される。
図1は、様々な実施形態による、1つまたは複数のコンピューティング装置上の従音声コンテンツを、別個の視覚表示システム上で再生するように構成された主音声コンテンツまたは主視覚コンテンツ(又は、マスタービジュアルコンテンツ)に同期させるための高レベルシステムアーキテクチャを示すブロック図を示す。
図2は、様々な実施形態による、1つまたは複数のコンピューティング装置上の従音声コンテンツを、別個の視覚表示システム上で再生するように構成された主音声コンテンツまたは主視覚コンテンツに同期させるための例示的な方法を示すフローチャートである。
図3は、モバイル装置上の音声コンテンツを別個の視覚表示システム上の視覚コンテンツに同期させるための高レベルシステムの概要を示す。
図4は、別個の視覚表示システム上の視覚コンテンツへの別個の音声コンテンツの同期を可能にするための、視覚表示システム上の例示的な方法を示すフローチャートである。
図5は、1つまたは複数のモバイル装置上の音声コンテンツを、別個の視覚表示システム上の視覚コンテンツに同期させるための例示的な方法を示すフローチャートである。
図6は、モバイル装置上の音声コンテンツを別個の視覚表示システム上の視覚コンテンツに同期させる代替の高レベルシステムの概要を示す。
図7は、モバイル装置上の別個の音声コンテンツを別個の視覚表示システム上の視覚コンテンツに同期させることを可能にするための、視覚表示システム上の例示的な方法を示すフローチャートである。
図8は、1つまたは複数のモバイル装置上の音声コンテンツを、別個の視覚表示システム上の視覚コンテンツに同期させるための例示的な方法を示すフローチャートである。
以下の詳細な説明は、例示として、本発明が実施され得る特定の詳細および実施形態を示す添付の図面を参照する。これらの実施形態は、当業者が本発明を実施することを可能にするのに十分詳細に説明される。本発明の範囲から逸脱することなく、他の実施形態を利用することができ、構造上の変更および論理的な変更を行うことができる。いくつかの実施形態は新しい実施形態を形成するために1つまたは複数の他の実施形態と組み合わせることができるので、様々な実施形態は必ずしも相互に排他的ではない。
システムまたは方法のうちの1つの文脈で説明される実施形態は、他のシステムまたは方法に対して同様に有効である。同様に、システムの文脈で説明される実施形態は方法についても同様に有効であり、その逆も同様である。
実施形態の文脈で説明される特徴は、これらの他の実施形態で明示的に説明されていなくても、他の実施形態に対応して適用可能であり得る。さらに、実施形態の文脈における特徴について説明したような追加および/または組み合わせおよび/または代替は、他の実施形態における同じまたは同様の特徴に対応して適用可能であり得る。
本明細書で使用され、様々な実施形態の文脈で使用されるように、「視覚コンテンツ」という表現は任意のタイプの視覚メディア、例えば、任意の電子手段上で再生(又は、プレイ/play)されるビデオまたは静的視覚メディアを指すことができ、これらは移動、アニメーション化、変更、またはユーザによって見られている間に視覚的に修正されることが可能であり得る。「視覚コンテンツ」は様々な実施形態の文脈で使用されるように、「視覚データ」と交換可能に使用することができ、「視覚データ」は花火、レーザー、投光、噴水などのような視覚要素を操作するために使用されるデータを指すことができるが、これらに限定されない。
本明細書および様々な実施形態の文脈で使用されるように、「音声コンテンツ」という表現は、「オーディオデータ」と交換可能に使用され得る。
本明細書および様々な実施形態の文脈で使用されるように、特徴または要素に関して使用される冠詞「a」、「an」および「the」は、特徴または要素のうちの1つまたは複数への言及を含む。
本明細書および様々な実施形態の文脈で使用されるように、用語「および/または」は、関連する列挙された項目のうちの1つまたは複数の任意の組合せおよびすべての組合せを含む。
したがって、1つまたは複数の例示的な実施形態では、説明された機能がハードウェア、ソフトウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、コンピュータ可読媒体上の1つまたは複数の命令またはコードとして記憶または符号化されてもよい。
本明細書および様々な実施形態の文脈で使用されるように、位置および時間に関連して使用される「第2の」および「第1の」は限定することなく位置および時間を区別するために使用され、例えば、「第2の位置および時間」は「第1の位置および時間」が必要とされることなく提供されてもよく、または逆に、「第1の位置および時間」は、「第2の位置および時間」が必要とされることなく提供されてもよい。
本明細書において、用語「有する」(comprising)は、用語「含む」(including)と同様の広い意味を有すると理解されるべきであり、記載された整数(integer)またはステップまたは整数またはステップのグループを含むことを意味するが、他の整数またはステップまたは整数またはステップのグループを排除するものではないと理解されるべきであり、この定義は「有する」および「含む」などの用語「有している」(comprising)の変形にも適用される。
本明細書において、「タイムコード」とは、音声又は視覚コンテンツファイルの「再生中」又は「停止中」の位置を参照するために使用することができる、音声又は視覚コンテンツメディア全体にわたって、一貫した時間隔の任意の記号的命名を指す。
発明を容易に理解し、実用的に実施しうるために、特定の実施形態を、限定ではなく例として、図面を参照して説明する。特定のシステムについて本明細書で説明される任意の特性は、本明細書で説明される任意のシステムについても成り立ち得ることが理解されるであろう。特定の方法について本明細書で説明される任意の特性は、本明細書で説明される任意の方法についても成り立ち得ることが理解されるであろう。さらに、本明細書で説明される任意のシステムまたは方法について、必ずしも説明されるすべての構成要素またはステップがシステムまたは方法に含まれなければならないわけではなく、いくつかの(ただしすべてではない)構成要素またはステップのみが含まれてもよいことが理解されるであろう。
本開示は、音声視覚コンテンツ(又は、オーディオビジュアルコンテンツ)の一部(又は、ピース/piece)内の音声コンテンツがユーザのモバイル装置に事前にダウンロードされ、次いで、別個の視覚表示システム上で再生されている視覚コンテンツと同期して(好ましくはヘッドホンを介して)再生されることを可能にするシステムおよび方法を提供することによって、上述の問題に対する解決策を提供しようとする。
本開示はまた、1つまたは複数のモバイル装置上の従音声コンテンツの再生(playback)を、別個の視覚表示システム上の主音声コンテンツおよび/または主視覚コンテンツに同期させることを可能にする。言い換えれば、いくつかの実施形態では、本開示が1つまたは複数のモバイル装置上の従音声コンテンツを、別個の視覚表示システム上の主音声コンテンツに同期させることを可能にする。他の実施形態では、本開示が1つまたは複数のモバイル装置上の従音声コンテンツを、別個の視覚表示システム上の主視覚コンテンツに同期させることを可能にする。他の実施形態では、本開示が1つまたは複数のモバイル装置上の従音声コンテンツを、別個の視覚表示システム上の主視覚コンテンツおよび主音声コンテンツに同期させることを可能にする。
図1は、1つまたは複数のモバイル装置50、51、52上の従音声コンテンツを、別個の視覚表示システム10上の主音声コンテンツまたは主視覚コンテンツに同期させるためのシステム60を示す。いくつかの実施形態によれば、別個の視覚表示システム10は、1つまたは複数のモバイル装置50、51、52から離れた位置に配置される。システム60において、モバイル装置の各ユーザは、モバイル装置上の音声同期アプリケーションにアクセスする。モバイル装置は、モバイルハンドセット、ユニット、デバイス、マルチメディアタブレット、ファブレット、コミュニケータ、デスクトップコンピュータ、ラップトップコンピュータ、パーソナルデジタルアシスタント、またはそれらの任意の組み合わせを含む、任意のタイプの固定デバイス、またはポータブルデバイスであり得、モバイル装置に有線または無線で接続されるスピーカ、ヘッドホン、またはイヤホンを用いてモバイル装置の機能を実行するように特に構成される。モバイル装置50、51、52は、通信ネットワーク(図示せず)を介して、処理サーバ30、データ記憶サーバ(又は、データストレージサーバ)40およびタイムサーバ20と通信することができる。音声同期アプリケーションは所定の時間に、または必要に応じて、ユーザによってデータ記憶サーバ40からダウンロードされてもよい。
視覚表示システム10は、通信ネットワーク(図示せず)を介して、処理サーバ30、データ記憶サーバ40およびタイムサーバ20と通信することができる。いくつかの実施形態では、視覚コンテンツを制御し、再生するためのインターフェースを提供するために、ビジュアルプレーヤディスプレイアプリケーションが視覚表示システム上にダウンロードされ、インストールされてもよい。視覚出力装置11は、有線又は無線接続を介して視覚表示システムに接続されてもよい。様々な実施形態によれば、視覚出力装置は視覚表示出力(又は、視覚ディスプレイ出力)、例えば、テレビ、プロジェクタ、または公共の環境で視聴者によって見られるように構成されたモニタであってもよい。視覚表示システムがオペレータによって主視覚コンテンツを再生するように開始されると、主視覚コンテンツが視覚出力装置上に表示される。主視覚コンテンツは映画、TV、デジタル視覚コンテンツなどを含むことができるが、これらに限定されない。いくつかの実施形態では、本開示が1つまたは複数のモバイル装置上の従音声コンテンツを、別個の視覚表示システム上の主視覚コンテンツに同期させることを可能にする。例えば、イベントにおいて視覚出力装置上に示されるショーまたは映画の上映(又は、スクリーニング)のコンテキスト(又は、場合)では、そのイベントにおいて視聴者メンバーのモバイル装置上で再生される従音声コンテンツが視覚表示システム上で再生されている主視覚コンテンツと同期させることができる。主視覚コンテンツは、データ記憶サーバからダウンロードまたは再生されてもよく、または視覚表示システムのメモリに記憶されてもよい。
タイムサーバ20は基準時計から実際の時刻を読み出し、通信ネットワークを用いてこの情報を配信するサーバである。タイムサーバは、通信ネットワークを介して時刻を分配し、同期させるネットワークタイムプロトコル(NTP)を使用するサーバであってもよい。
処理サーバ30は単一のサーバであってもよいし、サーバグループであってもよい。サーバグループは集中型であっても、分散型であってもよい(例えば、処理サーバ30は、分散型システムであってもよい)。いくつかの実施形態において、処理サーバ30は、ローカルでもリモートでもよい。例えば、処理サーバ30は、通信ネットワークを介して、視覚表示システムまたはモバイル装置に記憶された情報および/またはデータにアクセスすることができる。別の例として、処理サーバ30は記憶された情報および/またはデータにアクセスするために、視覚表示システムに直接接続してもよい。いくつかの実施形態において、処理サーバ30は、クラウドプラットフォーム上に実装されてもよい。単に例として、クラウドプラットフォームは、プライベートクラウド、パブリッククラウド、ハイブリッドクラウド、コミュニティクラウド、分散クラウド、インタークラウド、マルチクラウドなど、またはそれらの任意の組合せを含むことができる。
データ記憶サーバ40は、視覚表示システム10及びモバイル装置50、51、52とネットワーク通信していてもよく、分離された従音声コンテンツ及び主視覚コンテンツ又は主音声コンテンツを含んでもよい。主視覚コンテンツは通信ネットワークを介して視覚表示システムにダウンロードし、視覚表示システムのメモリ内に格納することができる。視覚表示システムはまた、多数の機能、特にビデオプレーヤアプリケーション(図示せず)を実行するためにコードまたはプログラミングを実行(execute)または実施(run)するように動作するプロセッサ(図示せず)を含む。いくつかの実施形態において、主視覚コンテンツは、データ記憶サーバ40からダウンロードされなくてもよい。いくつかの実施形態では、それはハードドライブへの直接接続を介して視覚表示システム上にアップロードされてもよい。いくつかの実施形態では、従音声コンテンツが通信ネットワークを介してモバイル装置によってデータ記憶サーバからモバイル装置にダウンロードされ、前記モバイル装置のメモリに記憶されることができる。
いくつかの実施形態では、本開示が1つまたは複数のモバイル装置上の従音声コンテンツを、別個の視覚表示システム上の主音声コンテンツに同期させることを可能にする。例えば、第1の位置でのライブ視覚表示パフォーマンスのコンテキストでは、第2の位置で視聴者メンバーのモバイル装置上で再生される従音声コンテンツが視覚表示システム上で再生されている主音声コンテンツと同期することができる。いくつかの実施形態では、視覚表示システムが制御システム12と有線または無線通信することができる。制御システム12は、所望の結果を達成するために他のデバイスまたはシステムの挙動を命令または調整するデバイスのシステムまたはデバイスのセットである。いくつかの実施形態では、制御システム12がライブ視覚表示パフォーマンスの一部をトリガするためのボタン、キー、またはスイッチなどの入力デバイスを含む。視覚表示システム上で再生するように構成される主音声コンテンツは音声キュートラックが音声サウンドトラックに対する時間の正確な描写であり得るように、その主音声コンテンツを形成するために1つ以上の音声サウンドトラックに埋め込まれ、ミキシングされ、または組み合わされ得る1つ以上の音声キュートラックを含み得る。モバイル装置上で再生するように構成される従音声コンテンツはすべての従音声コンテンツが主音声コンテンツと同じ所定の継続時間になるように、その従音声コンテンツを形成するために1つ以上の音声サウンドトラックに埋め込まれ、ミキシングされ、または組み合わされ得る1つ以上の従音声キュートラックを含み得る。音声キュートラックは、ライブ視覚表示パフォーマンスの一部を制御またはアクティブ化するように構成される。音声キュートラックには、SMPTEタイムコード、FSKタイムコード、LTC(Linear Time Code)などのサウンドキューや音声タイムコードを含めることができる。これらはそれぞれ、タイムコードの標準プロトコルである。音声キュートラックは、ライブ視覚表示パフォーマンスの一部を制御または指示する花火、タイミング、照明またはサウンドキューの形態とすることができるキューを含むことができる。例えば、花火ディスプレイでは音声キュートラックが花火キューを含むことができ、花火キューの各々は異なる時間に異なる花火セットをアクティブ化する。一方、主音声コンテンツは別個の音声出力装置(図示せず)に入力されてもよい、音楽コンテンツまたは音声が録音されたもの(recording)であってもよい音声サウンドトラックを含んでもよい。いくつかの実施形態では、音声キュートラックが視覚表示システムから制御システムに供給される。いくつかの実施形態では、音声キュートラックが視覚表示システムと同期して音声キュートラックを再生する従モバイル装置とすることができる1つまたは複数の外部デバイス(図示せず)によって1つまたは複数の制御システムに供給される。他の実施形態では、制御システムがライブ視覚表示パフォーマンスのキューをアクティブ化するための音声タイムコードに対応する制御信号を含む。一方、従音声コンテンツは、視聴者メンバーの従モバイル装置によって再生されることができる、音楽コンテンツまたは音声録音(sound recording)であってもよい音声サウンドトラックを含んでもよい。
主音声コンテンツは、あらかじめ決められた継続時間の音声サウンドトラックである。前述のように、従音声コンテンツは、それ自体の音声タイムコード、照明キュー、サウンドキューまたは花火キュー、またはそれらの組み合わせを含むことができる従音声キュートラックを含むことができる。1つまたは複数の従音声キュートラックのそれぞれは、主音声コンテンツと同じ所定の継続時間である。従音声キュートラックは、音声同期アプリケーションを介して1つまたは複数の従外部デバイスで再生されうる。このように、モバイル装置などの従外部デバイスが視覚表示システム上で再生される主音声コンテンツと同期して再生される従音声キュートラックを再生することを可能にすることによって、従モバイル装置のオペレータは、ライブ視覚表示パフォーマンスの一部を制御または指示することができる。例えば、一実施形態では、従モバイル装置が視覚表示システムと有線または無線通信する制御システムとは異なる第2の制御システムと有線または無線通信することができる。その第2の制御システムは、従モバイル装置上で再生する従音声キュートラックに対応する制御信号を受信すると、照明キューまたは花火キューをトリガするように代わる代わる(in turn)構成することができる。別の実施形態では、従モバイル装置が第2の制御システムと通信していなくてもよい。モバイル装置のオペレータはモバイル装置上で再生している従音声キュートラックを聞き、オペレータがそうするためのキューを受け取ると、第2の制御システム上の照明キューまたは花火キューをトリガする。
一例として、視覚表示システムは、SMPTE、FSKまたはLTCのような音声タイムコードを含む音声キュートラックを含む主音声コンテンツを再生することができる。音声キュートラックは、様々なタイムコード位置に関連付けられた1つまたは複数の花火キューを有する第1の制御システムに供給される。いくつかの実施形態では、視覚表示システムおよび第1の制御システムから離れた別々の位置にある第2または第3の制御システムに、モバイル装置を介して、視覚または音声効果を制御するように構成された音声タイムコードを含む従音声キュートラックを供給することができる。モバイル装置を有する照明ディスプレイオペレータはライブ視覚表示パフォーマンスの意図された位置で意図された照明キューをトリガするために、言語キューを含む音声キュートラックを聴くことができる。照明ディスプレイオペレータのモバイル装置は、視覚表示システム上で再生する主音声キュートラックと同期して従音声キュートラックを再生している。いくつかの実施形態では、視聴者メンバーが視覚表示システムに同期して再生される従モバイル装置上で、音楽サウンドトラックを含むことができる音声サウンドトラックを聴くことができる。これにより、花火イベントの様々なオーディオビジュアルコンポーネントが、互いに同期して動作することが可能になる。
モバイル装置50、51、52および視覚表示システム10を通信ネットワークを介して処理サーバ30、データ記憶サーバ40およびタイムサーバ20に接続することにより、これは、モバイル装置上で再生するように構成された従音声コンテンツを、主音声コンテンツおよび/または別個の視覚表示システム10上で再生される主視覚コンテンツと同期させることを可能にし、これにより、主視覚コンテンツを表示している視覚出力装置11を見ている視聴者メンバーが、イベントのより良い音声および視覚的体験を有することを可能にする。
本明細書で使用されるように、モバイル装置50、51、52、視覚表示システム10、視覚出力装置11及び制御システム12は、ローカルエリアネットワーク、メトロポリタンエリアネットワーク、ワイドエリアネットワーク、プロプライエタリネットワーク、及び/又はインターネット、イントラネット又はエクストラネットのようなインターネットプロトコルネットワークのような任意の通信ネットワークを介してデータを交換することができる。システム内の各デバイス、モジュール、または構成要素は、ネットワークを介して接続されてもよく、または直接接続されてもよい。当業者は、「ネットワーク」、「コンピュータネットワーク」および「オンライン」という用語が同じ意味で使用されてもよく、特定のネットワーク実施形態を意味しないことを認識するであろう。一般に、任意のタイプのネットワークを使用して、本開示のオンラインまたはコンピュータネットワーク化された実施形態を実装することができる。ネットワークはサーバによって維持されてもよいし、サーバの組み合わせによって維持されてもよいし、ネットワークがサーバレスであってもよい。さらに、任意のタイプのプロトコル(HTTP、FTP、ICMP、UDP、WAP、SIP、H.323、NDMP、TCP/IPなど)を使用して、ネットワークを介して通信することができる。本明細書で説明するデバイスおよびシステムは、1つまたは複数のそのような通信ネットワークを介して通信することができる。
図2は、1つまたは複数のコンピューティング装置上の従音声コンテンツを、様々な実施形態による、別個の視覚表示システム上で再生するように構成された主音声コンテンツまたは主視覚コンテンツに同期させるための例示的な方法を示すフローチャートである。視聴者メンバーが視覚出力装置上で、例えば、その視聴者メンバーに以前に通信されたショーの日時に、または視覚表示システム上で所定の持続時間の主音声コンテンツのみが再生されるライブ視覚表示パフォーマンスで、所定の持続時間の主視覚コンテンツを視聴することができる場所に到着すると、視聴者メンバーは、音声同期アプリケーションのダウンロードを開始することができる。音声同期アプリケーションは視聴者メンバーが視聴したいデータ記憶サーバから、主視覚コンテンツまたは主音声コンテンツと同じ所定の継続時間を有するショーの従音声コンテンツをダウンロードすることを可能にする。いくつかの実施形態では、データ記憶サーバからの従音声コンテンツのダウンロードは、所定の位置および時間に到着する前に、他の場所で行うことができる。いくつかの実施形態では、視聴者メンバーには購入のための1つまたは複数のショーの選択が所定の場所であろうと他の場所であろうと提供され、ユーザは支払いゲートウェイまたは電子財布、クレジット、または加入(subscription)料金(ただし、これらに限定されない)を使用した、ショーの支払いを促される。選択したショーの支払いが成功すると、視聴者メンバーは選択したショーの従音声コンテンツをモバイル装置のメモリにダウンロードできる。
所定の位置および時間に、オペレータは、視覚表示システム上で主視覚コンテンツまたは主音声コンテンツのブロードキャストを開始する。いくつかの実施形態では、オペレータが主視覚コンテンツまたは主音声コンテンツを制御および再生するためのインターフェースを提供する視覚表示プレーヤアプリケーション上で、主視覚コンテンツまたは主音声コンテンツのブロードキャストを開始する。主視覚コンテンツは例えば、スクリーン、プロジェクタ、TV等の視覚出力装置に出力される。ステップ71において、主視覚コンテンツまたは主音声コンテンツがオペレータによって再生されるようにトリガされると、視覚表示システムは視覚表示システム真時間(又は、実時間/トゥルータイム/true time)を得る。視覚表示システム真時間は、視覚表示システムローカル時間および視覚表示システム時間偏差に基づいて決定され、以下の式に基づく:
視覚表示システム真時間=視覚表示システムローカル時間+視覚表示システム時間偏差
視覚表示システム時間偏差は、視覚システムローカル時間と、視覚表示システムと通信するタイムサーバから得られるタイムサーバ時間との間の時間差である。
ステップ72で、視覚表示システムは、以下の情報を含む同期メッセージを生成するように進む:
1.視覚表示システム真時間
2.主視覚コンテンツタイムコードまたは主音声コンテンツタイムコード
3.主視覚コンテンツ状態または主音声コンテンツ状態
主視覚コンテンツタイムコードは、視覚表示システムで再生されている主視覚コンテンツの現在位置に対応する。主視覚コンテンツ状態または主音声コンテンツ状態は、それぞれ主視覚コンテンツまたは主音声コンテンツ状態の動作モードまたはステータスに関連付けられる。動作モードまたはステータスは、主視覚コンテンツまたは主音声コンテンツが再生を継続しているか、コンテンツが再生を停止しているかを示す「再生中」または「停止中」のいずれかになる。同期メッセージが生成されると、処理サーバに送信される。
ステップ73で、同期メッセージはモバイル装置が視聴者メンバーによって従音声コンテンツを再生するようにトリガされたときに、処理サーバによって、周期的(又は、定期的/periodic)な時間隔でそのモバイル装置に送信される。モバイル装置への周期的な時間隔での同期メッセージの送信は、WebSocket通信プロトコルによって有効になる。これにより、モバイル装置は同期メッセージが周期的な時間隔で送信されるように、処理サーバをリッスン(listening)するか、または常時通信することが可能になる。例えば、これは、毎秒1回送信することができる。また、WebSocket通信プロトコルにより、視覚表示システムがタイムコードで前後に調整されたり、状態が「再生中」から「停止中」に変更されたり、その逆に変更されたりするたびに、モバイル装置が同期メッセージを受信できるようになる。言い換えると、オペレータによる主音声コンテンツタイムコードまたは主視覚コンテンツタイムコードへの手動調整、あるいは主音声コンテンツ状態または主視覚コンテンツ状態のそれぞれの状態の変化があるときはいつでも、それに応じて1つまたは複数の同期メッセージがモバイル装置に送信される。
ステップ74において、モバイル装置は、モバイル装置真時間を決定する。モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、以下の式に基づく:
モバイル装置真時間=モバイル装置ローカル時間+モバイル装置時間偏差
モバイル装置時間偏差は、モバイル装置ローカル時間と、モバイル装置と通信するタイムサーバから得られるタイムサーバ時間との間の時間差である。
ステップ75で、モバイル装置は、主視覚コンテンツタイムコードまたは主音声コンテンツタイムコード、モバイル装置真時間および視覚表示システム真時間に基づいて従音声コンテンツタイムコードを決定する。従音声コンテンツタイムコードは、次の式に基づく:
レイテンシー=モバイル装置真時間-視覚表示システム真時間
従音声コンテンツタイムコード=主視覚コンテンツタイムコードまたは主音声コンテンツタイムコード+レイテンシー
従音声コンテンツタイムコードは、主視覚コンテンツタイムコードまたは主音声コンテンツタイムコードとレイテンシー(又は、待ち時間/遅延時間/LATENCY)の集計(aggregating)に基づいて決定される。レイテンシーがモバイル装置真時間と視覚表示システム真時間の時間差によって決定される。従音声コンテンツタイムコードは、主視覚コンテンツタイムコードまたは視覚表示システムで再生されている主音声コンテンツタイムコードの現在の位置に対応する。
ステップ76で、主視覚コンテンツまたは主音声コンテンツが再生モードにあることが検出されると、音声同期アプリケーションは、従音声コンテンツタイムコードが主視覚コンテンツタイムコードまたは主音声コンテンツタイムコードと同期していないかどうかを判断する。モバイル装置はWebSocket通信プロトコルを介して処理サーバと常時接続しているため、モバイル装置は周期的な時間隔で同期メッセージを受信する。これにより、音声同期アプリケーションは、音声コンテンツタイムコードが所定の時間隔内に主視覚コンテンツタイムコードまたは主音声コンテンツタイムコードと同期していないかどうかを確認できる。従音声コンテンツタイムコードが主視覚コンテンツタイムコードまたは主音声コンテンツタイムコードと同期していないかどうかを判断する式は、次のとおりである:
差=従音声コンテンツタイムコード-現在の従音声コンテンツタイムコード
ステップ77において、従音声コンテンツタイムコードが主視覚コンテンツタイムコードまたは±200msを超えて主音声コンテンツタイムコードと同期していない場合(すなわち、差(DIFFERENCE)がいずれかの方向で±200msを超えている場合)、例えば、モバイル装置は、視覚表示システム上のコンテンツの現在位置に関連付けられた主音声コンテンツタイムコードまたは主視覚コンテンツタイムコードと同期している従音声コンテンツタイムコードの再生を調整する。いくつかの実施形態では、所定の間隔が主視覚コンテンツタイムコードまたは主音声コンテンツタイムコードとの同期外れと見なされるように、約+200msまたは約-200msとすることができる。ステップ78で、差が±200ms未満である場合、モバイル装置は、主視覚コンテンツタイムコードまたは主音声コンテンツタイムコードと同期して、従音声コンテンツタイムコードの再生を継続する。
実施例1
図3は、システム100のコンポーネントの概要を示す。このコンポーネントが音声視覚コンテンツファイルから分離された視覚コンテンツ112および音声コンテンツ114を、互いに同期して、それぞれ視覚表示システム上および1つまたは複数のモバイル装置上で再生することを可能にする。再生するようにトリガされると、視覚表示システムは、視覚表示システム上で再生されている視覚コンテンツの現在位置に関連付けられた視覚コンテンツタイムコードと、その視覚表示システム上で再生されている視覚コンテンツの視覚コンテンツ状態(「再生中」または「停止中」)をタイムサーバに通知する。タイムサーバは、現在の時刻(タイムスタンプ)と視覚コンテンツの状態を含む視覚コンテンツタイムコードを記録する。ユーザのモバイル装置はタイムサーバから最新時刻、視覚コンテンツ状態、視覚コンテンツタイムコード及びタイムスタンプを取り出し、そして視覚表示システム上で再生されている視覚コンテンツと同期するように音声コンテンツの再生を調整することによって、音声視覚コンテンツの音声コンテンツを再生する。いくつかの実施形態では音声視覚コンテンツファイルがショーを含むことができ、ショーはフィルム、TV、ビデオコンテンツ、花火、照明、水、レーザーショーなどを含むが、これらに限定されない。
タイムコードは、タイミング同期システムによって一定の間隔で生成される一連の数値コードである。タイムコードは、録画またはアクションの時間的調整またはロギングを必要とする、ビデオ制作、ショーコントロール、およびその他のアプリケーションで使用される。本開示の文脈において、「タイムコード」とは、「再生中」または「停止中」の音声または視覚コンテンツファイルの位置を参照するために使用することができる、音声または視覚メディア全体にわたる、一貫した時間隔の任意のシンボリックなネーミングを意味する。別々の音声コンテンツと視覚コンテンツを同期させるには、再生時にタイムコードを正確に一致させる必要がある。
ネットワーク遅延を考慮するために、視覚表示システムとモバイル装置の両方が、タイムサーバとの接続時にタイムサーバ中継時間(又は、リレー時間)をチェックする。これらの中継時間は、モバイル装置上での音声コンテンツ再生の調整に使用される。
データ記憶サーバ110はストレージ内に、特定の音声視覚コンテンツファイルの視覚コンテンツ112と音声コンテンツ114とを分離する。音声視覚コンテンツファイルの視覚コンテンツ112は、インターネット(図示せず)または他の同様の通信ネットワークを介して視覚表示システム120にダウンロードされ、メモリ126内に格納される。視覚表示システム120はまた、コードまたはプログラミングを実行または実施して多数の機能を実行するように動作するプロセッサ122を含む。例えば、プロセッサは、視覚表示アプリケーションを実行または実施させることができる。いくつかの実施形態では視覚コンテンツがデータ記憶サーバ110からダウンロードされる必要はないが、外部記憶ソース、例えば、ハードドライブからの直接接続を介して視覚表示システム120にロードされてもよい。
特定の音声視覚コンテンツファイルの音声コンテンツ114は、インターネット(図示せず)または通信ネットワークを介してモバイル装置150にダウンロードされ、前記装置のメモリ156に記憶される。いくつかの実施形態において、音声コンテンツはサーバ110からダウンロードされる必要はないが、外部装置または記憶ソースからモバイル装置のメモリにロードされてもよい。いくつかの実施形態では、音声コンテンツが外部デバイスまたは記憶ソースから無線で、または有線接続を介して取得され得る。いくつかの実施形態では、外部デバイスまたは記憶ソースがハードドライブであってもよい。
タイムサーバ140は基準クロックから実際の時刻を読み出し、通信ネットワークを用いてこの情報を分配するサーバ装置である。このタイムサーバ140はまた、情報を記録するためのデータベースを有する。
(キーボード、マウス、音声制御、時間などを含むことができるが、これらに限定されない制御を使用してトリガされて)視覚表示システム120が視覚コンテンツ128の再生を開始するように設定されると、例えば、プロジェクタ、テレビ、またはモニタなどの視覚出力装置162への接続を介して視覚表示出力が行われる。同時に、視覚表示システム120は、プロセッサ122および視覚表示システムクロック124を使用して、pingまたは同様の方法を使用して、インターネット(図示せず)、または同様の通信ネットワークを介して視覚表示システムタイムサーバ中継時間をチェックする。視覚表示システムタイムサーバ中継時間は、pingが視覚表示システムからタイムサーバに送信されてから戻るまでにかかった時間である。続いて、それは、視覚コンテンツタイムコード、視覚表示システムタイムサーバ中継時間および視覚コンテンツ状態(「再生中」または「停止中」)をタイムサーバ140に送信する。タイムサーバは、本明細書でタイムスタンプと呼ばれる視覚コンテンツタイムコードを受信した時間を即座に記録する。タイムサーバ140がそのタイムスタンプ、視覚コンテンツタイムコード、視覚表示システムサーバ中継時間および現在の状態(「再生中」または「停止中」)をサーバのデータベースに記録する。
モバイル装置150は、モバイルハンドセット、ユニット、デバイス、マルチメディアタブレット、ファブレット、コミュニケータ、デスクトップコンピュータ、ラップトップコンピュータ、パーソナルデジタルアシスタント、またはそれらの任意の組合せを含む、モバイル装置150に有線または無線で接続されたスピーカ、ヘッドホン、イヤホンを有するモバイル装置の機能を実行するように特に構成された、任意のタイプの固定またはポータブルコンピューティング装置とすることができる。この議論では、「モバイル装置」および「コンピューティング装置」という用語が交換可能に使用され得る。
モバイル装置150は通信ネットワークにアクセスし、他のコンピュータ及びシステム、例えば、処理サーバ、データベース、及び/又はタイムサーバ、視覚表示システム及び視覚表示システムに動作的に接続された表示装置と通信することができ、これらはすべてその通信ネットワークを介して相互接続される。
モバイル装置150はまた、コードまたはプログラミングアプリケーションの実行または実施のためのプロセッサ152を含む。いくつかの実施形態では、プロセッサが音声同期アプリケーションの実行または実施を行う。音声同期アプリケーションはユーザによってダウンロードされてもよいし、モバイル装置にプリインストールされてもよい。モバイル装置150上で音声コンテンツ158を再生すると、装置は、まず、プロセッサ152とモバイル装置クロック154を使用して、インターネット(図示せず)、または類似の通信ネットワークを介して、pingまたは類似の方法を使用して、モバイル装置タイムサーバ中継時間をチェックする。モバイル装置タイムサーバ中継時間は、pingがモバイル装置からタイムサーバに送信されてから戻るまでにかかった時間である。続いて、モバイル装置150はタイムサーバ140から、視覚表示システム120のタイムスタンプ、視覚コンテンツタイムコード、視覚的表示タイムサーバ中継時間および視覚コンテンツ状態(「再生中」または「停止中」)を取り出す。(視覚表示システムおよびモバイル装置の両方の)タイムスタンプ、視覚コンテンツタイムコード、視覚コンテンツ状態およびタイムサーバ中継時間を使用して、モバイル装置150は、視覚表示システム上の視覚コンテンツと同期して再生するように音声コンテンツ158を調整する。視覚表示システム上の視覚コンテンツと同期して再生するように音声コンテンツを調整するために、モバイル装置はNTPプロトコルを使用してモバイル装置真時間を決定する、すなわち、モバイル装置はタイムサーバの現在時刻をタイムサーバでチェックし、現在のサーバ時刻とモバイル装置タイムサーバ中継時間に基づいてモバイル装置真時間を決定する。その後、音声同期アプリケーションは、視覚表示システム上で再生される視覚コンテンツタイムコードの現在位置と同期する位置で音声コンテンツを再生するように構成された音声タイムコードを決定する。音声コンテンツタイムコードは、次の式で決まる:
音声コンテンツタイムコード=(モバイル装置真時間-(タイムスタンプ-視覚表示システムタイムサーバ中継時間/2))+視覚コンテンツタイムコード
視聴者メンバー170は、視覚出力装置162からの視覚コンテンツ128およびモバイル装置150を介した音声コンテンツ158をシームレスに、かつオーディオビジュアル同期で体験する。
本明細書で使用されるように、モバイル装置150は、ローカルエリアネットワーク、メトロポリタンエリアネットワーク、ワイドエリアネットワーク、プロプライエタリネットワーク、および/またはインターネット、イントラネットまたはエクストラネットのようなインターネットプロトコルネットワークなどの任意の通信ネットワークを介して情報を交換することができる。システム内の各デバイス、モジュール、またはコンポーネントは、ネットワークを介して接続されてもよく、または直接接続されてもよい。当業者は、「ネットワーク」、「コンピュータネットワーク」および「オンライン」という用語が同じ意味で使用されてもよく、特定のネットワーク実施形態を意味しないことを認識するであろう。一般に、任意のタイプのネットワークを使用して、本開示のオンラインまたはコンピュータネットワーク化された実施形態を実装することができる。ネットワークはサーバによって維持されてもよいし、サーバの組み合わせによって維持されてもよいし、ネットワークがサーバレスであってもよい。さらに、任意のタイプのプロトコル(HTTP、FTP、ICMP、UDP、WAP、SIP、H.323、NDMP、TCP/IPなど)を使用して、ネットワークを介して通信することができる。本明細書で説明するデバイスおよびシステムは、1つまたは複数のそのような通信ネットワークを介して通信することができる。
図4は、視覚表示システム上の視覚コンテンツと、分離された音声コンテンツとの同期を可能にするための例示的な方法を示すフローチャートである。視覚表示システムは、インターネット(または同様の通信ネットワーク)に接続されている。ステップ210において、オペレータは視覚表示プレーヤアプリケーションをダウンロードし、視覚表示システムのオペレーティングシステムにインストールする。ステップ230で、オペレータは所定の日時に再生されるようにスケジュールされた音声視覚コンテンツファイルを選択し、音声視覚コンテンツファイルの視覚コンテンツが、視覚表示システムのローカルメモリからダウンロードされ、メモリに記憶され、または開かれ、ロードされる。
いくつかの実施形態ではステップ250において、オペレータはショーの位置、日付、および時間において、視覚表示システム上の視覚表示プレーヤアプリケーション上で視覚コンテンツを再生する。ステップ280において、視覚コンテンツは視覚出力装置、例えば、スクリーン、プロジェクタ、TV等に出力される。同時に、ステップ262で、視覚表示プレーヤアプリケーションはpingまたは類似の方法を使用してタイムサーバ中継時間をチェックし、ステップ264で、タイムサーバに視覚的コンテンツタイムコード、タイムサーバ中継時間および視覚コンテンツ状態(「再生中」または「停止中」)を送信する。タイムサーバは即座に、本明細書でタイムスタンプと呼ばれる視覚コンテンツタイムコードを受信した時間を記録する。ステップ270で、タイムサーバは、そのタイムスタンプ、視覚コンテンツタイムコード、サーバ中継時間および現在の状態(「再生中」または「停止中」)をサーバのデータベースに記録する。
様々な実施形態によれば、タイムサーバは基準クロックから実際の時刻を読み取り、通信ネットワークを用いてこの情報を分配するサーバである。タイムサーバは、この例では、情報を記録するためのデータベースも有する。タイムサーバは、ローカルネットワークタイムサーバでもインターネットサーバでもよい。いくつかの実施形態では、ネットワーク時間プロトコル(NTP)が通信ネットワーク上で時刻を分配し、同期するために使用される。
図5は、モバイル装置上の音声コンテンツを別個の視覚表示システム上の視覚コンテンツに同期させるための例示的な方法を示すフローチャートである。モバイル装置がインターネット(または同様の通信ネットワーク)に接続されている。ステップ310で、視聴者メンバーは音声同期アプリケーションをダウンロードし、モバイル装置のオペレーティングシステムにインストールする。ステップ320で、視聴者メンバーは購入するショーを選択し、任意のステップとして、視聴者メンバーは、これらに限定されないが、支払いゲートウェイ、内部ウォレット(internal wallet)、加入料金、クレジットなどを使用して、ショーの支払いを促される。あるいは、ショーが支払いを必要としない場合、視聴者メンバーは支払いを行うことを要求されない。支払いが成功した場合、または支払いが不要な場合は、そのショーの音声コンテンツがダウンロードされ、モバイル装置のメモリに保存される。
ステップ360において、視聴者メンバーはそのショーの指定された日時にロケーション(又は、位置)に到着し、ステップ370において、視聴者メンバーは、音声コンテンツを再生するようにアプリケーションをトリガする。ステップ372で、モバイル装置はインターネット(または同様の通信ネットワーク)を使用してタイムサーバをチェックし、ショーが開始されたかどうかを確認する。ステップ374で、ショーが開始された場合、モバイル装置は視覚表示システムから、「再生中」ステータスの視覚コンテンツ状態、タイムコード、及びタイムスタンプの記録の存在を確認する。モバイル装置がレコードを検出しない場合、またはタイムサーバデータベース上の「停止中」状態にある視覚コンテンツ状態を検出した場合、音声コンテンツは再生されない。ステップ376で、モバイル装置が「再生中」ステータスの視覚コンテンツ状態、タイムコード、及びタイムスタンプがあることを検出すると、モバイル装置は次にpingまたは同様の方法を使用してサーバ中継時間をチェックする。ステップ378で、モバイル装置は視覚表示システムのタイムサーバの現在時刻、タイムスタンプ、タイムコード、サーバ中継時間および視覚コンテンツ状態(「再生中」または「停止中」状態)をタイムサーバデータベースから取り出し、これらをモバイル装置のサーバ中継時間と共に使用して、視覚コンテンツと同期して再生される音声コンテンツの調整を計算する。視覚表示システム上の視覚コンテンツと同期して再生するように音声コンテンツを調整するために、モバイル装置は(視覚表示システムとモバイル装置の両方の)タイムスタンプ、視覚コンテンツタイムコード、視覚コンテンツ状態およびタイムサーバ中継時間を使用する。モバイル装置はNTPプロトコルを使用してモバイル装置真時間を決定する、すなわち、モバイル装置はタイムサーバの現在時刻をタイムサーバでチェックし、現在のサーバ時刻とモバイル装置タイムサーバ中継時間に基づいてモバイル装置真時間を決定する。その後、音声同期アプリケーションは、視覚表示システム上で再生される視覚コンテンツタイムコードの現在位置と同期する位置で音声コンテンツを再生するように構成された音声タイムコードを決定する。音声コンテンツタイムコードは、次の式で決まる:
音声コンテンツタイムコード=(モバイル装置真時間-(タイムスタンプ-視覚表示システムタイムサーバ中継時間/2))+視覚コンテンツタイムコード
いくつかの実施形態において、タイムサーバおよびデータベース140は、単一のサーバまたはサーバグループであってもよい。サーバグループは集中型であっても、分散型であってもよい(例えば、分散型システムであってもよい)。いくつかの実施形態において、タイムサーバおよびデータベース140は、ローカルまたはリモートであってもよい。いくつかの実施形態において、タイムサーバおよびデータベースは、クラウドプラットフォーム上に実装されてもよい。単に例として、クラウドプラットフォームは、プライベートクラウド、パブリッククラウド、ハイブリッドクラウド、コミュニティクラウド、分散クラウド、インタークラウド、マルチクラウドなど、またはそれらの任意の組合せを含むことができる。
実施例2
図6は、音声視覚コンテンツの分離された視覚コンテンツ412および音声コンテンツ414が互いに同期して別個のデバイス上で再生されることを可能にする、システム400のコンポーネントの概要を示す。いくつかの実施形態では音声視覚コンテンツがショー、フィルム、TV、ビデオコンテンツ、花火、照明、水、レーザーショーなどであるが、これらに限定されない。
図6はタイムサーバが別個のエンティティ、即ち、上述の実施例1に開示されたタイムサーバとは異なるものであり、モバイル装置と視覚表示システムとの間の通信は、処理サーバ445を介して行われる、代替実施形態を示す。なお、本実施形態に開示されるタイムサーバとは、基準クロックから実際の時刻を読み取り、NTPプロトコルを用いてこの情報を分配する、インターネット上で公開されているタイムサーバ装置、例えばGoogle公開NTPタイムサーバを指す。
データ記憶サーバ410はストレージ内に、特定のショーの視覚コンテンツ412と音声コンテンツ414とを分離する。ショーの視覚コンテンツ412は、インターネット(図示せず)、または他の同様の通信ネットワークを介して視覚表示システム420にダウンロードされ、視覚表示システムのメモリ426内に記憶される。いくつかの実施形態では、視覚コンテンツと音声コンテンツは両方とも、通信ネットワークを介して視覚表示システムにダウンロードされる。視覚表示システム420はまた、コードまたはプログラミングを実行または実施して多数の機能を実行するように動作するプロセッサ422を含む。例えば、プロセッサは、視覚表示アプリケーションを実施するようにプログラムされてもよい。いくつかの実施形態では視覚コンテンツがデータ記憶サーバ410からダウンロードされる必要はないが、外部データソースからの無線または有線接続を介して視覚表示システム420にロードされてもよい。たとえば、外付けデータソースがハードドライブであってもよい。
特定のショーの音声コンテンツ414は、インターネット(図示せず)または同様の通信ネットワークを介してモバイル装置450にダウンロードされ、前記装置のメモリ456に格納される。音声コンテンツは、データ記憶サーバ410からダウンロードする必要はない。いくつかの実施形態では、音声コンテンツが外部データソースからの無線または有線接続を介して、モバイル装置のメモリにロードされてもよい。たとえば、外付けデータソースがハードドライブであってもよい。
タイムサーバ440はインターネット上で公衆利用可能なタイムサーバなどの基準クロックから実際の時刻を読み出し、NTPプロトコルを用いてこの情報を分配するサーバ装置である。NTPプロトコルは、各交換が要求と応答の対であるいくつかのパケット交換を使用して、クライアントをネットワークサーバに同期することを含む。要求送信時に、クライアントは送信されるパケットに自身の時刻(オリジネート(originate)・タイムスタンプ)を格納する。サーバがこのようなパケットを受信すると、パケットに自身の時刻(受信タイムスタンプ)を格納し、パケットに送信タイムスタンプを入れた後にパケットが返される。応答受信時に、受信機はパケットの移動時間を推定するために、自身の受信時間をもう一度ログする。移動時間(遅延)は、対称遅延を仮定すると、「総遅延から遠隔処理時間を引いた時間」の半分と推定される。
また、視覚表示システム420からすべてのモバイル装置450への同期メッセージの送信のための処理サーバ445もある。処理サーバからモバイル装置への同期メッセージの伝送のためのプロトコルは、Websocketまたは同様のプロトコルを用いて、処理サーバ445を介して軽量で高速な接続を介して確立することができる。処理サーバとモバイル装置間のこの常時接続により、頻繁かつ周期的な同期メッセージを視覚表示システムからモバイル装置に送信できるようになる。また、モバイル装置および視覚表示システムの両方とも、タイムサーバ440からのモバイル装置時間偏差および視覚表示システム時間偏差を、それぞれ定期的にチェックする。
(キーボード、マウス、音声制御、時間などを含むことができるが、これらに限定されない制御を使用してトリガされて)視覚表示システム420が視覚コンテンツ428の再生を開始するように設定されている場合、視覚出力装置462への接続を介して視覚表示出力が行われる。いくつかの実施形態では、視覚出力装置はプロジェクタ、テレビジョン、モニタである。同時に、視覚表示システム420はプロセッサ422およびクロック424を使用して、インターネット(図示せず)、または類似の通信ネットワークを介して、タイムサーバ440からの現在の時間をチェックし、その視覚表示システム時間偏差を計算する。そのローカル時間およびタイムサーバ時間からの時間偏差を使用して、視覚表示システム真時間を導出することができる。続いて、それは、インターネット(図示せず)、または同様の通信ネットワークを介して視覚コンテンツタイムコード、視覚表示システム真時間および視覚コンテンツ状態を処理サーバ445に送る。視覚コンテンツ状態は、「再生中」または「停止中」状態を含み得る。このプロセスは、音声視覚ショー全体にわたって周期的に行われる。
モバイル装置450はまた、コードまたはプログラミングの実行または実施のためのプロセッサ452を含む。いくつかの実施形態では、そのプロセッサが音声同期アプリケーションを実施するようにプログラムされる。モバイル装置450上で音声コンテンツ458を再生すると、装置はインターネット(図示せず)または類似の通信ネットワークを介して、タイムサーバ440からの時間をチェックし、プロセッサ452およびモバイル装置クロック454を用いて自身の時間偏差を計算する。モバイル装置が音声コンテンツを再生するようにトリガされると、モバイル装置は処理サーバに接続し、視覚表示システムからの同期メッセージを受信する。モバイル装置450は、インターネット(図示せず)、または同様の通信ネットワークを介して、処理サーバ445から同期メッセージを受信する。
各同期メッセージには以下が含まれる。
視覚コンテンツ状態(「再生中」または「停止中」)
視覚コンテンツタイムコード
視覚表示システム真時間
同期メッセージを受信すると、モバイル装置は2つの操作のいずれかを実行する。「再生中」の視覚コンテンツ状態は、視覚コンテンツが視覚表示出力装置または視覚表示システム上で再生中であることを示す。モバイル装置が、視覚コンテンツ状態のステータスが「停止中」である同期メッセージを受信した場合、音声コンテンツは再生されない。
モバイル装置は、そのモバイル装置時間偏差をタイムサーバ440からチェックする。次に、モバイル装置は同期メッセージからのデータと共にモバイル装置時間偏差を使用して、現在の視覚コンテンツタイムコードまたは視覚表示システム420上で再生されている視覚コンテンツの現在位置を計算し、視覚出力装置上に表示される視覚コンテンツと同期するようにモバイル装置上の音声コンテンツの再生を調整する。モバイル装置時間偏差は、モバイル装置ローカル時間と、タイムサーバから取得された現在時刻との間のデルタまたは時間差である。これに対応して、視覚表示システム時間偏差は、視覚表示システムローカル時間とタイムサーバから取得された現在時刻との間のデルタまたは時間差である。
視聴者メンバー470は、視覚出力装置462からの視覚コンテンツ428およびモバイル装置450を介した音声コンテンツ458をシームレスに、かつオーディオビジュアル同期で体験する。
計算は、同期メッセージごとに次の式に従って行われる。同期メッセージの例を次に示す:
同期メッセージ=
視覚表示システム真時間
視覚コンテンツタイムコード(現在位置)
視覚コンテンツ状態(「再生中」または「停止中」)
モバイル装置真時間=モバイル装置ローカル時間+モバイル装置時間偏差
視覚表示システム真時間=視覚表示システムローカル時間+視覚表示システム時間偏差
レイテンシー=モバイル装置真時間-視覚表示システム真時間
レイテンシーは、視覚表示システムとモバイル装置との間の「同期メッセージ」の中継時間を説明する。
音声コンテンツタイムコード=視覚コンテンツタイムコード+レイテンシー
DIFFERENCE=音声コンテンツタイムコード-現在の音声コンテンツタイムコード
モバイル装置の音声アプリケーションは、プレイヤが音声コンテンツタイムコードにあるかどうかを確認する。音声コンテンツタイムコードと現在の音声コンテンツタイムコードの間に200ms以上の差異(DIFFERENCE)がある場合、プレイヤは音声コンテンツタイムコードを調整する。
モバイル装置450および視覚表示システム420の可変ネットワーク状態および性能劣化による非同期化の一定のリスクがあるので、モバイル装置および視覚表示システムは、処理サーバ445を介して、Websocketまたは同様のプロトコルを使用して、軽量で高速な接続を確立する。この常時接続は頻繁かつ規則的な「同期メッセージ」が視覚表示システムからモバイル装置に送信されることを可能にする。モバイル装置および視覚表示システムの両方とも、モバイル装置時間偏差および視覚表示システム時間偏差をそれぞれ規則的にチェックする。モバイル装置真時間および視覚表示システム真時間をチェックするこの一定かつ頻繁なプロセスは「同期メッセージ」の送信とともに、200ms未満の偏差で、視覚コンテンツと音声コンテンツとの同期を保証する。
WebSocket通信プロトコルは、クライアント(すなわち、モバイル装置と視覚表示システム)と通信ネットワーク経由の処理サーバ間の高速でセキュアなほぼリアルタイムの双方向通信のメカニズムを定義する。データは全二重シングルソケット接続を介して転送されるため、データパケットを両方のエンドポイントからリアルタイムで送受信できる。WebSocket接続を確立するために、クライアントとサーバ間で特定のHTTPベースのハンドシェイクが交換される。成功した場合、アプリケーション層プロトコルは、以前に確立されたTCPトランスポート層コネクションを使用して、HTTPからWebSocketに「アップグレード」される。ハンドシェイク後、HTTPはもはや使用されなくなり、WebSocket接続が閉じられるまで、両方のエンドポイントでWebSocketプロトコルを使用してデータを送受信できる。したがって、データは、サーバ上のWebSocket通信プロトコルを介して、(モバイル装置上の)音声同期アプリケーションと(視覚表示システム上の)視覚表示アプリケーション間で転送され、その逆も同様である。
図7は、視覚表示システム500上の視覚コンテンツと、別個のモバイル装置上の音声コンテンツとの同期を、可能にするための例示的な方法を示すフローチャートである。所定の位置および時間に、オペレータは、ネットワークと有線または無線通信している視覚表示システム上で視覚コンテンツのブロードキャストを開始する。主視覚コンテンツは例えば、スクリーン、プロジェクタ、TV等の視覚出力装置に出力される。ステップ510において、視覚表示プレーヤアプリケーションが、視覚表示システムのオペレーティングシステムにダウンロードされ、インストールされ、または書き込まれる。ステップ520において、オペレータは、視覚表示プレーヤアプリケーション上のショーを選択する。選択すると、そのショーの視覚コンテンツがダウンロードされ、視覚表示システムのメモリに記憶される。いくつかの実施形態では、そのショーの視覚コンテンツが視覚表示システムのメモリに既にプリロードされている。いくつかの実施形態では、そのショーの視覚コンテンツが外部記憶装置からダウンロードされてもよい。
ステップ550において、そのショーの所定の位置、日付、及び時間において、オペレータは、そのアプリケーションにおいてその視覚コンテンツを再生するように、視覚表示システムをトリガすることができる。ステップ580において、視覚コンテンツは、視覚出力装置上に表示される。いくつかの実施形態では、視覚出力装置がスクリーン、プロジェクタ、テレビ等である。同時に、ステップ562で、視覚コンテンツがオペレータによって再生されるようにトリガされると、視覚表示システムまたは視覚表示アプリケーションは、視覚表示システム真時間を取得する。視覚表示システム真時間は、視覚表示システムローカル時間および視覚表示システム時間偏差に基づいて決定され、以下の式に基づく:
視覚表示システム真時間=視覚表示システムローカル時間+視覚表示システム時間偏差
視覚表示システム時間偏差は、視覚表示システムローカル時間と、視覚表示システムと通信するタイムサーバから得られるタイムサーバ時間との間の時間差である。
ステップ564で、視覚表示システムは、以下の情報を含む同期メッセージを生成するように進む:

1.視覚表示システム真時間
2.視覚コンテンツタイムコード
3.視覚コンテンツ状態
視覚コンテンツタイムコードは、視覚コンテンツシステムで再生されている視覚コンテンツの現在の時間位置に対応する。視覚コンテンツ状態は、視覚コンテンツの動作モードまたはステータスに関連付けられる。動作モードまたはステータスは、視覚コンテンツが再生を継続しているか、視覚コンテンツが再生を停止しているかを示す「再生中」または「停止中」のいずれかになる。同期メッセージが生成されると、処理サーバに送信される。
ステップ570で、同期メッセージは視聴者メンバーによって音声コンテンツを再生するようにモバイル装置がトリガされたときに、処理サーバによって、周期的な時間隔でそのモバイル装置に送信される。モバイル装置への周期的な時間隔での同期メッセージの送信は、WebSocket通信プロトコルによって有効になる。これにより、モバイル装置は同期メッセージを周期的な時間隔で送信されるように、処理サーバをリッスンするか、または常時通信していることが可能になる。例えば、これは、毎秒1回送信することができる。また、WebSocket通信プロトコルにより、視覚表示システムがタイムコードで前後に調整されたり、状態が「再生中」から「停止中」に変更されたり、その逆に変更されたりするたびに、モバイル装置が同期メッセージを受信できるようになる。言い換えると、オペレータによる主音声コンテンツタイムコードまたは主視覚コンテンツタイムコードへの手動調整、あるいは主音声コンテンツ状態または主視覚コンテンツ状態のそれぞれの状態の変化があるときはいつでも、それに応じて1つまたは複数の同期メッセージがモバイル装置に送信される。
図8は、モバイル装置上の音声コンテンツを別個の視覚表示システム上の視覚コンテンツに同期させるための例示的な方法を示すフローチャートである。モバイル装置は、インターネット(図示せず)、または同様の通信ネットワークに接続されている。ステップ610で、音声同期アプリケーションが、モバイル装置のオペレーティングシステムにダウンロードされ、インストールされ、または書き込まれる。ステップ620で、視聴者メンバーは、購入するショーを選択する。いくつかの実施形態では、視聴者メンバーは、これらに限定されないが、支払いゲートウェイ、内部ウォレット、加入料金、クレジットなどを使用してショーに対する支払いを促される。いくつかの実施形態では、ショーが支払いを必要としないかもしれず、また、視聴者メンバーにとって優待的である。支払が成功した場合、またはショーが無料であるため支払が不要な場合は、そのショーの音声コンテンツがダウンロードされ、モバイル装置のメモリに保存される。
ステップ660において、ショーの所定の場所、日付、及び時間に到達すると、視聴者メンバーは、音声同期アプリケーションをトリガして、音声同期アプリケーション上で音声コンテンツを再生する。ステップ672で、モバイル装置はインターネット(図示せず)、または類似の通信ネットワークを使用して処理サーバと接続し、視覚表示システムからの同期メッセージをリッスンする。同期メッセージ678を受信すると、モバイル装置は2つの操作のいずれかを実行する。「再生中」の視覚コンテンツ状態は、視覚コンテンツが視覚出力装置または視覚表示システム上で再生中であることを示す。モバイル装置が、視覚コンテンツ状態のステータスが「停止中」である同期メッセージを受信した場合、音声コンテンツは再生されない。
ステップ676において、モバイル装置は、モバイル装置真時間を決定する。モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、以下の式に基づく:
モバイル装置真時間=モバイル装置ローカル時間+モバイル装置時間偏差
モバイル装置時間偏差は、モバイル装置ローカル時間と、モバイル装置と通信しているタイムサーバから得られるタイムサーバ時間との間の時間差である。
ステップ680で、モバイル装置は、視覚コンテンツタイムコード、モバイル装置真時間および視覚表示システム真時間に基づく音声コンテンツタイムコードを決定する。音声コンテンツタイムコードにより、音声同期アプリケーションは、視覚表示システム上で再生されている視覚コンテンツに同期して、音声コンテンツタイムコードで再生される音声コンテンツを調整することができる。音声コンテンツタイムコードは、次の式に基づいて決定される:
レイテンシー=モバイル装置真時間-視覚表示システム真時間
音声コンテンツタイムコード=視覚コンテンツタイムコード+レイテンシー
音声コンテンツタイムコードは、視覚コンテンツタイムコードとレイテンシーの集計に基づいて決定される。レイテンシーがモバイル装置真時間と視覚表示システム真時間の時間差によって決定される。音声コンテンツタイムコードは、視覚表示システムで再生されている視覚コンテンツタイムコードの現在の位置に対応する。
視覚コンテンツが再生モードにあることが検出されると、音声同期アプリケーションは、音声コンテンツタイムコードが視覚コンテンツタイムコードと同期していないかどうかを判断する。モバイル装置はWebSocket通信プロトコルを介して処理サーバと常時接続しているため、モバイル装置は周期的な時間隔で同期メッセージを受信する。同期メッセージは、視覚コンテンツタイムコードの調整または視覚コンテンツ状態の状態変化があるときはいつでも、処理サーバによって送信される。これにより、音声同期アプリケーションは、音声コンテンツタイムコードが所定の時間隔内に視覚コンテンツタイムコードと同期していないかどうかを確認できる。音声コンテンツタイムコードが視覚コンテンツタイムコードと同期していないかどうかを判断する式は、次のとおりである:
DIFFERENCE=音声コンテンツタイムコード-現在の音声コンテンツタイムコード
音声コンテンツタイムコードが±200msを超えて視覚コンテンツタイムコードと同期していない場合、例えば、モバイル装置は、視覚表示システム上のコンテンツの現在位置に関連付けられた視覚コンテンツタイムコードと同期している音声コンテンツタイムコードの再生を調整する。いくつかの実施形態では、所定の間隔が視覚コンテンツタイムコードとの同期外れと見なされるように、約+200msまたは約-200msとすることができる。差が±200ms未満である場合、モバイル装置は、視覚コンテンツタイムコードと同期して音声コンテンツタイムコードの再生を継続する。
使用中、視聴者メンバーのモバイル装置上の音声コンテンツを、別個の視覚出力装置上に表示される視覚コンテンツに同期させるプロセスは、屋外公共映画館の設定において使用されてもよい。シネマオペレータは例えば、視覚表示システムおよび/または視覚表示アプリケーションを使用して、映画のビジュアル部分(または視覚コンテンツ)をシステムのメモリにダウンロードする。視聴者は、モバイル装置の音声同期アプリケーションを介して映画の音声コンテンツをダウンロードする。視覚表示システムが再生を開始すると、視聴者メンバーは、自分のモバイル装置をトリガして音声コンテンツを再生することができる。この同期プロセスでは、クロック、タイムサーバ(NTP)、タイムコード、サーバ経由で送信される同期メッセージ、および計算を使用して、視聴者メンバーが、映画のオーディオとビジュアルコンポーネントが決して分離されていないかのように、オーディオビジュアル同期で映画を見ることができるように、音声コンテンツと同期して再生するように音声コンテンツを調整する。音声コンテンツは映画からのオリジナルオーディオであってもよいし、監督の解説や映画の異なるオーディオ言語トラックのような代替オーディオであってもよい。
代替の使用事例は、視聴者メンバーのモバイル装置上の音声コンテンツを、例えば花火、照明、水、レーザーショーなどのライブ視覚表示に同期させることであってもよい。オペレータは例えば、視覚表示システム420とアプリケーションを使用して、主音声コンテンツをシステムのメモリ426にダウンロードする。主音声コンテンツは、SMPTE、FSK、または線形タイムコード(又は、リニアタイムコード/LTC)などの音声タイムコードを含むことができる音声キュートラックを含むことができる。音声タイムコードトラックは音声タイムコードを読み取ることができるデジタル制御システムに入力でき、タイムコードトラックの特定の位置で花火キューを開始するように事前設定されている。音声キュートラックはまた、手動オペレータが一連の花火をトリガするための、予め記録された言葉によるキューを含むことができる。音声キュートラックはライブ視覚表示の任意の構成要素、例えば、照明制御デスク、花火制御モジュール、デジタル発射システムなどの制御信号をキューすることができる。手動花火オペレータは、視覚表示システム主音声コンテンツと同期して音声キュートラックを再生する従モバイル装置を介して音声キュートラックを聴くことができる。視聴者は、モバイル装置450上のアプリケーションを介して、ライブショーの従音声コンテンツをダウンロードすることができる。この従音声コンテンツは視聴者メンバーに没入型オーディオ体験を提供するために、視覚表示システム上で再生する主音声コンテンツに対応する、またはそれと同期する音声サウンドトラックを含むことができる。いくつかの実施形態では、音声サウンドトラックが音声解説、歌唱パフォーマンス、および/または音楽サウンドトラックを含むことができる。デジタル制御システムは音声タイムコードを介して視覚表示システムに同期され、音声キュートラックを再生する任意の従音声装置も視覚表示システムに同期されるので、視聴者メンバーのモバイル装置450上の従音声コンテンツは花火、レーザー、ライト、またはウォーターディスプレイなどのライブ視覚表示と同期する。
さらに別の使用事例はライブショーの様々な参加者(crew member)が主オーディオトラックと同期して個々のキュートラックを聴くことができるように、主オーディオトラックと同期した様々な異なる従オーディオトラックを含むことができる。
例えば、ライブの演劇(theatrical performance)では、照明、サウンド、火工品(pyrotechnics)の技術者、及び舞台係(stage hand)等は全て、舞台監督(stage manager)によって制御される視覚表示システム420上の主オーディオトラックと同期している個々のモバイル装置450上のそれらの特定のキュートラックを聴いている場合がある。
さらに別の例では、花火ショーでは複数の手動ピンボードオペレータが個々のモバイル装置450上で同じ従音声キュートラックを聴いて、視覚表示システム420上で再生される主オーディオトラックに同期して花火および火工品をトリガすることができる。一方、視聴者メンバーは火工品トリガキューなしで花火ショーの音声サウンドトラック(例えば、ナレーション/音楽サウンドトラック)を個々のモバイル装置450で聴いている間に花火ショーを見ることができる。
本発明は特定の実施形態を参照して特に示され、説明されてきたが、添付の特許請求の範囲によって定義される本発明の精神および範囲から逸脱することなく、形態および詳細において様々な変更がなされ得ることが、当業者によって理解されるべきである。したがって、本発明の範囲は添付の特許請求の範囲によって示され、したがって、特許請求の範囲の同等の意味および範囲内に入るすべての変更は包含されることが意図される。
下記は、本願の出願当初に記載の発明である。
<請求項1>
モバイル装置上で再生するように構成された音声コンテンツを、別個の視覚表示システム上でプレイするように構成された音声視覚表示の視覚コンテンツに同期させる方法であって、
第1の位置および時間において前記視覚表示システムによって制御される視覚出力装置上で前記視覚コンテンツを提示するステップと、
前記視覚表示システムから、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップと、
前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは前記視覚表示システム真時間、視覚コンテンツ状態、および視覚コンテンツタイムコードを含む、該ステップと、
前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
前記視覚コンテンツタイムコード、モバイル装置真時間、および前記視覚表示システム真時間に基づく音声コンテンツタイムコードを決定するステップ
を有し、
前記視覚コンテンツ状態がプレイモードであるときに第2の位置および時間において前記モバイル装置上で前記音声コンテンツをプレイするようにトリガされると、前記音声コンテンツは、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードでプレイされる、方法。
<請求項2>
前記音声コンテンツタイムコードが前記視覚表示システム上の前記視覚コンテンツタイムコードと所定の時間隔を超えて同期から外れるか否かを判定するステップと、
前記音声コンテンツタイムコードが前記所定の時間隔を超えて同期から外れる場合に応答して、前記モバイル装置上の前記音声コンテンツの再生を、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードに調整するステップ
を含む、請求項1に記載の方法。
<請求項3>
前記音声コンテンツタイムコードは、前記視覚コンテンツタイムコードと、前記モバイル装置真時間と前記視覚表示システム真時間の間の時間差との集計に基づいて決定される、請求項1に記載の方法。
<請求項4>
前記同期メッセージは、前記視覚コンテンツタイムコードに対する調整が行われたときに送信される、請求項1に記載の方法。
<請求項5>
前記同期メッセージは、前記視覚コンテンツ状態に対する状態変化があるときに送信される、請求項1に記載の方法。
<請求項6>
前記モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項3に記載の方法。
<請求項7>
前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項1に記載の方法。
<請求項8>
前記所定の時間隔は、約200msである、請求項2に記載の方法。
<請求項9>
モバイル装置上で再生するように構成された従音声コンテンツを、ライブ視覚表示と同期した主音声コンテンツに同期させる方法であって、前記主音声コンテンツは、別個の視覚表示システム上でプレイするように構成され、
第1の位置および時間において前記視覚表示システム上で前記主音声コンテンツをプレイするステップと、
前記視覚表示システムから、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップと、
前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは前記視覚表示システム真時間、主音声コンテンツ状態および主音声コンテンツタイムコードを含む、該ステップと、
前記処理サーバによって、周期的な時間隔でモバイル装置に前記同期メッセージを送信するステップと、
前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップを含み、
前記主音声コンテンツ状態がプレイモードであるときに第2の位置および時間において前記モバイル装置上で前記従音声コンテンツをプレイするようにトリガされると、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードでプレイされる、方法。
<請求項10>
前記従音声コンテンツタイムコードが前記視覚表示システム上の前記主音声コンテンツタイムコードと所定の時間隔を超えて同期から外れるか否かを判断するステップと、
前記従音声コンテンツタイムコードが前記所定の時間隔を超えて同期から外れる場合に応答して、前記モバイル装置上の前記従音声コンテンツの再生を、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記音声コンテンツタイムコードに調整するステップ
を含む、請求項9に記載の方法
<請求項11>
前記従音声コンテンツは前記ライブ視覚表示の一部を開始するための従音声キュートラックを含み、それによって、前記従音声キュートラックは前記音声キュートラックが前記主音声コンテンツと同期するように構成されるように、1つまたは複数のコンピューティング装置によって1つまたは複数の制御システムに送信される、請求項9に記載の方法。
<請求項12>
前記従音声コンテンツは、前記主音声コンテンツと同期するように構成された音声記録に関連付けられた音声サウンドトラックを含む、請求項9に記載の方法。
<請求項13>
前記従音声コンテンツは、前記主音声コンテンツと同期するように構成された音楽伴奏に関連付けられた音声サウンドトラックを備える、請求項9に記載の方法。
<請求項14>
前記主音声コンテンツは、コントローラまたは手動オペレータによってライブ視覚表示の一部をトリガするように構成された音声キュートラックを含む、請求項9に記載の方法。
<請求項15>
前記従音声コンテンツは、前記主音声コンテンツと同期するように構成された、手動オペレータによって、ライブ視覚表示の一部をトリガするように構成された従音声キュートラックを備える、請求項9に記載の方法。
<請求項16>
前記同期メッセージは、前記視覚コンテンツタイムコードに対する調整が行われたときに送信される、請求項9に記載の方法。
<請求項17>
前記同期メッセージは、前記視覚コンテンツ状態に対する状態変化があるときに送信される、請求項9に記載の方法。
<請求項18>
前記従音声コンテンツタイムコードは、前記主音声コンテンツタイムコードと、前記モバイル装置真時間と前記視覚表示システム真時間との間の時間差との集計に基づいて決定され、前記モバイル装置真時間はモバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、前記モバイル装置時間偏差は前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項9に記載の方法。
<請求項19>
前記視覚表示システム真時間は、視覚表示システムローカル時間および視覚表示システム時間偏差に基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項9に記載の方法。
<請求項20>
前記所定の時間隔は、約200msである、請求項9に記載の方法。
<請求項21>
少なくとも1つのプロセッサと、少なくとも1つのコンピュータ読み取り可能な記憶媒体と、ネットワークに接続された同期アプリケーションとを有するモバイル装置上で実行するように構成された方法であって、
前記モバイル装置上に記憶するように構成された音声コンテンツを送信するステップと、
モバイル装置ローカル時間およびモバイル装置時間偏差に基づいてモバイル装置真時間を取得するステップであって、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
視覚表示システムとの無線通信において、周期的な時間隔で処理サーバから同期メッセージを受信するステップであって、前記同期メッセージは、視覚表示システム真時間、視覚コンテンツ状態、および視覚コンテンツタイムコードを含む、該ステップと、
前記視覚コンテンツタイムコード、前記モバイル装置真時間、および前記視覚表示システム真時間に基づく音声コンテンツタイムコードを決定するステップであって、前記視覚表示システム真時間は視覚表示システムローカル時間および視覚表示システム時間偏差に基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップ
を含み、
前記視覚コンテンツ状態がプレイモードであるときに前記モバイル装置上で前記音声コンテンツをプレイするようにトリガされると、前記音声コンテンツは、前記視覚表示システム上の視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードでプレイされる、方法。
<請求項22>
モバイル装置上で再生するように構成された従音声コンテンツを、別個の視覚表示システム上でプレイするように構成された主音声コンテンツに同期させる方法であって、
前記視覚表示システムから、視覚表示システムローカル時間と視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップであって、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは、前記視覚表示システム真時間と、動作モードに関連付けられた主音声コンテンツ状態と、前記視覚表示システムの現在位置に関連付けられた主音声コンテンツタイムコードとを含む、該ステップと、
前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップであって、前記モバイル装置真時間は、前記モバイル装置ローカル時間およびモバイル装置時間偏差に基づき、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信する前記タイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップ
を含み、
前記主音声コンテンツ状態がプレイモードであるときに前記モバイル装置上で前記従音声コンテンツをプレイするようにトリガされると、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードでプレイされる、方法。
<請求項23>
モバイル装置上で再生するように構成された従音声コンテンツを、別個の視覚表示システム上でプレイするように構成された主音声コンテンツに同期させるためのシステムであって、
メモリと、
前記メモリに結合された1つまたは複数のプロセッサであって、前記メモリは前記プロセッサによって実行されたときに、前記プロセッサに、
前記視覚表示システムから、視覚表示システム真時間を取得するステップであって、前記視覚表示システム真時間は視覚表示システムローカル時間と視覚表示システム時間偏差とに基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは、前記視覚表示システム真時間、動作モードに関連付けられた主音声コンテンツ状態、および前記視覚表示システムの現在位置に関連付けられた主音声コンテンツタイムコードを含む、該ステップと、
前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップであって、前記モバイル装置真時間は、前記モバイル装置ローカル時間およびモバイル装置時間偏差に基づき、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
を含む動作を実行させるプロセッサ実行可能コードを含む、該プロセッサを有し、
前記主音声コンテンツ状態がプレイモードであるときに前記モバイル装置上で前記従音声コンテンツをプレイするようにトリガされると、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードでプレイされる、システム。

Claims (23)

  1. モバイル装置上で再生するように構成された音声コンテンツを、別個の視覚表示システム上でプレイするように構成された音声視覚表示の視覚コンテンツに同期させる方法であって、
    第1の位置および時間において前記視覚表示システムによって制御される視覚出力装置上で前記視覚コンテンツを提示するステップと、
    前記視覚表示システムによって、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップと、
    前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは前記視覚表示システム真時間、視覚コンテンツ状態、および視覚コンテンツタイムコードを含む、該ステップと、
    前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
    前記モバイル装置によって、前記視覚コンテンツタイムコード、モバイル装置真時間、および前記視覚表示システム真時間に基づく音声コンテンツタイムコードを決定するステップ
    を有し、
    前記視覚コンテンツ状態がプレイモードであるときに第2の位置および時間において前記モバイル装置上で前記音声コンテンツをプレイするようにトリガされると、前記音声コンテンツは、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードでプレイされる、方法。
  2. 前記音声コンテンツタイムコードが前記視覚表示システム上の前記視覚コンテンツタイムコードと所定の時間隔を超えて同期から外れるか否かを判定するステップと、
    前記音声コンテンツタイムコードが前記所定の時間隔を超えて同期から外れる場合に応答して、前記モバイル装置上の前記音声コンテンツの再生を、前記視覚表示システム上の前記視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードに調整するステップ
    を含む、請求項1に記載の方法。
  3. 前記音声コンテンツタイムコードは、前記視覚コンテンツタイムコードと、前記モバイル装置真時間と前記視覚表示システム真時間の間の時間差との集計に基づいて決定される、請求項1に記載の方法。
  4. 前記同期メッセージは、前記視覚コンテンツタイムコードに対する調整が行われたときに送信される、請求項1に記載の方法。
  5. 前記同期メッセージは、前記視覚コンテンツ状態に対する状態変化があるときに送信される、請求項1に記載の方法。
  6. 前記モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項3に記載の方法。
  7. 前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項1に記載の方法。
  8. 前記所定の時間隔は、約200msである、請求項2に記載の方法。
  9. モバイル装置上で再生するように構成された従音声コンテンツを、ライブ視覚表示と同期した主音声コンテンツに同期させる方法であって、前記主音声コンテンツは、別個の視覚表示システム上でプレイするように構成され、
    第1の位置および時間において前記視覚表示システム上で前記主音声コンテンツをプレイするステップと、
    前記視覚表示システムによって、視覚表示システムローカル時間および視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップと、
    前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは前記視覚表示システム真時間、主音声コンテンツ状態および主音声コンテンツタイムコードを含む、該ステップと、
    前記処理サーバによって、周期的な時間隔でモバイル装置に前記同期メッセージを送信するステップと、
    前記モバイル装置によって、前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップを含み、
    前記主音声コンテンツ状態がプレイモードであるときに第2の位置および時間において前記モバイル装置上で前記従音声コンテンツをプレイするようにトリガされると、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードでプレイされる、方法。
  10. 前記従音声コンテンツタイムコードが前記視覚表示システム上の前記主音声コンテンツタイムコードと所定の時間隔を超えて同期から外れるか否かを判断するステップと、
    前記従音声コンテンツタイムコードが前記所定の時間隔を超えて同期から外れる場合に応答して、前記モバイル装置上の前記従音声コンテンツの再生を、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記音声コンテンツタイムコードに調整するステップ
    を含む、請求項9に記載の方法
  11. 前記従音声コンテンツは前記ライブ視覚表示の一部を開始するための従音声キュートラックを含み、それによって、前記従音声キュートラックは前記音声キュートラックが前記主音声コンテンツと同期するように構成されるように、1つまたは複数のコンピューティング装置によって1つまたは複数の制御システムに送信される、請求項9に記載の方法。
  12. 前記従音声コンテンツは、前記主音声コンテンツと同期するように構成された音声記録に関連付けられた音声サウンドトラックを含む、請求項9に記載の方法。
  13. 前記従音声コンテンツは、前記主音声コンテンツと同期するように構成された音楽伴奏に関連付けられた音声サウンドトラックを備える、請求項9に記載の方法。
  14. 前記主音声コンテンツは、コントローラまたは手動オペレータによってライブ視覚表示の一部をトリガするように構成された音声キュートラックを含む、請求項9に記載の方法。
  15. 前記従音声コンテンツは、前記主音声コンテンツと同期するように構成された、手動オペレータによって、ライブ視覚表示の一部をトリガするように構成された従音声キュートラックを備える、請求項9に記載の方法。
  16. 前記同期メッセージは、前記主音声コンテンツタイムコードに対する調整が行われたときに送信される、請求項10に記載の方法。
  17. 前記同期メッセージは、前記主音声コンテンツ状態に対する状態変化があるときに送信される、請求項9に記載の方法。
  18. 前記従音声コンテンツタイムコードは、前記主音声コンテンツタイムコードと、前記モバイル装置真時間と前記視覚表示システム真時間との間の時間差との集計に基づいて決定され、前記モバイル装置真時間はモバイル装置ローカル時間およびモバイル装置時間偏差に基づいて決定され、前記モバイル装置時間偏差は前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項9に記載の方法。
  19. 前記視覚表示システム真時間は、視覚表示システムローカル時間および視覚表示システム時間偏差に基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、請求項9に記載の方法。
  20. 前記所定の時間隔は、約200msである、請求項10に記載の方法。
  21. 少なくとも1つのプロセッサと、少なくとも1つのコンピュータ読み取り可能な記憶媒体と、ネットワークに接続された同期アプリケーションとを有するモバイル装置上で実行するように構成された方法であって、
    前記モバイル装置上に記憶するように構成された音声コンテンツを受信するステップと、
    モバイル装置ローカル時間およびモバイル装置時間偏差に基づいてモバイル装置真時間を取得するステップであって、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
    視覚表示システムとの無線通信において、周期的な時間隔で処理サーバから同期メッセージを受信するステップであって、前記同期メッセージは、視覚表示システム真時間、視覚コンテンツ状態、および視覚コンテンツタイムコードを含む、該ステップと、
    前記視覚コンテンツタイムコード、前記モバイル装置真時間、および前記視覚表示システム真時間に基づく音声コンテンツタイムコードを決定するステップであって、前記視覚表示システム真時間は視覚表示システムローカル時間および視覚表示システム時間偏差に基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップ
    を含み、
    前記視覚コンテンツ状態がプレイモードであるときに前記モバイル装置上で前記音声コンテンツをプレイするようにトリガされると、前記音声コンテンツは、前記視覚表示システム上の視覚コンテンツの現在位置に関連付けられた前記視覚コンテンツタイムコードと同期された前記音声コンテンツタイムコードでプレイされる、方法。
  22. モバイル装置上で再生するように構成された従音声コンテンツを、別個の視覚表示システム上でプレイするように構成された主音声コンテンツに同期させる方法であって、
    前記視覚表示システムによって、視覚表示システムローカル時間と視覚表示システム時間偏差に基づく視覚表示システム真時間を取得するステップであって、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
    前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは、前記視覚表示システム真時間と、動作モードに関連付けられた主音声コンテンツ状態と、前記視覚表示システムの現在位置に関連付けられた主音声コンテンツタイムコードとを含む、該ステップと、
    前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
    前記モバイル装置によって、前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップであって、前記モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づき、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信する前記タイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップ
    を含み、
    前記主音声コンテンツ状態がプレイモードであるときに前記モバイル装置上で前記従音声コンテンツをプレイするようにトリガされると、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードでプレイされる、方法。
  23. モバイル装置上で再生するように構成された従音声コンテンツを、別個の視覚表示システム上でプレイするように構成された主音声コンテンツに同期させるためのシステムであって、
    メモリと、
    前記メモリに結合された1つまたは複数のプロセッサであって、前記メモリは前記プロセッサによって実行されたときに、前記プロセッサに、
    前記視覚表示システムによって、視覚表示システム真時間を取得するステップであって、前記視覚表示システム真時間は視覚表示システムローカル時間と視覚表示システム時間偏差とに基づいて決定され、前記視覚表示システム時間偏差は、前記視覚表示システムローカル時間と、前記視覚表示システムと通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
    前記視覚表示システムによって、処理サーバに送信するように構成された同期メッセージを生成するステップであって、前記同期メッセージは、前記視覚表示システム真時間、動作モードに関連付けられた主音声コンテンツ状態、および前記視覚表示システムの現在位置に関連付けられた主音声コンテンツタイムコードを含む、該ステップと、
    前記処理サーバによって、周期的な時間隔で前記同期メッセージを前記モバイル装置に送信するステップと、
    前記モバイル装置によって、前記主音声コンテンツタイムコード、モバイル装置真時間および前記視覚表示システム真時間に基づく従音声コンテンツタイムコードを決定するステップであって、前記モバイル装置真時間は、モバイル装置ローカル時間およびモバイル装置時間偏差に基づき、前記モバイル装置時間偏差は、前記モバイル装置ローカル時間と、前記モバイル装置と通信するタイムサーバから導出されたタイムサーバ現在時間との間の時間差である、該ステップと、
    を含む動作を実行させるプロセッサ実行可能コードを含む、該プロセッサを有し、
    前記主音声コンテンツ状態がプレイモードであるときに前記モバイル装置上で前記従音声コンテンツをプレイするようにトリガされると、前記従音声コンテンツは、前記視覚表示システム上の前記主音声コンテンツの現在位置に関連付けられた前記主音声コンテンツタイムコードと同期された前記従音声コンテンツタイムコードでプレイされる、システム。
JP2021563714A 2019-05-10 2020-05-08 モバイル装置上の音声コンテンツを別個の視覚表示システムに同期させるためのシステムおよび方法 Active JP7318990B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962845897P 2019-05-10 2019-05-10
US62/845,897 2019-05-10
US201962883185P 2019-08-06 2019-08-06
US62/883,185 2019-08-06
PCT/SG2020/050269 WO2020231332A1 (en) 2019-05-10 2020-05-08 System and method for synchronizing audio content on a mobile device to a separate visual display system

Publications (2)

Publication Number Publication Date
JP2022533534A JP2022533534A (ja) 2022-07-25
JP7318990B2 true JP7318990B2 (ja) 2023-08-01

Family

ID=73290273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563714A Active JP7318990B2 (ja) 2019-05-10 2020-05-08 モバイル装置上の音声コンテンツを別個の視覚表示システムに同期させるためのシステムおよび方法

Country Status (10)

Country Link
US (1) US11445238B2 (ja)
EP (1) EP3967046A4 (ja)
JP (1) JP7318990B2 (ja)
KR (1) KR102559350B1 (ja)
CN (1) CN113796090A (ja)
AU (1) AU2020274956A1 (ja)
CA (1) CA3137289A1 (ja)
GB (1) GB2598682B (ja)
SG (1) SG11202111622WA (ja)
WO (1) WO2020231332A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114827697A (zh) * 2021-01-29 2022-07-29 深圳市奥拓电子股份有限公司 一种同步播放方法、系统和led显示屏
CN115103222A (zh) * 2022-06-24 2022-09-23 湖南快乐阳光互动娱乐传媒有限公司 一种视频音轨处理方法及相关设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005208196A (ja) 2004-01-21 2005-08-04 Konami Co Ltd カラオケ装置、カラオケ方法、ならびに、プログラム
JP2009010863A (ja) 2007-06-29 2009-01-15 Oki Electric Ind Co Ltd 音声・映像同期方法、音声・映像同期システム及び音声・映像受信端末
JP2014112766A (ja) 2012-12-05 2014-06-19 Toshiba Corp 電子機器、制御方法、及び制御プログラム
JP2016192743A (ja) 2015-03-31 2016-11-10 株式会社バンダイナムコライツマーケティング ストリーミング動画配信システム
WO2018026828A1 (en) 2016-08-01 2018-02-08 Magic Leap, Inc. Mixed reality system with spatialized audio
US20180367839A1 (en) 2017-06-16 2018-12-20 Oohms Ny Llc Method and system for synchronization of audio content for a remotely displayed video

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2303768Y (zh) 1997-08-08 1999-01-13 许清乔 摩托车安全帽防盗装置
CN2452866Y (zh) 2000-07-17 2001-10-10 楼兮 摩托车、自行车保护装置
EP1592245A1 (en) * 2004-04-27 2005-11-02 Matsushita Electric Industrial Co., Ltd. Adaptive generation of synchronization signals
EP1860866A1 (en) * 2006-05-26 2007-11-28 British Telecommunications Public Limited Company Audio-visual reception
FR2920415B1 (fr) 2007-08-30 2009-12-18 Pellenc Sa Dispositif de manutention a chaines a maillons flexibles et barreaux
JP3139263U (ja) 2007-11-26 2008-02-07 得洙 清原 自転車用幌装置
DE102010029030A1 (de) * 2010-05-17 2012-03-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Verarbeitung von Daten in einem Fahrzeug
US9357005B2 (en) 2012-05-18 2016-05-31 Andrew Milburn Method and system for synchronized distributed display over multiple client devices
US20140355947A1 (en) * 2013-03-15 2014-12-04 Alois William Slamecka System and method for synchronizing multi-camera mobile video recording devices
US20140324422A1 (en) * 2013-04-18 2014-10-30 WTF Technology Partners, Inc. Synchronous audio distribution to portable computing devices
US9575970B2 (en) * 2013-07-08 2017-02-21 Disney Enterprises, Inc. System for synchronizing remotely delivered audio with live visual components
US9628837B2 (en) * 2013-08-07 2017-04-18 AudioStreamTV Inc. Systems and methods for providing synchronized content
KR20150046407A (ko) 2013-10-21 2015-04-30 숭실대학교산학협력단 콘텐츠 제공 방법 및 서버
US9558787B2 (en) 2014-01-29 2017-01-31 Google Inc. Media application backgrounding
CN103905880A (zh) * 2014-03-13 2014-07-02 北京奇艺世纪科技有限公司 音视频数据的播放方法、智能电视和移动设备
US20160092052A1 (en) 2014-09-30 2016-03-31 Theater Ears, LLC Syncronizing audio playback in coordination with external video playback with auto-dimming
SG11201705316QA (en) * 2014-10-31 2017-07-28 Citrine Wireless Pte Ltd Methods and apparatus for transmission of data to a mobile device
US20160134911A1 (en) * 2014-11-11 2016-05-12 Jérôme Tétreault System and method for synchronizing public event music broadcast to mobile phones
US11044386B1 (en) * 2014-12-18 2021-06-22 The Directv Group, Inc. Method and system for synchronizing playback of independent audio and video streams through a network
US9837127B2 (en) * 2014-12-29 2017-12-05 Mkues, Inc. Method and apparatus for the insertion of audio cues in media files by post-production audio and video editing systems
US10349367B2 (en) * 2015-03-03 2019-07-09 Qualcomm Incorporated Methods and systems for synchronizing devices
US20170006331A1 (en) * 2015-06-30 2017-01-05 Stmicroelectronics International N.V. Synchronized rendering of split multimedia content on network clients
US10021465B2 (en) * 2015-10-12 2018-07-10 Timecode Systems Limited Synchronizing media devices
WO2017083829A1 (en) * 2015-11-13 2017-05-18 Pyrotechnics Management, Inc. Time code controlled logic device
US10349368B2 (en) * 2016-06-30 2019-07-09 Imagination Technologies Limited Reference synchronisation
US9979998B1 (en) * 2017-05-02 2018-05-22 Amazon Technologies, Inc. System for time synchronization of audio devices
CN109995123A (zh) 2017-12-29 2019-07-09 方鸣谦 车棚及安装有所述车棚的车辆
CN208340110U (zh) * 2018-06-21 2019-01-08 北京悦方科技有限公司 用于游乐设备的演出控制系统
WO2020060551A1 (en) * 2018-09-20 2020-03-26 Oohms Ny Llc Method and system for synchronization of audio content for a remotely displayed video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005208196A (ja) 2004-01-21 2005-08-04 Konami Co Ltd カラオケ装置、カラオケ方法、ならびに、プログラム
JP2009010863A (ja) 2007-06-29 2009-01-15 Oki Electric Ind Co Ltd 音声・映像同期方法、音声・映像同期システム及び音声・映像受信端末
JP2014112766A (ja) 2012-12-05 2014-06-19 Toshiba Corp 電子機器、制御方法、及び制御プログラム
JP2016192743A (ja) 2015-03-31 2016-11-10 株式会社バンダイナムコライツマーケティング ストリーミング動画配信システム
WO2018026828A1 (en) 2016-08-01 2018-02-08 Magic Leap, Inc. Mixed reality system with spatialized audio
US20180367839A1 (en) 2017-06-16 2018-12-20 Oohms Ny Llc Method and system for synchronization of audio content for a remotely displayed video

Also Published As

Publication number Publication date
GB2598682A (en) 2022-03-09
CN113796090A (zh) 2021-12-14
EP3967046A1 (en) 2022-03-16
CA3137289A1 (en) 2020-11-19
EP3967046A4 (en) 2023-05-10
KR20210153138A (ko) 2021-12-16
WO2020231332A1 (en) 2020-11-19
AU2020274956A1 (en) 2021-12-16
JP2022533534A (ja) 2022-07-25
SG11202111622WA (en) 2021-11-29
KR102559350B1 (ko) 2023-07-25
GB2598682B (en) 2023-05-03
US20220248081A1 (en) 2022-08-04
GB202116851D0 (en) 2022-01-05
US11445238B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
US11553235B2 (en) Audiovisual collaboration method with latency management for wide-area broadcast
US11553236B2 (en) System and method for real-time synchronization of media content via multiple devices and speaker systems
US7434154B2 (en) Systems and methods for synchronizing media rendering
JP7318990B2 (ja) モバイル装置上の音声コンテンツを別個の視覚表示システムに同期させるためのシステムおよび方法
US9967437B1 (en) Dynamic audio synchronization
US20220232262A1 (en) Media system and method of generating media content
TW202046707A (zh) 視訊會議影音共享方法
US11652860B2 (en) Synchronization of streaming content using live edge offsets
WO2023184032A1 (en) Method and system for providing a virtual studio environment over the internet
EP3890348A1 (fr) Installation audio et procede d'application de jeu de parametres d'egalisation
CN116634213A (zh) 一种音视频同步播放方法和系统
JP2012049944A (ja) Tv受信機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7318990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150