JP2010011274A - 映像音声出力装置及び映像音声出力方法 - Google Patents

映像音声出力装置及び映像音声出力方法 Download PDF

Info

Publication number
JP2010011274A
JP2010011274A JP2008170164A JP2008170164A JP2010011274A JP 2010011274 A JP2010011274 A JP 2010011274A JP 2008170164 A JP2008170164 A JP 2008170164A JP 2008170164 A JP2008170164 A JP 2008170164A JP 2010011274 A JP2010011274 A JP 2010011274A
Authority
JP
Japan
Prior art keywords
audio
audio output
wireless
delay time
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008170164A
Other languages
English (en)
Inventor
Kenji Nakamura
賢治 中邨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008170164A priority Critical patent/JP2010011274A/ja
Publication of JP2010011274A publication Critical patent/JP2010011274A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Headphones And Earphones (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Television Receiver Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】複数のワイヤレスヘッドフォン等の無線音声出力機器で出力される音声に同期した映像を再生することが可能な映像音声出力装置を提供すること。
【解決手段】映像音声出力装置は、複数の無線音声出力機器に対して無線通信により基準音声信号を送信し、各無線音声出力機器から出力される音声を入力し、各無線音声出力機器の音声出力遅延時間を検出する遅延時間検出手段と、各無線音声出力機器の音声出力遅延時間のうちの最大遅延時間と各無線音声出力機器の音声出力遅延時間との差分時間相当だけ各無線音声出力機器へ送信する各音声信号を遅延する音声信号遅延手段と、前記音声信号遅延手段により遅延された各音声信号を、無線通信により各無線音声出力機器に送信する音声信号送信手段と、前記音声信号に同期した映像信号を前記最大遅延時間相当だけ遅延して出力する映像信号出力手段とを備えている。
【選択図】 図2

Description

本発明は、映像を表示するとともに音声を無線送信する映像音声出力装置及び映像音声出力方法に関する。
近年、ワイヤレスヘッドフォンの普及が目覚しく、このようなワイヤレスヘッドフォンの使用によりユーザは配線に悩まされることなく、音楽等を楽しむことができるようになっている。簡単に説明すると、ワイヤレスヘッドフォンは、ミュージックプレイヤー(携帯電話含む)から無線送信される音声信号を受信し、受信した音声信号に基づき音声を出力する。例えばBluetooth(登録商標)と呼ばれる規格に沿った無線通信技術により、ワイヤレスヘッドフォンとミュージックプレイヤーの両者間の無線通信が確立される。
上記したように、音声送信に無線通信を利用すると、実際の音声出力タイミング(例えばミュージックプレイヤーに接続されたスピーカからの音声出力タイミング)に比べて、ワイヤレスヘッドフォンの音声出力タイミングが遅延することが知られている。その遅延要因の一例として、ミュージックプレイヤー側での符号化処理時間と変調処理時間、さらにワイヤレスヘッドフォン側での復調処理時間と復号化処理時間が挙げられる。
上記遅延は、音声信号に同期した映像信号が存在する場合には、無視できない問題となる。例えば、ミュージックプレイヤーが、音声信号に同期した映像信号を再生し表示する機能を備えている場合、ワイヤレスヘッドフォンから聞こえる音声と、ミュージックプレイヤーで表示される映像(例えばボーカルの口の動き)がずれてしまう。
このような不具合を解消するために、予め音声と映像の同期ずれを検出し、音声または映像の伝送を遅延させる技術が提案されている(特許文献1参照)。
特開2004−282667
しかしながら、一つのミュージックプレイヤーに対して、複数のワイヤレスヘッドフォンを同時使用する場合には、上記提案された技術を適用しても、ミュージックプレイヤーで表示される映像と、各ワイヤレスヘッドフォンの音声とを同期させることはできない。これは、各ワイヤレスヘッドフォンの特性により、各ワイヤレスヘッドフォンで生じる遅延時間が異なるためである。このような遅延時間のばらつきは、各ワイヤレスヘッドフォンの製造メーカが異なればより顕著であるが、仮に製造メーカが同じであっても機種の違いや製造誤差により生じることもあり得る。
また、二つの独立した映像コンテンツを2画面表示し、各映像コンテンツに対応した音声を二つのワイヤレスヘッドフォンへ送信する場合にも、上記提案された技術を適用しても、ミュージックプレイヤーで表示される2画面の映像コンテンツと、各ワイヤレスヘッドフォンの音声とを同期させることはできない。これも上記と同様、各ワイヤレスヘッドフォンで生じる遅延時間が異なるためである。
本発明の目的は、複数のワイヤレスヘッドフォン等の無線音声出力機器で出力される音声に同期した映像を再生することが可能な映像音声出力装置及び映像音声出力方法を提供することにある。
この発明の一実施形態に係る映像音声出力装置は、無線通信により受信した音声信号に基づき音声を出力する複数の無線音声出力機器に対して無線通信により基準音声信号を送信し、各無線音声出力機器から出力される音声を入力し、各無線音声出力機器に対する前記基準音声信号の送信タイミングと各無線音声出力機器からの音声入力タイミングに基づき、各無線音声出力機器の音声出力遅延時間を検出する遅延時間検出手段と、各無線音声出力機器の音声出力遅延時間のうちの最大遅延時間と各無線音声出力機器の音声出力遅延時間との差分時間相当だけ各無線音声出力機器へ送信する各音声信号を遅延する音声信号遅延手段と、前記音声信号遅延手段により遅延された各音声信号を、無線通信により各無線音声出力機器に送信する音声信号送信手段と、前記音声信号に同期した映像信号を前記最大遅延時間相当だけ遅延して出力する映像信号出力手段とを備えている。
この発明の一実施形態に係る映像音声出力装置は、無線通信により受信した音声信号に基づき音声を出力する第1の無線音声出力機器に対して無線通信により第1の基準音声信号を送信し、前記第1の無線音声出力機器から出力される音声を入力し、前記第1の無線音声出力機器に対する前記第1の基準音声信号の送信タイミングと前記第1の無線音声出力機器からの音声入力タイミングに基づき、前記第1の無線音声出力機器の第1の音声出力遅延時間を検出し、無線通信により受信した音声信号に基づき音声を出力する第2の無線音声出力機器に対して無線通信により第2の基準音声信号を送信し、前記第2の無線音声出力機器から出力される音声を入力し、前記第2の無線音声出力機器に対する前記第2の基準音声信号の送信タイミングと前記第2の無線音声出力機器からの音声入力タイミングに基づき、前記第2の無線音声出力機器の第2の音声出力遅延時間を検出する遅延時間検出手段と、無線通信により前記第1の無線音声出力機器に対して第1の音声信号を送信し、無線通信により前記第2の無線音声出力機器に対して第2の音声信号を送信する音声信号送信手段と、前記第1の音声出力遅延時間より前記第2の音声出力遅延時間が大きい第1の条件の場合、前記第2の音声信号に同期した第2の映像信号を前記第2の音声出力遅延時間と前記第1の音声出力遅延時間との第1の差分時間相当だけ遅延し、前記第2の音声出力遅延時間より前記第1の音声出力遅延時間が大きい第2の条件の場合、前記第1の音声信号に同期した第1の映像信号を前記第1の音声出力遅延時間と前記第2の音声出力遅延時間との第2の差分時間相当だけ遅延する映像信号遅延手段と、前記第1の条件の場合、前記第1の音声信号に同期し且つ遅延の無い第1の映像信号と前記映像信号遅延手段により遅延された前記第2の映像信号とを合成し、前記第2の条件の場合、前記第2の音声信号に同期し且つ遅延の無い第2の映像信号と前記映像信号遅延手段により遅延された前記第1の映像信号とを合成する映像合成手段と、前記第1の条件の場合、前記映像合成手段により合成された合成映像信号を前記第1の音声出力遅延時間相当だけ遅延して出力し、前記第2の条件の場合、前記映像合成手段により合成された合成映像信号を前記第2の音声出力遅延時間相当だけ遅延して出力する映像信号出力手段と、を備えている。
この発明の一実施形態に係る映像音声出力方法は、無線通信により受信した音声信号に基づき音声を出力する複数の無線音声出力機器に対して無線通信により基準音声信号を送信し、各無線音声出力機器から出力される音声を入力し、各無線音声出力機器に対する前記基準音声信号の送信タイミングと各無線音声出力機器からの音声入力タイミングに基づき、各無線音声出力機器の音声出力遅延時間を検出し、各無線音声出力機器の音声出力遅延時間のうちの最大遅延時間と各無線音声出力機器の音声出力遅延時間との差分時間相当だけ各無線音声出力機器へ送信する各音声信号を遅延し、前記遅延された各音声信号を、無線通信により各無線音声出力機器に送信するとともに、前記音声信号に同期した映像信号を前記最大遅延時間相当だけ遅延して出力する。
この発明の一実施形態に係る映像音声出力方法は、無線通信により受信した音声信号に基づき音声を出力する第1の無線音声出力機器に対して無線通信により第1の基準音声信号を送信し、前記第1の無線音声出力機器から出力される音声を入力し、前記第1の無線音声出力機器に対する前記第1の基準音声信号の送信タイミングと前記第1の無線音声出力機器からの音声入力タイミングに基づき、前記第1の無線音声出力機器の第1の音声出力遅延時間を検出し、無線通信により受信した音声信号に基づき音声を出力する第2の無線音声出力機器に対して無線通信により第2の基準音声信号を送信し、前記第2の無線音声出力機器から出力される音声を入力し、前記第2の無線音声出力機器に対する前記第2の基準音声信号の送信タイミングと前記第2の無線音声出力機器からの音声入力タイミングに基づき、前記第2の無線音声出力機器の第2の音声出力遅延時間を検出し、前記第1の音声出力遅延時間より前記第2の音声出力遅延時間が大きい第1の条件の場合、前記第2の音声信号に同期した第2の映像信号を前記第2の音声出力遅延時間と前記第1の音声出力遅延時間との第1の差分時間相当だけ遅延し、前記第2の音声出力遅延時間より前記第1の音声出力遅延時間が大きい第2の条件の場合、前記第1の音声信号に同期した第1の映像信号を前記第1の音声出力遅延時間と前記第2の音声出力遅延時間との第2の差分時間相当だけ遅延し、前記第1の条件の場合、前記第1の音声信号に同期し且つ遅延の無い第1の映像信号と前記遅延された前記第2の映像信号とを合成し、前記第2の条件の場合、前記第2の音声信号に同期し且つ遅延の無い第2の映像信号と前記遅延された前記第1の映像信号とを合成し、前記第1の条件の場合、前記合成された合成映像信号を前記第1の音声出力遅延時間相当だけ遅延して出力するとともに、無線通信により前記第1の無線音声出力機器に対して第1の音声信号を送信し、無線通信により前記第2の無線音声出力機器に対して第2の音声信号を送信し、前記第2の条件の場合、前記合成された合成映像信号を前記第2の音声出力遅延時間相当だけ遅延して出力するとともに、無線通信により前記第1の無線音声出力機器に対して第1の音声信号を送信し、無線通信により前記第2の無線音声出力機器に対して第2の音声信号を送信する。
本発明によれば、複数のワイヤレスヘッドフォン等の無線音声出力機器で出力される音声に同期した映像を再生することが可能な映像音声出力装置及び映像音声出力方法を提供できる。
以下、図面を参照し、本発明の実施形態について説明する。
図1は、映像音声出力システムの第1例を示す図である。図1に示すように、映像音声出力システムは、ミュージックプレイヤー(携帯電話含む)又はセットトップボックス(STB)等に相当する映像音声出力機器1と、無線ヘッドフォン2を備えおり、映像音声出力機器1及び無線ヘッドフォン2は、例えばBluetoothと呼ばれる規格に沿った無線通信を実行することが可能に構成されている。
図1に示すように、映像音声出力機器1は、音声信号処理回路101、基準信号発生回路102、メモリ103、音声遅延符号化回路104、音声変調回路105、増幅器106、アンテナ107、メモリ108、音声遅延回路109、スピーカ110、マイク111、位相比較及び遅延量計算回路112、映像信号処理回路121、メモリ122、映像遅延回路123、ディスプレイ130、CPU140、メモリ141を備える。
一方の無線ヘッドフォン2は、アンテナ201、増幅器202、音声復号復調回路203、イヤースピーカ204を備えている。
映像音声出力機器1は、例えば、次のようにして無線ヘッドフォン2に対して、音声信号を無線送信する。映像音声出力機器1の音声信号処理回路101は、入力された音声信号を音声遅延符号化回路104へ出力する。音声遅延符号化回路104は、音声信号処理回路101からの音声信号を符号化し、音声変調回路105へ出力する。音声変調回路105は、音声遅延符号化回路104からの入力音声信号を変調し、増幅器106へ出力する。増幅器106は、音声変調回路105からの音声信号を増幅し、アンテナ107へ出力する。アンテナ107は、増幅器106により増幅された音声信号を送信する。
無線ヘッドフォン2は、例えば、次のようにして映像音声出力機器1から送信された音声信号を受信し出力する。即ち、無線ヘッドフォン2のアンテナ201が、映像音声出力機器1のアンテナ107から送信された音声信号を受信し、増幅器202へ出力する。増幅器202は、アンテナ107からの音声信号を増幅し、音声復号復調回路203へ出力する。音声復号復調回路203は、増幅器202からの音声信号を復調し、さらに復号化し、イヤースピーカ204へ出力する。イヤースピーカ204は、音声復号復調回路203からの音声信号を出力する。
また、映像音声出力機器1は、例えば、次のようにして映像信号を出力する。即ち、映像音声出力機器1の映像信号処理回路121は、入力された映像信号をディスプレイ130へ出力する。ディスプレイ130は、映像信号処理回路121からの映像信号を出力する。
上記したように、映像音声出力機器1からの音声信号を無線ヘッドフォン2で出力する処理工程中には、音声信号の符号化処理時間、変調処理時間、復調処理時間、復号化処理時間が含まれる。これに対して、映像音声出力機器1による映像信号の出力工程中には、上記したような処理時間は含まれない。このことが要因となり、映像信号の出力タイミングに対して、音声信号の出力タイミングに遅延が生じる。
そこで、映像音声出力機器1は、映像信号の出力タイミングに対する、無線ヘッドフォン2からの音声信号の出力タイミングの遅延時間を検出し、検出された遅延時間相当だけ映像信号の出力タイミングを遅らせる。なお、遅延時間相当とは遅延時間+αであり、例えばαは遅延時間検出誤差である。これにより、映像音声出力機器1は、互いに同期した音声信号と映像信号とを出力することができる。以下、図5を参照し、この映像信号遅延処理の動作の一例について説明する。
例えば、ユーザが、映像音声出力機器1に対して無線ヘッドフォン2を使用する際、映像音声出力機器1に対して無線ヘッドフォン2の使用を指定する。これに対応して、映像音声出力機器1のCPU140は、映像信号遅延処理を開始し、例えば、ディスプレイ130は、「これから使用する無線ヘッドフォンをチェックします。無線ヘッドフォン(イヤースピーカ)をマイクに近づけて下さい。」と案内する。
ユーザは、無線ヘッドフォン2をマイク111に近づけて処理を待つ。上記ディスプレイ130からの案内の後、映像音声出力機器1と無線ヘッドフォン2との間で、Bluetoothの通信プロトコルに従った無線通信が開始される(ST101、ST201)。これにより、互いの機器が認証される。基準信号発生回路102は、正弦波などの基準音声信号を発生し、音声遅延符号化回路104及び位相比較及び遅延量計算回路112へ出力する。音声遅延符号化回路104は、基準信号発生回路102からの基準音声信号を符号化し(ST102)、音声変調回路105へ出力する。音声変調回路105は、音声遅延符号化回路104からの基準音声信号を変調し(ST103)、増幅器106へ出力する。増幅器106は、音声変調回路105からの基準音声信号を増幅し、アンテナ107へ出力する。アンテナ107は、増幅器106により増幅された基準音声信号を送信する。
これに対応して、無線ヘッドフォン2のアンテナ201が、映像音声出力機器1のアンテナ107から送信された基準音声信号を受信し(ST202)、増幅器202へ出力する。増幅器202は、アンテナ107からの基準音声信号を増幅し、音声復号復調回路203へ出力する。音声復号復調回路203は、増幅器202からの基準音声信号を復調し(ST203)、さらに復号化し(ST203)、イヤースピーカ204へ出力する。イヤースピーカ204は、音声復号復調回路203からの基準音声信号を出力する(ST204)。
さらに、マイク111は、イヤースピーカ204から出力される音声を入力し(ST104)、位相比較及び遅延量計算回路112へ出力する。位相比較及び遅延量計算回路112は、基準信号発生回路102からの基準音声信号と、マイク111からの入力音声信号とを比較し(ST105)、無線ヘッドフォン2の音声出力遅延時間を検出する(ST106)。つまり、基準信号発生回路102による基準音声信号の発生タイミングと、マイク111による音声信号の入力タイミングの差分(音声出力遅延時間)が検出される(ST106)。検出された音声出力遅延時間は、メモリ141に記憶される(ST107)。
なお、映像音声出力機器1は、無線ヘッドフォン2との無線通信において、無線ヘッドフォン2を識別している。つまり、映像音声出力機器1は無線ヘッドフォン2との無線通信において無線ヘッドフォン2の機器情報を取得している。取得された機器情報は、メモリ103に記憶される。さらに、メモリ141において、検出された音声出力遅延時間と機器情報とが対応付けられて記憶される。これにより、このあと、通信相手機器から登録済みの機器情報が取得された場合には、通信相手機器の音声出力遅延時間検出を省略することができ、登録済みの機器情報に対応付けられた音声出力遅延時間を利用することができる。以上で、音声出力遅延時間検出が完了し、例えば、ディスプレイ130は、「無線ヘッドフォンのチェックが正常終了しました。無線ヘッドフォンを使用できます。」と案内する。
この後、ユーザが、映像音声出力機器1に対してコンテンツの再生を指示すると、CPU140は外部音声出力先をチェックする。例えば、無線通信により、無線ヘッドフォン2が確認され、この無線ヘッドフォン2から取得された機器情報と、メモリ141に記憶された登録済みの機器情報とが一致すれば、この機器情報に対応付けられた音声出力遅延時間が、メモリ108とメモリ122に設定される。
再生が指示されたコンテンツに含まれる音声信号は、音声信号処理回路101、音声遅延符号化回路104、音声変調回路105、増幅器106、アンテナ107を介して送信され、アンテナ201、増幅器202、音声復号復調回路203を介して、イヤースピーカー204から出力される。
また、再生が指示されたコンテンツに含まれる音声信号は、音声信号処理回路101、音声遅延回路109を介して、スピーカ110から出力される。このとき、音声遅延回路109は、メモリ108に記憶された音声出力遅延時間に基づき音声信号を遅らせる。つまり、音声信号処理回路101からの音声信号の出力タイミングに対して、音声遅延回路109からの音声信号の出力タイミングを、メモリ108に記憶された音声出力遅延時間相当だけ遅らせる。言い換えると、音声信号処理回路101からの音声信号は、符号化されずに変調もされずに、音声出力遅延時間相当だけ遅延され、音声遅延回路109と有線接続されたスピーカ110へ入力される。なお、音声出力遅延時間相当とは音声出力遅延時間+αであり、例えばαは音声出力遅延時間の検出誤差である。
また、再生が指示されたコンテンツに含まれる映像信号、つまり上記した音声信号に同期した映像信号は、映像信号処理回路121、映像遅延回路123を介して、ディスプレイ130に表示される。このとき、映像遅延回路123は、メモリ122に記憶された音声出力遅延時間に基づき映像信号を遅らせる。つまり、音声信号処理回路101からの音声信号の出力タイミングに対して、映像遅延回路123からの映像信号の出力タイミングを、メモリ122に記憶された音声出力遅延時間相当だけ遅らせる。
以上により、上記コンテンツに含まれる音声信号は、無線ヘッドフォン2のイヤースピーカ204から所定時間遅延(=検出された音声出力遅延時間)して出力され、また、映像音声出力機器1のスピーカ110からも所定時間遅延して出力され、さらに、上記コンテンツに含まれる映像信号(上記した音声信号に同期した映像信号)も、映像音声出力機器1のディスプレイ130から所定時間遅延して出力される。即ち、上記コンテンツに含まれる音声信号と映像信号のすべてが、所定時間遅延して出力されることになり、言い換えれば、上記コンテンツに含まれる音声信号と映像信号が同期出力されることになる。
次に、一台の映像音声出力機器からの音声信号を複数の無線ヘッドフォンで受信し出力するケースについて説明する。図2は、映像音声出力システムの第2例を示す図である。図2に示すように、映像音声出力システムは、映像音声出力機器1と、複数の無線ヘッドフォン(例えば無線ヘッドフォン2、無線ヘッドフォン3)を備えおり、映像音声出力機器1及び無線ヘッドフォン2、3は、例えばBluetoothと呼ばれる規格に沿った無線通信を実行することが可能に構成されている。
無線ヘッドフォン2の構成は上記説明した通りであり、無線ヘッドフォン3の構成も無線ヘッドフォン2の構成と基本的に同じである。図2に示す映像音声出力機器1の基本構成は、図1に示す映像音声出力装置1と同じであるが、多少、追加構成がある。つまり、図2に示す映像音声出力機器1は、音声信号処理回路101a,b、基準信号発生回路102、メモリ103、音声遅延符号化回路104、音声変調回路105、増幅器106、アンテナ107、メモリ108、音声遅延回路109、スピーカ110、マイク111、位相比較及び遅延量計算回路112、映像信号処理回路121、メモリ122、映像遅延回路123、ディスプレイ130、CPU140、メモリ141を備え、さらに、映像処理回路124、メモリ125、映像遅延回路126、フレーム合成回路127、メモリ128、映像遅延回路129を備える。
図2に示すように、映像音声出力装置1の通信相手機器が複数存在する場合、つまり、無線ヘッドフォン2と無線ヘッドフォン3が存在する場合、無線ヘッドフォン2の遅延時間と無線ヘッドフォン3の遅延時間の夫々に対応する必要がある。つまり、無線ヘッドフォン2の遅延時間と無線ヘッドフォン3の遅延時間が同じとは限らず、例えば、無線ヘッドフォン2と無線ヘッドフォン3の製造メーカが異なれば、両者の遅延時間が違うことは十分に予測できる。また、無線ヘッドフォン2と無線ヘッドフォン3の製造メーカが同じであったとしても、両者の機種の違いや製造誤差により両者の遅延時間が異なることもあり得る。
そこで、既に説明したように、映像音声出力装置1が、無線ヘッドフォン2の遅延時間と無線ヘッドフォン3の遅延時間とを検出する。検出手順は、例えば、ディスプレイ130に案内され、ユーザは案内に従って、順に、無線ヘッドフォン2をマイク111に近づけ、次に、無線ヘッドフォン3をマイク111に近づける。その結果、メモリ141には、無線ヘッドフォン2の機器情報と同じ無線ヘッドフォン2の音声出力遅延時間とが対応付けて記憶され、また、無線ヘッドフォン3の機器情報と同じ無線ヘッドフォン3の音声出力遅延時間とが対応付けて記憶される。
例えば、無線ヘッドフォン2の音声出力遅延時間が10msであり、無線ヘッドフォン3の音声出力遅延時間が50msであると仮定する。CPU140は、各無線ヘッドフォンの音声出力遅延時間のうちの最大遅延時間と各無線ヘッドフォンの音声出力遅延時間との差分時間を算出し、音声遅延回路109は、差分時間相当だけ各無線ヘッドフォンへ送信する各音声信号を遅延する。なお、差分時間相当とは差分時間+αであり、例えばαは差分時間の検出誤差である。
つまり、CPU140は、無線ヘッドフォン2の音声出力遅延時間(10ms)と無線ヘッドフォン3の音声出力遅延時間(50ms)とを比較し、最大遅延時間(50ms)を検出し、無線ヘッドフォン2の音声出力遅延時間(10ms)と最大遅延時間(50ms)との差分時間(40ms)と、無線ヘッドフォン3の音声出力遅延時間(50ms)と最大遅延時間(50ms)との差分時間(0ms)を算出する。つまり、無線ヘッドフォン2に適用すべき差分時間(40ms)と、無線ヘッドフォン3に適用すべき差分時間(0ms)が算出される。
メモリ103は、無線ヘッドフォン2の機器情報と差分時間(40ms)とを対応付けて記憶し、無線ヘッドフォン3の機器情報と差分時間(0ms)とを対応付けて記憶する。メモリ108は、最大遅延時間(50ms)を記憶する。メモリ128も、最大遅延時間(50ms)を記憶する。
音声遅延符号化回路104は、メモリ103に記憶された無線ヘッドフォン2に適用すべき差分時間(40ms)に基づき、無線ヘッドフォン2に対する音声信号を差分時間(40ms)相当だけ遅らせて出力し、また、メモリ103に記憶された無線ヘッドフォン3に適用すべき差分時間(0ms)に基づき、無線ヘッドフォン3に対する音声信号を遅延させずに出力する。その結果、無線ヘッドフォン2のイヤースピーカ204からは、音声出力遅延時間(10ms)に差分時間(40ms)を加えた合計遅延時間(50ms)だけ遅れて音声が出力される。無線ヘッドフォン3のイヤースピーカ304からは、音声出力遅延時間(50ms)に差分時間(0ms)を加えた合計遅延時間(50ms)だけ遅れて音声が出力される。
また、音声遅延回路109は、メモリ103に記憶された最大遅延時間(50ms)に基づき、スピーカ110に対する音声信号を最大遅延時間(50ms)相当だけ遅らせて出力する。その結果、スピーカ110からは、最大遅延時間(50ms)だけ遅れて音声が出力される。なお、最大遅延時間相当とは最大遅延時間+αであり、例えばαは最大遅延時間の検出誤差である。
また、映像信号処理回路121からの映像信号は、各回路を経由し、映像遅延回路129に出力され、映像遅延回路129は、メモリ128に記憶された最大遅延時間(50ms)に基づき、ディスプレイ130に対する映像信号を最大遅延時間(50ms)相当だけ遅らせて出力する。その結果、ディスプレイ130からは、最大遅延時間(50ms)だけ遅れて映像が出力される。
以上により、図3A及び図3Bに示すような効果が得られる。つまり、図3Aに示すように、遅延補正前は、無線ヘッドフォン2から出力される音声信号の遅延時間が10msであり、無線ヘッドフォン3から出力される音声信号の遅延時間が50msであり、スピーカから出力される音声信号の遅延時間が0msであり、ディスプレイ130から出力される映像信号の遅延時間が0msであり、無線ヘッドフォン2から出力される音声信号、無線ヘッドフォン3から出力される音声信号、スピーカから出力される音声信号、ディスプレイ130から出力される映像信号の間で同期が外れている。
これに対して、図3Bに示すように、遅延補正後は、無線ヘッドフォン2から出力される音声信号の遅延時間が50msであり、無線ヘッドフォン3から出力される音声信号の遅延時間が50msであり、スピーカから出力される音声信号の遅延時間が50msであり、ディスプレイ130から出力される映像信号の遅延時間が50msであり、無線ヘッドフォン2から出力される音声信号、無線ヘッドフォン3から出力される音声信号、スピーカから出力される音声信号、ディスプレイ130から出力される映像信号の間で同期が取れている。
なお、上記説明では、1画面の映像と音声の同期について説明したが、複数画面(ダブルウインドウ、マルチウインドウ)の映像と音声を同期させることもできる。例えば、画面Aの映像信号を映像信号処理回路121で処理し、画面Bの映像信号を映像信号処理回路124で処理するとする。フレーム合成回路127は、映像信号処理回路121から出力される映像信号と、映像信号処理回路124から出力される映像信号とを合成し、合成映像信号を映像遅延回路129へ出力する。映像遅延回路129は、メモリ128に記憶された最大遅延時間に基づき、ディスプレイ130に対して映像信号を最大遅延時間相当だけ遅らせて出力する。その結果、ディスプレイ130からは、最大遅延時間だけ遅れて合成映像が出力される。
次に、図2に示す映像音声出力装置1が、複数のコンテンツを同時出力するケースについて説明する。例えば、コンテンツAに含まれる映像とコンテンツBに含まれる映像を1画面(ディスプレイ130)で出力し、コンテンツAに含まれる音声を無線ヘッドフォン2で出力し、コンテンツBに含まれる音声を無線ヘッドフォン3で出力するケースを想定する。
例えば、無線ヘッドフォン3の遅延時間が無線ヘッドフォン2の遅延時間より長い場合、無線ヘッドフォン3の遅延時間に合わせて、コンテンツA、コンテンツBを再生することが考えられる。ところが、コンテンツAがゲームソフトに対応している場合、コンテンツAの遅延時間は短いほうが望ましい。つまり、コンテンツAをコンテンツBにあわせて遅延させてしまうのは好ましくない。
そこで、映像音声出力装置1は、図4Aに示すようにコンテンツAとコンテンツBを再生することができ、また図4Bに示すようにコンテンツAとコンテンツBを再生することができる。
図4Aに示すように、無線ヘッドフォン2の遅延時間が10msであり、無線ヘッドフォン3の遅延時間が50msである場合、音声遅延符号化回路104は、コンテンツAに含まれる音声信号を符号化して出力し、コンテンツBに含まれる音声信号も符号化して出力する。音声変調回路105は、コンテンツAに含まれる音声信号を変調して出力し、コンテンツBに含まれる音声信号も変調して出力する。増幅器106は、コンテンツAに含まれる音声信号を増幅し、コンテンツBに含まれる音声信号も増幅する。アンテナ107は、コンテンツAに含まれる音声信号を送信し、コンテンツBに含まれる音声信号も送信する。
これに対応して、無線ヘッドフォン2のアンテナ201を介して受信されるコンテンツAの音声信号は、増幅器202で増幅され、音声復号復調回路203で復調され復号化され、イヤースピーカ204から出力される。即ち、イヤースピーカ204から出力される音声信号の遅延時間は10msとなる。同様に、無線ヘッドフォン3のアンテナ301を介して受信されるコンテンツBの音声信号は、増幅器302で増幅され、音声復号復調回路303で復調され復号化され、イヤースピーカ304から出力される。即ち、イヤースピーカ304から出力される音声信号の遅延時間は50msとなる。
映像遅延回路121は、コンテンツAに含まれる映像信号を無線ヘッドフォン2の遅延時間(10ms)だけ遅らせ、映像遅延回路124は、コンテンツBに含まれる映像信号を無線ヘッドフォン3の遅延時間(50ms)だけ遅らせる。フレーム合成回路127は、無線ヘッドフォン2の遅延時間(10ms)だけ遅延されたコンテンツAの映像信号と、無線ヘッドフォン3の遅延時間(50ms)だけ遅延されたコンテンツBの映像信号とを合成する。これにより、ディスプレイ130は、無線ヘッドフォン2の遅延時間(10ms)だけ遅延されたコンテンツAの映像信号と、無線ヘッドフォン3の遅延時間(50ms)だけ遅延されたコンテンツBの映像信号との合成映像信号を出力する。
以上により、コンテンツAの遅延時間を最小限に保ちつつ、コンテンツAの音声と映像を同期させることができ、また、コンテンツBの音声と映像を同期させることもできる。
さらに、図4Bに示すコンテンツA、コンテンツBの再生により、映像遅延処理に費やされるメモリ容量を節約することもできる。
図4Bに示すように、無線ヘッドフォン2の遅延時間が10msであり、無線ヘッドフォン3の遅延時間が50msである場合、音声遅延符号化回路104は、コンテンツAに含まれる音声信号を符号化して出力し、コンテンツBに含まれる音声信号も符号化して出力する。音声変調回路105は、コンテンツAに含まれる音声信号を変調して出力し、コンテンツBに含まれる音声信号も変調して出力する。増幅器106は、コンテンツAに含まれる音声信号を増幅し、コンテンツBに含まれる音声信号も増幅する。アンテナ107は、コンテンツAに含まれる音声信号を送信し、コンテンツBに含まれる音声信号も送信する。
これに対応して、無線ヘッドフォン2のアンテナ201を介して受信されるコンテンツAの音声信号は、増幅器202で増幅され、音声復号復調回路203で復調され復号化され、イヤースピーカ204から出力される。即ち、イヤースピーカ204から出力される音声信号の遅延時間は10msとなる。同様に、無線ヘッドフォン3のアンテナ301を介して受信されるコンテンツBの音声信号は、増幅器302で増幅され、音声復号復調回路303で復調され復号化され、イヤースピーカ304から出力される。即ち、イヤースピーカ304から出力される音声信号の遅延時間は50msとなる。
無線ヘッドフォン2の遅延時間(10ms)より無線ヘッドフォン3の遅延時間(50ms)が大きいことから、映像遅延回路121は、コンテンツAに含まれる映像信号を遅延させることなく出力し、映像遅延回路124は、コンテンツBに含まれる映像信号を無線ヘッドフォン3の遅延時間(50ms)と無線ヘッドフォン2の遅延時間(10ms)との差分時間(40ms)だけ遅らせて出力する。なお、無線ヘッドフォン3の遅延時間より無線ヘッドフォン2の遅延時間が大きい場合には、映像遅延回路124は、コンテンツBに含まれる映像信号を遅延させることなく出力し、映像遅延回路121は、コンテンツAに含まれる映像信号を無線ヘッドフォン2の遅延時間と無線ヘッドフォン3の遅延時間との差分時間だけ遅らせて出力する。
フレーム合成回路127は、コンテンツAの映像信号と、差分時間(40ms)だけ遅延されたコンテンツBの映像信号とを合成する。或いは、コンテンツBの映像信号と、差分時間だけ遅延されたコンテンツAの映像信号とを合成する。無線ヘッドフォン2の遅延時間(10ms)より無線ヘッドフォン3の遅延時間(50ms)が大きいことから、映像遅延回路129は、無線ヘッドフォン2の遅延時間(10ms)だけ、合成映像信号を遅延させる。これにより、ディスプレイ130は、無線ヘッドフォン2の遅延時間(10ms)だけ遅延されたコンテンツAの映像信号と、無線ヘッドフォン3の遅延時間(50ms)だけ遅延されたコンテンツBの映像信号との合成映像信号を出力する。なお、無線ヘッドフォン3の遅延時間より無線ヘッドフォン2の遅延時間が大きい場合には、映像遅延回路129は、無線ヘッドフォン3の遅延時間だけ、合成映像信号を遅延させる。これにより、ディスプレイ130は、無線ヘッドフォン2の遅延時間だけ遅延されたコンテンツAの映像信号と、無線ヘッドフォン3の遅延時間だけ遅延されたコンテンツBの映像信号との合成映像信号を出力する。
以上により、コンテンツAの遅延時間を最小限に保ちつつ、コンテンツAの音声と映像を同期させることができ、また、コンテンツBの音声と映像を同期させることもできる。しかも、映像遅延処理に費やされるメモリ容量を節約することもできる。図4Aのケースでは、10msの遅延と50msの遅延で合計60msの遅延のためのメモリ容量が必要であるのに対して、図4Bのケースでは、40msの遅延と10msの遅延で合計50msの遅延のためのメモリ容量で足りる。音声信号に比べて映像信号を遅延させるにはより多くのメモリが必要である。従って、図4Bに示すように、映像信号遅延のために必要なメモリ容量を節約する技術は極めて有効である。
上記した映像音声出力機器1は、無線ヘッドフォン側に特別な機能を要求することなく、映像と音声とを同期させることができるため、汎用性に優れる。例えば、映像音声出力機器1と無線ヘッドフォン2、3側とが同じ通信規格(例えばBluetooth)に対応しているだけで、映像と音声とを同期させることができる。
なお、本実施形態では、無線ヘッドフォンを例に説明したが、たとえば無線5.1chスピーカにも適用できる。
なお、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
映像音声出力システムの第1例を示す図である。 映像音声出力システムの第2例を示す図である。 遅延補正前における、各無線ヘッドフォンからの音声出力、スピーカからの音声出力、及びディスプレイからの映像出力の同期外れ状態を示す図である。 遅延補正後における、各無線ヘッドフォンからの音声出力、スピーカからの音声出力、及びディスプレイからの映像出力の同期状態を示す図である。 異なるコンテンツの同時再生の第1例を示す図である。 異なるコンテンツの同時再生の第2例を示す図である。 遅延時間の検出から登録までの処理の一例を示すフローチャートである。
符号の説明
1…映像音声出力機器、2、3…無線ヘッドフォン、101…音声信号処理回路、102…基準信号発生回路、103…メモリ、104…音声遅延符号化回路、105…音声変調回路、106…増幅器、107…アンテナ、108…メモリ、109…音声遅延回路、110…スピーカ、111…マイク、112…位相比較及び遅延量計算回路、121…映像信号処理回路、122…メモリ、123…映像遅延回路、124…映像処理回路、125…メモリ、126…映像遅延回路、127…フレーム合成回路、128…メモリ、129…映像遅延回路、130…ディスプレイ、140…CPU、141…メモリ

Claims (7)

  1. 無線通信により受信した音声信号に基づき音声を出力する複数の無線音声出力機器に対して無線通信により基準音声信号を送信し、各無線音声出力機器から出力される音声を入力し、各無線音声出力機器に対する前記基準音声信号の送信タイミングと各無線音声出力機器からの音声入力タイミングに基づき、各無線音声出力機器の音声出力遅延時間を検出する遅延時間検出手段と、
    各無線音声出力機器の音声出力遅延時間のうちの最大遅延時間と各無線音声出力機器の音声出力遅延時間との差分時間相当だけ各無線音声出力機器へ送信する各音声信号を遅延する音声信号遅延手段と、
    前記音声信号遅延手段により遅延された各音声信号を、無線通信により各無線音声出力機器に送信する音声信号送信手段と、
    前記音声信号に同期した映像信号を前記最大遅延時間相当だけ遅延して出力する映像信号出力手段と、
    を備えたことを特徴とする映像音声出力装置。
  2. 各無線音声出力機器へ送信する各音声信号を符号化し、符号化された各音声信号を変調する音声信号符号化変調手段を備え、
    前記音声信号送信手段は、符号化され変調された各音声信号を各無線音声出力機器へ送信する、
    ことを特徴とする請求項1に記載の映像音声出力装置。
  3. 前記最大遅延時間相当だけ遅延させた符号化せずに変調していない音声信号を有線接続された音声出力機器へ出力する音声信号出力手段を備えたことを特徴とする請求項2に記載の映像音声出力装置。
  4. 前記映像信号出力手段は、遅延前の各音声信号に同期した複数の映像信号の夫々を前記最大遅延時間相当だけ遅延して出力することを特徴とする請求項1に記載の映像音声出力装置。
  5. 無線通信により受信した音声信号に基づき音声を出力する第1の無線音声出力機器に対して無線通信により第1の基準音声信号を送信し、前記第1の無線音声出力機器から出力される音声を入力し、前記第1の無線音声出力機器に対する前記第1の基準音声信号の送信タイミングと前記第1の無線音声出力機器からの音声入力タイミングに基づき、前記第1の無線音声出力機器の第1の音声出力遅延時間を検出し、無線通信により受信した音声信号に基づき音声を出力する第2の無線音声出力機器に対して無線通信により第2の基準音声信号を送信し、前記第2の無線音声出力機器から出力される音声を入力し、前記第2の無線音声出力機器に対する前記第2の基準音声信号の送信タイミングと前記第2の無線音声出力機器からの音声入力タイミングに基づき、前記第2の無線音声出力機器の第2の音声出力遅延時間を検出する遅延時間検出手段と、
    無線通信により前記第1の無線音声出力機器に対して第1の音声信号を送信し、無線通信により前記第2の無線音声出力機器に対して第2の音声信号を送信する音声信号送信手段と、
    前記第1の音声出力遅延時間より前記第2の音声出力遅延時間が大きい第1の条件の場合、前記第2の音声信号に同期した第2の映像信号を前記第2の音声出力遅延時間と前記第1の音声出力遅延時間との第1の差分時間相当だけ遅延し、前記第2の音声出力遅延時間より前記第1の音声出力遅延時間が大きい第2の条件の場合、前記第1の音声信号に同期した第1の映像信号を前記第1の音声出力遅延時間と前記第2の音声出力遅延時間との第2の差分時間相当だけ遅延する映像信号遅延手段と、
    前記第1の条件の場合、前記第1の音声信号に同期し且つ遅延の無い第1の映像信号と前記映像信号遅延手段により遅延された前記第2の映像信号とを合成し、前記第2の条件の場合、前記第2の音声信号に同期し且つ遅延の無い第2の映像信号と前記映像信号遅延手段により遅延された前記第1の映像信号とを合成する映像合成手段と、
    前記第1の条件の場合、前記映像合成手段により合成された合成映像信号を前記第1の音声出力遅延時間相当だけ遅延して出力し、前記第2の条件の場合、前記映像合成手段により合成された合成映像信号を前記第2の音声出力遅延時間相当だけ遅延して出力する映像信号出力手段と、
    を備えたことを特徴とする映像音声出力装置。
  6. 無線通信により受信した音声信号に基づき音声を出力する複数の無線音声出力機器に対して無線通信により基準音声信号を送信し、各無線音声出力機器から出力される音声を入力し、各無線音声出力機器に対する前記基準音声信号の送信タイミングと各無線音声出力機器からの音声入力タイミングに基づき、各無線音声出力機器の音声出力遅延時間を検出し、
    各無線音声出力機器の音声出力遅延時間のうちの最大遅延時間と各無線音声出力機器の音声出力遅延時間との差分時間相当だけ各無線音声出力機器へ送信する各音声信号を遅延し、
    前記遅延された各音声信号を、無線通信により各無線音声出力機器に送信するとともに、前記音声信号に同期した映像信号を前記最大遅延時間相当だけ遅延して出力する、
    ことを特徴とする映像音声出力方法。
  7. 無線通信により受信した音声信号に基づき音声を出力する第1の無線音声出力機器に対して無線通信により第1の基準音声信号を送信し、前記第1の無線音声出力機器から出力される音声を入力し、前記第1の無線音声出力機器に対する前記第1の基準音声信号の送信タイミングと前記第1の無線音声出力機器からの音声入力タイミングに基づき、前記第1の無線音声出力機器の第1の音声出力遅延時間を検出し、無線通信により受信した音声信号に基づき音声を出力する第2の無線音声出力機器に対して無線通信により第2の基準音声信号を送信し、前記第2の無線音声出力機器から出力される音声を入力し、前記第2の無線音声出力機器に対する前記第2の基準音声信号の送信タイミングと前記第2の無線音声出力機器からの音声入力タイミングに基づき、前記第2の無線音声出力機器の第2の音声出力遅延時間を検出し、
    前記第1の音声出力遅延時間より前記第2の音声出力遅延時間が大きい第1の条件の場合、前記第2の音声信号に同期した第2の映像信号を前記第2の音声出力遅延時間と前記第1の音声出力遅延時間との第1の差分時間相当だけ遅延し、前記第2の音声出力遅延時間より前記第1の音声出力遅延時間が大きい第2の条件の場合、前記第1の音声信号に同期した第1の映像信号を前記第1の音声出力遅延時間と前記第2の音声出力遅延時間との第2の差分時間相当だけ遅延し、
    前記第1の条件の場合、前記第1の音声信号に同期し且つ遅延の無い第1の映像信号と前記遅延された前記第2の映像信号とを合成し、前記第2の条件の場合、前記第2の音声信号に同期し且つ遅延の無い第2の映像信号と前記遅延された前記第1の映像信号とを合成し、
    前記第1の条件の場合、前記合成された合成映像信号を前記第1の音声出力遅延時間相当だけ遅延して出力するとともに、無線通信により前記第1の無線音声出力機器に対して第1の音声信号を送信し、無線通信により前記第2の無線音声出力機器に対して第2の音声信号を送信し、前記第2の条件の場合、前記合成された合成映像信号を前記第2の音声出力遅延時間相当だけ遅延して出力するとともに、無線通信により前記第1の無線音声出力機器に対して第1の音声信号を送信し、無線通信により前記第2の無線音声出力機器に対して第2の音声信号を送信する、
    ことを特徴とする映像音声出力方法。
JP2008170164A 2008-06-30 2008-06-30 映像音声出力装置及び映像音声出力方法 Withdrawn JP2010011274A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008170164A JP2010011274A (ja) 2008-06-30 2008-06-30 映像音声出力装置及び映像音声出力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008170164A JP2010011274A (ja) 2008-06-30 2008-06-30 映像音声出力装置及び映像音声出力方法

Publications (1)

Publication Number Publication Date
JP2010011274A true JP2010011274A (ja) 2010-01-14

Family

ID=41591189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008170164A Withdrawn JP2010011274A (ja) 2008-06-30 2008-06-30 映像音声出力装置及び映像音声出力方法

Country Status (1)

Country Link
JP (1) JP2010011274A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175704A (ja) * 2011-02-21 2012-09-10 Hon Hai Precision Industry Co Ltd セットトップボックス、シャッターメガネ、及び各々のユーザーが同時にそれぞれ好きな番組を視聴できる方法
JP2013115782A (ja) * 2011-11-30 2013-06-10 Toshiba Corp 電子機器及び音声出力方法
WO2017221433A1 (ja) * 2016-06-24 2017-12-28 ヤマハ株式会社 同期設定装置、配信システム、同期設定方法、及びプログラム
JP2020048014A (ja) * 2018-09-18 2020-03-26 三菱電機株式会社 映像音声再生システム、映像表示装置及び映像表示方法
WO2021020600A1 (ko) * 2019-07-26 2021-02-04 엘지전자 주식회사 멀티미디어 서비스 제공 장치 및 멀티미디어 서비스 제공 방법
US11134178B2 (en) 2018-08-30 2021-09-28 Panasonic Intellectual Property Management Co., Ltd. Video signal output apparatus, control method, and recording medium
CN113824521A (zh) * 2021-08-30 2021-12-21 中车南京浦镇车辆有限公司 一种地铁车辆广播音频同步方法
EP3982652A4 (en) * 2019-07-25 2022-07-27 Huawei Technologies Co., Ltd. SIMULTANEOUS RESPONSE METHOD AND DEVICE

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175704A (ja) * 2011-02-21 2012-09-10 Hon Hai Precision Industry Co Ltd セットトップボックス、シャッターメガネ、及び各々のユーザーが同時にそれぞれ好きな番組を視聴できる方法
JP2013115782A (ja) * 2011-11-30 2013-06-10 Toshiba Corp 電子機器及び音声出力方法
US8751705B2 (en) 2011-11-30 2014-06-10 Kabushiki Kaisha Toshiba Electronic device and audio output method
US8909828B2 (en) 2011-11-30 2014-12-09 Kabushiki Kaisha Toshiba Electronic device and audio output method
CN109314631A (zh) * 2016-06-24 2019-02-05 雅马哈株式会社 同步设定装置、传送系统、同步设定方法及程序
JPWO2017221433A1 (ja) * 2016-06-24 2019-01-31 ヤマハ株式会社 同期設定装置、配信システム、同期設定方法、及びプログラム
WO2017221433A1 (ja) * 2016-06-24 2017-12-28 ヤマハ株式会社 同期設定装置、配信システム、同期設定方法、及びプログラム
US10917465B2 (en) 2016-06-24 2021-02-09 Yamaha Corporation Synchronization setting device and distribution system
CN109314631B (zh) * 2016-06-24 2021-08-27 雅马哈株式会社 同步设定装置、传送系统、同步设定方法及记录介质
US11134178B2 (en) 2018-08-30 2021-09-28 Panasonic Intellectual Property Management Co., Ltd. Video signal output apparatus, control method, and recording medium
JP2020048014A (ja) * 2018-09-18 2020-03-26 三菱電機株式会社 映像音声再生システム、映像表示装置及び映像表示方法
JP7004627B2 (ja) 2018-09-18 2022-01-21 三菱電機株式会社 映像音声再生システム、映像表示装置及び映像表示方法
EP3982652A4 (en) * 2019-07-25 2022-07-27 Huawei Technologies Co., Ltd. SIMULTANEOUS RESPONSE METHOD AND DEVICE
US12063607B2 (en) 2019-07-25 2024-08-13 Huawei Technologies Co., Ltd. Simultaneous response method and device
WO2021020600A1 (ko) * 2019-07-26 2021-02-04 엘지전자 주식회사 멀티미디어 서비스 제공 장치 및 멀티미디어 서비스 제공 방법
US11871069B2 (en) 2019-07-26 2024-01-09 Lg Electronics Inc. Multimedia service providing device and multimedia service providing method
CN113824521B (zh) * 2021-08-30 2024-02-13 南京轨道交通产业发展有限公司 一种地铁车辆广播音频同步方法
CN113824521A (zh) * 2021-08-30 2021-12-21 中车南京浦镇车辆有限公司 一种地铁车辆广播音频同步方法

Similar Documents

Publication Publication Date Title
JP2010011274A (ja) 映像音声出力装置及び映像音声出力方法
JP5877351B2 (ja) 通信装置および通信方法
US9112983B2 (en) Bluetooth data/control message transmission module, interaction system and method thereof
JP2010141892A (ja) オーディオ機器及びその信号補正方法
CN104157292B (zh) 抗啸叫音频信号处理方法和装置
US12052556B2 (en) Terminal, audio cooperative reproduction system, and content display apparatus
JP2006352799A (ja) 無線通信装置とその方法、及び携帯型情報処理装置
GB2460219A (en) Interaction between Audio/Visual Display Appliances and Mobile Devices
JP4445516B2 (ja) 情報処理装置
JP2009027678A (ja) 音声出力装置、音声入力装置、音声制御装置、音声制御システム及び音声制御方法
JP5115120B2 (ja) 映像表示装置及び音声出力装置
TWI612820B (zh) 助聽器通訊系統及其助聽器通訊之方法
KR100644039B1 (ko) 이동통신단말기의 멀티미디어 데이터 실시간 송, 수신 방법및 이를 위한 이동통신단말기
KR101113491B1 (ko) 음원 재생 시스템 및 그 동작 방법
JP5023396B2 (ja) コンテンツ再生システム、コンテンツ無線中継システム及びコンテンツ再生方法
JP2016152599A (ja) 無線受信機およびそのミュート制御方法
US20240357293A1 (en) Terminal, audio cooperative reproduction system, and content display apparatus
JP2018137614A (ja) 通信装置、通信システム、通信方法及びプログラム
TWI654885B (zh) 助聽器通訊系統及其助聽器通訊之方法
KR100687268B1 (ko) 외부 엠피쓰리데이터 재생 기능을 가지는 이동통신 단말기및 그 방법
JP3204519U (ja) 補聴器の通信システム
JP2010068390A (ja) 無線通信システム
JP2008166978A (ja) インターネット電話機およびインターネット電話システム
JP2002171176A (ja) 送信機、受信機およびデータ伝送方法
JP2008016882A (ja) 表示装置、表示制御方法、及び、表示制御プログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906