JP2005006069A - ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法 - Google Patents
ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法 Download PDFInfo
- Publication number
- JP2005006069A JP2005006069A JP2003167570A JP2003167570A JP2005006069A JP 2005006069 A JP2005006069 A JP 2005006069A JP 2003167570 A JP2003167570 A JP 2003167570A JP 2003167570 A JP2003167570 A JP 2003167570A JP 2005006069 A JP2005006069 A JP 2005006069A
- Authority
- JP
- Japan
- Prior art keywords
- delay time
- electronic device
- maximum delay
- bus network
- maximum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Small-Scale Networks (AREA)
Abstract
【課題】ユーザが任意に構築した場合でも、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能なネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法を提供する。
【解決手段】IRM(Isochronous Resource Manager)として設定された機器10Rには、各機器の遅延時間情報が入力される。機器10Rは、入力された遅延時間情報に基づいて、最大の遅延時間を最大遅延時間情報として管理する。機器10Rで管理された最大遅延時間情報は、例えば音声データのストリーム配信時に、これの再生機器へ通知される。機器20a,20b,20cは、通知された最大遅延時間情報と自己の遅延時間情報とを比較し、この差分時間を解消するように音声データを遅延させた後、これを信号処理してスピーカ23から再生する。
【選択図】 図2
【解決手段】IRM(Isochronous Resource Manager)として設定された機器10Rには、各機器の遅延時間情報が入力される。機器10Rは、入力された遅延時間情報に基づいて、最大の遅延時間を最大遅延時間情報として管理する。機器10Rで管理された最大遅延時間情報は、例えば音声データのストリーム配信時に、これの再生機器へ通知される。機器20a,20b,20cは、通知された最大遅延時間情報と自己の遅延時間情報とを比較し、この差分時間を解消するように音声データを遅延させた後、これを信号処理してスピーカ23から再生する。
【選択図】 図2
Description
【0001】
【発明の属する技術分野】
本発明は、ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法に関する。
【0002】
【従来の技術】
近年、パーソナルコンピュータ(以下、PCと略す)等を必要とせずに電子機器同士をピア・ツー・ピアで接続できるネットワークとして、IEEE1394が開発された。IEEE1394は、高速なデータ通信が可能で且つ接続ケーブルやコネクタ形状を細く且つ小さくすることができるという利点があり、特にPC・周辺機器間や家電製品同士を接続するバスとして広く利用されることが期待されている。
【0003】
例えば以下の特許文献1には、DVD(digital Video Disk)プレーヤ等の映像音声再生装置と、これで再生された映像や音声を出力するテレビジョン(TV)等の表示装置及びスピーカとをIEEE1394で接続する構成が開示されている。この構成を図1に示す。
【0004】
図1に示すように、映像音声再生装置110は、IEEE1394で構成されたバス100を介してオーディオプロセッサ120及びデコーダ130と接続されている。オーディオプロセッサ120は、例えばDSP(Digital Signal Processor)等の演算処理装置で構成されており、バス100を介して入力されたディジタル音声データをアナログ信号に変換し、これをアンプ(増幅器)121を介してスピーカ122へ入力することで、音声を再生する。また、デコーダ130は、例えばMPEG―TS方式で圧縮された映像データを復号化し、これをモニタ131へ入力することで、映像を再生する。
【0005】
このような構成において、オーディオプロセッサ120が音声データを処理する速度と、デコーダ130が映像データを処理する速度とが等しければ、モニタ131で表示されたシーンとスピーカ122で出力された音声とのずれがなく、ユーザは快適に映像及び音声を堪能することができる。しかしながら、通常、デコーダ130における処理速度は、オーディオプロセッサ120が音声データを処理する速度よりも遅い。このため、映像と音声とにずれが生じてしまうという問題が存在する。
【0006】
このような問題に対し、特許文献1は、オーディオプロセッサ120側に音声データを遅延させる構成を設け、これにより、映像と音声との時間差を解消している。
【0007】
【特許文献1】
特開2002−344898号公報
【0008】
【発明が解決しようとする課題】
しかしながら、上記特許文献1による構成では、バス100を介して接続される構成がオーディオプロセッサ120及びデコーダ130と限定されているため、ユーザが任意に構築できる環境において個々の電子機器に固有の遅延時間の差を解消することが不可能であった。
【0009】
そこで本発明は、ユーザが任意に構築した場合でも、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能なネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
かかる目的を達成するために、本発明は、所定のバスネットワークを介して接続された複数の電子機器間でデータを送受信するネットワークシステムであって、前記バスネットワークに接続された第1の電子機器が、前記複数の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間管理手段を有し、前記バスネットワークを介して前記データを受信する第2の電子機器が、前記第1の電子機器で管理された前記最大の遅延時間に基づいて前記データの処理時間を遅延させる遅延手段を有するように構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいてデータの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0011】
また、本発明は、所定のバスネットワークを介して他の電子機器と接続される電子機器であって、前記他の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間間理手段を有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理する構成とすることで、他の電子機器がこれに基づいてデータの処理時間を制御することが可能となり、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0012】
また、本発明は、所定のバスネットワークを介して他の電子機器と接続される電子機器であって、前記他の電子機器に固有の遅延時間のうち最大の遅延時間に基づいてデータの処理時間を遅延させる遅延手段を有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものに基づいてデータの処理時間を制御できるように構成することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0013】
また、前記遅延手段は、例えばバッファを含んで構成されてもよい。遅延手段は、例えば簡素であるバッファを用いて構成することが可能である。
【0014】
また、本発明は、第1の電子機器から出力された音声データを所定のバスネットワークを介して接続された第2の電子機器で再生する音声再生システムであって、前記第2の電子機器を複数有し、前記所定のバスネットワークに接続された第3の電子機器が、前記第2の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間管理手段を有し、前記第2の電子機器が、前記第3の電子機器で管理された前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる遅延手段を有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいて音声データの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる再生タイミングのずれを解消することが可能となる。
【0015】
また、本発明は、所定のバスネットワークを介して接続された複数の電子機器間でデータを送受信するデータ送受信方法であって、前記バスネットワークに接続された第1の電子機器が、該バスネットワークを介して前記データを受信する第2の電子機器に、固有の遅延時間を問い合わせる第1のステップと、前記第1の電子機器が、問い合わせた遅延時間のうち最大の遅延時間を判定する第2のステップと、前記第1の電子機器が、前記第2の電子機器に前記最大の遅延時間を通知する第3のステップと、前記第2の電子機器が、前記最大の遅延時間に基づいて前記データの処理時間を遅延させる第4のステップとを有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいてデータの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0016】
また、本発明は、第1の電子機器から出力された音声データを所定のバスネットワークを介して接続された第2の電子機器で再生する音声再生方法であって、前記バスネットワークに接続された第3の電子機器が、前記第2の電子機器のうち少なくとも1つに、固有の遅延時間を問い合わせる第1のステップと、前記第3の電子機器が、問い合わせた遅延時間のうち最大の遅延時間を判定する第2のステップと、前記第3の電子機器が、前記第2の電子機器に前記最大の遅延時間を通知する第3のステップと、前記第2の電子機器が、前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる第4のステップとを有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいて音声データの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる再生タイミングのずれを解消することが可能となる。
【0017】
また、前記音声再生方法は、例えば前記第3の電子機器が、新たに前記音声データの配信先として設定された第4の電子機器に、固有の遅延時間を問い合わせる第5のステップと、前記第3の電子機器が、前記第2のステップで判定した前記最大遅延時間と前記5のステップで問い合わせた遅延時間とを比較し、最大の遅延時間を判定する第6のステップと、前記第3の電子機器が、前記第6のステップで判定した前記最大の遅延時間を、前記第2及び第4の電子機器に通知する第7のステップと、前記第2及び第4の電子機器が、前記第7のステップで通知された前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる第8のステップとを有して構成されても良い。新たに配信先として追加された電子機器の遅延時間と、現在管理している最大の遅延時間とに基づいて、各電子機器に設定する遅延時間を見直すように構成することで、システム構成を変更した場合などでも、的確に個々の電子機器に固有の遅延時間の差により生じる再生タイミングのずれを解消することが可能となる。
【0018】
【発明の実施の形態】
以下、本発明の好適に実施した実施形態について図面を用いて詳細に説明する。
【0019】
〔第1の実施形態〕
先ず、本発明の第1の実施形態について図面を用いて詳細に説明する。尚、本実施形態では、複数の電子機器(以下、単に機器という)をIEEE1394―1995(以下、単にIEEE1394という)をピア・ツー・ピアで接続した車載LAN(ローカルエリアネットワーク)システムを例に挙げて説明する。
【0020】
車載LANシステムに組み込まれる機器としては、ナビゲーション装置やオーディオ機器(CD(Compact Disk)プレーヤ等)や映像機器(DVD(digital Video Disk)プレーヤ等)やエアーコントローラ等の一般的な電子機器を適用することが可能である。また、これらを接続するネットワーク(バスともいう:以下、バスに統一する)としては、IEEE1394を使用することが好ましい。IEEE1394は、高速なデータ通信が可能で且つ細いケーブル及び小型なコネクタを使用することが可能であるため、システム構成を物理的に小型化することが可能である。また、各機器をノードとして機能させることが可能であり、且つ電源供給を配線を介して行うことが可能であるため、特に車載LANシステム等の限られたスペース内に構築するインフラストラクチャとしては好都合である。更に、IEEE1394は、マルチメディアに適した転送方式であるアイソクロナス(Isochronous)転送に対応しているため、映像や音声等をストリーム配信可能であるというメリットもある。
【0021】
また、IEEE1394では、システム構築/変更時に、機器の何れかをアイソクロナス転送のためのリソースの管理を行うノードとして機能させる。このノードをIRM(Isochronous Resource Manager)という。本実施形態では、このIRMの機能を用いて各機器の遅延時間を管理し、これに基づいて機器間における遅延時間の差を解消することで、例えばストリーム配信したマルチメディアデータが時間的にずれて再生されることを防止する。
【0022】
図2に本実施形態による車載LANシステム1のシステム構成を示す。図2に示すように、車載LANシステム1は、複数の機器10A,10C,10R,20a,20b及び20cがIEEE1394のバス10を介して接続された構成を有する。また、機器20a,20b,20cは、オーディオプロセッサ21とアンプ(増幅器)22とスピーカ23とを有し、バス10を介して入力された音声データをスピーカを介して出力する。オーディオプロセッサ21は、ディジタルの音声データを設定されたボリュームに応じたアナログ信号に変換し、これをアンプ22へ出力する。アンプ22は入力されたアナログ信号を増幅してスピーカ23へ出力する。スピーカ23は入力されたアナログ信号を音声として出力する。更に、機器の接続時又は電源投入時のネゴシエーションにより、機器10RがIRMに設定されたものとする。
【0023】
IRMとして設定された機器10Rには、各機器の遅延時間情報が入力される。機器10Rは、入力された遅延時間情報に基づいて、最大の遅延時間を最大遅延時間情報として管理する。機器10Rで管理された最大遅延時間情報は、例えば音声データのストリーム配信時に、これの再生機器(図2では機器20a,20b,20c)へ通知される。機器20a,20b,20cは、通知された最大遅延時間情報と自己の遅延時間情報とを比較し、この差分時間を解消するように音声データを遅延させた後、これを信号処理してスピーカ23から再生する。
【0024】
ここで、機器20a,20b,20cにおけるオーディオプロセッサ21の構成を図3に示す。図3に示すように、オーディオプロセッサ21は、バス10からデータを入出力するためのバスインタフェース211と、バスインタフェース211を介して入力された音声データを復号化するデコーダ213と、デコードされた音声データをアナログ信号に変換するD/A変換器214とを有し、更に、オーディオプロセッサ21(特にデコーダ213及びD/A変換器214)の遅延時間を管理するマイクロコンピュータ(以下、マイコンという)215と、マイコン215の制御に基づいて音声データを遅延させるバッファ212とを有して構成される。尚、D/A変換器214から出力されたアナログ信号は、アンプ22でゲイン調整された後、スピーカ23から音声出力される。
【0025】
IEEE1394では、音声データがデータ量を示す情報や伝送するチャネルの情報等を含むヘッダが付加されたパケット(これをアイソクロナスパケット(Isochronous Packet)という)の状態でバス10上に出力される。このパケットを受信したバスインタフェース211は、バス10上の基準時間とパケットのヘッダに含まれる時間情報とに基づいて決定されたタイミングで、ヘッダを取り除いた音声データをデコーダ213へ入力する。
【0026】
また、デコーダ213へ入力される音声データは分岐されてマイコン215にも入力される。マイコン215には、D/A変換器214から出力されたアナログ信号も分岐されて入力される。マイコン215は、このように入力された音声データ及びアナログ信号に基づいて、デコーダ213及びD/A変換器24で要する時間(処理時間:本実施形態ではこれを遅延時間という)を計測し、これを管理する。管理された遅延時間の情報(以下、遅延時間情報という)は、音声データのストリーム配信時のシーケンスにおいてIRM(機器10R)へ通知される。また、マイコン215は、IRM(機器10R)から通知された最大遅延時間情報と管理している遅延時間情報とを比較し、これらの差分時間をバッファ212の遅延時間として設定する。
【0027】
このように、デコーダ213の前段に音声データを遅延させるためのバッファ212を設け、これの遅延量を最大遅延時間と自己(オーディオプロセッサ21)の遅延時間とに基づいて制御することで、本実施形態では、全ての機器において再生タイミングを同期させることが可能となる。
【0028】
次に、上記のような構成において、先ず、機器10Aから出力された音声データのストリームを機器20a,20bで再生出力する場合の各機器(10A,10C,10R,20a,20b)のシーケンスについて図4を用いて詳細に説明する。
【0029】
図4に示すように、機器10Aから機器20a及び20bへ音声データのストリーム配信する場合、ストリームの配信元である機器10A(以下、機器(ストリーム源)10Aという)は、次ノードとなる機器10C(以下、機器(次ノード)10Cという)へストリーム配信を要求する(A1→C1:ストリーム配信要求)。機器(次ノード)10Cは、ストリーム配信が要求されると、IRMである機器10R(以下、機器(IRM)10Rという)に音声データをストリーム配信するための帯域(リソースともいう)の確保を要求する(C2→R1:帯域確保要求)。これに対し、機器(IRM)10Rはストリーム配信のための帯域を割り当て、これを機器(次ノード)10Cへ通知する(R2→C3:帯域割当応答)。
【0030】
次に、機器(次ノード)10Cは、再生機器である機器20a及び20b(以下、機器(エンド)20a,20bという)へ、それぞれに固有の遅延時間を問い合わせる(C4→a1,C5→b1:遅延時間問合せ)。これに対し、機器(エンド)20a及び20bは、自己のマイコン215で管理されている遅延時間情報を機器(次ノード)10Cへ通知する(a2→C6,b2→C7:遅延時間応答)。
【0031】
このように各機器(エンド)20a,20bの遅延時間情報が通知されると、機器(次ノード)10Cは、これらの中で最も遅延時間が長いものを判定し(C8:最大遅延時間情報判定)、これを最大遅延時間情報として機器(IRM)10Rへ送信する(C9→R3:最大遅延時間更新要求)。これに対し、機器(IRM)10Rは、管理している最大遅延時間情報を更新し(R4:最大遅延時間情報更新)、これが完了したことを機器(次ノード)10Cへ通知する(R5→C10:最大遅延時間更新応答)。
【0032】
機器(次ノード)10Cは、最大遅延時間情報の更新が完了すると、上記で判定した(又は機器(IRM)10Rから通知された)最大遅延時間情報を機器(エンド)20a,20bへそれぞれ通知する(C11→a3,C12→b3:最大遅延時間情報通知)。機器(エンド)20a及び20bは、通知された最大遅延時間情報とマイコン215で管理している自己の遅延時間情報とに基づいて、バッファ212の遅延時間を設定する(a4,b4:遅延時間設定)。その後、機器(ストリーム源)10A−機器(エンド)20a及び20b間で回線が確立され、音声データのストリーム配信が行われる。
【0033】
以上のような手順を踏まえることで、本実施形態では、音声データを再生する機器(20a,20b)において、最大の遅延時間に合わせることが可能となり、再生時における機器間の時間的なずれを解消することが可能となる。
【0034】
また、機器(エンド)20a及び20bを用いて音声データを再生する状態(図4参照)から、機器(エンド)20a,20b及び20cを用いて音声データを再生する状態へ移行した際の各機器(10A,10C,10R,20a,20b及び20c)のシーケンスを図5を用いて説明する。
【0035】
図5に示すように、機器10Aから音声データをストリーム配信する先が変更されると、機器(ストリーム源)10Aは、機器(次ノード)10Cへ配信先の変更を要求する(A21→C21:配信先変更要求)。機器(次ノード)10Cは、配信先の変更が要求されると、機器(IRM)10Rに音声データをストリーム配信するための帯域(リソースともいう)の確保を新たに要求する(C22→R21:帯域確保要求)。これに対し、機器(IRM)10Rはストリーム配信のための帯域を割り当て、これを機器(次ノード)10Cへ通知する(R22→C23:帯域割当応答)。
【0036】
次に、機器(次ノード)10Cは、新たに追加された機器(エンド)20cへ、これに固有の遅延時間を問い合わせる(C24→c21:遅延時間問合せ)。また、機器(IRM)10Rに登録されている最大遅延時間情報を問い合わせる(C25→R23:最大遅延時間問合せ)。これに対し、機器(エンド)20cは、自己のマイコン215で管理されている遅延時間情報を機器(次ノード)10Cへ通知する(c22→C26:遅延時間応答)。また、機器(IRM)10Rは、管理している最大遅延時間情報を機器(次ノード)10Cへ通知する(R24→C27:最大遅延時間応答)。
【0037】
このように機器(エンド)20cから遅延時間情報が、また機器(IRM)10Rから最大遅延時間情報が通知されると、機器(次ノード)10Cは、何れの遅延時間が長いかを判定し(C28:最大遅延時間情報判定)、長い方を最大遅延時間情報として機器(IRM)10Rへ送信する(C29→R25:最大遅延時間更新要求)。これに対し、機器(IRM)10Rは、管理している最大遅延時間情報を更新し(R26:最大遅延時間情報更新)、これが完了したことを機器(次ノード)10Cへ通知する(R27→C30:最大遅延時間更新応答)。
【0038】
機器(次ノード)10Cは、最大遅延時間情報の更新が完了すると、上記で判定した(又は機器(IRM)10Rから通知された)最大遅延時間情報を機器(エンド)20a,20b及び20cへそれぞれ通知する(C31→a21,C32→b21,C33→c23:最大遅延時間情報通知)。機器(エンド)20a,20b及び20cは、通知された最大遅延時間情報とマイコン215で管理している自己の遅延時間情報とに基づいて、バッファ212の遅延時間を設定する(a22,b22,c24:遅延時間設定)。その後、機器(ストリーム源)10A−機器(エンド)20a,20b及び20c間で回線が確立され、音声データのストリーム配信が行われる。
【0039】
以上のような手順を踏まえることで、本実施形態では、新たに配信先の機器(20c)が追加された場合でも、これらの間で最大の遅延時間に合わせることが可能となり、再生時における機器間の時間的なずれを解消することが可能となる。
【0040】
また、機器(エンド)20a,20b及び20cを用いて音声データを再生する状態(図4参照)から、機器(エンド)20a及び20bを用いて音声データを再生する状態へ移行した際の各機器(10A,10C,10R,20a及び20b)のシーケンスを図6を用いて説明する。
【0041】
図6に示すように、機器10Aから音声データをストリーム配信する先が変更されると、機器(ストリーム源)10Aは、機器(次ノード)10Cへ配信先の変更を要求する(A51→C51:配信先変更要求)。機器(次ノード)10Cは、配信先の変更が要求されると、機器(IRM)10Rに音声データをストリーム配信するための帯域(リソースともいう)の確保を新たに要求する(C52→R51:帯域確保要求)。これに対し、機器(IRM)10Rはストリーム配信のための帯域を割り当て、これを機器(次ノード)10Cへ通知する(R52→C53:帯域割当応答)。
【0042】
次に、機器(次ノード)10Cは、機器(エンド)20a,20bへ、それぞれに固有の遅延時間を問い合わせる(C54→a51,C55→b51:遅延時間問合せ)。これに対し、機器(エンド)20a及び20bは、自己のマイコン215で管理されている遅延時間情報を機器(次ノード)10Cへ通知する(a52→C56,b52→C57:遅延時間応答)。
【0043】
このように各機器(エンド)20a,20bの遅延時間情報が通知されると、機器(次ノード)10Cは、これらの中で最も遅延時間が長いものを判定し(C58:最大遅延時間情報判定)、これを最大遅延時間情報として機器(IRM)10Rへ送信する(C59→R53:最大遅延時間更新要求)。これに対し、機器(IRM)10Rは、管理している最大遅延時間情報を更新し(R54:最大遅延時間情報更新)、これが完了したことを機器(次ノード)10Cへ通知する(R55→C60:最大遅延時間更新応答)。
【0044】
機器(次ノード)10Cは、最大遅延時間情報の更新が完了すると、上記で判定した(又は機器(IRM)10Rから通知された)最大遅延時間情報を機器(エンド)20a,20bへそれぞれ通知する(C61→a53,C62→b53:最大遅延時間情報通知)。機器(エンド)20a及び20bは、通知された最大遅延時間情報とマイコン215で管理している自己の遅延時間情報とに基づいて、バッファ212の遅延時間を設定する(a54,b54:遅延時間設定)。その後、機器(ストリーム源)10A−機器(エンド)20a及び20b間で回線が確立され、音声データのストリーム配信が行われる。
【0045】
以上のような手順を踏まえることで、本実施形態では、配信先の機器(20c)が減少した場合でも、これらの間で最大の遅延時間に合わせることが可能となり、再生時における機器間の時間的なずれを解消することが可能となる。特に、最も遅延時間の大きい機器が配信先から外された場合では、これの遅延時間に合わせることが無いため、よりリアルタイム性を確保しつつ、音声データの再生を行うことが可能となる。
【0046】
〔第2の実施形態〕
次に、本発明の第2の実施形態について図面を用いて詳細に説明する。本実施形態では、第1の実施形態におけるオーディオプロセッサ21の他の構成を例示する。
【0047】
図7は、本実施形態によるオーディオプロセッサ31の構成を示すブロック図である。第1の実施形態では、音声データを遅延させるためのバッファ212を、デコーダ213の前段に設けていた。これに対して本実施形態では、バッファ212がデコーダ213の後段であってD/A変換器214の前段に設けられている。このような構成により、第1の実施形態と同様に、バッファ212の遅延量を最大遅延時間と自己(オーディオプロセッサ31)の遅延時間とに基づいて制御することが可能となるため、全ての機器において再生タイミングを同期させることが可能となる。更に、本実施形態によれば、バッファ212の遅延時間自体も考慮することが可能であるため、より的確に機器間での再生タイミングを同期させることが可能となる。尚、他の構成は、上記した第1の実施形態と同様であるため、ここでは説明を省略する。
【0048】
〔他の実施形態〕
以上、説明した実施形態は本発明の好適な一実施形態にすぎず、本発明はその趣旨を逸脱しない限り種々変形して実施可能である。
【0049】
また、上記では、対象のマルチメディアデータとして音声データを例に挙げたが、本発明はこれに限定されず、映像データ等や、その他の同時性が要求されるマルチメディアデータを適用することが可能である。更に、本発明は、マルチメディアデータに限らず、他種のデータでも、同様に適用することが可能である。
【0050】
この他、上記した実施形態では、バス10にIEEE1394を適用したが、、本発明はこれに限定されず、例えばUSB(Universal Serial Bus)やBluetooth等、種々のインタフェースを適用することが可能である。
【0051】
【発明の効果】
以上説明したように、ユーザが任意に構築した場合でも、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【図面の簡単な説明】
【図1】従来の技術による映像音声再生装置とこれで再生された映像や音声を出力する表示装置及びスピーカとをIEEE1394で接続する構成を示すブロック図である。
【図2】本発明の第1の実施形態による車載LANシステム1の構成を示すブロック図である。
【図3】本発明の第1の実施形態によるオーディオプロセッサ21の構成を示すブロック図である。
【図4】本発明の第1の実施形態において機器10Aから出力された音声データのストリームを機器20a,20bで再生出力する場合の各機器の手順を示すシーケンスである。
【図5】本発明の第1の実施形態において機器(エンド)20a及び20bを用いて音声データを再生する状態から機器(エンド)20a,20b及び20cを用いて音声データを再生する状態へ移行した際の各機器の手順を示すシーケンスである。
【図6】本発明の第1の実施形態において機器(エンド)20a,20b及び20cを用いて音声データを再生する状態から機器(エンド)20a及び20bを用いて音声データを再生する状態へ移行した際の各機器の手順を示すシーケンスである。
【図7】本発明の第2の実施形態によるオーディオプロセッサ31の構成を示すブロック図である。
【符号の説明】
1 車載LANシステム
10 バス
10A、10C、10R、20a、20b、20c 機器
21、31 オーディオプロセッサ
22 アンプ
23 スピーカ
211 バスインタフェース
212 バッファ
213 デコーダ
214 D/A変換器
215 マイコン
【発明の属する技術分野】
本発明は、ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法に関する。
【0002】
【従来の技術】
近年、パーソナルコンピュータ(以下、PCと略す)等を必要とせずに電子機器同士をピア・ツー・ピアで接続できるネットワークとして、IEEE1394が開発された。IEEE1394は、高速なデータ通信が可能で且つ接続ケーブルやコネクタ形状を細く且つ小さくすることができるという利点があり、特にPC・周辺機器間や家電製品同士を接続するバスとして広く利用されることが期待されている。
【0003】
例えば以下の特許文献1には、DVD(digital Video Disk)プレーヤ等の映像音声再生装置と、これで再生された映像や音声を出力するテレビジョン(TV)等の表示装置及びスピーカとをIEEE1394で接続する構成が開示されている。この構成を図1に示す。
【0004】
図1に示すように、映像音声再生装置110は、IEEE1394で構成されたバス100を介してオーディオプロセッサ120及びデコーダ130と接続されている。オーディオプロセッサ120は、例えばDSP(Digital Signal Processor)等の演算処理装置で構成されており、バス100を介して入力されたディジタル音声データをアナログ信号に変換し、これをアンプ(増幅器)121を介してスピーカ122へ入力することで、音声を再生する。また、デコーダ130は、例えばMPEG―TS方式で圧縮された映像データを復号化し、これをモニタ131へ入力することで、映像を再生する。
【0005】
このような構成において、オーディオプロセッサ120が音声データを処理する速度と、デコーダ130が映像データを処理する速度とが等しければ、モニタ131で表示されたシーンとスピーカ122で出力された音声とのずれがなく、ユーザは快適に映像及び音声を堪能することができる。しかしながら、通常、デコーダ130における処理速度は、オーディオプロセッサ120が音声データを処理する速度よりも遅い。このため、映像と音声とにずれが生じてしまうという問題が存在する。
【0006】
このような問題に対し、特許文献1は、オーディオプロセッサ120側に音声データを遅延させる構成を設け、これにより、映像と音声との時間差を解消している。
【0007】
【特許文献1】
特開2002−344898号公報
【0008】
【発明が解決しようとする課題】
しかしながら、上記特許文献1による構成では、バス100を介して接続される構成がオーディオプロセッサ120及びデコーダ130と限定されているため、ユーザが任意に構築できる環境において個々の電子機器に固有の遅延時間の差を解消することが不可能であった。
【0009】
そこで本発明は、ユーザが任意に構築した場合でも、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能なネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
かかる目的を達成するために、本発明は、所定のバスネットワークを介して接続された複数の電子機器間でデータを送受信するネットワークシステムであって、前記バスネットワークに接続された第1の電子機器が、前記複数の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間管理手段を有し、前記バスネットワークを介して前記データを受信する第2の電子機器が、前記第1の電子機器で管理された前記最大の遅延時間に基づいて前記データの処理時間を遅延させる遅延手段を有するように構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいてデータの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0011】
また、本発明は、所定のバスネットワークを介して他の電子機器と接続される電子機器であって、前記他の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間間理手段を有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理する構成とすることで、他の電子機器がこれに基づいてデータの処理時間を制御することが可能となり、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0012】
また、本発明は、所定のバスネットワークを介して他の電子機器と接続される電子機器であって、前記他の電子機器に固有の遅延時間のうち最大の遅延時間に基づいてデータの処理時間を遅延させる遅延手段を有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものに基づいてデータの処理時間を制御できるように構成することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0013】
また、前記遅延手段は、例えばバッファを含んで構成されてもよい。遅延手段は、例えば簡素であるバッファを用いて構成することが可能である。
【0014】
また、本発明は、第1の電子機器から出力された音声データを所定のバスネットワークを介して接続された第2の電子機器で再生する音声再生システムであって、前記第2の電子機器を複数有し、前記所定のバスネットワークに接続された第3の電子機器が、前記第2の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間管理手段を有し、前記第2の電子機器が、前記第3の電子機器で管理された前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる遅延手段を有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいて音声データの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる再生タイミングのずれを解消することが可能となる。
【0015】
また、本発明は、所定のバスネットワークを介して接続された複数の電子機器間でデータを送受信するデータ送受信方法であって、前記バスネットワークに接続された第1の電子機器が、該バスネットワークを介して前記データを受信する第2の電子機器に、固有の遅延時間を問い合わせる第1のステップと、前記第1の電子機器が、問い合わせた遅延時間のうち最大の遅延時間を判定する第2のステップと、前記第1の電子機器が、前記第2の電子機器に前記最大の遅延時間を通知する第3のステップと、前記第2の電子機器が、前記最大の遅延時間に基づいて前記データの処理時間を遅延させる第4のステップとを有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいてデータの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【0016】
また、本発明は、第1の電子機器から出力された音声データを所定のバスネットワークを介して接続された第2の電子機器で再生する音声再生方法であって、前記バスネットワークに接続された第3の電子機器が、前記第2の電子機器のうち少なくとも1つに、固有の遅延時間を問い合わせる第1のステップと、前記第3の電子機器が、問い合わせた遅延時間のうち最大の遅延時間を判定する第2のステップと、前記第3の電子機器が、前記第2の電子機器に前記最大の遅延時間を通知する第3のステップと、前記第2の電子機器が、前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる第4のステップとを有して構成される。複数の電子機器における固有の遅延時間のうち、最大となるものを管理し、これに基づいて音声データの処理時間を制御することで、ユーザが任意に構築したシステムであっても、個々の電子機器に固有の遅延時間の差により生じる再生タイミングのずれを解消することが可能となる。
【0017】
また、前記音声再生方法は、例えば前記第3の電子機器が、新たに前記音声データの配信先として設定された第4の電子機器に、固有の遅延時間を問い合わせる第5のステップと、前記第3の電子機器が、前記第2のステップで判定した前記最大遅延時間と前記5のステップで問い合わせた遅延時間とを比較し、最大の遅延時間を判定する第6のステップと、前記第3の電子機器が、前記第6のステップで判定した前記最大の遅延時間を、前記第2及び第4の電子機器に通知する第7のステップと、前記第2及び第4の電子機器が、前記第7のステップで通知された前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる第8のステップとを有して構成されても良い。新たに配信先として追加された電子機器の遅延時間と、現在管理している最大の遅延時間とに基づいて、各電子機器に設定する遅延時間を見直すように構成することで、システム構成を変更した場合などでも、的確に個々の電子機器に固有の遅延時間の差により生じる再生タイミングのずれを解消することが可能となる。
【0018】
【発明の実施の形態】
以下、本発明の好適に実施した実施形態について図面を用いて詳細に説明する。
【0019】
〔第1の実施形態〕
先ず、本発明の第1の実施形態について図面を用いて詳細に説明する。尚、本実施形態では、複数の電子機器(以下、単に機器という)をIEEE1394―1995(以下、単にIEEE1394という)をピア・ツー・ピアで接続した車載LAN(ローカルエリアネットワーク)システムを例に挙げて説明する。
【0020】
車載LANシステムに組み込まれる機器としては、ナビゲーション装置やオーディオ機器(CD(Compact Disk)プレーヤ等)や映像機器(DVD(digital Video Disk)プレーヤ等)やエアーコントローラ等の一般的な電子機器を適用することが可能である。また、これらを接続するネットワーク(バスともいう:以下、バスに統一する)としては、IEEE1394を使用することが好ましい。IEEE1394は、高速なデータ通信が可能で且つ細いケーブル及び小型なコネクタを使用することが可能であるため、システム構成を物理的に小型化することが可能である。また、各機器をノードとして機能させることが可能であり、且つ電源供給を配線を介して行うことが可能であるため、特に車載LANシステム等の限られたスペース内に構築するインフラストラクチャとしては好都合である。更に、IEEE1394は、マルチメディアに適した転送方式であるアイソクロナス(Isochronous)転送に対応しているため、映像や音声等をストリーム配信可能であるというメリットもある。
【0021】
また、IEEE1394では、システム構築/変更時に、機器の何れかをアイソクロナス転送のためのリソースの管理を行うノードとして機能させる。このノードをIRM(Isochronous Resource Manager)という。本実施形態では、このIRMの機能を用いて各機器の遅延時間を管理し、これに基づいて機器間における遅延時間の差を解消することで、例えばストリーム配信したマルチメディアデータが時間的にずれて再生されることを防止する。
【0022】
図2に本実施形態による車載LANシステム1のシステム構成を示す。図2に示すように、車載LANシステム1は、複数の機器10A,10C,10R,20a,20b及び20cがIEEE1394のバス10を介して接続された構成を有する。また、機器20a,20b,20cは、オーディオプロセッサ21とアンプ(増幅器)22とスピーカ23とを有し、バス10を介して入力された音声データをスピーカを介して出力する。オーディオプロセッサ21は、ディジタルの音声データを設定されたボリュームに応じたアナログ信号に変換し、これをアンプ22へ出力する。アンプ22は入力されたアナログ信号を増幅してスピーカ23へ出力する。スピーカ23は入力されたアナログ信号を音声として出力する。更に、機器の接続時又は電源投入時のネゴシエーションにより、機器10RがIRMに設定されたものとする。
【0023】
IRMとして設定された機器10Rには、各機器の遅延時間情報が入力される。機器10Rは、入力された遅延時間情報に基づいて、最大の遅延時間を最大遅延時間情報として管理する。機器10Rで管理された最大遅延時間情報は、例えば音声データのストリーム配信時に、これの再生機器(図2では機器20a,20b,20c)へ通知される。機器20a,20b,20cは、通知された最大遅延時間情報と自己の遅延時間情報とを比較し、この差分時間を解消するように音声データを遅延させた後、これを信号処理してスピーカ23から再生する。
【0024】
ここで、機器20a,20b,20cにおけるオーディオプロセッサ21の構成を図3に示す。図3に示すように、オーディオプロセッサ21は、バス10からデータを入出力するためのバスインタフェース211と、バスインタフェース211を介して入力された音声データを復号化するデコーダ213と、デコードされた音声データをアナログ信号に変換するD/A変換器214とを有し、更に、オーディオプロセッサ21(特にデコーダ213及びD/A変換器214)の遅延時間を管理するマイクロコンピュータ(以下、マイコンという)215と、マイコン215の制御に基づいて音声データを遅延させるバッファ212とを有して構成される。尚、D/A変換器214から出力されたアナログ信号は、アンプ22でゲイン調整された後、スピーカ23から音声出力される。
【0025】
IEEE1394では、音声データがデータ量を示す情報や伝送するチャネルの情報等を含むヘッダが付加されたパケット(これをアイソクロナスパケット(Isochronous Packet)という)の状態でバス10上に出力される。このパケットを受信したバスインタフェース211は、バス10上の基準時間とパケットのヘッダに含まれる時間情報とに基づいて決定されたタイミングで、ヘッダを取り除いた音声データをデコーダ213へ入力する。
【0026】
また、デコーダ213へ入力される音声データは分岐されてマイコン215にも入力される。マイコン215には、D/A変換器214から出力されたアナログ信号も分岐されて入力される。マイコン215は、このように入力された音声データ及びアナログ信号に基づいて、デコーダ213及びD/A変換器24で要する時間(処理時間:本実施形態ではこれを遅延時間という)を計測し、これを管理する。管理された遅延時間の情報(以下、遅延時間情報という)は、音声データのストリーム配信時のシーケンスにおいてIRM(機器10R)へ通知される。また、マイコン215は、IRM(機器10R)から通知された最大遅延時間情報と管理している遅延時間情報とを比較し、これらの差分時間をバッファ212の遅延時間として設定する。
【0027】
このように、デコーダ213の前段に音声データを遅延させるためのバッファ212を設け、これの遅延量を最大遅延時間と自己(オーディオプロセッサ21)の遅延時間とに基づいて制御することで、本実施形態では、全ての機器において再生タイミングを同期させることが可能となる。
【0028】
次に、上記のような構成において、先ず、機器10Aから出力された音声データのストリームを機器20a,20bで再生出力する場合の各機器(10A,10C,10R,20a,20b)のシーケンスについて図4を用いて詳細に説明する。
【0029】
図4に示すように、機器10Aから機器20a及び20bへ音声データのストリーム配信する場合、ストリームの配信元である機器10A(以下、機器(ストリーム源)10Aという)は、次ノードとなる機器10C(以下、機器(次ノード)10Cという)へストリーム配信を要求する(A1→C1:ストリーム配信要求)。機器(次ノード)10Cは、ストリーム配信が要求されると、IRMである機器10R(以下、機器(IRM)10Rという)に音声データをストリーム配信するための帯域(リソースともいう)の確保を要求する(C2→R1:帯域確保要求)。これに対し、機器(IRM)10Rはストリーム配信のための帯域を割り当て、これを機器(次ノード)10Cへ通知する(R2→C3:帯域割当応答)。
【0030】
次に、機器(次ノード)10Cは、再生機器である機器20a及び20b(以下、機器(エンド)20a,20bという)へ、それぞれに固有の遅延時間を問い合わせる(C4→a1,C5→b1:遅延時間問合せ)。これに対し、機器(エンド)20a及び20bは、自己のマイコン215で管理されている遅延時間情報を機器(次ノード)10Cへ通知する(a2→C6,b2→C7:遅延時間応答)。
【0031】
このように各機器(エンド)20a,20bの遅延時間情報が通知されると、機器(次ノード)10Cは、これらの中で最も遅延時間が長いものを判定し(C8:最大遅延時間情報判定)、これを最大遅延時間情報として機器(IRM)10Rへ送信する(C9→R3:最大遅延時間更新要求)。これに対し、機器(IRM)10Rは、管理している最大遅延時間情報を更新し(R4:最大遅延時間情報更新)、これが完了したことを機器(次ノード)10Cへ通知する(R5→C10:最大遅延時間更新応答)。
【0032】
機器(次ノード)10Cは、最大遅延時間情報の更新が完了すると、上記で判定した(又は機器(IRM)10Rから通知された)最大遅延時間情報を機器(エンド)20a,20bへそれぞれ通知する(C11→a3,C12→b3:最大遅延時間情報通知)。機器(エンド)20a及び20bは、通知された最大遅延時間情報とマイコン215で管理している自己の遅延時間情報とに基づいて、バッファ212の遅延時間を設定する(a4,b4:遅延時間設定)。その後、機器(ストリーム源)10A−機器(エンド)20a及び20b間で回線が確立され、音声データのストリーム配信が行われる。
【0033】
以上のような手順を踏まえることで、本実施形態では、音声データを再生する機器(20a,20b)において、最大の遅延時間に合わせることが可能となり、再生時における機器間の時間的なずれを解消することが可能となる。
【0034】
また、機器(エンド)20a及び20bを用いて音声データを再生する状態(図4参照)から、機器(エンド)20a,20b及び20cを用いて音声データを再生する状態へ移行した際の各機器(10A,10C,10R,20a,20b及び20c)のシーケンスを図5を用いて説明する。
【0035】
図5に示すように、機器10Aから音声データをストリーム配信する先が変更されると、機器(ストリーム源)10Aは、機器(次ノード)10Cへ配信先の変更を要求する(A21→C21:配信先変更要求)。機器(次ノード)10Cは、配信先の変更が要求されると、機器(IRM)10Rに音声データをストリーム配信するための帯域(リソースともいう)の確保を新たに要求する(C22→R21:帯域確保要求)。これに対し、機器(IRM)10Rはストリーム配信のための帯域を割り当て、これを機器(次ノード)10Cへ通知する(R22→C23:帯域割当応答)。
【0036】
次に、機器(次ノード)10Cは、新たに追加された機器(エンド)20cへ、これに固有の遅延時間を問い合わせる(C24→c21:遅延時間問合せ)。また、機器(IRM)10Rに登録されている最大遅延時間情報を問い合わせる(C25→R23:最大遅延時間問合せ)。これに対し、機器(エンド)20cは、自己のマイコン215で管理されている遅延時間情報を機器(次ノード)10Cへ通知する(c22→C26:遅延時間応答)。また、機器(IRM)10Rは、管理している最大遅延時間情報を機器(次ノード)10Cへ通知する(R24→C27:最大遅延時間応答)。
【0037】
このように機器(エンド)20cから遅延時間情報が、また機器(IRM)10Rから最大遅延時間情報が通知されると、機器(次ノード)10Cは、何れの遅延時間が長いかを判定し(C28:最大遅延時間情報判定)、長い方を最大遅延時間情報として機器(IRM)10Rへ送信する(C29→R25:最大遅延時間更新要求)。これに対し、機器(IRM)10Rは、管理している最大遅延時間情報を更新し(R26:最大遅延時間情報更新)、これが完了したことを機器(次ノード)10Cへ通知する(R27→C30:最大遅延時間更新応答)。
【0038】
機器(次ノード)10Cは、最大遅延時間情報の更新が完了すると、上記で判定した(又は機器(IRM)10Rから通知された)最大遅延時間情報を機器(エンド)20a,20b及び20cへそれぞれ通知する(C31→a21,C32→b21,C33→c23:最大遅延時間情報通知)。機器(エンド)20a,20b及び20cは、通知された最大遅延時間情報とマイコン215で管理している自己の遅延時間情報とに基づいて、バッファ212の遅延時間を設定する(a22,b22,c24:遅延時間設定)。その後、機器(ストリーム源)10A−機器(エンド)20a,20b及び20c間で回線が確立され、音声データのストリーム配信が行われる。
【0039】
以上のような手順を踏まえることで、本実施形態では、新たに配信先の機器(20c)が追加された場合でも、これらの間で最大の遅延時間に合わせることが可能となり、再生時における機器間の時間的なずれを解消することが可能となる。
【0040】
また、機器(エンド)20a,20b及び20cを用いて音声データを再生する状態(図4参照)から、機器(エンド)20a及び20bを用いて音声データを再生する状態へ移行した際の各機器(10A,10C,10R,20a及び20b)のシーケンスを図6を用いて説明する。
【0041】
図6に示すように、機器10Aから音声データをストリーム配信する先が変更されると、機器(ストリーム源)10Aは、機器(次ノード)10Cへ配信先の変更を要求する(A51→C51:配信先変更要求)。機器(次ノード)10Cは、配信先の変更が要求されると、機器(IRM)10Rに音声データをストリーム配信するための帯域(リソースともいう)の確保を新たに要求する(C52→R51:帯域確保要求)。これに対し、機器(IRM)10Rはストリーム配信のための帯域を割り当て、これを機器(次ノード)10Cへ通知する(R52→C53:帯域割当応答)。
【0042】
次に、機器(次ノード)10Cは、機器(エンド)20a,20bへ、それぞれに固有の遅延時間を問い合わせる(C54→a51,C55→b51:遅延時間問合せ)。これに対し、機器(エンド)20a及び20bは、自己のマイコン215で管理されている遅延時間情報を機器(次ノード)10Cへ通知する(a52→C56,b52→C57:遅延時間応答)。
【0043】
このように各機器(エンド)20a,20bの遅延時間情報が通知されると、機器(次ノード)10Cは、これらの中で最も遅延時間が長いものを判定し(C58:最大遅延時間情報判定)、これを最大遅延時間情報として機器(IRM)10Rへ送信する(C59→R53:最大遅延時間更新要求)。これに対し、機器(IRM)10Rは、管理している最大遅延時間情報を更新し(R54:最大遅延時間情報更新)、これが完了したことを機器(次ノード)10Cへ通知する(R55→C60:最大遅延時間更新応答)。
【0044】
機器(次ノード)10Cは、最大遅延時間情報の更新が完了すると、上記で判定した(又は機器(IRM)10Rから通知された)最大遅延時間情報を機器(エンド)20a,20bへそれぞれ通知する(C61→a53,C62→b53:最大遅延時間情報通知)。機器(エンド)20a及び20bは、通知された最大遅延時間情報とマイコン215で管理している自己の遅延時間情報とに基づいて、バッファ212の遅延時間を設定する(a54,b54:遅延時間設定)。その後、機器(ストリーム源)10A−機器(エンド)20a及び20b間で回線が確立され、音声データのストリーム配信が行われる。
【0045】
以上のような手順を踏まえることで、本実施形態では、配信先の機器(20c)が減少した場合でも、これらの間で最大の遅延時間に合わせることが可能となり、再生時における機器間の時間的なずれを解消することが可能となる。特に、最も遅延時間の大きい機器が配信先から外された場合では、これの遅延時間に合わせることが無いため、よりリアルタイム性を確保しつつ、音声データの再生を行うことが可能となる。
【0046】
〔第2の実施形態〕
次に、本発明の第2の実施形態について図面を用いて詳細に説明する。本実施形態では、第1の実施形態におけるオーディオプロセッサ21の他の構成を例示する。
【0047】
図7は、本実施形態によるオーディオプロセッサ31の構成を示すブロック図である。第1の実施形態では、音声データを遅延させるためのバッファ212を、デコーダ213の前段に設けていた。これに対して本実施形態では、バッファ212がデコーダ213の後段であってD/A変換器214の前段に設けられている。このような構成により、第1の実施形態と同様に、バッファ212の遅延量を最大遅延時間と自己(オーディオプロセッサ31)の遅延時間とに基づいて制御することが可能となるため、全ての機器において再生タイミングを同期させることが可能となる。更に、本実施形態によれば、バッファ212の遅延時間自体も考慮することが可能であるため、より的確に機器間での再生タイミングを同期させることが可能となる。尚、他の構成は、上記した第1の実施形態と同様であるため、ここでは説明を省略する。
【0048】
〔他の実施形態〕
以上、説明した実施形態は本発明の好適な一実施形態にすぎず、本発明はその趣旨を逸脱しない限り種々変形して実施可能である。
【0049】
また、上記では、対象のマルチメディアデータとして音声データを例に挙げたが、本発明はこれに限定されず、映像データ等や、その他の同時性が要求されるマルチメディアデータを適用することが可能である。更に、本発明は、マルチメディアデータに限らず、他種のデータでも、同様に適用することが可能である。
【0050】
この他、上記した実施形態では、バス10にIEEE1394を適用したが、、本発明はこれに限定されず、例えばUSB(Universal Serial Bus)やBluetooth等、種々のインタフェースを適用することが可能である。
【0051】
【発明の効果】
以上説明したように、ユーザが任意に構築した場合でも、個々の電子機器に固有の遅延時間の差により生じる音声や映像等のずれを解消することが可能となる。
【図面の簡単な説明】
【図1】従来の技術による映像音声再生装置とこれで再生された映像や音声を出力する表示装置及びスピーカとをIEEE1394で接続する構成を示すブロック図である。
【図2】本発明の第1の実施形態による車載LANシステム1の構成を示すブロック図である。
【図3】本発明の第1の実施形態によるオーディオプロセッサ21の構成を示すブロック図である。
【図4】本発明の第1の実施形態において機器10Aから出力された音声データのストリームを機器20a,20bで再生出力する場合の各機器の手順を示すシーケンスである。
【図5】本発明の第1の実施形態において機器(エンド)20a及び20bを用いて音声データを再生する状態から機器(エンド)20a,20b及び20cを用いて音声データを再生する状態へ移行した際の各機器の手順を示すシーケンスである。
【図6】本発明の第1の実施形態において機器(エンド)20a,20b及び20cを用いて音声データを再生する状態から機器(エンド)20a及び20bを用いて音声データを再生する状態へ移行した際の各機器の手順を示すシーケンスである。
【図7】本発明の第2の実施形態によるオーディオプロセッサ31の構成を示すブロック図である。
【符号の説明】
1 車載LANシステム
10 バス
10A、10C、10R、20a、20b、20c 機器
21、31 オーディオプロセッサ
22 アンプ
23 スピーカ
211 バスインタフェース
212 バッファ
213 デコーダ
214 D/A変換器
215 マイコン
Claims (8)
- 所定のバスネットワークを介して接続された複数の電子機器間でデータを送受信するネットワークシステムであって、
前記バスネットワークに接続された第1の電子機器は、前記複数の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間管理手段を有し、
前記バスネットワークを介して前記データを受信する第2の電子機器は、前記第1の電子機器で管理された前記最大の遅延時間に基づいて前記データの処理時間を遅延させる遅延手段を有することを特徴とするネットワークシステム。 - 所定のバスネットワークを介して他の電子機器と接続される電子機器であって、
前記他の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間間理手段を有することを特徴とする電子機器。 - 所定のバスネットワークを介して他の電子機器と接続される電子機器であって、
前記他の電子機器に固有の遅延時間のうち最大の遅延時間に基づいてデータの処理時間を遅延させる遅延手段を有することを特徴とする電子機器。 - 前記遅延手段は、バッファを含んで構成されていることを特徴とする請求項3記載の電子機器。
- 第1の電子機器から出力された音声データを所定のバスネットワークを介して接続された第2の電子機器で再生する音声再生システムであって、
前記第2の電子機器を複数有し、
前記所定のバスネットワークに接続された第3の電子機器は、前記第2の電子機器に固有の遅延時間のうち最大の遅延時間を管理する最大遅延時間管理手段を有し、
前記第2の電子機器は、前記第3の電子機器で管理された前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる遅延手段を有することを特徴とする音声再生システム。 - 所定のバスネットワークを介して接続された複数の電子機器間でデータを送受信するデータ送受信方法であって、
前記バスネットワークに接続された第1の電子機器が、該バスネットワークを介して前記データを受信する第2の電子機器に、固有の遅延時間を問い合わせる第1のステップと、
前記第1の電子機器が、問い合わせた遅延時間のうち最大の遅延時間を判定する第2のステップと、
前記第1の電子機器が、前記第2の電子機器に前記最大の遅延時間を通知する第3のステップと、
前記第2の電子機器が、前記最大の遅延時間に基づいて前記データの処理時間を遅延させる第4のステップと
を有することを特徴とするデータ送受信方法。 - 第1の電子機器から出力された音声データを所定のバスネットワークを介して接続された第2の電子機器で再生する音声再生方法であって、
前記バスネットワークに接続された第3の電子機器が、前記第2の電子機器のうち少なくとも1つに、固有の遅延時間を問い合わせる第1のステップと、
前記第3の電子機器が、問い合わせた遅延時間のうち最大の遅延時間を判定する第2のステップと、
前記第3の電子機器が、前記第2の電子機器に前記最大の遅延時間を通知する第3のステップと、
前記第2の電子機器が、前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる第4のステップと
を有することを特徴とする音声再生方法。 - 請求項7記載の前記音声再生方法であって、
前記第3の電子機器が、新たに前記音声データの配信先として設定された第4の電子機器に、固有の遅延時間を問い合わせる第5のステップと、
前記第3の電子機器が、前記第2のステップで判定した前記最大遅延時間と前記5のステップで問い合わせた遅延時間とを比較し、最大の遅延時間を判定する第6のステップと、
前記第3の電子機器が、前記第6のステップで判定した前記最大の遅延時間を、前記第2及び第4の電子機器に通知する第7のステップと、
前記第2及び第4の電子機器が、前記第7のステップで通知された前記最大の遅延時間に基づいて前記音声データの処理時間を遅延させる第8のステップと
を有することを特徴とする音声再生方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003167570A JP2005006069A (ja) | 2003-06-12 | 2003-06-12 | ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003167570A JP2005006069A (ja) | 2003-06-12 | 2003-06-12 | ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005006069A true JP2005006069A (ja) | 2005-01-06 |
Family
ID=34093341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003167570A Withdrawn JP2005006069A (ja) | 2003-06-12 | 2003-06-12 | ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005006069A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2005053089A1 (ja) * | 2003-11-26 | 2007-06-21 | シャープ株式会社 | 携帯無線機 |
JP2008092546A (ja) * | 2006-09-07 | 2008-04-17 | Canon Inc | 通信システム |
JPWO2019049245A1 (ja) * | 2017-09-06 | 2019-12-12 | ヤマハ株式会社 | オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法 |
CN113824521A (zh) * | 2021-08-30 | 2021-12-21 | 中车南京浦镇车辆有限公司 | 一种地铁车辆广播音频同步方法 |
-
2003
- 2003-06-12 JP JP2003167570A patent/JP2005006069A/ja not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2005053089A1 (ja) * | 2003-11-26 | 2007-06-21 | シャープ株式会社 | 携帯無線機 |
JP2008092546A (ja) * | 2006-09-07 | 2008-04-17 | Canon Inc | 通信システム |
US8718537B2 (en) | 2006-09-07 | 2014-05-06 | Canon Kabushiki Kaisha | Communication system |
JPWO2019049245A1 (ja) * | 2017-09-06 | 2019-12-12 | ヤマハ株式会社 | オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法 |
JP7024794B2 (ja) | 2017-09-06 | 2022-02-24 | ヤマハ株式会社 | オーディオシステム、オーディオ機器、及びオーディオ機器の制御方法 |
CN113824521A (zh) * | 2021-08-30 | 2021-12-21 | 中车南京浦镇车辆有限公司 | 一种地铁车辆广播音频同步方法 |
CN113824521B (zh) * | 2021-08-30 | 2024-02-13 | 南京轨道交通产业发展有限公司 | 一种地铁车辆广播音频同步方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6934300B2 (en) | Initialization method for an entertainment and communications network | |
US7720985B2 (en) | Content receiving apparatus and content receiving method | |
JP3719180B2 (ja) | 通信方法、通信システム及び出力機器 | |
EP1455531A2 (en) | Information apparatus and resource control method | |
JP2003520006A (ja) | 相互接続装置のための待ち時間処理 | |
US8683532B2 (en) | Space-shifting media streaming system | |
US20030097497A1 (en) | Data format recognition for networks providing device interoperability | |
KR100882522B1 (ko) | 전자기기 시스템, 제어기기 및 제어방법 | |
JP2000358032A (ja) | 情報処理装置及び情報処理方法 | |
JP2001237860A (ja) | 通信制御方法及び通信制御装置 | |
JP2005006069A (ja) | ネットワークシステム、その電子機器、音声再生システム、データ送受信方法及び音声再生方法 | |
JP2002044532A (ja) | 信号出力装置および信号出力方法 | |
JP4095427B2 (ja) | データ通信装置 | |
US20080167738A1 (en) | Media connect device, and system using the same | |
JP2001257707A (ja) | マルチ再生システム、サーバ装置、端末装置 | |
US10768845B2 (en) | Storage device and data output method for storage device | |
JPH1127299A (ja) | 電子機器及びそのプロトコル切換方法 | |
JP6677343B2 (ja) | 操作装置、コマンド処理装置、及びコンテンツ再生システム | |
EP1942409B1 (en) | Media connect device, and system using the same | |
JP2008271393A (ja) | データ記録転送装置、データ記録転送方法及びデータ記録転送プログラム | |
KR20010007376A (ko) | 제어장치, 통신시스템 및 제어방법 | |
KR100763716B1 (ko) | 정보 제어 방법, 정보 처리 장치, 및 정보 제어 시스템 | |
JP4609693B2 (ja) | 送信装置、データ送信方法及びデータ送信プログラム | |
JP2001237660A (ja) | イコライザ制御装置、通信システム | |
Wetzel et al. | Consumer Applications of the IEEE 1394 Serial Bus, and a 1394/DV Video Editing System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060905 |