JPH0535666A - バツフアリング方式 - Google Patents
バツフアリング方式Info
- Publication number
- JPH0535666A JPH0535666A JP18896691A JP18896691A JPH0535666A JP H0535666 A JPH0535666 A JP H0535666A JP 18896691 A JP18896691 A JP 18896691A JP 18896691 A JP18896691 A JP 18896691A JP H0535666 A JPH0535666 A JP H0535666A
- Authority
- JP
- Japan
- Prior art keywords
- data
- storage device
- block
- board
- blocks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Transfer Systems (AREA)
Abstract
(57)【要約】
【目的】 本発明の目的はデータ転送時のフロー制御の
回数を減じることにより、ブロック転送効率の向上を図
ったバッファリング方式を提供することである。 【構成】 本発明のデータ転送におけるバッファリング
方式は、データ受信源側にアクセス速度及び記憶容量が
異なる2つの記憶装置のうち第1の記憶装置はアクセス
速度が第2の記憶装置よりも速く、第2の記憶装置は記
憶容量が第1の記憶装置よりも大きい記憶装置を備える
(S1)ことを特徴とし、データ発生源から受信(S
2)した一連のブロックを通常は第1の記憶装置に蓄積
しながら(S4)、データ受信源に転送し(S6)、第
1の記憶装置の未処理ブロック数が所与の一定値を越え
ると(S3)、第2の記憶装置に蓄積しながら(S
5)、データ受信源に転送する(S6)。
回数を減じることにより、ブロック転送効率の向上を図
ったバッファリング方式を提供することである。 【構成】 本発明のデータ転送におけるバッファリング
方式は、データ受信源側にアクセス速度及び記憶容量が
異なる2つの記憶装置のうち第1の記憶装置はアクセス
速度が第2の記憶装置よりも速く、第2の記憶装置は記
憶容量が第1の記憶装置よりも大きい記憶装置を備える
(S1)ことを特徴とし、データ発生源から受信(S
2)した一連のブロックを通常は第1の記憶装置に蓄積
しながら(S4)、データ受信源に転送し(S6)、第
1の記憶装置の未処理ブロック数が所与の一定値を越え
ると(S3)、第2の記憶装置に蓄積しながら(S
5)、データ受信源に転送する(S6)。
Description
【0001】
【産業上の利用分野】本発明はバッファリング方式に係
り、特に、データブロック転送におけるバッファリング
方式に関する。
り、特に、データブロック転送におけるバッファリング
方式に関する。
【0002】
【従来の技術】従来のデータブロック転送におけるバッ
ファリング方式は、1つの記憶装置(例えば、半導体メ
モリ)をバッファとして使用し、データ発生源から受信
したブロックを一旦、この記憶装置に蓄積しながらデー
タ受信源に転送する。データ受信源の処理負荷に変動が
あるような状況時、例えば、処理負荷が高くなると、ブ
ロックの受信処理が間に合わなくなり、未処理のブロッ
クが記憶装置に滞留し初める。このような状況が長く続
くと、未処理ブロックが大量に記憶装置に蓄積され、転
送データのブロックのオーバーランが発生する可能性が
生じる。
ファリング方式は、1つの記憶装置(例えば、半導体メ
モリ)をバッファとして使用し、データ発生源から受信
したブロックを一旦、この記憶装置に蓄積しながらデー
タ受信源に転送する。データ受信源の処理負荷に変動が
あるような状況時、例えば、処理負荷が高くなると、ブ
ロックの受信処理が間に合わなくなり、未処理のブロッ
クが記憶装置に滞留し初める。このような状況が長く続
くと、未処理ブロックが大量に記憶装置に蓄積され、転
送データのブロックのオーバーランが発生する可能性が
生じる。
【0003】従来のバッファリング方式の一例として、
可変レート符号化された単位時間当たりのデータ量が変
動するように符号化された可変レート符号化映像データ
のようなデータの量が所与の一定値になる毎に、データ
量情報を付与してブロックを構成し、記憶装置に蓄積さ
れたこれらの一連の再生データのブロックを通信回線を
介して再生する場合について説明する。この場合、デー
タの再生時にアンダーランが生じないように、可変符号
化されたデータを最大レートで常にブロックを転送する
必要がある。しかも、データの蓄積側であるデータ発生
源では、再生データのデータ量の変動を知ることは難し
いので、データ量の変動に関わらず、常に最大レートで
ブロックを転送することになる。
可変レート符号化された単位時間当たりのデータ量が変
動するように符号化された可変レート符号化映像データ
のようなデータの量が所与の一定値になる毎に、データ
量情報を付与してブロックを構成し、記憶装置に蓄積さ
れたこれらの一連の再生データのブロックを通信回線を
介して再生する場合について説明する。この場合、デー
タの再生時にアンダーランが生じないように、可変符号
化されたデータを最大レートで常にブロックを転送する
必要がある。しかも、データの蓄積側であるデータ発生
源では、再生データのデータ量の変動を知ることは難し
いので、データ量の変動に関わらず、常に最大レートで
ブロックを転送することになる。
【0004】従って、再生データのデータ量の実レート
が小さい時は、未再生のブロックが大量に再生データの
再生側であるデータ受信源の記憶装置に蓄積されること
になり、ブロックのオーバーランが発生する可能性があ
る。ブロック受信時にオーバーランが発生しないように
するために、従来はウィンドウフロー制御(特願平1−
250715:石橋、松下、阪本、丸山)や、未処理ブ
ロック数(待ち行列長)に基づくフロー制御を行うよう
なことが行われていた。
が小さい時は、未再生のブロックが大量に再生データの
再生側であるデータ受信源の記憶装置に蓄積されること
になり、ブロックのオーバーランが発生する可能性があ
る。ブロック受信時にオーバーランが発生しないように
するために、従来はウィンドウフロー制御(特願平1−
250715:石橋、松下、阪本、丸山)や、未処理ブ
ロック数(待ち行列長)に基づくフロー制御を行うよう
なことが行われていた。
【0005】待ち行列長に基づくフロー制御を行う場合
を例に取ると、待ち行列長が所与の一定値Xを越えると
データ発生源にブロックの送出を行わないようにフロー
規制の設定を行い、一定値Y(Y<X)を下回るとフロ
ー規制の解除を行う。データ発生源はフロー規制の設定
を受けると、解除されるまでブロックの送出を一旦停止
することが行われている。
を例に取ると、待ち行列長が所与の一定値Xを越えると
データ発生源にブロックの送出を行わないようにフロー
規制の設定を行い、一定値Y(Y<X)を下回るとフロ
ー規制の解除を行う。データ発生源はフロー規制の設定
を受けると、解除されるまでブロックの送出を一旦停止
することが行われている。
【0006】
【発明が解決しようとする課題】しかるに、従来のバッ
ファリング方式では、データ受信源の処理負荷の変動を
考慮せずにブロック転送を行い、処理負荷の変動があっ
た場合は、フロー制御によりデータ発生源からのブロッ
ク転送を停止させたり、再開させたりすることによって
処理負荷の変動に対応していたので、処理負荷の変動の
大きさによっては、頻繁にフロー制御が起こるという問
題がある。フロー制御が頻繁に起こるとフロー制御のた
めに制御情報の転送を行う必要があるだけでなく、デー
タの送出が一時的に停止するので、結果として転送効率
の低下をもたらし、データ発生源での資源の保留時間が
長くなるという問題がある。
ファリング方式では、データ受信源の処理負荷の変動を
考慮せずにブロック転送を行い、処理負荷の変動があっ
た場合は、フロー制御によりデータ発生源からのブロッ
ク転送を停止させたり、再開させたりすることによって
処理負荷の変動に対応していたので、処理負荷の変動の
大きさによっては、頻繁にフロー制御が起こるという問
題がある。フロー制御が頻繁に起こるとフロー制御のた
めに制御情報の転送を行う必要があるだけでなく、デー
タの送出が一時的に停止するので、結果として転送効率
の低下をもたらし、データ発生源での資源の保留時間が
長くなるという問題がある。
【0007】本発明は上記の点に鑑みさなされたもの
で、フロー制御の回数を減じることにより、ブロック転
送効率の向上を図り、データ発生源側での資源の保留時
間を減じることができるバッファリング方式を提供する
ことである。
で、フロー制御の回数を減じることにより、ブロック転
送効率の向上を図り、データ発生源側での資源の保留時
間を減じることができるバッファリング方式を提供する
ことである。
【0008】
【課題を解決するための手段】図1は本発明の原理説明
図である。データを複数のブロックに分割してデータ発
生源からデータ受信源に転送する際のバッファリング方
式において、アクセス速度及び、記憶容量の異なる第1
の記憶装置と、第2の記憶装置とを備え、第1の記憶装
置のアクセス速度が前記第2の記憶装置よりも速く、前
記第2の記憶装置の記憶容量が前記第1の記憶装置より
も大きくなるように設定し、データ発生源から受信した
ブロックを、通常時は第1の記憶装置に蓄積しながらデ
ータ受信源に転送し、第1の記憶装置の転送されていな
い未処理ブロックが所定値を越えた時は、第2の記憶装
置にブロックを蓄積しながらデータ受信源に転送し、第
1の記憶装置の前記未処理ブロックが所定値より下回る
毎に第2の記憶装置から未処理ブロックを取り出し、第
1の記憶装置に蓄積する。
図である。データを複数のブロックに分割してデータ発
生源からデータ受信源に転送する際のバッファリング方
式において、アクセス速度及び、記憶容量の異なる第1
の記憶装置と、第2の記憶装置とを備え、第1の記憶装
置のアクセス速度が前記第2の記憶装置よりも速く、前
記第2の記憶装置の記憶容量が前記第1の記憶装置より
も大きくなるように設定し、データ発生源から受信した
ブロックを、通常時は第1の記憶装置に蓄積しながらデ
ータ受信源に転送し、第1の記憶装置の転送されていな
い未処理ブロックが所定値を越えた時は、第2の記憶装
置にブロックを蓄積しながらデータ受信源に転送し、第
1の記憶装置の前記未処理ブロックが所定値より下回る
毎に第2の記憶装置から未処理ブロックを取り出し、第
1の記憶装置に蓄積する。
【0009】
【作用】本発明のデータ転送におけるバッファリング方
式はデータ受信源側にアクセス速度及び、記憶容量が異
なる2つの記憶装置を設け、これらの2つの記憶装置の
うち、第1の記憶装置のアクセス速度が第2の記憶装置
よりも速く、また、第2の記憶装置が第1の記憶装置の
容量よりも大きいことを特徴とし、データ発生源から受
信した一連のブロックを、通常時は第1の記憶装置に蓄
積しながら、データ受信源に転送し、第1の記憶装置の
未処理ブロック数が所与の一定値を越えると、第2の記
憶装置に蓄積しながらデータ受信源に転送することを特
徴としている。また、第2の記憶装置に蓄積されたブロ
ックのデータ受信源への転送は、第1の記憶装置の未処
理ブロック数が所与の一定値を下回る毎に、第2の記憶
装置から第1の記憶装置にブロックを取り出してから転
送する。さらに、第2の記憶装置に蓄積されたブロック
がなくなり、第1の記憶装置の未処理ブロック数が所与
の一定値を下回ると、データ発生源から受信したブロッ
クは再度第1の記憶装置を使用してデータ受信源に転送
されるようにする。
式はデータ受信源側にアクセス速度及び、記憶容量が異
なる2つの記憶装置を設け、これらの2つの記憶装置の
うち、第1の記憶装置のアクセス速度が第2の記憶装置
よりも速く、また、第2の記憶装置が第1の記憶装置の
容量よりも大きいことを特徴とし、データ発生源から受
信した一連のブロックを、通常時は第1の記憶装置に蓄
積しながら、データ受信源に転送し、第1の記憶装置の
未処理ブロック数が所与の一定値を越えると、第2の記
憶装置に蓄積しながらデータ受信源に転送することを特
徴としている。また、第2の記憶装置に蓄積されたブロ
ックのデータ受信源への転送は、第1の記憶装置の未処
理ブロック数が所与の一定値を下回る毎に、第2の記憶
装置から第1の記憶装置にブロックを取り出してから転
送する。さらに、第2の記憶装置に蓄積されたブロック
がなくなり、第1の記憶装置の未処理ブロック数が所与
の一定値を下回ると、データ発生源から受信したブロッ
クは再度第1の記憶装置を使用してデータ受信源に転送
されるようにする。
【0010】これにより、第1の記憶装置の未処理待ち
行列長が所与の一定値を越えると、ブロックのオーバー
フローを防ぐために、データ発生源に対してフロー制御
を行うのではなく、記憶容量の大きい第2の記憶装置に
格納するので、フロー制御の発生頻度が少なくなる。
行列長が所与の一定値を越えると、ブロックのオーバー
フローを防ぐために、データ発生源に対してフロー制御
を行うのではなく、記憶容量の大きい第2の記憶装置に
格納するので、フロー制御の発生頻度が少なくなる。
【0011】
【実施例】図2は本発明の一実施例のハードウェアの構
成を示す。本実施例のハードウェアの構成は、CPUボ
ード11、データ発生源インタフェースボード12、第
1の記憶装置である共有RAMボード13、第2の記憶
装置であるディスク装置14、ディスク制御ボード1
5、データ受信源16、各ボードを接続するシステムパ
ス17よりなる。
成を示す。本実施例のハードウェアの構成は、CPUボ
ード11、データ発生源インタフェースボード12、第
1の記憶装置である共有RAMボード13、第2の記憶
装置であるディスク装置14、ディスク制御ボード1
5、データ受信源16、各ボードを接続するシステムパ
ス17よりなる。
【0012】CPUボード11はデータ発生源インタフ
ェースボード12を介してデータ発生源から受信したブ
ロックの格納先を制御するとともに、データ受信源16
にデータを供給する。データ発生源インタフェースボー
ド12はデータ発生源からブロックを受信する。共有R
AMボード13はデータ発生源インタフェースボード1
2から受信したブロックを格納したり、ディスク装置1
4から読み出したブロックを格納したりするために用い
る。ディスク制御ボード15は、CPUボード11から
の指示に基づき、ディスク装置14へのブロックの書込
みと読み出しを行う。
ェースボード12を介してデータ発生源から受信したブ
ロックの格納先を制御するとともに、データ受信源16
にデータを供給する。データ発生源インタフェースボー
ド12はデータ発生源からブロックを受信する。共有R
AMボード13はデータ発生源インタフェースボード1
2から受信したブロックを格納したり、ディスク装置1
4から読み出したブロックを格納したりするために用い
る。ディスク制御ボード15は、CPUボード11から
の指示に基づき、ディスク装置14へのブロックの書込
みと読み出しを行う。
【0013】図3は本発明の一実施例のブロック受信処
理を示すフローチャートである。 (ステップ31)データ発生源インタフェースボード1
2からブロックの受信を待つ。 (ステップ32)CPUボード11は処理待ち行列の管
理を行い、待ち行列長が所与の一定値X以下の場合には
ステップ33以降の処理を行う。一方、所与の一定値X
を越えた場合にはステップ36に移行する。 (ステップ33)受信された受信ブロックは通常は、共
用RAMボード13に受信ブロックが格納される。 (ステップ34)処理待ち行列のカウントをインクリメ
ントする。 (ステップ35)CPUボード11は共有RAMボード
13上にブロックの処理待ち行列を構成しておき、受信
ブロックをこの処理待ち行列につなぎ込み、次のデータ
ブロックを受信するステップ31に戻る。 (ステップ36) ディスク制御ボード15は書込みを
指定されたブロックを連続的にブロックを蓄積する制御
を行う。まず、ディスク装置14にブロックを蓄積する
ためにデータ発生源インタフェースボード12、共有R
AMボード13、または、ディスク制御ボード15等の
いずれかのボードに蓄積待ち行列が構成される。 (ステップ37)CPUボード11はこの待ち行列の先
頭から1ブロックづつ、または、複数のブロックを同時
に取り出す。 (ステップ38)ディスク制御ボードを介してディスク
装置14に書込みを行い、蓄積し、ステップ31に移行
する。
理を示すフローチャートである。 (ステップ31)データ発生源インタフェースボード1
2からブロックの受信を待つ。 (ステップ32)CPUボード11は処理待ち行列の管
理を行い、待ち行列長が所与の一定値X以下の場合には
ステップ33以降の処理を行う。一方、所与の一定値X
を越えた場合にはステップ36に移行する。 (ステップ33)受信された受信ブロックは通常は、共
用RAMボード13に受信ブロックが格納される。 (ステップ34)処理待ち行列のカウントをインクリメ
ントする。 (ステップ35)CPUボード11は共有RAMボード
13上にブロックの処理待ち行列を構成しておき、受信
ブロックをこの処理待ち行列につなぎ込み、次のデータ
ブロックを受信するステップ31に戻る。 (ステップ36) ディスク制御ボード15は書込みを
指定されたブロックを連続的にブロックを蓄積する制御
を行う。まず、ディスク装置14にブロックを蓄積する
ためにデータ発生源インタフェースボード12、共有R
AMボード13、または、ディスク制御ボード15等の
いずれかのボードに蓄積待ち行列が構成される。 (ステップ37)CPUボード11はこの待ち行列の先
頭から1ブロックづつ、または、複数のブロックを同時
に取り出す。 (ステップ38)ディスク制御ボードを介してディスク
装置14に書込みを行い、蓄積し、ステップ31に移行
する。
【0014】図4は本発明の一実施例データブロックの
取り出し処理を示すフローチャートである。 (ステップ41)処理待ち行列が0以上になるのを待
つ。 (ステップ42)CPUボード11はこの待ち行列の先
頭から順番にブロックを取り出す。 (ステップ43)CPUボード11はステップ42で取
り出したブロックをデータ受信源16にデータを供給す
る。 (ステップ44)処理待ち行列のカウントをデクリメン
トする。 (ステップ45)処理待ち行列のカウント≧所与の一定
値Yの場合にはステップ42に移行する。処理待ち行列
のカウント<所与の一定値Yの場合には、ディスク装置
14に蓄積されたブロックについての処理を行う。 (ステップ46)ディスク装置14に蓄積されているデ
ータブロックを所定値分共有RAMボード13上に格納
する。 (ステップ47)共有RAMボード13の処理待ち行列
にデータブロックをつなぎ込み、ステップ41に移行す
る。
取り出し処理を示すフローチャートである。 (ステップ41)処理待ち行列が0以上になるのを待
つ。 (ステップ42)CPUボード11はこの待ち行列の先
頭から順番にブロックを取り出す。 (ステップ43)CPUボード11はステップ42で取
り出したブロックをデータ受信源16にデータを供給す
る。 (ステップ44)処理待ち行列のカウントをデクリメン
トする。 (ステップ45)処理待ち行列のカウント≧所与の一定
値Yの場合にはステップ42に移行する。処理待ち行列
のカウント<所与の一定値Yの場合には、ディスク装置
14に蓄積されたブロックについての処理を行う。 (ステップ46)ディスク装置14に蓄積されているデ
ータブロックを所定値分共有RAMボード13上に格納
する。 (ステップ47)共有RAMボード13の処理待ち行列
にデータブロックをつなぎ込み、ステップ41に移行す
る。
【0015】図5は本発明の一実施例の適応例を示す。
同図は可変レート符号化された第1のデータ量と、固定
レート符号化された第2のデータ量の加算値が所与の一
定値になる毎にデータ量情報を付与してブロックを構成
し、記憶装置に蓄積されたこれらの一連のブロックを通
信回線を介して再生する場合のハードウェアの構成を示
すものである。また、図6は本発明の一実施例の記憶装
置上のブロックフォーマットを示す図である。
同図は可変レート符号化された第1のデータ量と、固定
レート符号化された第2のデータ量の加算値が所与の一
定値になる毎にデータ量情報を付与してブロックを構成
し、記憶装置に蓄積されたこれらの一連のブロックを通
信回線を介して再生する場合のハードウェアの構成を示
すものである。また、図6は本発明の一実施例の記憶装
置上のブロックフォーマットを示す図である。
【0016】本実施例は一適用例として、可変レート符
号化された第1のデータ量と固定レート符号化された第
2のデータ量の加算値が所与の一定値になる毎に、図5
に示すようにデータ量情報を付与してブロックを構成
し、記憶装置に蓄積されたこれら一連のブロックを通信
回線を介して再生する場合について示す。
号化された第1のデータ量と固定レート符号化された第
2のデータ量の加算値が所与の一定値になる毎に、図5
に示すようにデータ量情報を付与してブロックを構成
し、記憶装置に蓄積されたこれら一連のブロックを通信
回線を介して再生する場合について示す。
【0017】このような蓄積方法は一定容量の記憶装置
に蓄積できる情報量を向上させるという目的から採用さ
れている。図5の構成はCPUボード21、回線インタ
フェースボード、第1の記憶装置である共有のRAMボ
ード23、第2の記憶装置であるディスク装置24、デ
ィスク制御ボード25、映像出力ボード26、音声出力
ボード27、各ボードを接続するシステムバス28より
なる。なお、ここでは、説明の簡単のため、第1のデー
タを映像データ、第2のデータを音声データとして説明
する。
に蓄積できる情報量を向上させるという目的から採用さ
れている。図5の構成はCPUボード21、回線インタ
フェースボード、第1の記憶装置である共有のRAMボ
ード23、第2の記憶装置であるディスク装置24、デ
ィスク制御ボード25、映像出力ボード26、音声出力
ボード27、各ボードを接続するシステムバス28より
なる。なお、ここでは、説明の簡単のため、第1のデー
タを映像データ、第2のデータを音声データとして説明
する。
【0018】図6の記憶装置内のブロックフォーマット
は音声データ量と映像データ量情報を示すヘッダ31、
音声データ部32、映像データ部33、残余部34より
構成される。このうち、残余部34は一連のブロックの
最後のブロックにおいて、そのブロック長を所与の一定
値にするために設けられている。
は音声データ量と映像データ量情報を示すヘッダ31、
音声データ部32、映像データ部33、残余部34より
構成される。このうち、残余部34は一連のブロックの
最後のブロックにおいて、そのブロック長を所与の一定
値にするために設けられている。
【0019】CPUボード21は回線インタフェースボ
ード22を介して通信回線から受信したブロックの蓄積
先を制御すると共に、ブロックのヘッダ31のデータ情
報量31を基に、映像データ部33と音声データ部32
にブロックを分割して、システムパス28を介して、そ
れぞれ映像出力ボード26及び、音声出力ボード27に
データを供給する。回線インタフェースボード22は通
信回線を介して通信プロトコル処理を行い、マルチメデ
ィア蓄積情報を受信する。共有RAMボード23は回線
インタフェース制御ボード22から受信したブロックを
格納したり、ディスク装置24から読み出したブロック
を格納したりするのに用いる。ディスク制御ボード25
はCPUボード21からの指示に基づき、ディスク装置
24へのブロックの書込みと読み出しを行う。映像出力
ボード26及び音声出力ボード27は供給されたデータ
を復号し、映像信号及び音声信号を出力する。
ード22を介して通信回線から受信したブロックの蓄積
先を制御すると共に、ブロックのヘッダ31のデータ情
報量31を基に、映像データ部33と音声データ部32
にブロックを分割して、システムパス28を介して、そ
れぞれ映像出力ボード26及び、音声出力ボード27に
データを供給する。回線インタフェースボード22は通
信回線を介して通信プロトコル処理を行い、マルチメデ
ィア蓄積情報を受信する。共有RAMボード23は回線
インタフェース制御ボード22から受信したブロックを
格納したり、ディスク装置24から読み出したブロック
を格納したりするのに用いる。ディスク制御ボード25
はCPUボード21からの指示に基づき、ディスク装置
24へのブロックの書込みと読み出しを行う。映像出力
ボード26及び音声出力ボード27は供給されたデータ
を復号し、映像信号及び音声信号を出力する。
【0020】通常は、回線インタフェースボード22か
らブロックを受信すると、受信ブロックは共有RAMボ
ード23に格納される。共有RAMボード23上にはブ
ロックの処理待ち行列を構成しておき、受信ブロックを
この処理待ち行列につなぎ込む。CPUボード21は、
この待ち行列からブロックを取り出し、ヘッダ31のデ
ータ情報量を基に、映像データと音声データに分割し
て、映像出力ボード26及び、音声出力ボード27にデ
ータを供給する。音声出力ボード27へのデータ供給
は、ボード内のデータが時間的に途中で途切れることの
ないように行う。映像出力ボードへのデータ供給は固定
レートの音声データ32のデータ量を基に、時間調節を
行いながら行う。即ち、記憶装置の1つのブロック内の
音声データ部32の出力時間内に、同一ブロック内の可
変レートの映像データ部33を映像出力ボード26に供
給するという制御を行う。
らブロックを受信すると、受信ブロックは共有RAMボ
ード23に格納される。共有RAMボード23上にはブ
ロックの処理待ち行列を構成しておき、受信ブロックを
この処理待ち行列につなぎ込む。CPUボード21は、
この待ち行列からブロックを取り出し、ヘッダ31のデ
ータ情報量を基に、映像データと音声データに分割し
て、映像出力ボード26及び、音声出力ボード27にデ
ータを供給する。音声出力ボード27へのデータ供給
は、ボード内のデータが時間的に途中で途切れることの
ないように行う。映像出力ボードへのデータ供給は固定
レートの音声データ32のデータ量を基に、時間調節を
行いながら行う。即ち、記憶装置の1つのブロック内の
音声データ部32の出力時間内に、同一ブロック内の可
変レートの映像データ部33を映像出力ボード26に供
給するという制御を行う。
【0021】CPUボード21は図3及び図4の実施例
と同様に、処理待ち行列の管理を行い、待ち行列長が所
与の一定値Xを越えるまでは、受信ブロックを共有RA
Mボード23に格納する。所与の一定値Xを越えると、
受信ブロックをディスク制御ボード25を介してディス
ク装置24に書込みを行う。ディスク制御ボード25は
書込みを指定されたブロックを連続的にディスク装置2
4に蓄積していく。ディスク装置24にブロックを蓄積
するために、回線インタフェースボード22、共有RA
Mボード23または、ディスク制御ボード25等のいず
れかのボードに蓄積待ち行列が構成される。CPUボー
ド21はこの待ち行列の先頭から、1ブロックずつまた
は、複数ブロックを同時に取り出して、ディスク装置2
4に蓄積する。この間、共有RAMボード23上の処理
待ちブロックは順次映像出力ボード26及び、音声出力
ボード27に供給され続ける。
と同様に、処理待ち行列の管理を行い、待ち行列長が所
与の一定値Xを越えるまでは、受信ブロックを共有RA
Mボード23に格納する。所与の一定値Xを越えると、
受信ブロックをディスク制御ボード25を介してディス
ク装置24に書込みを行う。ディスク制御ボード25は
書込みを指定されたブロックを連続的にディスク装置2
4に蓄積していく。ディスク装置24にブロックを蓄積
するために、回線インタフェースボード22、共有RA
Mボード23または、ディスク制御ボード25等のいず
れかのボードに蓄積待ち行列が構成される。CPUボー
ド21はこの待ち行列の先頭から、1ブロックずつまた
は、複数ブロックを同時に取り出して、ディスク装置2
4に蓄積する。この間、共有RAMボード23上の処理
待ちブロックは順次映像出力ボード26及び、音声出力
ボード27に供給され続ける。
【0022】処理待ち行列長が所与の一定値Y(Y<
X)を下回ると、ディスク装置24に格納されたブロッ
クを先頭から順番に共有RAMボード23上にディスク
制御ボード25を介して読み出すとともに、処理待ち行
列につなぎ込む。ディスク装置24に蓄積されたブロッ
クが無くなると共に、処理待ち行列長が所与の一定値Y
を下回っていれば、受信データを共有RAMボード23
に格納し、処理待ち行列につなぎ込む。
X)を下回ると、ディスク装置24に格納されたブロッ
クを先頭から順番に共有RAMボード23上にディスク
制御ボード25を介して読み出すとともに、処理待ち行
列につなぎ込む。ディスク装置24に蓄積されたブロッ
クが無くなると共に、処理待ち行列長が所与の一定値Y
を下回っていれば、受信データを共有RAMボード23
に格納し、処理待ち行列につなぎ込む。
【0023】
【発明の効果】上述のように本発明によれば、データ転
送におけるバッファリング方式において、アクセス速度
及び記憶容量が異なる第1の記憶装置と第2の記憶装置
に蓄積された受信ブロックの処理待ち行列長が所与の一
定値を越えると、記憶容量が大きい第2の記憶装置を受
信バッファとして使用するので、データ発生源とデータ
受信源との間で、フロー制御回数を少なくすることがで
きる。このため、結果として、データ転送効率を向上さ
せることができ、データ発生源側での資源の保留時間を
減じることができる。
送におけるバッファリング方式において、アクセス速度
及び記憶容量が異なる第1の記憶装置と第2の記憶装置
に蓄積された受信ブロックの処理待ち行列長が所与の一
定値を越えると、記憶容量が大きい第2の記憶装置を受
信バッファとして使用するので、データ発生源とデータ
受信源との間で、フロー制御回数を少なくすることがで
きる。このため、結果として、データ転送効率を向上さ
せることができ、データ発生源側での資源の保留時間を
減じることができる。
【図1】本発明の原理説明図である。
【図2】本発明の一実施例のハードウェアの構成図であ
る。
る。
【図3】本発明の一実施例のブロック受信の処理を示す
フローチャートである。
フローチャートである。
【図4】本発明の一実施例のデータブロックの取りだし
処理を示すフローチャートである。
処理を示すフローチャートである。
【図5】本発明の一実施例の適応例を示す図である。
【図6】本発明の一実施例の記憶装置上のブロックフォ
ーマトを示す図である。
ーマトを示す図である。
11 CPUボード 12 データ発生源インタフェースボード 13 共有RAMボード 14 ディスク装置 15 ディスク制御ボード 16 データ受信源 17 システムバス 21 CPUボード 22 回線インタフェースボード 23 共有RAMボード 24 ディスク装置 25 ディスク制御ボード 26 映像出力ボード 27 音声出力ボード 28 システムバス 31 ヘッダ 32 音声データ部 33 映像データ部 34 残余部
Claims (1)
- 【特許請求の範囲】 【請求項1】 データを複数のブロックに分割してデー
タ発生源からデータ受信源に転送する際のバッファリン
グ方式において、 アクセス速度及び記憶容量の異なる第1の記憶装置と第
2の記憶装置とを備え、 前記第1の記憶装置のアクセス速度が前記第2の記憶装
置よりも速く、前記第2の記憶装置の記憶容量が前記第
1の記憶装置よりも大きくなるように設定し、 前記データ発生源から受信したブロックを、通常時は前
記第1の記憶装置に蓄積しながら前記データ受信源に転
送し、 前記第1の記憶装置の転送されていない未処理ブロック
が所定値を越えた時は、前記第2の記憶装置にブロック
を蓄積しながら前記データ受信源に転送し、 前記第1の記憶装置の前記未処理ブロックが所定値より
下回る毎に、前記第2の記憶装置から未処理ブロックを
取り出し、前記第1の記憶装置に蓄積することを特徴と
するバッファリング方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18896691A JPH0535666A (ja) | 1991-07-29 | 1991-07-29 | バツフアリング方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18896691A JPH0535666A (ja) | 1991-07-29 | 1991-07-29 | バツフアリング方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0535666A true JPH0535666A (ja) | 1993-02-12 |
Family
ID=16233050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18896691A Pending JPH0535666A (ja) | 1991-07-29 | 1991-07-29 | バツフアリング方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0535666A (ja) |
-
1991
- 1991-07-29 JP JP18896691A patent/JPH0535666A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH04369942A (ja) | データ通信システム | |
JPH03139726A (ja) | 命令読出し制御方式 | |
JPH0535666A (ja) | バツフアリング方式 | |
JP3347064B2 (ja) | 画像信号処理装置 | |
JP2591834B2 (ja) | データ通信装置用バッファメモリ装置 | |
JP3230339B2 (ja) | 通信制御装置 | |
JP3083788B2 (ja) | データ復号装置 | |
JP3085282B2 (ja) | Atmバッファリング方式 | |
JPS60136852A (ja) | 情報処理装置の制御方式 | |
JP2000132498A (ja) | Dma転送制御装置 | |
JPS6333185B2 (ja) | ||
US7239640B1 (en) | Method and apparatus for controlling ATM streams | |
JPH10105488A (ja) | 通信用コントローラ | |
JP2982611B2 (ja) | 画像処理装置 | |
JP3094346B2 (ja) | 画像メモリ装置 | |
JP2817535B2 (ja) | Hdlcフレーム受信制御方式 | |
JP2000224549A (ja) | データ転送制御方法及びその装置 | |
JPS608965A (ja) | 入出力バツフアメモリ方式 | |
JPS60223253A (ja) | 通信処理システムにおける中間バツフアリング方式 | |
JPH03255558A (ja) | 通信処理装置制御方式 | |
JPH0683733A (ja) | 受信制御方式 | |
JPH0981472A (ja) | メディアサーバーのスケジューラー | |
JPH08320765A (ja) | ディスク装置 | |
JPH01307857A (ja) | 受信バッファ制御方式 | |
JP2005122775A (ja) | 記録媒体再生装置 |