JP3844872B2 - Sub-picture data structure, recording medium and reproducing apparatus - Google Patents

Sub-picture data structure, recording medium and reproducing apparatus Download PDF

Info

Publication number
JP3844872B2
JP3844872B2 JP03590998A JP3590998A JP3844872B2 JP 3844872 B2 JP3844872 B2 JP 3844872B2 JP 03590998 A JP03590998 A JP 03590998A JP 3590998 A JP3590998 A JP 3590998A JP 3844872 B2 JP3844872 B2 JP 3844872B2
Authority
JP
Japan
Prior art keywords
data
sub
unit
video
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03590998A
Other languages
Japanese (ja)
Other versions
JPH11234697A (en
Inventor
妙 大輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP03590998A priority Critical patent/JP3844872B2/en
Publication of JPH11234697A publication Critical patent/JPH11234697A/en
Application granted granted Critical
Publication of JP3844872B2 publication Critical patent/JP3844872B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えばデジタルビデオディスクの記録データとして有効な副映像のデータ構造に関するととともに、その記録媒体及び再生装置に関するものである。
【0002】
【従来の技術】
近年、高密度記録のデジタルビデオディスクが開発され、このビデオディスクには映画等の映像情報、その映画の字幕(複数の言語字幕を記録して用意可能)、その映画のための音声(複数の言語の音声を記録して用意可能)が記録されている。またデジタルビデオディスクとしては、レーザ光を利用した光学的な手段により情報の書き込み消去が可能なものも開発されている。
【0003】
【発明が解決しようとする課題】
上記のデジタルビデオディスクにおいては、字幕情報は副映像と称され、データ圧縮されて記録されている。この圧縮方式は、規格により定められている。しかし、この規格によると、ピクセルデータを4値で表現するというものであるために、解像度の点で物足りないという問題がある。
【0004】
【発明が解決しようとする課題】
上記したように副映像のデータフォーマットを規定している現在の方式では、解像度の点で物足りないという問題がある。
【0005】
そこでこの発明では、副映像の解像度を向上することができる副映像のデータ構造を提供することを目的とする。この場合、現行方式のフォーマットと互換性のあるデータ構造を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記の目的を達成するためにこの発明は、副映像データのユニットサイズおよび表示制御シーケンステーブルの開始アドレスを含む副映像ユニットヘッダ(SPUH)と、映像データを複数ある所定の規則のうちの1つでランレングス圧縮したデータであって、その圧縮ルールを示す判別データと継続画素数及び圧縮画像の色などの内容を示す画素データからなる圧縮後映像データ(PXD)と、前記圧縮後映像データを復号して表示する際に用いられる制御データとしての前記表示制御シーケンステーブル(SP_DCSQT)とを1単位とした副映像ユニットにおいて、
前記画素データのビット数Rを拡張してNビットとし、上記圧縮後画像データ形式の第1の圧縮後画像データ(PXD(A))には上記ビット数Rの画素データを含ませて、この第1の圧縮後画像データ(PXD(A))につづいて、(N−R)ビットの拡張分の画素データを拡張画素データ(PXD(B))として配置したことを特徴とするものである。
【0007】
これにより画素データとしてNビットを得ることができ、色コードなどの選択肢を拡大でき解像度を向上することができる。
【0008】
又この発明では、上記ディスプレイシーケンス制御データ内において、色コードのビット数を拡張して色コードの数を増大し、色コードの選択肢を拡大するものである。
【0009】
またこの発明では、上記ディスプレイシーケンス制御データ内において、予め規定されている色コードのビット数を拡張して色コードの数を増大し、第1の色コード群を第1のコマンドにより指定されたフィールドに設け、第2の色コード群を第2のコマンドにより指定された別のフィールドに設けるものである。
【0010】
これにより画素データの解像度の増大に伴い、それに応じた着色データを得ることができる。また、予め規定されている色コードと、第1の圧縮後映像データとを対応させて用いることができるために、現行のフォーマットに対応した再生装置が副映像を再生するには何ら支障はない。この発明は上記の他、実施の形態に示すように各種の形態で実現されるものである。
【0011】
【実施の形態】
以下この発明の実施の形態を図面を参照して説明する。
【0012】
まずこの発明が適用される光学式ディスク(デジタルビデオディスク)のデータ形式について説明することにする。
【0013】
図1は、光学式ディスクのボリウム空間を示している。
【0014】
図1に示すように、ボリウム空間は、ボリウム及びファイル構成ゾーン、DVDビデオゾーン、他のゾーンからなる。ボリウム及びファイル構成ゾーンには、UDFブリッジ構成が記述されており、所定規格のコンピュータでもそのデータを読み取れるようになっている。DVDビデオゾーンは、ビデオマネージャー(VMG)、ビデオタイトルセット(VTS)を有する。ビデオマネージャー(VMG)、ビデオタイトルセット(VTS)は、それぞれ複数のファイルで構成されている。ビデオマネージャー(VMG)は、ビデオタイトルセット(VTS)を制御するための情報である。
【0015】
図2には、ビデオマネージャー(VMG)とビデオタイトルセット(VTS)の構造をさらに詳しく示している。
【0016】
ビデオマネージャー(VMG)は、ビデオタイトルセット等を制御する制御データとしてのビデオマネージャーインフォーメーション(VMGI)と、メニュー表示のためのデータとしてのビデオオブジェクトセット(VMGM VOBS)を有する。またバックアップ用のビデオマネージャーインフォーメーション(VMGI)も有する。
【0017】
ビデオタイトルセット(VTS)は、制御データとしてのビデオタイトルセットインフォーメーション(VTSI)と、メニュー表示のためのデータとしてのビデオオブジェクトセット(VMGM VOBS)と、映像表示のためのビデオオブジェクトセットである、ビデオタイトルセットのタイトルのためのビデオオブジェクトセット(VTSTT VOBS)とが含まれる。またバックアップ用のビデオタイトルセットインフォーメーション(VTSI)も有する。
【0018】
さらに、映像表示のためのビデオオブジェクトセットである(VTSTT VOBS)は、複数のセル(Cell)で構成されている。各セル(Cell)にはセルID番号が付されている。
【0019】
図3には、上記のビデオオブジェクトセット(VOBS)とセル(Cell)の関係と、さらにセル(Cell)の中身を階層的に示している。DVDの再生処理が行われるときは、映像の区切り(シーンチェンジ、アングルチェンジ、ストーリーチェンジ等)や特殊再生に関しては、セル(Cell)単位またはこの下位の層であるビデオオブジェクトユニット(VOBU)単位で取り扱われるようになっている。
【0020】
ビデオオブジェクトセット(VOBS)は、まず、1つまたは複数のビデオオブジェクト(VOB IDN1 〜VOB IDNi )で構成されている。さらに1つのビデオオブジェクトは、1つまたは複数のセル(C IDN1 〜C IDNj )により構成されている。さらに1つのセル(Cell)は、1つまたは複数のビデオオブジェクトユニット(VOBU)により構成されている。そして1つのビデオオブジェクトユニット(VOBU)は、1つのナビゲーションパック(NV PCK)、1つまたは複数のオーディオパック(A PCK)、1つまたは複数のビデオパック(V PCK)、1つまたは複数のサブピクチャーパック(SP PCK)で構成されている。
【0021】
ナビゲーションパック(NV PCK)は、主として所属するビデオオブジェクトユニット内のデータの再生表示制御を行うための制御データ及びビデオオブジェクトユニットのデータサーチを行うための制御データとして用いられる。
【0022】
ビデオパック(V PCK)は、主映像情報であり、MPEG等の規格で圧縮されている。またサブピクチャーパック(SP PCK)は、主映像に対して補助的な内容を持つサブピクチャー情報である。例えば映画の字幕、シナリオ、などであり、ランレングス圧縮技術が用いられる。オーディオパック(A PCK)は、音声情報である。
【0023】
図4には、ビデオオブジェクト(VOB)と、セルとの関係を取り出して示している。図4(A)に示す例は、1つのタイトル(例えば映画のシーン)が連続している状態のブロック配列であり、ブロック内のセルが連続して再生される。これに対して、図4(B)は、マルチシーンを記録した場合のセルの配列例を示している。即ち、DVDにおいては、同時進行するイベントであって、異なる角度から撮影した映像を記録してもよいという規格が定められている。例えば、野球の映画であった場合、バックネット裏から球場全体を撮影した映像と、審判の顔をズームアップした映像とを同時に取得し、それぞれの映像を複数のユニットに分割し、これらをインターリーブしてトラック上に記録するものである。図4(B)の例は、2つのシーンをユニットに分割して、各ユニットをインターリーブした例を示している。このようなディスクが再生される場合は、いずれか一方のユニットが飛び飛びに取得されて、再生されることになる。いずれのシーンを選択するかは、ユーザの操作により決定されるか、又は、優先順位が付されておりユーザ選択がない場合には優先度の高い方が再生される。
【0024】
図5には、プログラムチェーン(PGC)により、上記のセル(Cells)がその再生順序を制御される例を示している。
【0025】
プログラムチェーン(PGC)としては、データセルの再生順序として種々設定することができるように、種々のプログラムチェーン(PGC#1、PGC#2、PGC#3…)が用意されている。したがって、プログラムチェーンを選択することによりセルの再生順序が設定されることになる。
【0026】
プログラムチェーンインフォメーション(PGCI)として記述されているプログラム#1〜プログラム#nが実行される例を示している。図示のプログラムは、ビデオオブジェクトセット(VOBS)内の#s以降のセルを順番に指定する内容となっている。
【0027】
図6には、ビデオタイトルセット(VTS)の中のビデオタイトルセットインフォーメーション(VTSI)を示している。ビデオタイトルセットインフォーメーション(VTSI)の中にビデオタイトルセットプログラムチェーンインフォメーションテーブル(VTS PGCIT)が記述されている。したがって、1つのビデオタイトルセット(VTS)内のビデオオブジェクトセット(VOBS)が再生されるときは、このビデオタイトルセットプログラムチェーンインフォメーションテーブル(VTS PGCIT)で提示される複数のプログラムチェーンの中からユーザが選択したプログラムチェーンが利用される。
【0028】
VTSIの中には、そのほかに、次のようなデータが記述されている。
【0029】
VTSI MAT…ビデオタイトルセット情報の管理テーブルであり、このビデオタイトルセットにどのような情報が存在するのか、また、各情報のスタートアドレスやエンドアドレスが記述されている。
【0030】
VTS PTT SRPT…ビデオタイトルセット パート オブ タイトルサーチポインターテーブルであり、ここでは、タイトルのエントリーポイント等が記述されてる。
【0031】
VTSM PGCI UT…ビデオタイトルセットメニュープログラムチェーンインフォメーションユニットテーブルであり、ここには、各種の言語で記述されるビデオタイトルセットのメニューを再生するためのチェーンである。したがって、どの様なビデオタイトルセットが記述されており、どのようなスタイルの再生順序で再生できるのか記述されているのかをメニューで確認できる。
【0032】
VTS TMAPT…ビデオタイトルセットタイムマップテーブルであり、このテーブルには、プログラムチェーン内で管理されるVOBUの記録位置の情報が記述されている。
【0033】
VTSM ADT…ビデオタイトルセットメニュー セル アドレステーブルであり、ビデオタイトルセットメニューを構成するセルのスタート及びエンドアドレス等が記述されている。
【0034】
VTSM VOBU ADMAP…ビデオタイトルセットメニュービデオオブジェクトユニットアドレスマップであり、このマップにはメニュー用のビデオオブジェクトユニットのスタートアドレスが記述されている
VTS ADT…ビデオタイトルセット セル アドレステーブルであり、ビデオタイトルセット本体を構成するセルのスタート及びエンドアドレス等が記述されている。
【0035】
VTS VOBU ADMAP…ビデオタイトルセットビデオオブジェクトユニットアドレスマップであり、このマップには、タイトル本体のビデオオブジェクトユニットのスタートアドレスが記述されている。
【0036】
再生装置においては、プログラムチェーンが選択されると、そのプログラムチェーンによりセルの再生順序が設定される。また再生においては、ビデオオブジェクトユニットに含まれるNV PCKが参照される。NV PCKは、表示内容、表示タイミングを制御するための情報や、データサーチのための情報を有する。したがって、このNV PCKテーブルの情報に基づいてV PCKの取り出しと、デコードが行われる。また他のパックの取り出し及びデコードが行われるが、その場合は、ユーザが指定しているところの言語のA PCK、SP PCKの取り出しが行われる。
【0037】
図7には、1つのパックとパケットの構成例を示している。
【0038】
1パックは、パックヘッダ、パケットで構成される。パックヘッダ内には、パックスタートコード、システムクロックリファレンス(SCR)等が記述されている。パックスタートコードは、パックの開始を示すコードであり、システムクロックリファレンス(SCR)は、装置全体に対して再生経過時間における所在時間を示す情報である。1パックの長さは、2048バイトであり、光ディスク上の1論理ブロックとして規定され、記録されている。
【0039】
1パケットは、パケットヘッダとビデオデータまたはオーディオデータ又はサブピクチャーデータまたはナビゲーションデータで構成されている。パケットのパケットヘッダには、スタッフィングが設けられる場合もある。またパケットのデータ部にはパディングが設けられる場合もある。
【0040】
図8には、NV PCKを取り出して示している。
【0041】
NV PCKは、基本的には表示画像を制御するためのピクチャーコントロールインフォーメーション(PCI)パケットと、同じビデオオブジェクト内に存在するデータサーチインフォメーション(DSI)パケットを有する。各パケットにはパケットヘッダとサブストリームIDが記述され、その後にそれぞれデータが記述されている。各パケットヘッダにはストリームIDが記述され、NV PCKであることを示し、サブストリームIDは、PCI、DSIの識別をおこなっている。また各パケットヘッダには、パケットスタートコード、ストリームID、パケット長が記述され、続いて各データが記述されている。
【0042】
PCIパケットは、このパケットが属するビデオオブジェクトユニット(VOBU)内のビデオデータの再生に同期して、表示内容を変更するためのナビゲーションデータである。
【0043】
PCIパケットには、一般情報であるPCIジェネラルインフォメーション (PCI GI)と、ノンシームレスアングルインフォメーション(NSML ANGLI)と、ハイライトインフォメーション(HLI)と、記録情報であるレコーディングインフォーメーション(RECI)が記述されている。
【0044】
図9には再生制御一般情報(PCI GI)を示している。
【0045】
PCI GIには、このPCIの一般的な情報であり以下のような情報を記述されている。このナビゲーションパックのアドレスである論理ブロックナンバー(NV PCK LBN)、このPCIで管理されるビデオオブジェクトユニット(VOBU)の属性を示すビデオオブジェクトユニットカテゴリー(VOBUCAT)、このPCIで管理されるビデオオブジェクトユニットの表示期間におけるユーザの操作禁止情報等を示すユーザオペレーションコントロール(VOBU UOP CTL)、ビデオオブジェクトユニットの表示の開始時間を示す(VOBU PTM)、ビデオオブジェクトユニットの表示の終了時間を示す(VOBU PTM)を含む。VOBU PTMによって指定される最初の映像は、MPEGの規格におけるIピクチャーである。さらにまた、ビデオオブジェクトユニットの最後のビデオの表示時間を示すビデオオブジェクトユニット シーケンス エンド プレゼンテーションタイム(VOBU SE PTM)や、セル内の最初のビデオフレームからの相対表示経過時間を示すセル エラプス タイム(C ElTM)等も記述されている。
【0046】
また、PCI内に記述されている、NSML ANGLIは、アングルチェンジがあったときの目的地(行き先)のアドレスを示している。つまり、ビデオオブジェクトは、異なる角度から撮像した映像をも有する。そして、現在表示しているアングルとは異なるアングルの映像を表示させるためにユーザからの指定があったときは、次に再生を行うために移行するVOBUのアドレスが記述されている。
【0047】
HLIは、画面内で特定の領域を矩形状に指定し、この領域の輝度やここに表示されるサブピクチャーのカラー等を可変するための情報である。この情報には、ハイライトジェネラルインフォーメーション(HL GI)、ユーザにカラー選択のためにボタン選択を行わせるためのボタンカラーインフォーメーションテーブル (BTN COLIT)、また選択ボタンのためのボタンインフォーメーションテーブル(BTNIT)が記述されている。
【0048】
RECIは、このビデオオブジェクトユニットに記録されているビデオ、オーディオ、サブピクチャーの情報であり、それぞれがデコードされるデータがどようなものであるかを記述している。例えば、その中には国コード、著作権者コード、記録年月日等がある。
【0049】
DSIパケットは、ビデオオブジェクトユニットのサーチを実行させるためのナビゲーションデータである。
【0050】
DSIパケットには、一般情報であるDSIジェネラルインフォーメーション(DSI GI)と、シームレスプレイバックインフォーメーション(SML PBI)、シームレスアングルインフォメーション(SML AGLI)、ビデオオブジェクトユニットサーチインフォメーション(VOBU SRI)、同期情報(SYNCI)が記述されている。
【0051】
図10に示すようにDSI GIには、次のような情報が記述されている。
【0052】
NV PCKのデコード開始基準時間を示すシステムクロックリファレンスであるNV PCK SCR、NV PCKの論理アドレスを示す(NV PCK LBN)、このNV PCKが属するビデオオブジェクトユニットの終了アドレスを示す(VOBU EA)が記述されている。さらにまた、最初にデコードするための第1の基準ピクチャー(Iピクチャー)の終了アドレス(VOBU 1STREF EA)、最初にデコードするための第2の基準ピクチャー(Pピクチャー)の終了アドレス(VOBU 2NDREF EA)、最初にデコードするための第3の基準ピクチャー(Pピクチャー)の終了アドレス(VOBU 3RDREF EA)が記述されている。さらにまた、このDSIが属するVOBのID番号(VOBU VOB IDN)、またこのDSIが属するセルのID番号(VOBU IDN)、セル内の最初のビデオフレームからの相対経過時間を示すセル エラプス タイム(C ELTM)も記述されている。
【0053】
図11に示すようSML PBIには、次のような情報が記述されている。
【0054】
このDSIが属するVOBUはインターリーブドされたユニット(ILVU)であるか、ビデオオブジェクトの接続を示す基準となるプリユニット(PREU)であるかを示すビデオオブジェクトユニットシームレスカテゴリー(VOBU SML CAT)、プリユニットは、インターリブユニットの直前のユニットであることを示し、インターリーブユニットの存在を再生装置に認識させるのに有効となるユニット情報である。インターリーブドユニットの終了アドレスを示す(ILVU EA)、次のインターリーブドユニットの開始アドレスを示す(ILVU SA)、次のインターリーブドユニットのサイズを示す(ILVU SZ)、ビデオオブジェクト(VOB)内でのビデオ表示開始タイムを示す(VOB PTM)、ビデオオブジェクト(VOB)内でのビデオ表示終了タイムを示す(VOB PTM)、ビデオオブジェクト(VOB)内でのオーディオ停止タイムを示す(VOB STP PTM)、ビデオオブジェクト(VOB)内でのオーディオギャップ長を示す(VOB GAP LEN)等がある。
【0055】
図12に示すようにシームレスアングル情報(SML AGLI)には、次のような情報が記述されている。
【0056】
各アングルにおける次に移行目的とするインターリーブユニットのアドレス及びサイズ(SML AGL Cn DSTA)(n=1〜9)である。アングルの変更があった場合はこの情報が参照される。
【0057】
図13に示すようにVOBU サーチ情報(VOBU SRI)としては次のような情報が記述されている。
【0058】
この情報は、現在のビデオオブジェクトユニット(VOBU)の開始時間よりも(0.5×n)秒前及び後のVOBUの開始アドレスを記述している。即ち、当該DSIを含むVOBUを基準にしてその再生順にしたがってフォワードアドレス(FWDINn)として+1から+20、+60、+120及び+240までのVOBUのスタートアドレス及びそのユニットにビデオパックが存在することのフラッグが記述されている。スタートアドレスは、当該VOBUの先頭の論理セクタから相対的な論理セクタ数で記述されている。この情報を利用することにより、再生したいVOBUを自由に選択することができる。
【0059】
図14に示すように同期情報(SYNC)には、DSIが含まれるVOBUのビデオデータの再生開始時間と同期して再生すべきサブピクチャー及びオーディオデータのアドレスが記述されている。アドレスは、DSIが含まれるNV PCKからの相対的な論理セクタ数で目的とするパックの開始位置を示している。オーディオストリームが複数(最大8)ある場合にはその数だけ同期情報が記載されている。またサブピクチャーが複数(最大32)ある場合には、その数だけ同期情報が記述される。
【0060】
上記の説明は、ビデオ、オーディオ、NVデータ、副映像等のパック構造の説明であった。
【0061】
ここで、各パックのそれぞれの集合体について説明する。
【0062】
図15にはビデオオブジェクトユニット(VOBU)と、このユニット内のビデオパックの関係を示している。VOBU内のビデオデータは、1つ以上のGOPにより構成している。エンコードされたビデオデータは、例えばISO/IEC13818−2に準拠している。VOBUのGOPは、Iピクチャー、Bピクチャーで構成され、このデータの連続が分割されビデオパックとなっている。
【0063】
図16には、オーディオストリームとオーディオパックとの関係を示している。オーディオストリームとしては、リニアPCM、ドルビーAC−3、MPEG等のデータがある。
【0064】
図17には、エンコード(ランレングス圧縮)された副映像のパックの論理構造を例示している。
【0065】
図17の上部に示すように、ビデオデータに含まれるサブピクチャー(副映像)の1パック(SP PCK)は、たとえば2048バイト(2kB)で構成される。サブピクチャーの1パックは、先頭のパックヘッダのあとに、パケットヘッダ及び副映像データを含んでいる。パックヘッダには、それぞれファイル全体の再生を通じて基準となる時刻(SCR; System Clock Reference)情報が付与されており、システムタイマーの時刻と所定の関係にあり、かつ同じ時刻情報のSCRが付与されている各サブピクチャーパケットが取りまとめられ、後述するデコーダへ転送されるようになっている。
【0066】
第1のサブピクチャーパケットは、そのパケットヘッダのあとに、後述するサブピクチャーユニットヘッダ(SPUH)とともにランレングス圧縮されたサブピクチャーデータを含んでいる。同様に、第2のサブピクチャーパケットは、そのパケットヘッダのあとに、ランレングス圧縮されたサブピクチャーデータを含んでいる。
【0067】
このような複数の副映像データをランレングス圧縮の1ユニット(1単位)分集めたものが副映像ユニットである。副映像ユニットには、副映像ユニットヘッダが付与されている。この副映像ユニットヘッダのあとに、1ユニット分の映像データ(たとえば2次元表示画面の1水平ライン分のデータ)をランレングス圧縮した画素データ、および各副映像データパックの表示制御シーケンス情報を含むテーブルが続く。
【0068】
即ち、副映像ユニットは、サブピクチャー表示用の各種パラメータが記録されている副映像ユニットヘッダ(SPUH)と、ランレングス符号からなる表示データ(圧縮された画素データ;PXD)と、表示制御シーケンステーブル(DCSQT)とで構成されることになる。
【0069】
図18は、図17で例示した1ユニット分のランレングス圧縮データ310のうち、副映像ユニットヘッダの内容の一部を例示している。
【0070】
副映像ユニットヘッダ(SPUH)には、少なくとも画素データ(PXD)のTV画面上での表示サイズすなわち表示開始位置および表示範囲(幅と高さ)(SPDSZ;2バイト)と、副映像データパケット内の表示制御シーケンステーブルの記録開始アドレス(SP DCSQT SA;2バイト)とが記録されている。
【0071】
さらに説明すると、副映像ユニットヘッダ(SPUH)には、図18に示すように、以下の内容を持つパラメータが記録されている。
【0072】
(1)この表示データのモニタ画面上における表示開始位置および表示範囲(幅および高さ)を示すサイズ情報(SPDSZ)と;
(2)パケット内の表示制御シーケンステーブルの記録開始位置情報(副映像の表示制御シーケンステーブル開始アドレスSP DCSQT SA)。
【0073】
図19は、再度、副映像ユニットのデータ構造を示す。
【0074】
副映像ユニットは、複数の副映像パケットにより構成されている。即ち、ビデオデータに含まれる副映像情報の1パックはたとえば2048バイト(2kB)で構成され、副映像情報の1パックは、先頭のパックヘッダのあとに、1以上の副映像パケットを含んでいる。パックヘッダには、それぞれファイル全体の再生を通じて基準となる時刻(SCR; System Clock Reference)情報が付与されており、同じ時刻情報のSCRが付与されている副映像パック内のパケットが後述するデコーダへ転送されるようになっている。
【0075】
上述したパケットのパケットヘッダには、再生システムがその副映像ユニットの表示制御を開始すべき時刻がプレゼンテーションタイムスタンプ(PTS;Presentation Time Stamp )として記録されている。ただし、このPTSは、図20に示すように、各副映像ユニット(Y,W)内の先頭の副映像データパケットのヘッダにだけ記録されるようになっている。このPTSは、所定の再生時刻SCRを参照して再生される複数の副映像ユニットにおいて、その再生順に沿った値が各副映像ユニットに対して記述されている。
【0076】
図21は、1以上の副映像パケットで構成される副映像ユニットの直列配列状態(n、n+1)と、そのうちの1ユニット(n+1)のパケットヘッダに記述されたプレゼンテーションタイムスタンプ(PTS)と、この(PTS)に対応したユニット(n+1)の表示制御の経過状態とを、例示している。即ち、PTSの処理時点と、副映像ユニット(n)の表示クリア期間と、これから表示する副映像ユニット(n+1)の表示開始時点との関係を示している。
【0077】
図22に示すように、副映像ユニットヘッダ(SPUH)311には、副映像ユニットのサイズ(2バイトのSPU SZ)と、パケット内の表示制御シーケンステーブル313の記録開始アドレス(2バイトのSP DCSQT SA)とが記録されている。
【0078】
SPU SZは、1つのユニットのサイズをバイト数で記述しており、最大サイズは53248バイトである。SP DCSQT SAは、ユニットの最初のバイトからの相対バイト数により表示制御シーケンステーブル(SP DCSQT)の開始アドレスを記述している。
【0079】
図23に示すように、表示制御シーケンステーブル(SP DCSQT)には、1つ以上の副映像表示シーケンス(SP DCSQ0 、SP DCSQ1 、…SP DCSQn )が実行順に記述されている。表示制御シーケンステーブル(SP DCSQT)は、副映像ユニットの有効期間中に、副映像の表示開始/停止と、属性を変更するための表示シーケンス情報である。
【0080】
図24は上記の副映像表示制御シーケンス(SP DCSQ)の1つの内容を示している。このSP DCSQのパラメータとしては以下のような内容が記述されている。
【0081】
映像データ表示制御の実行が開始される時刻を示す副映像表示制御スタートタイム(SP DCSQ STM;Sub-Picture Display Control Sequence Start Time )と、次の副映像表示制御シーケンス(SP DCSQ)の記述先を表すアドレス(SP NXT DCSQ SA;Addres of Next SP DCSQ )と、副映像データの表示制御コマンド(SP COMMAND;Sub-Picture Display Control Command )(SP COMMAND1 、SP COMMAND2 、SP COMMAND3 、…)とが記録される。
【0082】
ここで、パケットヘッダ内のプレゼンテーションタイムスタンプPTSは、たとえばファイル先頭の再生開始時間のような、ファイル全体の再生を通じて基準となる時間(SCR;System Clock Reference)からの相対時間で規定されている。このSCRは、パケットヘッダの手前に付与されているパックヘッダ内に記述されていることは先に説明した。
【0083】
更に、表示制御シーケンス実行開始時間を設定している副映像表示制御タイム(SP DCSQ STM)は、パケットヘッダに記述されている上記PTSからの相対時間(相対PTM)で規定される。
【0084】
したがって、(SP DCSQ STM)とサブタイマーの計数値が比較され、サブタイマーの計数値が表示制御シーケンスタイムよりも大きい場合には、デコード手段によりデコードされた出力データの表示状態が、シーケンス制御データに従って制御される。
【0085】
実際には(SP DCSQ STM)である実行開始時間が記述された後の最初に表示されるビデオフレームに対して、そのビデオフレーム内で表される副映像に対して表示のための制御が開始される。最初に実行される表示制御シーケンスタイム(SP DCSQ STM)には「0000h 」を記述される。この実行開始時間の値は、副映像パケットヘッダに記述されているPTSと等しいかあるいはそれ以上であり、0又は正の整数値である。この表示制御開始時間に基づいて、1つの(SP DCSQ)内のコマンドが実行処理されると、次に指定されている(SP DCSQ)内のコマンドが、その表示制御開始時間になったときに実行処理を開始する。
【0086】
SP NXT DCSQ SAは、最初の副映像ユニットからの相対バイト数で示され、次のSP DCSQのアドレスを示している。次のSP DCSQが存在しない場合には、このSP DCSQの当該副映像ユニットの最初のバイトからの相対バイト数で、最初のSP DCSQの開始アドレスが記述されている。SP DCCMDnは、1つまたはそれ以上の表示制御シーケンスを記述している。
【0087】
図25には、表示制御を行うための表示制御コマンド(SP DCCMD)の1つの内容を示している。
【0088】
表示制御コマンド(SP DCCMD)の内容は、画素データの強制的な表示開始タイミングをセットする命令(FSTA DSP)、画素データの表示開始タイミングをセットする命令(STA DSP)、画素データの表示終了タイミングをセットする命令(STP DSP)、画素データのカラーコードをセットする命令(SET COLOR)、画素データと主映像間のコントラストをセットする命令(SET CONTR)、画素データの表示エリアをセットする命令(SET DAREA)、画素データの表示開始アドレスをセットする命令(SET DSPXA)、画素データのカラー及びコントラストの変化制御をセットする命令(CHG COLCON)、表示制御の終了のコマンド(CMD END)がある。それぞれのコードと拡張フィールド数は、図にも示すように次の通りである。
【0089】
即ち、強制的な表示開始タイミング命令(FSTA DSP)のコードは00hであり拡張フィールドは0バイトである。この命令が記述されていた場合、副映像の表示状態のオンオフにかかわらず、このコードを有する副映像ユニットの強制的な表示が実行される。
【0090】
表示開始タイミング命令(STA DSP)のコードは01hであり拡張フィールドは0バイトである。この命令は副映像ユニットの表示開始命令である。この命令は副映像の表示オフの操作のときは無視される。
【0091】
表示停止タイミング命令(STP DSP)のコードは02hであり拡張フィールドは0バイトである。この命令は副映像ユニットの表示停止命令である。副映像は先の表示開始命令により再表示されることができる。
【0092】
カラーコード設定命令(SET COLOR)のコードは03hであり拡張フィールドは2バイトである。この命令は画素データの各画素の色を決める命令であり、パレットコードで拡張フィールドに記述されている。また各画素のためのパレットコードとして第2強調画素用(4ビット)、第1強調画素用(4ビット)、パターン画素用(4ビット)、背景画素用(4ビット)のための各パレットコードが記述されている。
【0093】
ここで、この命令(SET COLOR)が当該副映像ユニットに存在しない場合には、その前の最後に用いられたものが維持されおり、この命令が利用される。この命令は各ラインの最初に指定される。
【0094】
コントラスト設定命令(SET CONTR)のコードは04hであり拡張フィールドは2バイトである。この命令は画素データと主映像との混合比を設定する命令であり、コントラスト指定データで拡張フィールドに記述されている。また画素のコントラスト指定データとしては、第2強調画素用(4ビット)、第1強調画素用(4ビット)、パターン画素用(4ビット)、背景画素用(4ビット)があるので各画素のためのコントラスト指定データkが記述されている。
【0095】
主映像のコントラストが(16−k)/16で規定されるものとすると、副映像のコントラストはk/16となる。16は階調である。値は“0”の場合もあり、このときは副映像は存在しても画面には現れない。そして値が“0”でない場合には、kは(値+1)として扱われる。
【0096】
ここで、この命令(SET CONTR)が当該副映像ユニットに存在しない場合には、その前の最後に用いられたものが維持されおり、この命令が利用される。この命令は各ラインの最初に指定される。
【0097】
表示エリア設定命令(SET DAREA)のコードは05hであり拡張フィールドは6バイトである。この命令は、画面上に四角形の画素データの表示エリアを設定するための命令である。この命令では、画面上のX軸座標の開始位置 (10ビット)と終了位置(10ビット)、Y軸座標の開始位置(10ビット)と終了位置(10ビット)が記述されている。6バイトのうち残りのビットや予約で確保されている。X軸座標の終了位置の値からX軸座標の開始位置の値を減算し+1を行うと、1ライン上の表示画素数と同じである筈である。Y軸座標の原点はライン番号0である。またX軸座標の原点も0である。画面上では左上のコーナーに対応する。Y軸座標値は、2〜479(525本/60HzのTVの場合)、または2〜574(625本/50HzのTVの場合)であり、これにより副映像ラインが指定され、X軸座標値は0〜719の値が記述され、これにより画素番号が指定される。
【0098】
ここで、この命令(SET DAREA)が当該副映像ユニットに存在しなかった場合、先行して送られてきた最後の副映像ユニットに含まれている命令がそのまま利用される。
【0099】
表示開始アドレス設定命令(SET DSPXA)のコードは06hであり拡張フィールドは4バイトである。この命令は、表示する画像データの最初のアドレスを示す命令である。副映像ユニットの先頭からの相対バイト数で奇数フィールド(16ビット)と偶数フィールド(16ビット)の最初のアドレスが記述されている。このアドレスで示される位置の第1の画素データは、ラインの左端の第1の画素を含むランレングス圧縮コードを示している。
【0100】
ここで、この命令(SET DSPXA)が当該副映像ユニットに存在しなかった場合、先行して送られてきた最後の副映像ユニットに含まれていた命令がそのまま利用される。
【0101】
カラー及びコントラスト変化制御命令(CHG COLON)のコードは07hであり、拡張フィールドは(画素制御データサイズ+2バイト)である。 (CMD END)のコードはFFhであり拡張バイトは0バイトである。
【0102】
図26は、上記の(CHG COLON)の拡張フィールドに記述される画素制御データ(PXCD;Pixel Control Data)の内容を示している。
【0103】
このPXCDは、副映像として表示されている画素の色やコントラストを表示期間中に制御するデータである。PXCDに記述された命令は、副映像表示制御スタートタイム(SP DCSQ STM)が記述された後の第1のビデオフレームから各ビデオフレームで実行され、次の新しいPXCDがセットされるまで実行される。新しいPXCDが更新された時点で今までのPXCDが取り消される。
【0104】
図26に示すライン制御情報(LN CTLI;Line Control Information )は、副映像の変化制御が行われるラインを指定する。同様な変換制御が行われる複数のラインを指定することができる。また画素制御情報(PX CTLI;Pixcel Control Information) は変化制御が行われるライン上の指定位置を記述している。1つ以上の画素制御情報(PX CTLI) は、変換制御が行われるライン上で複数の位置指定ができる。
【0105】
画素制御データ(PXCD)の終了コードとしては(0FFFFFFFh)がLN CTLIが記述されている。この終了コードのみが存在するようなPXCDが到来したときは、(CHG COLON)命令自体の終了を意味する。
【0106】
図27を参照して、さらに続けて上記各命令について説明する。
【0107】
LN CTLIは4バイトからなり、副映像の変化を開始するライン番号(10ビット)、変化数(4ビット)、そして終了ライン番号(10ビット)を記述している。変化開始ライン番号は、画素制御内容の変化が開始されるところのライン番号であり、これは副映像のライン番号で記述されている。また終了ライン番号は、画素制御内容による制御状態をやめるところのライン番号であり、これも副映像のライン番号で記述されている。また変化数は、変化位置の数でありグループ内の画素制御情報(PX CTLI)数に等しいことになる。このときのライン番号は、当然のことながら、2〜479(テレビシステムは525本/60Hzのとき)、または2〜574(テレビシステムは625本/50Hzのとき)である。
【0108】
次に、1つの画素制御情報(PX CTLI)は、6バイトからなり、変化開始画素番号(10ビット)、その画素に続く各画素の色及びコントラストを変化させるための制御情報が記述されている。
【0109】
画素のためのパレットコードとして第2強調画素用(4ビット)、第1強調画素用(4ビット)、パターン画素用(4ビット)、背景画素用(4ビット)のための各パレットコードが記述されている。また画素のためのコントラスト指定データとして第2強調画素用(4ビット)、第1強調画素用(4ビット)、パターン画素用(4ビット)、背景画素用(4ビット)のコントラスト指定データが記述されている。
【0110】
上記の変化開始画素番号は、表示順の画素番号で記述されている。これが零のときはSET COLOR及びSET CONTRが無視される。カラー制御情報としてはカラーパレットコードが記述され、コントラスト制御情報としては先に述べたようなコントラスト指定データで記述されている。
【0111】
上記の各制御情報において変化が要求されていない場合には、初期値と同じコードが記述される。初期値とは、当該副映像ユニットに使用されるべき最初から指定されているカラーコード及びコントラスト制御データのことである。
【0112】
次に、副映像の圧縮方法について説明する。
【0113】
図28は副映像の圧縮画素データ(ランレングス圧縮データ)が、作成されるときのランレングス圧縮規則1〜6を示している。この規則に基いて、ユニットの1単位のデータ長(可変長)が決まる。そして、決まったデータ長でエンコード(ランレングス圧縮)およびデコード(ランレングス伸張)が行われる。
【0114】
図29は、先の副映像の画素データが2ビットの画素データで構成される場合において、一実施の形態に係るエンコード方法で採用されるランレングス圧縮規則1〜6を説明するものである。
【0115】
図28の1列目に示す規則1は、同一画素が1〜3個続く場合に適用される規則であり、4ビットデータでエンコード(ランレングス圧縮)データの1単位を構成する。即ち、最初の2ビットで継続画素数を表し、続く2ビットで画素データの内容(例えば背景画素であること、パターン画素であること、強調1の画素であること、強調2の画素であること)を表す。
【0116】
たとえば、図29の上部に示される圧縮前の映像データ(PXD)において、最初の圧縮データ単位CU01は、2個の2ビット画素データd0、d0で公正される。そしてd0、d1=(00 00)bである。(bはバイナリであることを指す)。この例では、同一の2ビット画素データ(00)bが2個連続(継続)している。
【0117】
この場合であると、図29の下部に示すように、継続数「2」の2ビット表示(10)bと画素データの内容(00)bとを繋げたd0、d1=(1000)bが、圧縮後の映像データ(PXD)のデータ単位CU01*となる。
【0118】
換言すれば、規則1によってデータ単位CU01の(0000)bがデータ単位CU01*の(1000)bに変換される。この例では実質的なビット長の圧縮は得られていないが、たとえば同一画素(00)bが3個連続するCU01=(000000)bならば、圧縮後はCU01*=(1100)bとなって、2ビットの圧縮効果が得られる。
【0119】
図28の2列目に示す規則2は、同一画素が4〜15個続く場合に適用される規則である。この場合は、8ビットデータでエンコードデータの1単位を構成する。即ち、最初の2ビットで規則2に基づくことを示す符号化ヘッダで表し、続く4ビットで継続画素数を表し、その後の2ビットで画素データの内容(例えば階調や色など)を表す。
【0120】
たとえば、図29の上部に示される圧縮前の映像データ(PXD)の2番目の圧縮データ単位CU02は、5個の2ビット画素データd2、d3、d4、d5、d6=(0101010101)bを含んでいる。この例では、同一の2ビット画素データ(01)bが5個連続(継続)している。
【0121】
この場合、図29の下部に示すように、符号化ヘッダ(00)bと、継続数「5個」の4ビット表示(0101)bと画素データの内容(01)bとを繋げたd2〜d6=(00010101)bが、圧縮後の映像データ(PXD)のデータ単位CU02*となる。
【0122】
換言すれば、規則2によってデータ単位CU02の(0101010101)b(10ビット長)がデータ単位CU02*の(00010101)b(8ビット長)に変換される。この例では実質的なビット長圧縮分は10ビットから8ビットへの2ビットしかないが、継続数がたとえば15(CU02の01が15個連続する30ビット長)の場合は、これが8ビットの圧縮データ(CU02*=00111101)となり、30ビットに対して22ビットの圧縮効果が得られる。つまり、規則2に基づくビット圧縮効果は、規則1のものよりも大きい。しかし、解像度の高い微細な画像のランレングス圧縮に対応するためには、規則1も必要となる。
【0123】
図28の3列目に示す規則3は、同一画素が16〜63個続く場合に適用される規則である。12ビットデータでエンコードデータの1単位を構成する。即ち、最初の4ビットで規則3に基づくことを示す符号化ヘッダを表し、続く6ビットで継続画素数を表し、その後の2ビットで画素データを表す。
【0124】
たとえば、図29の上部に示される圧縮前の映像データ(PXD)の3番目の圧縮データ単位CU03は、16個の2ビット画素データd7〜d22=(101010………1010)bを含んでいる。この例では、同一の2ビット画素データ(10)bが16個連続(継続)している。
【0125】
この場合、図29の下部に示すように、符号化ヘッダ(0000)bと、継続数「16個」の6ビット表示(010000)bと画素データの内容(10)bとを繋げたd7〜d22=(000001000010)bが、圧縮後の映像データ(PXD)のデータ単位CU03*となる。
【0126】
換言すれば、規則3によってデータ単位CU03の(101010………1010)b(32ビット長)がデータ単位CU03*の(000001000010)b(12ビット長)に変換される。この例では実質的なビット長圧縮分は32ビットから12ビットへの20ビットであるが、継続数がたとえば63(CU03の10が63個連続するので126ビット長)の場合は、これが12ビットの圧縮データ(CU03*=000011111110)となり、126ビットに対して114ビットの圧縮効果が得られる。つまり、規則3に基づくビット圧縮効果は、規則2のものよりも大きい。
【0127】
図28の4列目に示す規則4は、同一画素が64〜255個続く場合に適用される規則であり、16ビットデータでエンコードデータの1単位を構成する。即ち、最初の6ビットで規則4に基づくことを示す符号化ヘッダを表し、続く8ビットで継続画素数を表し、その後の2ビットで画素データを表す。
【0128】
たとえば、図29の上部に示される圧縮前の映像データPXDの4番目の圧縮データ単位CU04は、69個の2ビット画素データd23〜d91=(111111………1111)bを含んでいる。この例では、同一の2ビット画素データ(11)bが69個連続(継続)している。
【0129】
この場合、図29の下部に示すように、符号化ヘッダ(000000)bと、継続数「69」の8ビット表示(00100101)bと画素データの内容(11)bとを繋げたd23〜d91=(0000000010010111)bが、圧縮後の映像データPXDのデータ単位CU04*となる。
【0130】
換言すれば、規則4によってデータ単位CU04の(111111………1111)b(138ビット長)がデータ単位CU04*の(0000000010010111)b(16ビット長)に変換される。この例では実質的なビット長圧縮分は138ビットから16ビットへの122ビットであるが、継続数がたとえば255(CU01の11が255個連続するので510ビット長)の場合は、これが16ビットの圧縮データ(CU04*=0000001111111111)となり、510ビットに対して494ビットの圧縮効果が得られる。つまり、規則4に基づくビット圧縮効果は、規則3のものよりも大きい。
【0131】
図28の5列目に示す規則5では、エンコードデータ単位の切換点からラインの終わりまで同一画素が続く場合に、16ビットデータでエンコードデータの1単位を構成する。この場合、最初の14ビットで規則5に基づくことを示す符号化ヘッダを表し、続く2ビットで画素データを表す。
【0132】
たとえば、図29の上部に示される圧縮前の映像データPXDの5番目の圧縮データ単位CU05は、1個以上の2ビット画素データd92〜dn=(000000………0000)bを含んでいる。この例では、同一の2ビット画素データ(00)bが有限個連続(継続)しているが、規則5では継続画素数が1以上いくつでも良い。
【0133】
この場合、図29の下部に示すように、符号化ヘッダ(00000000000000)bと、画素データの内容(00)bとを繋げたd92〜dn=(0000000000000000)bが、圧縮後の映像データPXDのデータ単位CU05*となる。
【0134】
換言すれば、規則5によってデータ単位CU05の(000000………0000)b(不特定ビット長)がデータ単位CU05*の(0000000000000000)b(16ビット長)に変換される。規則5では、ラインエンドまでの同一画素継続数が16ビット長以上あれば、圧縮効果が得られる。
【0135】
図28の6列目に示す規則6では、エンコード対象データが並んだ画素ラインが1ライン終了した時点で、1ライン分の圧縮後映像データPXDの長さが8ビットの整数倍でない(すなわちバイトアラインでない)場合に、4ビットのダミーデータを追加して、1ライン分の圧縮後映像データPXDがバイト単位になるように(すなわちバイトアラインされるように)している。
【0136】
たとえば、図29の下部に示される圧縮後の映像データPXDのデータ単位CU01*〜CU05*の合計ビット長は、必ず4ビットの整数倍にはなっているが、必ずしも8ビットの整数倍になっているとは限らない。
【0137】
たとえばデータ単位CU01*〜CU05*の合計ビット長が1020ビットでありバイトアラインとするために4ビット不足しているなら、図29の下部に示すように、4ビットのダミーデータCU06*=(0000)bを1020ビットの末尾に付加して、バイトアラインされた1024ビットのデータ単位CU01*〜CU06*を出力する。
【0138】
なお、1単位の最後に配置される2ビット画素データは、例えば、画素データ(00)bが副映像の背景画素を意味し、画素データ(01)bが副映像のパターン画素を意味し、画素データ(10)bが副映像の第1強調画素を意味し、画素データ(11)bが副映像の第2強調画素を意味する。
【0139】
このようにすると、2ビットの画素データの内容により、ランレングスされているデータが背景画素、副映像のパターン画素、副映像の第1強調画素、副映像の第2強調画素のいずれであるかを判断することができる。
【0140】
画素データの構成ビット数がもっと多ければ、より他種類の副映像画素を指定できる。たとえば画素データが3ビットの(000)b〜(111)bで構成されているときは、ランレングスエンコード/デコードされる副映像データにおいて、最大8種類の画素色+画素種類(強調効果)を指定できる。
【0141】
上記の実施の形態の説明はこの発明の基本となる説明であり、この発明では、画素データは、拡張されたデータである。
【0142】
図30において、図30(A)と図30(B)とは、副映像ユニットと、圧縮後映像データとの関係を示す。副映像ユニットには、副映像ユニットヘッダSPUHの領域と、圧縮後映像データ(PXD)の領域と、表示制御シーケンステーブル(DCSQT)の領域を示している。圧縮後映像データ(PXD)の領域は、前半がトップフィールド(第1フィールド)用、後半がボトムフィールド(第2フィールド)用に割り当てられている。図30(B)には図28の圧縮規則に基づいて圧縮された1つの圧縮単位分を示している。図30(B)では、画素データは2ビットである。しかしこの発明では、ビットマップの圧縮方式は先に延べた規則を用いるが、さらに画素データを拡張し、Nビットを用いることができる。
【0143】
即ち、図30(C)に示すように、Nビットの画素データを用いるが、画素データを2ビットと(N−2)ビットとに分けて、画素データの2ビットを持つ圧縮後映像データ(PXD(A))と、(N−2)ビットの画素データ(PXD(B))を得る。
【0144】
次に、上記の圧縮後映像データ(PXD(A))と画素データ(PXD(B))とを副映像ユニットとして構築する場合には、図30(D)に示すように、配置する。
【0145】
即ち、映像データ(PXD(A))の領域の次に画素データ(PXD(B))の領域を設けるのである。この配置は、トップフィールド及びボトムフィールドにおいても同様である。このように画素データをNビットに拡張することにより、圧縮された画素データを復号して、色コードやコントラストコードを復号画素データに対応付ける(或いは復号データを修飾する)ときに、その表現の選択肢が拡大できることになる。
【0146】
図31(A),図31(B)には、上記の画素データのビット数を3ビットに拡張した場合に表現できる各内容の例を示している。
【0147】
即ち、図31(A)の場合は、000が強調2、001が強調、010がパターン1、011が背景1、100が強調4、101が協調、110がパターン2、111が背景2を意味するように定義されている。そして下位の2ビットは、映像データ(PXD(A))内に含まれ、上位の1ビットが画素データ(PXD(B))に含まれるように配置される。
【0148】
図31(B)の場合は、000が背景1、001がパターン1、010が強調1、011が強調2、100が背景2、101がパターン2、110が強調3、111が強調4を意味するように定義されている。この場合も下位の2ビットは、映像データ(PXD(A))内に含まれ、上位の1ビットが画素データ(PXD(B))に含まれるように配置される。
【0149】
上記のように配置することにより、圧縮後の映像データ(PXD(A))は、先立って説明した図19乃至図27の制御データにより制御することが可能である。つまり、図19乃至図27にて説明した制御データを取り扱うことができる再生装置により、問題なく圧縮後の映像データ(PXD(A))を復号することができる。そして、機能をアップした再生装置により、映像データ(PXD(B))もあわせて取り扱うことができる。本発明に係る再生装置によると、映像データ(PXD(A))及び画素データ(PXD(B))をあわせて取り扱うことができるので、それだけ色コードの選択肢、コントラストの選択肢が増大されることになる。
【0150】
なお画素データ(PXD(B))を認識するために、その先頭アドレスを示す情報を副映像ユニットヘッダまたは表示制御シーケンステーブルのいずれかに記述又は追加記述することが好ましい。
【0151】
図31は、画素データのビット数R=2をN=3ビットに拡張した場合を説明する図である。3ビットの画素データで表現される内容としては、図31(A)の例では「000」…強調2、「001」…強調1、「010」…パターン1、「011」…背景1、「100」…強調4、「101」…強調3、「110」…パターン2、「111」…背景2を設定することができる。また図31(B)に示すように、「000」…背景1、「001」…パターン1、「010」…強調1、「011」…強調2、「100」…背景2、「101」…パターン2、「110」…強調3、「111」…強調4と設定してもよい。
【0152】
上記のように画素データのビット数を拡張することにより、色コード、コントラスト等の選択肢を増大することができる。これにより、一層変化に富む副映像を得ることができる。
【0153】
上記のように画素データのビット数を拡張して、色コード等の選択肢を増大した場合、表示制御コマンドとしては次のようになる。
【0154】
図32には表示制御コマンドについて記述している。大半のコマンドは、図25において説明したものと同じであるから、異なるコマンドについて説明する。
【0155】
コード03hにおけるカラーコード設定命令(SET COLOR)は画素データの各画素の色を決める命令であり、パレットコードで拡張フィールドに記述されている。また各画素のためのパレットコードとして第2強調画素用(4ビット)、第1強調画素用(4ビット)、パターン画素用(4ビット)、背景画素用(4ビット)のための各パレットコードが記述されている。このカラーコード設定命令は、現行方式の再生装置にそのまま対応できるものである。
【0156】
さらにこの装置においては、例えばコード08hが新設されており、ここにも同様なカラーコード設定命令(SET COLOR)が記述されている。
【0157】
図33(A)は、コード(コマンド)03hに対応する色コードである。即ち、コード(コマンド)03hにおいては、ビットを用いて色コードを各強調画素、パターン画素、背景画素に対して指定できる。この命令は各ラインの最初に指定される。ここの色コードは、拡張された画素データを用いないときに用いられる。
【0158】
拡張された画素データ(先に説明した3ビット)を用いた表示制御を行う場合には、コード08hに対応する図33(B)に示す色コードも任意に指定することができる。強調画素のための色コードとしては、第1乃至第4の色コード(各4ビット)が存在し、パターン画素の色コードとしては第1、第2の色コード(各4ビット)が存在し、背景画素の色コードとしては第1、第2の色コード(各4ビット)が存在することになる。これにより色コードの選択肢が増大することになる。
【0159】
上記の例は、コード08hのコマンドを拡張したが、さらに画素データのビット数が増大されて選択肢が増えた場合には、さらにコードを新設して、カラーコード設定命令を増大してもよいことは勿論である。
【0160】
つまり、画素データのビット数を増大すれば、それだけ選択肢を増やすことができるので、その選択肢の増加に伴い、カラーコード設定命令の数を増加することができる。
【0161】
上記の説明では、色コードは4ビットを保ち、カラーコード設定命令の数を増やした。しかし、画素データのビット数を拡張すると、多くのカラーコード設定命令(SET COLOR)の数を拡大できる。このことを利用して、色コードのビット数を拡大して、例えばMビットとし、色コードの種類を増大し、任意に指定できるようにしてもよい。
【0162】
即ち、この場合には、表示制御コマンド(SP_DCCMD)に、さらに例えば09hのコードを追加し、ここに(M−4)ビットの色コードを記述するようにする。
【0163】
図34には、表示制御コマンド(SP_DCCMD)を示している。大部分は、図25に示したものと同じであるから異なる部分について説明する。SET_COLORのコマンドとしてコード09hが増設されている。図ではM=12ビットの例を示している。4ビットで表される色コードは、コード03hのコマンドに記述される。そして(M−4)=8ビットで表される色コードは、コード09hのコマンドとして記述される。
【0164】
図35(A)には、コード03hのコマンドとして記述されている色コードの記述形式を示し、図35(B)にはコード09hのコマンドとして記述されている色コードの記述形式を示している。
【0165】
色コードのビット数をMビットに拡張したため、カラーパレット(色コード)の選択肢が2のM乗となり変化に富んだ映像の記録再生を提供できるようになる。又このようにしたからといって、本来の再生装置の機能が無駄になるということはない。コード03hのコマンドのみを用いる装置は、そのまま再生が可能である。
【0166】
上記の説明では、色コードの種類を増大して、変化の富んだ映像を得られることを説明した。しかしこれに限らず、主映像と副映像間のコントラストを設定するコマンドSET_CONTRにおいても色コードの場合と同様にその種類を拡大することにより、変化に富んだ画像を得ることができる。
【0167】
図36には、基本的なSET_CONTRが、コード04hのコマンドとして記述されている。即ち、強調画素2のコントラストコード、強調画素のコントラストコード、パターン画素のコントラストコード、背景画素のコントラストコードがそれぞれ4ビットで記述されている。そこでコントラストコードのビット数を拡張し、色コードの場合と同様に、拡張分には新たなコードを付与して記述することによりコントラストに関する命令の種類を多くすることができる。これにより変化に富んだ画像を得ることができる。
【0168】
コントラスト設定命令(SET CONTR)は、画素データと主映像との混合比を設定する命令であり、コントラスト指定データで拡張フィールドに記述されている。上記の例ではコントラスト指定データとしては、第2強調画素用(4ビット)、第1強調画素用(4ビット)、パターン画素用(4ビット)、背景画素用(4ビット)がある。
【0169】
コントラスト指定データをkとし、主映像のコントラストが(16−k)/16で規定されるものとすると、副映像のコントラストはk/16となる。16は階調である。値は“0”の場合もあり、このときは副映像は存在しても画面には現れない。そして値が“0”でない場合には、kは(値+1)として扱われる。
【0170】
この発明は上記の実施の形態に限定されるものではなく、表示領域を指定するコマンドについても拡張を行ってもよい。
【0171】
さきの表示制御コマンド(図25に示した)では、表示領域を指定するコマンドが1つであった。
【0172】
即ち、図37(A)に示すように、コマンドSET_DAREAであるデータ表示領域を記述する部分はコード05hで指定される1個所である。このコマンドは、図37(B)に示すように記述されている。即ち、コード05hにつづいて、開始X座標、終了X座標、開始Y座標、終了Y座標がが記述されている。
【0173】
しかしこのような方式であると、例えば副映像が画面の上と下に存在するような場合、即ち図38に示すような副映像を副映像ユニットとしてユニット化した場合、中央部には表示させる文字が無いにも拘わらず、中央部のランレングス圧縮データを作る必要がある。
【0174】
そこで、この発明の方式では、表示制御コマンドにおいて、表示領域の設定数をN個に拡張するものである。
【0175】
図39(A)には、表示領域の設定数を拡張した表示制御コマンドの例を示している。大半は、先の図25で説明した内容と同じであるので、異なる部分を示している。この例では、コード0Ahと、コード0Bhが付された表示領域設定用の新しいコマンドが増設されている。なお表示領域は、画面の上の方から順次指定する方が好ましい。このようにした場合、図39(B)に示すように例えば上下に間隔を置いた領域に副映像を表示しようとした場合、それぞれの領域を領域指定コマンドで指定することができる。このために、1画面分のランレングスデータを作成する場合、上下領域の中間の部分のランレングスデータは不要となり、データの削減が可能となる。このような方法でランレングスデータを作成すると、図38に示したように中間の領域のランレングスデータを作成する場合に比べて800バイトのランレングスデータを削減することが可能となる。
【0176】
図40にはこの発明のさらに他の実施の形態を説明するための図を示している。
【0177】
副映像ユニットには、図25、図26、図27で説明したように、画素データのカラー及びコントラストを、表示期間の途中で切換えるコマンドがコード07hを付されて記述されている。即ちコマンドCHG_COLCONである。このコマンドは、図26に示した画素制御データPXCDを有する。この画素制御データPXCDは、ライン制御情報LN CTLIを有し、各ラインごとに制御を行うことができる。
【0178】
ライン制御情報LN CTLIは、図27に示したように4バイトからなり、副映像の変化を開始するライン番号(10ビット)、変化数(4ビット)、そして終了ライン番号(10ビット)を記述している。変化開始ライン番号は、画素制御内容の変化が開始されるところのライン番号であり、これは副映像のライン番号で記述されている。また終了ライン番号は、画素制御内容による制御状態をやめるところのライン番号であり、これも副映像のライン番号で記述されている。また変化数は、変化位置の数でありグループ内の画素制御情報(PX CTLI)数に等しいことになる。
【0179】
ここで、通常は、上記の変化数は、1〜8が規定されているが、本発明では、この変化数を拡張するものである。
【0180】
即ち、図40(A)に示すように、通常は、ライン制御情報LN_CNTIは、32ビットからなり、上位のビット31〜ビット26までが予約、ビット25〜ビット16までが変化開始ライン番号、ビット15〜ビット12までが変化数、ビット9〜ビット0までが変化終了ライン番号を記述されている。これに対して、新しい方式は、上記の形態を残しつつ、上位のビット31からビット28までを、変化数の拡張分を記述するようにするものである。
【0181】
このようにすると、図40(A)のフォーマットのみに対応した再生装置は、変化数の拡張分の記述は無視するだけであり、本来のビット15〜ビット12に記述された変化数に応答して画素を制御することになる。
【0182】
新しいフォーマットに対応する再生装置は、まずビット15からビット12に記述された変化数に対して、ビット31からビット28に記述された変化数を加算した数を変化数として処理するように構成される。
【0183】
このように付加的な変化数情報を設けて変化数を増大したため、色及びコントラストの変更回数が増え、比較的変化に富んだ映像の記録再生が可能となる。
【0184】
次に、上記の光ディスクの記録情報を読取り処理する再生装置について説明することにする。
【0185】
図41において、光学式ディスク(DVD)100は、ターンテーブル(図示せず)上に載置され、クランパーによりクランプされ、モータ101により回転駆動される。今、再生モードであるとすると、光ディスク100に記録された情報は、ピックアップ部102によりピックアップされる。ピックアップ部102は、サーボ部103によりディスク半径方向への移動制御、フォーカス制御、トラッキング制御されている。またサーボ部103は、ディスクモータ駆動部104にも制御信号を送り、モータ101の回転(つまり光ディスク100)の回転制御を行っている。
【0186】
ピックアップ部102の出力は、復調/エラー訂正部105に入力されて復調される。ここで復調された復調データは、バッファ106を介してデマルチプレクサ107に入力される。また復調データは、入力バッファ108を介してDSUデコーダ109に入力される。DSIデコーダ109には、バッファ110が接続されている。デコードしたDSI(データサーチ情報)は、システム制御部200に送られる。また復調データは、システムバッファ111を介してシステム制御部200に送られる。このシステムバッファ111を通ってシステム制御部200に取りこまれるデータとしては、例えば管理情報等がある。
【0187】
デマルチプレクサ107では、各パックの分離処理が行われる。
【0188】
デマルチプレクサ107から取り出されたビデオパック(V PCK)はバッファ121を介してビデオデコーダ123に入力されてデコードされる。ビデオデコーダ123にはバッファ124が接続されている。ビデオデコーダ123から出力されたビデオ信号は、合成器125に入力される。
【0189】
また、デマルチプレクサ107から取り出された副映像パック(SP PCK)はバッファ126を介して副映像デコーダ127に入力されてデコードされる。副映像デコーダ127にはバッファ128が接続されている。副映像デコーダ127から出力された副映像は、合成器125に入力される。これにより合成器125からは主映像信号に副映像がスーパーインポーズされた信号が得られ、ディスプレイに供給される。
【0190】
また、デマルチプレクサ107から取り出されたオーディオパック(A PCK)はバッファ129を介してオーディオデコーダ130に入力されてデコードされる。オーディオデコーダ130にはバッファ131が接続されている。オーディオデコーダ130の出力はスピーカに供給される。
【0191】
また、デマルチプレクサ107から取り出されたPCIパックはバッファ132を介してPCIデコーダ133に入力されてデコードされる。PCIデコーダ133にはバッファ134が接続されている。PCIデコーダ133の出力は、ハイライト情報(HLI)処理部135に入力される。
【0192】
デマルチプレクサ107においては、主映像情報、副映像(字幕及び文字)情報、音声情報、制御情報等を分離して導出することなる。つまり光ディスク100には、映像情報に対応して副映像(字幕及び文字)情報、音声情報、管理情報、制御情報等が記録されているからである。
【0193】
この場合、副映像情報である字幕及び文字情報や、音声情報としては、各種の言語を選択することができ、これはシステム制御部200の制御に応じて選択される。システム制御部200に対しては、ユーザによる操作入力が操作部201を通して与えられる。
【0194】
よって主映像情報をデコードするビデオデコーダ123では、表示装置の方式に対応したデコード処理が施される。例えば主映像情報は、NTSC、PAL、SECAM、ワイド画面、等に変換処理される。またオーディオデコーダ130には、ユーザにより指定されているストリームのオーディオ情報が入力されてデコードされることになる。また副映像も、ユーザにより指定されているストリームの副映像データが、副映像デコーダ127に入力されてデコードされる。
【0195】
次に、副映像データのデコード処理について説明する。
【0196】
図42は、副映像のデコード部(先のバッファ126、副映像デコーダ127に対応する)を示している。
【0197】
図42において、副映像パック(SP PCK)はバッファ126を介してメモリ213に取込まれる。パックの識別は、パケットヘッダに記述されているストリームIDにより行われる。指定ストリームID(サブストリームID)は、ユーザ操作に応答するシステム制御部200を介して副映像デコーダ制御部211に入力され、そしてレジスタに格納されている。
【0198】
バッファ126に取り込まれたパケットのうち、指定ストリームIDと入力したサブストリームIDが一致しているところのパケットが、取込み対象となる。そして、メインシステムタイマ311の基準時間の計数値は、副映像デコーダ制御部211に与えられ、バッファ126に取り込んだパケットのシステムクロックリファレンス(SCR)と比較される。メインシステムタイマ54の計数値とSCRとの値を比較し同一SCRを有するパケットが、ユニット構築のためにメモリ213に格納される。上記の処理によりメモリ213には、1つまたはそれ以上の副映像ユニットが蓄積されることになる。メモリ213に副映像ユニットが構築されると、PTSに基づいたデコード処理が管理される。
【0199】
この副映像ユニットに含まれる副映像ユニットヘッダ(SPUH)が副映像デコーダ制御部211により参照され、サイズやアドレスが認識される。これにより、ランレングス圧縮されたデータ(PXD)はランレングスデコーダ214へ送られ、表示制御シーケンステーブル(SP DCSQT)はシーケンス制御部216へ送られる。
【0200】
ここでプレゼンテーションタイムスタンプ(PTS)とメインシステムタイマ311の計数値とが比較され、メインシステムタイマ311の計数値がプレゼンテーションタイムスタンプ(PTS)よりも大きい場合には、当該データユニットのランレングスデコード及び出力処理が行われる。そしてデコードされた出力データは、シーケンス制御部216の制御のもとでバッファ215、出力制御部218を介して出力され表示される。
【0201】
つまり、ランレングスデータ(PXD)は、ランレングスデコーダ214によりデコードされる。このデコード処理は先に説明した規則により実行される。デコードされた画素データは、バッファメモリ215に蓄積され、出力タイミングを待つことになる。
【0202】
一方、副映像ユニットに含まれる表示制御シーケンステーブル(SP SCQT)は、シーケンス制御部216に入力されて解析される。シーケンス制御部216は、各種制御命令を保持するための複数のレジスタ217を有する。シーケンス制御部216では、レジスタのコマンドに応じて、次に出力される画素に対してどの様な色及び又はコントラストを設定して出力するかを決定する。この決定信号は、出力制御部218に与えられる。またシーケンス制御部216は、バッファメモリ215に保持されている画素データの読み出しタイミング信号及びアドレスも与えている。
【0203】
出力制御部218では、バッファメモリ215からの画素データに対して、シーケンス制御部216からのコマンドに応じてカラーコード及び又はコントラストデータを付加して出力することになる。この出力された副映像は、主映像にスーパーインポーズされる。
【0204】
上記のように、副映像の表示に関しては、副映像ユニットの前に設定されているプレゼンテーションタイムスタンプ(PTS)(パケットヘッダで送られてくる)とシステムタイマ311の出力とが所定の関係になつたときに比較器312からタイミング信号が得られる。このタイミング信号に基づいて、ランレングスデータのデコード処理が開始される。
【0205】
副映像の表示制御については、比較器321からのタイミング信号に応じて実行あるいは待機状態が実現される。サブタイムスタンプ抽出部322は、シーケンス制御部216に格納されているSP DCSQの開始時刻データを保持するレジスタである。比較器321は、サブシステムタイマ323からの出力データと各SP DCSQの開始時刻データを次々と比較し、一致するとタイミング信号を出力する。サブシステムタイマ323は、例えば1ラインごとにクリアされる。
【0206】
表示制御を行う場合、先に示したコマンドの利用について更に説明する。
【0207】
表示制御においては、コマンドSET DAREAにより副映像の表示位置および表示領域が設定され、コマンドSET COLORにより画素データの表示色やコントラストが設定され、コマンドSET CONTRにより主映像に対する副映像のコントラスト比が基本的に設定される。これらは基本コマンドである。
【0208】
そして、表示開始タイミング命令STA DSPを実行してから別の表示制御シーケンスDCSQで表示終了タイミング命令STP DSPが実行されるまで、表示中は、カラー及びコントラスト切換コマンドCHG COLCONに準拠した画素データの表示制御を行いつつ、ランレングス圧縮されている画素データPXDのデコードが行われる。
【0209】
シーケンス制御部216は、コマンドSET DAREAにより副映像の表示位置および表示領域を設定し、コマンドSET COLORにより副映像の表示色を設定し、コマンドSET CONTRにより主映像に対する副映像のコントラスト比を基本的に設定する。そして、表示開始タイミング命令STA DSPを実行してから別の表示制御シーケンスDCSQで表示終了タイミング命令STP DSPが実行されるまで、表示中は、カラー及びコントラスト切換コマンドCHG COLCONに準拠した表示制御を行う。
【0210】
上記の処理の途中において、副映像デコーダ制御部211、シーケンス制御部216は、前述したように拡張した画素データの認識、及び拡張した表示制御コマンド、ライン制御情報の認識を行い、拡張されている場合にはその拡張内容に応じた表示制御を行うことは勿論のことである。
【0211】
【発明の効果】
以上説明したようにこの発明によれば、副映像の解像度を向上することができるし、また、現行方式のフォーマットと互換性のあるデータ構造を提供できるものである。
【図面の簡単な説明】
【図1】光学式ディスクに記録されている論理フォーマットであるボリウム空間の説明図。
【図2】上記ボリウム空間のおけるビデオマネージャー(VMG)とビデオタイトルセット(VTS)の構造を示す説明図。
【図3】上記ビデオオブジェクトセット(VOBS)とセル(Cell)の関係と、さらにセル(Cell)の中身を示す説明図。
【図4】ビデオオブジェクトとセルとの関係を示す説明図。
【図5】プログラムチェーン(PGC)によりセル(Cells)がその再生順序を制御される例を示す説明図。
【図6】ビデオタイトルセット(VTS)の中のビデオタイトルセットインフォーメーション(VTSI)の説明図。
【図7】1つのパックとパケットの構成例を示す図。
【図8】ナビゲーションパック(NV PCK)の説明図。
【図9】ピクチャー制御情報(PCI)の一般情報の説明図。
【図10】データサーチ情報(DCI)の一般情報の説明図。
【図11】シームレス再生情報の説明図。
【図12】シームレスアングル情報の説明図。
【図13】データサーチインフォメーション内をさらに詳しく示すアドレス情報の説明図。
【図14】同期情報の説明図。
【図15】ビデオオブジェクトユニットの説明図。
【図16】オーディオストリームの説明図。
【図17】副映像ユニットの説明図。
【図18】同じく副映像ユニットの説明図。
【図19】同じく副映像ユニットの説明図。
【図20】副映像ユニットの連続構成を示す説明図。
【図21】副映像ユニットの表示タイミングを示す説明図。
【図22】副映像ユニットのヘッダー構成を示す説明図。
【図23】サブピクチャー表示制御シーケンステーブルの説明図。
【図24】同じくサブピクチャー表示制御シーケンステーブルの説明図。
【図25】サブピクチャー表示制御コマンドの説明図。
【図26】同じくサブピクチャー表示制御コマンドの説明図。
【図27】サブピクチャー表示制御コマンドの内容の説明図。
【図28】ランレングス圧縮規則の説明図。
【図29】ランレングス圧縮されたデータの例を示す説明図。
【図30】副映像ユニットの新しい構造を説明するために示した説明図。
【図31】副映像ユニットに含まれる画素データの例を示す説明図。
【図32】副映像ユニットに含まれる表示制御コマンドの新しい例を示す説明図。
【図33】図32のカラー設定用コマンドの記述内容を示す説明図。
【図34】副映像ユニットに含まれる表示制御コマンドのまた別の新しい例を示す説明図。
【図35】図34のカラー設定用コマンドの記述内容を示す説明図。
【図36】コントラスト設定用コマンドの記述内容を示す説明図。
【図37】表示制御コマンド内の表示領域指定コマンドの説明図。
【図38】表示領域指定コマンドにより副映像の表示領域が指定された画面の一例を示す図。
【図39】領域指定コマンドの別の例と、この表示領域指定コマンドにより副映像の表示領域が指定された画面の一例を示す図。
【図40】表示制御コマンド内のライン制御情報の記述内容を示す図。
【図41】この発明に係わる再生装置の構成説明図。
【図42】副映像デコーダ部の構成を示す説明図。
【符号の説明】
100…光学式ディスク、101…ディスクモータ、102…ピックアップ部、103…サーボ部、104…ディスクモータ駆動部、105…復調/エラー訂正部、200…システム制御部、201…操作部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sub-picture data structure effective as recording data for a digital video disc, for example, and to a recording medium and a reproducing apparatus thereof.
[0002]
[Prior art]
In recent years, digital video discs with high-density recording have been developed. This video disc contains video information such as movies, subtitles of the movies (multiple language subtitles can be recorded and prepared), audio for the movies (multiple audios) Language audio can be recorded and prepared). As digital video discs, those capable of writing and erasing information by optical means using laser light have been developed.
[0003]
[Problems to be solved by the invention]
In the above digital video disc, the subtitle information is called a sub-picture and is recorded after being compressed. This compression method is defined by the standard. However, according to this standard, the pixel data is expressed by four values, so that there is a problem that the resolution is unsatisfactory.
[0004]
[Problems to be solved by the invention]
As described above, the current method that defines the data format of the sub-video has a problem that the resolution is not sufficient.
[0005]
Therefore, an object of the present invention is to provide a sub-picture data structure capable of improving the resolution of the sub-picture. In this case, an object is to provide a data structure that is compatible with the current format.
[0006]
[Means for Solving the Problems]
To achieve the above object, the present invention provides a sub-picture unit header (SPUH) including a unit size of sub-picture data and a start address of a display control sequence table, and one of a plurality of predetermined rules for video data The compressed video data (PXD) including the discrimination data indicating the compression rule, the pixel data indicating the content such as the number of continuous pixels and the color of the compressed image, and the compressed video data. In the sub-video unit in which the display control sequence table (SP_DCSQT) as control data used when decoding and displaying is used as one unit,
The bit number R of the pixel data is expanded to N bits, and the first compressed image data (PXD (A)) in the compressed image data format includes the pixel data of the bit number R. Following the first compressed image data (PXD (A)), pixel data corresponding to (N−R) -bit expansion is arranged as extended pixel data (PXD (B)). .
[0007]
As a result, N bits can be obtained as pixel data, options such as a color code can be expanded, and the resolution can be improved.
[0008]
In the present invention, the number of color code bits is increased in the display sequence control data to increase the number of color codes and the choices of color codes are expanded.
[0009]
In the present invention, in the display sequence control data, the number of color code bits specified in advance is expanded to increase the number of color codes, and the first color code group is designated by the first command. The second color code group is provided in another field designated by the second command.
[0010]
Accordingly, as the resolution of the pixel data increases, coloring data corresponding to the increase can be obtained. In addition, since the color code defined in advance and the first compressed video data can be used in correspondence with each other, there is no problem for the playback device corresponding to the current format to play back the sub-video. . In addition to the above, the present invention can be realized in various forms as shown in the embodiments.
[0011]
Embodiment
Embodiments of the present invention will be described below with reference to the drawings.
[0012]
First, the data format of an optical disc (digital video disc) to which the present invention is applied will be described.
[0013]
FIG. 1 shows a volume space of an optical disc.
[0014]
As shown in FIG. 1, the volume space is composed of a volume and file configuration zone, a DVD video zone, and other zones. In the volume and file configuration zone, a UDF bridge configuration is described, and the data can be read by a computer of a predetermined standard. The DVD video zone has a video manager (VMG) and a video title set (VTS). Each of the video manager (VMG) and the video title set (VTS) is composed of a plurality of files. The video manager (VMG) is information for controlling the video title set (VTS).
[0015]
FIG. 2 shows the structure of the video manager (VMG) and the video title set (VTS) in more detail.
[0016]
The video manager (VMG) includes a video manager information (VMGI) as control data for controlling a video title set and the like, and a video object set (VMGM) as data for menu display. VOBS). It also has a video manager information (VMGI) for backup.
[0017]
The video title set (VTS) includes a video title set information (VTSI) as control data and a video object set (VMGM) as data for menu display. VOBS) and a video object set (VTSTT) for a title of a video title set, which is a video object set for video display. VOBS). It also has a video title set information (VTSI) for backup.
[0018]
Furthermore, it is a video object set for video display (VTSTT A VOBS is composed of a plurality of cells. A cell ID number is assigned to each cell.
[0019]
FIG. 3 hierarchically shows the relationship between the video object set (VOBS) and the cell (Cell) and the contents of the cell (Cell). When DVD playback processing is performed, video segmentation (scene change, angle change, story change, etc.) and special playback are performed in cell units or video object unit (VOBU) units that are lower layers. It is to be handled.
[0020]
A video object set (VOBS) starts with one or more video objects (VOB). IDN1 to VOB IDNii). In addition, one video object can contain one or more cells (C IDN1 to C IDNj). Furthermore, one cell (Cell) is configured by one or a plurality of video object units (VOBU). And one video object unit (VOBU) is one navigation pack (NV) PCK) one or more audio packs (A PCK) one or more video packs (V PCK), one or more sub-picture packs (SP PCK).
[0021]
Navigation pack (NV PCK) is mainly used as control data for performing reproduction / display control of data in the video object unit to which it belongs and control data for performing data search of the video object unit.
[0022]
Video pack (V PCK) is main video information and is compressed according to a standard such as MPEG. Sub picture pack (SP PCK) is sub-picture information having auxiliary contents for the main video. For example, movie subtitles, scenarios, etc., and run-length compression technology is used. Audio pack (A PCK) is audio information.
[0023]
FIG. 4 shows the relationship between the video object (VOB) and the cell. The example shown in FIG. 4A is a block arrangement in which one title (for example, a movie scene) is continuous, and cells in the block are continuously played back. On the other hand, FIG. 4B shows an example of cell arrangement when a multi-scene is recorded. That is, in DVD, there is a standard that allows events recorded at different angles to be recorded at the same time. For example, in the case of a baseball movie, a video shot of the entire stadium from the back of the back net and a video of the referee's face zoomed up are acquired simultaneously, and each video is divided into multiple units, which are interleaved. Then, it is recorded on the track. The example of FIG. 4B shows an example in which two scenes are divided into units and each unit is interleaved. When such a disc is reproduced, any one of the units is acquired and reproduced. Which scene is to be selected is determined by the user's operation, or when priority is given and there is no user selection, the higher priority is reproduced.
[0024]
FIG. 5 shows an example in which the reproduction order of the cells (Cells) is controlled by the program chain (PGC).
[0025]
As the program chain (PGC), various program chains (PGC # 1, PGC # 2, PGC # 3...) Are prepared so that various reproduction orders of data cells can be set. Therefore, the cell playback order is set by selecting the program chain.
[0026]
An example is shown in which program # 1 to program #n described as program chain information (PGCI) are executed. The illustrated program has a content for sequentially specifying cells after #s in the video object set (VOBS).
[0027]
FIG. 6 shows video title set information (VTSI) in the video title set (VTS). Video title set information (VTS) in the video title set information (VTSI) PGCIT) is described. Therefore, when a video object set (VOBS) in one video title set (VTS) is reproduced, this video title set program chain information table (VTS) A program chain selected by the user from among a plurality of program chains presented in (PGCIT) is used.
[0028]
In addition to this, the following data is described in VTSI.
[0029]
VTSI MAT... Is a video title set information management table, in which what information exists in the video title set, and the start address and end address of each information are described.
[0030]
VTS PTT SRPT: Video title set part of title search pointer table, in which title entry points and the like are described.
[0031]
VTSM PGCI UT: Video title set menu program chain information unit table, which is a chain for playing back a menu of video title sets described in various languages. Therefore, it is possible to confirm on the menu what kind of video title set is described and what style of playback order is described.
[0032]
VTS TMAPT... Is a video title set time map table, in which information on the recording positions of VOBUs managed in the program chain is described.
[0033]
VTSM C ADT: Video title set menu cell address table, in which the start and end addresses of cells constituting the video title set menu are described.
[0034]
VTSM VOBU ADMAP is a video object set menu video object unit address map, in which the start address of the video object unit for the menu is described.
VTS C ADT... Video title set cell address table in which the start and end addresses of cells constituting the video title set body are described.
[0035]
VTS VOBU ADMAP is a video object set video object unit address map, in which the start address of the video object unit of the title body is described.
[0036]
In the playback device, when a program chain is selected, the playback order of cells is set by the program chain. In playback, the NV included in the video object unit PCK is referenced. NV The PCK has information for controlling display contents and display timing, and information for data search. Therefore, this NV V based on information in the PCK table The PCK is taken out and decoded. Other packs are taken out and decoded. In this case, the language A specified by the user is displayed. PCK, SP The PCK is taken out.
[0037]
FIG. 7 shows a configuration example of one pack and packet.
[0038]
One pack is composed of a pack header and a packet. In the pack header, a pack start code, a system clock reference (SCR), and the like are described. The pack start code is a code indicating the start of the pack, and the system clock reference (SCR) is information indicating the location time in the elapsed playback time for the entire apparatus. The length of one pack is 2048 bytes, and is defined and recorded as one logical block on the optical disc.
[0039]
One packet includes a packet header and video data, audio data, sub-picture data, or navigation data. Stuffing may be provided in the packet header of the packet. In some cases, padding is provided in the data portion of the packet.
[0040]
In FIG. PCK is taken out and shown.
[0041]
NV The PCK basically includes a picture control information (PCI) packet for controlling a display image and a data search information (DSI) packet existing in the same video object. Each packet is described with a packet header and a substream ID, followed by data. Each packet header describes the stream ID, and NV This indicates PCK, and the substream ID identifies PCI and DSI. Each packet header describes a packet start code, a stream ID, and a packet length, followed by each data.
[0042]
The PCI packet is navigation data for changing display contents in synchronization with reproduction of video data in a video object unit (VOBU) to which the packet belongs.
[0043]
The PCI packet includes general information, PCI general information (PCI GI) and non-seamless angle information (NSML) ANGLI), highlight information (HLI), and recording information (RECI) as recording information.
[0044]
FIG. 9 shows reproduction control general information (PCI GI).
[0045]
PCI The GI describes the following information, which is general information of the PCI. Logical block number (NV) which is the address of this navigation pack PCK LBN), a video object unit category (VOBUCAT) indicating the attributes of a video object unit (VOBU) managed by this PCI, a user operation indicating user operation prohibition information during the display period of the video object unit managed by this PCI, etc. Control (VOBU UOP CTL), indicating the start time of display of the video object unit (VOBU) S PTM), the video object unit display end time (VOBU) E PTM). VOBU S The first video specified by PTM is an I picture in the MPEG standard. Furthermore, the video object unit sequence end presentation time (VOBU) indicating the display time of the last video of the video object unit. SE E PTM) or cell lapse time (C) indicating relative display elapsed time from the first video frame in the cell ElTM) and the like are also described.
[0046]
Also, NSML described in PCI ANGLI indicates the address of the destination (destination) when there is an angle change. That is, the video object also has images captured from different angles. Then, when there is a designation from the user to display a video of an angle different from the currently displayed angle, the address of the VOBU to be transferred for the next reproduction is described.
[0047]
The HLI is information for designating a specific area in a rectangular shape on the screen and changing the luminance of this area, the color of the sub-picture displayed here, and the like. This information includes Highlight General Information (HL) GI), button color information table (BTN) to allow the user to make button selections for color selection COLOR), and a button information table (BTNIT) for the selection button is described.
[0048]
The RECI is video, audio, and sub-picture information recorded in this video object unit, and describes what kind of data is decoded. For example, there are a country code, a copyright holder code, a recording date, and the like.
[0049]
The DSI packet is navigation data for executing a search for a video object unit.
[0050]
In the DSI packet, DSI general information (DSI), which is general information, is included. GI) and seamless playback information (SML) PBI), Seamless Angle Information (SML) AGLI), Video Object Unit Search Information (VOBU) SRI) and synchronization information (SYNCI) are described.
[0051]
DSI as shown in FIG. The following information is described in the GI.
[0052]
NV NV that is a system clock reference indicating the PCK decoding start reference time PCK SCR, NV Indicates the logical address of PCK (NV PCK LBN), this NV Indicates the end address of the video object unit to which the PCK belongs (VOBU) EA) is described. Furthermore, the end address (VOBU) of the first reference picture (I picture) to be decoded first. 1STREF EA), the end address (VOBU) of the second reference picture (P picture) for the first decoding 2NDREF EA), the end address (VOBU) of the third reference picture (P picture) for the first decoding 3RDREF EA) is described. Furthermore, the ID number of the VOB to which this DSI belongs (VOBU) VOB IDN) and ID number of the cell to which this DSI belongs (VOBU) C IDN), the cell lapse time (C) indicating the relative elapsed time from the first video frame in the cell ELTM) is also described.
[0053]
SML as shown in FIG. The PBI describes the following information.
[0054]
The VOBU to which this DSI belongs is a video object unit seamless category (VOBU) indicating whether it is an interleaved unit (ILVU) or a pre-unit (PREU) which is a reference indicating a connection of a video object. SML CAT) and pre-unit are unit information that indicates that the unit is a unit immediately before the inter-rib unit, and is effective for causing the playback apparatus to recognize the presence of the inter-leave unit. Indicates the end address of the interleaved unit (ILVU EA) indicates the start address of the next interleaved unit (ILVU) SA) indicates the size of the next interleaved unit (ILVU) SZ), indicating the video display start time in the video object (VOB) (VOB) V S PTM), video display end time in video object (VOB) (VOB) V E PTM), audio stop time in video object (VOB) (VOB) A STP PTM) and audio gap length in video object (VOB) (VOB) A GAP LEN).
[0055]
As shown in FIG. 12, seamless angle information (SML The following information is described in (AGLI).
[0056]
The address and size (SML) of the next interleave unit to be migrated at each angle AGL Cn DSTA) (n = 1-9). This information is referred to when there is a change in angle.
[0057]
As shown in FIG. 13, VOBU search information (VOBU) The following information is described as (SRI).
[0058]
This information describes the start address of the VOBU that is (0.5 × n) seconds before and after the start time of the current video object unit (VOBU). That is, the VOBU start address from +1 to +20, +60, +120, and +240 as a forward address (FWDINn) according to the playback order based on the VOBU including the DSI and the flag that the video pack exists in the unit is described. Has been. The start address is described by the relative number of logical sectors from the top logical sector of the VOBU. By using this information, it is possible to freely select a VOBU to be reproduced.
[0059]
As shown in FIG. 14, the synchronization information (SYNC) describes the addresses of sub-pictures and audio data to be reproduced in synchronization with the reproduction start time of VOBU video data including DSI. The address is the NV containing the DSI The target pack start position is indicated by the relative number of logical sectors from the PCK. When there are a plurality of audio streams (maximum 8), the same number of synchronization information is described. In addition, when there are a plurality of sub-pictures (maximum 32), the same number of synchronization information is described.
[0060]
The above description is the description of the pack structure of video, audio, NV data, sub-pictures and the like.
[0061]
Here, each aggregate of each pack will be described.
[0062]
FIG. 15 shows the relationship between a video object unit (VOBU) and a video pack in this unit. Video data in a VOBU is composed of one or more GOPs. The encoded video data conforms to, for example, ISO / IEC13818-2. A VOBU GOP is composed of an I picture and a B picture, and a series of this data is divided into video packs.
[0063]
FIG. 16 shows the relationship between audio streams and audio packs. The audio stream includes data such as linear PCM, Dolby AC-3, and MPEG.
[0064]
FIG. 17 illustrates the logical structure of a pack of sub-pictures that have been encoded (run-length compressed).
[0065]
As shown in the upper part of FIG. 17, one pack (SP) of sub-pictures (sub-pictures) included in the video data (PCK) is composed of, for example, 2048 bytes (2 kB). One pack of sub-pictures includes a packet header and sub-picture data after the head pack header. Each pack header is provided with a reference time (SCR; System Clock Reference) information through the reproduction of the entire file, and has a predetermined relationship with the time of the system timer and the SCR with the same time information. Each sub-picture packet is collected and transferred to a decoder described later.
[0066]
The first sub-picture packet includes sub-picture data subjected to run-length compression together with a sub-picture unit header (SPUH) described later after the packet header. Similarly, the second sub-picture packet includes run-length compressed sub-picture data after the packet header.
[0067]
A sub-picture unit is a collection of a plurality of such sub-picture data for one unit (one unit) of run length compression. A sub video unit header is assigned to the sub video unit. After this sub-picture unit header, pixel data obtained by run-length compressing video data for one unit (for example, data for one horizontal line of a two-dimensional display screen) and display control sequence information for each sub-picture data pack are included. The table continues.
[0068]
That is, the sub-picture unit includes a sub-picture unit header (SPUH) in which various parameters for sub-picture display are recorded, display data (compressed pixel data; PXD) including run-length codes, and a display control sequence table. (DCSQT).
[0069]
FIG. 18 illustrates a part of the content of the sub-picture unit header in the run-length compressed data 310 for one unit illustrated in FIG.
[0070]
The sub-picture unit header (SPUH) includes at least the display size of the pixel data (PXD) on the TV screen, that is, the display start position and display range (width and height) (SPDSZ; 2 bytes), and the sub-picture data packet. Display control sequence table recording start address (SP DCSQT SA; 2 bytes) is recorded.
[0071]
More specifically, parameters having the following contents are recorded in the sub-picture unit header (SPUH) as shown in FIG.
[0072]
(1) size information (SPDSZ) indicating the display start position and display range (width and height) of the display data on the monitor screen;
(2) Recording start position information of display control sequence table in packet (sub-picture display control sequence table start address SP DCSQT SA).
[0073]
FIG. 19 again shows the data structure of the sub-picture unit.
[0074]
The sub video unit is composed of a plurality of sub video packets. That is, one pack of sub-picture information included in the video data is composed of, for example, 2048 bytes (2 kB), and one pack of sub-picture information includes one or more sub-picture packets after the head pack header. . Each pack header is given reference time (SCR; System Clock Reference) information through reproduction of the entire file, and packets in the sub-picture pack to which the SCR of the same time information is given to the decoder described later. It is supposed to be transferred.
[0075]
In the packet header of the packet described above, the time at which the playback system should start display control of the sub-picture unit is recorded as a presentation time stamp (PTS). However, as shown in FIG. 20, this PTS is recorded only in the header of the head sub-picture data packet in each sub-picture unit (Y, W). In this PTS, a value in the order of reproduction is described for each sub-picture unit in a plurality of sub-picture units reproduced with reference to a predetermined reproduction time SCR.
[0076]
FIG. 21 shows a serial arrangement state (n, n + 1) of sub-picture units composed of one or more sub-picture packets, a presentation time stamp (PTS) described in the packet header of one unit (n + 1) of them, The progress state of the display control of the unit (n + 1) corresponding to this (PTS) is illustrated. That is, it shows the relationship between the PTS processing time, the display clear period of the sub-picture unit (n), and the display start time of the sub-picture unit (n + 1) to be displayed.
[0077]
As shown in FIG. 22, the sub-picture unit header (SPUH) 311 includes a sub-picture unit size (2-byte SPU). SZ) and the recording start address (2-byte SP) of the display control sequence table 313 in the packet DCSQT SA) is recorded.
[0078]
SPU SZ describes the size of one unit in bytes, and the maximum size is 53248 bytes. SP DCSQT SA is the display control sequence table (SP by the relative number of bytes from the first byte of the unit. DCSQT) is described.
[0079]
As shown in FIG. 23, the display control sequence table (SP DCSQT) includes one or more sub-picture display sequences (SP DCSQ0, SP DCSQ1, SP DCSQn) are described in the order of execution. Display control sequence table (SP DCSQT) is display sequence information for starting / stopping sub-picture display and changing attributes during the effective period of the sub-picture unit.
[0080]
FIG. 24 shows the sub-picture display control sequence (SP One content of DCSQ) is shown. This SP The following contents are described as DCSQ parameters.
[0081]
Sub-video display control start time (SP) indicating the time when execution of video data display control is started DCSQ STM; Sub-Picture Display Control Sequence Start Time) and the next sub-picture display control sequence (SP DCSQ) address (SP) NXT DCSQ SA; Addres of Next SP DCSQ) and sub-picture data display control command (SP COMMAND; Sub-Picture Display Control Command) (SP COMMAND1, SP COMMAND2, SP COMMAND3,...) Are recorded.
[0082]
Here, the presentation time stamp PTS in the packet header is defined by a relative time from a reference time (SCR; System Clock Reference) through reproduction of the entire file, such as a reproduction start time at the beginning of the file. As described above, the SCR is described in the pack header provided before the packet header.
[0083]
Further, the sub-video display control time (SP DCSQ (STM) is defined by the relative time (relative PTM) from the PTS described in the packet header.
[0084]
Therefore, (SP DCSQ STM) and the count value of the sub timer are compared, and when the count value of the sub timer is larger than the display control sequence time, the display state of the output data decoded by the decoding means is controlled according to the sequence control data.
[0085]
Actually (SP DCSQ For the first video frame that is displayed after the execution start time (STM) is described, control for display is started for the sub-picture represented in the video frame. First display control sequence time (SP DCSQ “0000h” is described in (STM). The value of this execution start time is equal to or greater than the PTS described in the sub-picture packet header, and is 0 or a positive integer value. Based on this display control start time, one (SP When a command in DCSQ is executed, it is specified next (SP The execution process is started when the command in the DCSQ) reaches the display control start time.
[0086]
SP NXT DCSQ SA is indicated by the relative number of bytes from the first sub-picture unit, and the next SP The address of DCSQ is shown. Next SP If there is no DCSQ, this SP The relative number of bytes from the first byte of the corresponding sub-picture unit of DCSQ, and the first SP The start address of DCSQ is described. SP DCCMDn describes one or more display control sequences.
[0087]
FIG. 25 shows a display control command (SP for performing display control). One content of DCCMD) is shown.
[0088]
Display control command (SP The content of DCCMD) is a command (FSTA) that sets the forced display start timing of pixel data. DSP), a command (STA for setting display start timing of pixel data) DSP), a command (STP) for setting display end timing of pixel data DSP), command to set color code of pixel data (SET COLOR), a command to set the contrast between pixel data and main video (SET CONTR), a command to set the display area for pixel data (SET DAREA), a command to set the display start address of pixel data (SET DSPXA), command to set color and contrast change control of pixel data (CHG COLCON), display control end command (CMD) END). The respective codes and the number of extension fields are as follows as shown in the figure.
[0089]
That is, a forced display start timing command (FSTA The DSP) code is 00h and the extension field is 0 bytes. When this instruction is described, the forced display of the sub-picture unit having this code is executed regardless of whether the display state of the sub-picture is on or off.
[0090]
Display start timing command (STA DSP) code is 01h, and the extension field is 0 bytes. This command is a sub-picture unit display start command. This command is ignored when the sub-picture display is turned off.
[0091]
Display stop timing command (STP The DSP code is 02h and the extension field is 0 bytes. This command is a sub video unit display stop command. The sub-picture can be redisplayed by the previous display start command.
[0092]
Color code setting command (SET The COLOR) code is 03h and the extension field is 2 bytes. This command is a command for determining the color of each pixel of the pixel data, and is described in the extension field with a palette code. Also, palette codes for the second emphasized pixel (4 bits), the first emphasized pixel (4 bits), the pattern pixel (4 bits), and the background pixel (4 bits) as palette codes for each pixel. Is described.
[0093]
Here, this command (SET If COLOR) does not exist in the sub-picture unit, the last used one is maintained and this command is used. This command is specified at the beginning of each line.
[0094]
Contrast setting command (SET CONTR) is 04h and the extension field is 2 bytes. This command is a command for setting the mixing ratio between the pixel data and the main video, and is described in the extension field with contrast designation data. The pixel contrast designation data includes the second emphasized pixel (4 bits), the first emphasized pixel (4 bits), the pattern pixel (4 bits), and the background pixel (4 bits). Contrast designation data k for this is described.
[0095]
Assuming that the contrast of the main image is defined by (16−k) / 16, the contrast of the sub-image is k / 16. Reference numeral 16 denotes a gradation. The value may be “0”. At this time, even if the sub-picture exists, it does not appear on the screen. If the value is not “0”, k is treated as (value + 1).
[0096]
Here, this command (SET If (CONTR) does not exist in the sub-picture unit, the last used one is maintained and this command is used. This command is specified at the beginning of each line.
[0097]
Display area setting command (SET DAREA) is 05h and the extension field is 6 bytes. This command is a command for setting a rectangular pixel data display area on the screen. This command describes the start position (10 bits) and the end position (10 bits) of the X-axis coordinates on the screen, and the start position (10 bits) and the end position (10 bits) of the Y-axis coordinates. Of the 6 bytes, the remaining bits and reserved are reserved. If the value of the start position of the X axis coordinate is subtracted from the value of the end position of the X axis coordinate and +1 is performed, it should be the same as the number of display pixels on one line. The origin of the Y-axis coordinates is line number 0. The origin of the X-axis coordinates is also 0. Corresponds to the upper left corner on the screen. The Y-axis coordinate value is 2 to 479 (for 525 lines / 60 Hz TV), or 2 to 574 (for 625 lines / 50 Hz TV). A value of 0 to 719 is described, and a pixel number is designated by this.
[0098]
Here, this command (SET If DAREA) does not exist in the sub-picture unit, the command included in the last sub-picture unit sent in advance is used as it is.
[0099]
Display start address setting command (SET The DSPXA) code is 06h and the extension field is 4 bytes. This command is a command indicating the first address of image data to be displayed. The first address of the odd field (16 bits) and the even field (16 bits) is described by the relative number of bytes from the head of the sub-picture unit. The first pixel data at the position indicated by this address indicates a run-length compression code including the first pixel at the left end of the line.
[0100]
Here, this command (SET If DSPXA) does not exist in the sub-picture unit, the instruction included in the last sub-picture unit sent in advance is used as it is.
[0101]
Color and contrast change control command (CHG The code of (COLON) is 07h, and the extension field is (pixel control data size + 2 bytes). (CMD The code of END) is FFh, and the extension byte is 0 byte.
[0102]
FIG. 26 shows the above (CHG The contents of pixel control data (PXCD; Pixel Control Data) described in the extended field of (COLON) are shown.
[0103]
This PXCD is data for controlling the color and contrast of pixels displayed as sub-pictures during the display period. The command described in PXCD is the sub-picture display control start time (SP DCSQ STM) is performed on each video frame from the first video frame after it is described, and until the next new PXCD is set. When the new PXCD is updated, the previous PXCD is canceled.
[0104]
Line control information (LN) shown in FIG. CTLI (Line Control Information) designates a line on which sub-picture change control is performed. A plurality of lines on which similar conversion control is performed can be designated. Also, pixel control information (PX CTLI (Pixcel Control Information) describes a designated position on the line where change control is performed. One or more pixel control information (PX CTLI) can specify a plurality of positions on a line on which conversion control is performed.
[0105]
As the end code of the pixel control data (PXCD), (0FFFFFFFh) is LN CTLI is described. When a PXCD arrives that only this exit code exists, (CHG COLON) means the end of the instruction itself.
[0106]
With reference to FIG. 27, each of the above instructions will be further described.
[0107]
LN CTLI is composed of 4 bytes, and describes the line number (10 bits) at which sub-picture changes start, the number of changes (4 bits), and the end line number (10 bits). The change start line number is a line number where the change of the pixel control content is started, and is described by the sub-picture line number. The end line number is a line number at which the control state according to the pixel control content is stopped, and is also described by the sub-picture line number. The number of changes is the number of change positions, and pixel control information (PX CTLI) number. The line number at this time is, of course, 2 to 479 (when the TV system is 525 lines / 60 Hz) or 2 to 574 (when the TV system is 625 lines / 50 Hz).
[0108]
Next, one pixel control information (PX (CTLI) is composed of 6 bytes, and describes a change start pixel number (10 bits), and control information for changing the color and contrast of each pixel following that pixel.
[0109]
Each palette code for the second emphasized pixel (4 bits), the first emphasized pixel (4 bits), the pattern pixel (4 bits), and the background pixel (4 bits) is described as a palette code for the pixel. Has been. Also, the contrast designation data for the second emphasized pixel (4 bits), the first emphasized pixel (4 bits), the pattern pixel (4 bits), and the background pixel (4 bits) are described as the contrast designation data for the pixels. Has been.
[0110]
The change start pixel number is described by the pixel number in the display order. When this is zero, SET COLOR and SET CONTR is ignored. A color palette code is described as the color control information, and the contrast control information is described using the contrast designation data as described above.
[0111]
When no change is requested in each control information, the same code as the initial value is described. The initial value is a color code and contrast control data designated from the beginning to be used for the sub-picture unit.
[0112]
Next, a sub-picture compression method will be described.
[0113]
FIG. 28 shows run-length compression rules 1 to 6 when sub-pixel compressed pixel data (run-length compressed data) is created. Based on this rule, the data length (variable length) of one unit of the unit is determined. Then, encoding (run length compression) and decoding (run length expansion) are performed with a fixed data length.
[0114]
FIG. 29 illustrates run-length compression rules 1 to 6 employed in the encoding method according to the embodiment when the pixel data of the previous sub-picture is composed of 2-bit pixel data.
[0115]
Rule 1 shown in the first column of FIG. 28 is a rule applied when 1 to 3 identical pixels continue, and constitutes one unit of encoded (run-length compressed) data with 4-bit data. That is, the first 2 bits represent the number of continuous pixels, and the following 2 bits represent the contents of the pixel data (for example, background pixels, pattern pixels, enhancement 1 pixels, enhancement 2 pixels) ).
[0116]
For example, in the uncompressed video data (PXD) shown in the upper part of FIG. 29, the first compressed data unit CU01 is justified with two 2-bit pixel data d0 and d0. D0 and d1 = (00 00) b. (B indicates binary). In this example, two identical 2-bit pixel data (00) b are continuous (continued).
[0117]
In this case, as shown in the lower part of FIG. 29, d0 and d1 = (1000) b obtained by connecting the 2-bit display (10) b of the continuation number “2” and the content (00) b of the pixel data are obtained. This is the data unit CU01 * of the compressed video data (PXD).
[0118]
In other words, according to rule 1, (0000) b of data unit CU01 is converted to (1000) b of data unit CU01 *. In this example, substantial bit length compression is not obtained. However, for example, if CU01 = (000000) b in which three identical pixels (00) b are consecutive, CU01 * = (1100) b after compression. Thus, a 2-bit compression effect can be obtained.
[0119]
Rule 2 shown in the second column in FIG. 28 is a rule applied when 4 to 15 identical pixels continue. In this case, 8-bit data constitutes one unit of encoded data. That is, the first 2 bits are represented by an encoding header indicating that it is based on rule 2, the subsequent 4 bits represent the number of continuation pixels, and the subsequent 2 bits represent the contents of pixel data (for example, gradation and color).
[0120]
For example, the second compressed data unit CU02 of the uncompressed video data (PXD) shown in the upper part of FIG. 29 includes five pieces of 2-bit pixel data d2, d3, d4, d5, d6 = (0101010101) b. It is out. In this example, five identical 2-bit pixel data (01) b are continuous (continue).
[0121]
In this case, as shown in the lower part of FIG. 29, the encoded header (00) b, d2 to which the 4-bit display (0101) b of the continuation number “5” and the content (01) b of the pixel data are connected. d6 = (00010101) b is the data unit CU02 * of the compressed video data (PXD).
[0122]
In other words, according to rule 2, (0101010101) b (10-bit length) of data unit CU02 is converted to (00010101) b (8-bit length) of data unit CU02 *. In this example, the effective bit length compression is only 2 bits from 10 bits to 8 bits, but if the continuation number is 15 (30 bits length of 15 01 CU02s), this is 8 bits. Compressed data (CU02 * = 00111101) is obtained, and a 22-bit compression effect is obtained for 30 bits. That is, the bit compression effect based on rule 2 is greater than that of rule 1. However, rule 1 is also necessary to support run-length compression of fine images with high resolution.
[0123]
Rule 3 shown in the third column of FIG. 28 is a rule applied when 16 to 63 identical pixels continue. One unit of encoded data is composed of 12-bit data. That is, the first 4 bits represent an encoding header indicating that the rule 3 is used, the subsequent 6 bits represent the number of pixels to be continued, and the subsequent 2 bits represent pixel data.
[0124]
For example, the third compressed data unit CU03 of the uncompressed video data (PXD) shown in the upper part of FIG. 29 includes 16 pieces of 2-bit pixel data d7 to d22 = (101010... 1010) b. . In this example, 16 pieces of the same 2-bit pixel data (10) b are continuous (continued).
[0125]
In this case, as shown in the lower part of FIG. 29, the encoded header (0000) b, d7 to which the 6-bit display (010000) b of the continuation number “16” and the content (10) b of the pixel data are connected. d22 = (00000101010) b is the data unit CU03 * of the video data (PXD) after compression.
[0126]
In other words, according to the rule 3, (101010... 1010) b (32-bit length) of the data unit CU03 is converted into (0000010010) b (12-bit length) of the data unit CU03 *. In this example, the actual bit length compression is 20 bits from 32 bits to 12 bits, but if the continuation number is 63 (126 bits because 63 of 10 CU03s continue), this is 12 bits. Compression data (CU03 * = 0000011111110), and a compression effect of 114 bits is obtained for 126 bits. That is, the bit compression effect based on rule 3 is greater than that of rule 2.
[0127]
Rule 4 shown in the fourth column of FIG. 28 is a rule applied when 64 to 255 identical pixels continue, and one unit of encoded data is composed of 16-bit data. In other words, the first 6 bits represent a coding header indicating that it is based on rule 4, the subsequent 8 bits represent the number of continuous pixels, and the subsequent 2 bits represent pixel data.
[0128]
For example, the fourth compressed data unit CU04 of the uncompressed video data PXD shown in the upper part of FIG. 29 includes 69 pieces of 2-bit pixel data d23 to d91 = (111111... 1111) b. In this example, 69 identical 2-bit pixel data (11) b are continuous (continue).
[0129]
In this case, as shown in the lower part of FIG. 29, d23 to d91 in which the encoded header (000000) b, the 8-bit display (00100101) b of the continuation number “69”, and the content (11) b of the pixel data are connected. = (00000000010010111) b is the data unit CU04 * of the compressed video data PXD.
[0130]
In other words, according to rule 4, (111111... 1111) b (138 bit length) of the data unit CU04 is converted to (0000000010010111) b (16 bit length) of the data unit CU04 *. In this example, the effective bit length compression is 122 bits from 138 bits to 16 bits. However, if the continuation number is, for example, 255 (510 bits length because 255 of 11 CU01s continue), this is 16 bits. Compression data (CU04 * = 00000011111111111), and a compression effect of 494 bits is obtained with respect to 510 bits. That is, the bit compression effect based on rule 4 is greater than that of rule 3.
[0131]
According to Rule 5 shown in the fifth column of FIG. 28, when the same pixel continues from the switching point of the encoded data unit to the end of the line, one unit of encoded data is constituted by 16-bit data. In this case, the first 14 bits represent an encoding header indicating that the rule 5 is used, and the subsequent 2 bits represent pixel data.
[0132]
For example, the fifth compressed data unit CU05 of the uncompressed video data PXD shown in the upper part of FIG. 29 includes one or more pieces of 2-bit pixel data d92 to dn = (000000... 0000) b. In this example, the same 2-bit pixel data (00) b continues (continues) in a finite number. However, in rule 5, the number of continuing pixels may be any number of 1 or more.
[0133]
In this case, as shown in the lower part of FIG. 29, d92 to dn = (0000000000000) b obtained by connecting the encoding header (00000000000000) b and the content (00) b of the pixel data is the compressed video data PXD. The data unit is CU05 *.
[0134]
In other words, according to rule 5, (000000... 0000) b (unspecified bit length) of the data unit CU05 is converted to (0000000000000) b (16 bit length) of the data unit CU05 *. According to Rule 5, if the same pixel continuation number up to the line end is 16 bits or more, a compression effect can be obtained.
[0135]
According to Rule 6 shown in the sixth column of FIG. 28, the length of the compressed video data PXD for one line is not an integer multiple of 8 bits (that is, byte) when one pixel line on which encoding target data is arranged ends. If not aligned, 4-bit dummy data is added so that the compressed video data PXD for one line is in units of bytes (that is, byte-aligned).
[0136]
For example, the total bit length of the data units CU01 * to CU05 * of the compressed video data PXD shown in the lower part of FIG. 29 is always an integer multiple of 4 bits, but is not necessarily an integer multiple of 8 bits. Not necessarily.
[0137]
For example, if the total bit length of the data units CU01 * to CU05 * is 1020 bits and 4 bits are insufficient for byte alignment, the 4-bit dummy data CU06 * = (0000) as shown in the lower part of FIG. ) B is added to the end of 1020 bits, and byte-aligned 1024-bit data units CU01 * to CU06 * are output.
[0138]
The 2-bit pixel data arranged at the end of one unit is, for example, pixel data (00) b means a background pixel of a sub-picture, pixel data (01) b means a pattern pixel of a sub-picture, Pixel data (10) b means the first emphasized pixel of the sub-picture, and pixel data (11) b means the second emphasized pixel of the sub-picture.
[0139]
In this way, depending on the contents of the 2-bit pixel data, whether the run-length data is a background pixel, a sub-picture pattern pixel, a sub-picture first emphasized pixel, or a sub-picture second emphasized pixel Can be judged.
[0140]
If the number of constituent bits of the pixel data is larger, other types of sub-picture pixels can be specified. For example, when the pixel data is composed of 3 bits (000) b to (111) b, in the sub-picture data to be run-length encoded / decoded, a maximum of 8 types of pixel colors + pixel types (emphasis effect) are selected. Can be specified.
[0141]
The above description of the embodiment is a basic description of the present invention. In the present invention, pixel data is expanded data.
[0142]
30A and 30B show the relationship between the sub-video unit and the compressed video data. In the sub-picture unit, a sub-picture unit header SPUH area, a compressed video data (PXD) area, and a display control sequence table (DCSQT) area are shown. In the area of the compressed video data (PXD), the first half is allocated for the top field (first field) and the second half is allocated for the bottom field (second field). FIG. 30B shows one compression unit compressed based on the compression rule of FIG. In FIG. 30B, the pixel data is 2 bits. However, in the present invention, the bitmap compression method uses the rule extended earlier, but the pixel data can be further expanded to use N bits.
[0143]
That is, as shown in FIG. 30C, N-bit pixel data is used, but the pixel data is divided into 2 bits and (N-2) bits, and the compressed video data (2 bits of pixel data) ( PXD (A)) and (N-2) -bit pixel data (PXD (B)) are obtained.
[0144]
Next, when the compressed video data (PXD (A)) and the pixel data (PXD (B)) are constructed as sub-video units, they are arranged as shown in FIG. 30 (D).
[0145]
That is, an area for pixel data (PXD (B)) is provided next to an area for video data (PXD (A)). This arrangement is the same in the top field and the bottom field. By expanding the pixel data to N bits in this way, the compressed pixel data is decoded, and when the color code or the contrast code is associated with the decoded pixel data (or the decoded data is modified), the choice of the expression Can be expanded.
[0146]
FIGS. 31A and 31B show examples of contents that can be expressed when the number of bits of the pixel data is expanded to 3 bits.
[0147]
That is, in the case of FIG. 31 (A), 000 is emphasis 2, 001 is emphasis, 010 is pattern 1, 011 is background 1, 100 is emphasis 4, 101 is cooperation, 110 is pattern 2, and 111 is background 2. Is defined to be. The lower 2 bits are arranged in the video data (PXD (A)) and the upper 1 bit is arranged in the pixel data (PXD (B)).
[0148]
In the case of FIG. 31B, 000 indicates background 1, 001 indicates pattern 1, 010 indicates enhancement 1, 011 indicates enhancement 2, 100 indicates background 2, 101 indicates pattern 2, 110 indicates enhancement 3, and 111 indicates enhancement 4. Is defined to be. Also in this case, the lower 2 bits are included in the video data (PXD (A)) and the upper 1 bit is included in the pixel data (PXD (B)).
[0149]
By arranging as described above, the compressed video data (PXD (A)) can be controlled by the control data of FIGS. 19 to 27 described above. That is, the video data (PXD (A)) after compression can be decoded without any problem by the playback apparatus that can handle the control data described with reference to FIGS. Then, the video data (PXD (B)) can also be handled by the playback device with improved functions. According to the playback apparatus of the present invention, video data (PXD (A)) and pixel data (PXD (B)) can be handled together, so that the choices of color code and contrast are increased accordingly. Become.
[0150]
In order to recognize the pixel data (PXD (B)), it is preferable to describe or additionally describe information indicating the head address in either the sub-picture unit header or the display control sequence table.
[0151]
FIG. 31 is a diagram for explaining a case where the bit number R = 2 of pixel data is expanded to N = 3 bits. In the example of FIG. 31A, the contents expressed by the 3-bit pixel data are “000” ... emphasis 2, “001” ... emphasis 1, “010” ... pattern 1, “011” ... background 1, “ 100 "... Emphasis 4," 101 "... Emphasis 3," 110 "... Pattern 2," 111 "... Background 2 can be set. As shown in FIG. 31B, "000" ... background 1, "001" ... pattern 1, "010" ... emphasis 1, "011" ... emphasis 2, "100" ... background 2, "101" ... Pattern 2, “110”, emphasis 3, “111”, emphasis 4 may be set.
[0152]
By extending the number of bits of pixel data as described above, options such as color code and contrast can be increased. As a result, sub-pictures that are more varied can be obtained.
[0153]
When the number of bits of pixel data is expanded as described above to increase the number of options such as color code, the display control command is as follows.
[0154]
FIG. 32 describes a display control command. Since most of the commands are the same as those described in FIG. 25, different commands will be described.
[0155]
Color code setting command (SET in code 03h COLOR) is an instruction for determining the color of each pixel of the pixel data, and is described in the extension field by a palette code. Also, palette codes for the second emphasized pixel (4 bits), the first emphasized pixel (4 bits), the pattern pixel (4 bits), and the background pixel (4 bits) as palette codes for each pixel. Is described. This color code setting command can be used as it is for a reproducing apparatus of the current system.
[0156]
Further, in this apparatus, for example, a code 08h is newly provided, and a similar color code setting command (SET) is also provided here. COLOR) is described.
[0157]
FIG. 33A shows a color code corresponding to the code (command) 03h. That is, in the code (command) 03h, a color code can be specified for each emphasis pixel, pattern pixel, and background pixel using bits. This command is specified at the beginning of each line. The color code here is used when the extended pixel data is not used.
[0158]
When performing display control using the expanded pixel data (3 bits described above), the color code shown in FIG. 33B corresponding to the code 08h can be arbitrarily designated. There are first to fourth color codes (4 bits each) as color codes for emphasized pixels, and first and second color codes (4 bits each) as color codes for pattern pixels. The first and second color codes (4 bits each) exist as the background pixel color codes. This increases the choice of color codes.
[0159]
In the above example, the code 08h command is expanded. However, if the number of bits of pixel data is further increased and the number of options is increased, a code may be newly added to increase the color code setting command. Of course.
[0160]
That is, if the number of bits of the pixel data is increased, the number of options can be increased accordingly, and the number of color code setting instructions can be increased as the number of options increases.
[0161]
In the above description, the color code is maintained at 4 bits, and the number of color code setting instructions is increased. However, when the number of bits of pixel data is expanded, many color code setting instructions (SET COLOR) can be expanded. By utilizing this fact, the number of bits of the color code may be expanded to, for example, M bits to increase the types of color codes so that they can be arbitrarily designated.
[0162]
That is, in this case, for example, a code of 09h is further added to the display control command (SP_DCCMD), and an (M-4) -bit color code is described here.
[0163]
FIG. 34 shows a display control command (SP_DCCMD). Since most of them are the same as those shown in FIG. 25, different parts will be described. A code 09h is added as a SET_COLOR command. In the figure, an example of M = 12 bits is shown. The color code represented by 4 bits is described in the command of code 03h. The color code represented by (M−4) = 8 bits is described as a command of code 09h.
[0164]
FIG. 35A shows the description format of the color code described as the command of code 03h, and FIG. 35B shows the description format of the color code described as the command of code 09h. .
[0165]
Since the number of bits of the color code is expanded to M bits, the choice of the color palette (color code) becomes 2 to the Mth power, and it is possible to provide recording and reproduction of a video that is rich in change. Also, this does not mean that the original playback device function is wasted. A device that uses only the code 03h command can be reproduced as it is.
[0166]
In the above description, it has been described that a variety of images can be obtained by increasing the types of color codes. However, the present invention is not limited to this, and in the command SET_CONTR for setting the contrast between the main video and the sub video, an image rich in change can be obtained by enlarging the type as in the case of the color code.
[0167]
In FIG. 36, a basic SET_CONTR is described as a command of code 04h. That is, the contrast code of the emphasized pixel 2, the contrast code of the emphasized pixel, the contrast code of the pattern pixel, and the contrast code of the background pixel are each described in 4 bits. Therefore, by increasing the number of bits of the contrast code and adding and describing a new code for the extension as in the case of the color code, the types of instructions related to contrast can be increased. Thereby, an image rich in change can be obtained.
[0168]
Contrast setting command (SET CONTR) is a command for setting a mixing ratio between pixel data and main video, and is described in the extension field by contrast designation data. In the above example, the contrast designation data includes the second emphasized pixel (4 bits), the first emphasized pixel (4 bits), the pattern pixel (4 bits), and the background pixel (4 bits).
[0169]
Assuming that the contrast designation data is k, and the contrast of the main video is defined by (16−k) / 16, the contrast of the sub-video is k / 16. Reference numeral 16 denotes a gradation. The value may be “0”. At this time, even if the sub-picture exists, it does not appear on the screen. If the value is not “0”, k is treated as (value + 1).
[0170]
The present invention is not limited to the above embodiment, and the command for designating the display area may be extended.
[0171]
In the previous display control command (shown in FIG. 25), there is one command for designating the display area.
[0172]
That is, as shown in FIG. 37A, the part describing the data display area which is the command SET_DAREA is one place designated by the code 05h. This command is described as shown in FIG. That is, following the code 05h, the start X coordinate, end X coordinate, start Y coordinate, and end Y coordinate are described.
[0173]
However, with this method, for example, when sub-pictures exist above and below the screen, that is, when sub-pictures such as those shown in FIG. Despite the absence, it is necessary to create run-length compressed data at the center.
[0174]
Therefore, according to the method of the present invention, the number of display areas set in the display control command is expanded to N.
[0175]
FIG. 39A shows an example of a display control command in which the set number of display areas is expanded. Since most of the contents are the same as those described with reference to FIG. 25, different parts are shown. In this example, a new command for setting a display area with code 0Ah and code 0Bh is added. The display area is preferably specified sequentially from the top of the screen. In this case, as shown in FIG. 39B, for example, when a sub-picture is to be displayed in an area spaced vertically, each area can be designated by an area designation command. For this reason, when creating run-length data for one screen, run-length data in the middle part of the upper and lower regions is not necessary, and data can be reduced. When run-length data is created by such a method, it is possible to reduce 800-byte run-length data as compared with the case where run-length data of an intermediate area is created as shown in FIG.
[0176]
FIG. 40 shows a view for explaining still another embodiment of the present invention.
[0177]
As described with reference to FIGS. 25, 26, and 27, a command for switching the color and contrast of the pixel data in the middle of the display period is added to the sub-picture unit with a code 07h. That is, the command CHG_COLCON. This command has the pixel control data PXCD shown in FIG. This pixel control data PXCD is the line control information LN. It has CTLI and can control each line.
[0178]
Line control information LN The CTLI consists of 4 bytes as shown in FIG. 27, and describes the line number (10 bits) for starting the change of the sub-picture, the number of changes (4 bits), and the end line number (10 bits). The change start line number is a line number where the change of the pixel control content is started, and is described by the sub-picture line number. The end line number is a line number at which the control state according to the pixel control content is stopped, and is also described by the sub-picture line number. The number of changes is the number of change positions, and pixel control information (PX CTLI) number.
[0179]
Here, normally, the number of changes is defined as 1 to 8, but in the present invention, this number of changes is expanded.
[0180]
That is, as shown in FIG. 40A, normally, the line control information LN_CNTI is made up of 32 bits, the upper bits 31 to 26 are reserved, the bits 25 to 16 are change start line numbers, bits 15 to bit 12 describe the number of changes, and bit 9 to bit 0 describe the change end line number. On the other hand, the new method is to describe the extension of the number of changes in the upper bits 31 to 28 while leaving the above form.
[0181]
In this way, the playback apparatus that supports only the format of FIG. 40 (A) only ignores the description of the extension of the change number, and responds to the original change number described in bits 15 to 12. Thus, the pixel is controlled.
[0182]
The playback device corresponding to the new format is configured to process a number obtained by adding the number of changes described in bits 31 to 28 to the number of changes described in bits 15 to 12 as the number of changes. The
[0183]
Since the number of changes is increased by providing additional change number information in this way, the number of times of changing the color and contrast is increased, and recording and reproduction of a relatively rich video can be performed.
[0184]
Next, a reproducing apparatus that reads and processes recorded information on the optical disc will be described.
[0185]
In FIG. 41, an optical disc (DVD) 100 is placed on a turntable (not shown), clamped by a clamper, and rotationally driven by a motor 101. Assuming that the playback mode is now selected, the information recorded on the optical disc 100 is picked up by the pickup unit 102. The pickup unit 102 is controlled to move in the radial direction of the disk, focus control, and tracking control by the servo unit 103. The servo unit 103 also sends a control signal to the disk motor drive unit 104 to control the rotation of the motor 101 (that is, the optical disk 100).
[0186]
The output of the pickup unit 102 is input to the demodulation / error correction unit 105 and demodulated. The demodulated data demodulated here is input to the demultiplexer 107 via the buffer 106. The demodulated data is input to the DSU decoder 109 via the input buffer 108. A buffer 110 is connected to the DSI decoder 109. The decoded DSI (data search information) is sent to the system control unit 200. The demodulated data is sent to the system control unit 200 via the system buffer 111. Examples of data taken into the system control unit 200 through the system buffer 111 include management information.
[0187]
In the demultiplexer 107, each pack is separated.
[0188]
Video pack (V) taken out from the demultiplexer 107 PCK) is input to the video decoder 123 via the buffer 121 and decoded. A buffer 124 is connected to the video decoder 123. The video signal output from the video decoder 123 is input to the synthesizer 125.
[0189]
Also, the sub-picture pack (SP PCK) is input to the sub-picture decoder 127 via the buffer 126 and decoded. A buffer 128 is connected to the sub-picture decoder 127. The sub video output from the sub video decoder 127 is input to the synthesizer 125. As a result, a signal obtained by superimposing the sub-video on the main video signal is obtained from the synthesizer 125 and supplied to the display.
[0190]
Also, the audio pack (A PCK) is input to the audio decoder 130 via the buffer 129 and decoded. A buffer 131 is connected to the audio decoder 130. The output of the audio decoder 130 is supplied to a speaker.
[0191]
The PCI pack extracted from the demultiplexer 107 is input to the PCI decoder 133 via the buffer 132 and decoded. A buffer 134 is connected to the PCI decoder 133. The output of the PCI decoder 133 is input to the highlight information (HLI) processing unit 135.
[0192]
In the demultiplexer 107, main video information, sub-video (caption and character) information, audio information, control information, and the like are separated and derived. That is, sub-video (caption and character) information, audio information, management information, control information, and the like are recorded on the optical disc 100 corresponding to the video information.
[0193]
In this case, various languages can be selected as subtitle and character information, which is sub-picture information, and audio information, and this is selected according to the control of the system control unit 200. An operation input by the user is given to the system control unit 200 through the operation unit 201.
[0194]
Therefore, the video decoder 123 that decodes the main video information performs a decoding process corresponding to the method of the display device. For example, the main video information is converted into NTSC, PAL, SECAM, wide screen, and the like. Also, the audio information of the stream designated by the user is input to the audio decoder 130 and decoded. Also, sub-picture data of a stream designated by the user is input to the sub-picture decoder 127 and decoded.
[0195]
Next, sub-picture data decoding processing will be described.
[0196]
FIG. 42 shows a sub-picture decoding unit (corresponding to the previous buffer 126 and sub-picture decoder 127).
[0197]
In FIG. 42, the sub-picture pack (SP PCK) is taken into the memory 213 via the buffer 126. The pack is identified by the stream ID described in the packet header. The designated stream ID (substream ID) is input to the sub-picture decoder control unit 211 via the system control unit 200 responding to the user operation, and is stored in the register.
[0198]
Of the packets captured in the buffer 126, the packet whose designated stream ID matches the input substream ID is the capture target. The count value of the reference time of the main system timer 311 is given to the sub-picture decoder control unit 211 and compared with the system clock reference (SCR) of the packet taken into the buffer 126. A packet having the same SCR by comparing the count value of the main system timer 54 and the SCR is stored in the memory 213 for unit construction. As a result of the above processing, one or more sub-video units are stored in the memory 213. When the sub-picture unit is constructed in the memory 213, the decoding process based on the PTS is managed.
[0199]
The sub-picture unit header (SPUH) included in the sub-picture unit is referred to by the sub-picture decoder control unit 211, and the size and address are recognized. As a result, the run-length compressed data (PXD) is sent to the run-length decoder 214, and the display control sequence table (SP DCSQT) is sent to the sequence controller 216.
[0200]
Here, the presentation time stamp (PTS) and the count value of the main system timer 311 are compared, and if the count value of the main system timer 311 is larger than the presentation time stamp (PTS), the run length decoding and Output processing is performed. The decoded output data is output and displayed via the buffer 215 and the output control unit 218 under the control of the sequence control unit 216.
[0201]
That is, run length data (PXD) is decoded by the run length decoder 214. This decoding process is executed according to the rules described above. The decoded pixel data is accumulated in the buffer memory 215 and waits for the output timing.
[0202]
On the other hand, the display control sequence table (SP SCQT) is input to the sequence control unit 216 and analyzed. The sequence control unit 216 has a plurality of registers 217 for holding various control instructions. The sequence control unit 216 determines what color and / or contrast to set and output for the pixel to be output next in accordance with a register command. This determination signal is given to the output control unit 218. The sequence control unit 216 also provides a read timing signal and address for pixel data held in the buffer memory 215.
[0203]
The output control unit 218 adds a color code and / or contrast data to the pixel data from the buffer memory 215 in accordance with a command from the sequence control unit 216 and outputs the pixel data. The output sub-video is superimposed on the main video.
[0204]
As described above, regarding the display of the sub-picture, the presentation time stamp (PTS) (sent in the packet header) set before the sub-picture unit and the output of the system timer 311 have a predetermined relationship. A timing signal is obtained from the comparator 312. Based on this timing signal, the run length data decoding process is started.
[0205]
The sub-picture display control is executed or in a standby state according to the timing signal from the comparator 321. The sub time stamp extraction unit 322 includes the SP stored in the sequence control unit 216. This is a register for holding DCSQ start time data. The comparator 321 outputs the output data from the subsystem timer 323 and each SP. The DCSQ start time data are compared one after another, and if they match, a timing signal is output. The subsystem timer 323 is cleared for each line, for example.
[0206]
When display control is performed, the use of the command shown above will be further described.
[0207]
In display control, the command SET The display position and display area of the sub-picture are set by DAREA, and the command SET The display color and contrast of the pixel data are set by COLOR, and the command SET The contrast ratio of the sub video to the main video is basically set by CONTR. These are basic commands.
[0208]
Then, a display start timing instruction STA Display end timing command STP in another display control sequence DCSQ after executing DSP Until the DSP is executed, the color and contrast switching command CHG is displayed during display. While performing display control of pixel data in accordance with COLCON, the pixel data PXD subjected to run length compression is decoded.
[0209]
The sequence control unit 216 executes the command SET The display position and display area of the sub-picture are set with DAREA, and the command SET The display color of the sub-picture is set with COLOR, and the command SET The contrast ratio of the sub video to the main video is basically set by CONTR. Then, a display start timing instruction STA Display end timing command STP in another display control sequence DCSQ after executing DSP Until the DSP is executed, the color and contrast switching command CHG is displayed during display. Display control conforming to COLCON is performed.
[0210]
In the middle of the above processing, the sub-picture decoder control unit 211 and the sequence control unit 216 are expanded by recognizing the expanded pixel data and recognizing the expanded display control command and line control information as described above. In this case, of course, display control according to the expanded content is performed.
[0211]
【The invention's effect】
As described above, according to the present invention, the resolution of the sub-picture can be improved and a data structure compatible with the format of the current system can be provided.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of a volume space which is a logical format recorded on an optical disc.
FIG. 2 is an explanatory diagram showing structures of a video manager (VMG) and a video title set (VTS) in the volume space.
FIG. 3 is an explanatory diagram showing the relationship between the video object set (VOBS) and a cell (Cell) and the contents of the cell (Cell).
FIG. 4 is an explanatory diagram showing a relationship between a video object and a cell.
FIG. 5 is an explanatory diagram showing an example in which the playback order of cells is controlled by a program chain (PGC).
FIG. 6 is an explanatory diagram of video title set information (VTSI) in a video title set (VTS).
FIG. 7 is a diagram showing a configuration example of one pack and packet.
[Fig. 8] Navigation pack (NV PCK).
FIG. 9 is an explanatory diagram of general information of picture control information (PCI).
FIG. 10 is an explanatory diagram of general information of data search information (DCI).
FIG. 11 is an explanatory diagram of seamless playback information.
FIG. 12 is an explanatory diagram of seamless angle information.
FIG. 13 is an explanatory diagram of address information showing the details of data search information in more detail.
FIG. 14 is an explanatory diagram of synchronization information.
FIG. 15 is an explanatory diagram of a video object unit.
FIG. 16 is an explanatory diagram of an audio stream.
FIG. 17 is an explanatory diagram of a sub-video unit.
FIG. 18 is an explanatory diagram of a sub-picture unit.
FIG. 19 is also an explanatory diagram of a sub-video unit.
FIG. 20 is an explanatory diagram showing a continuous configuration of sub-video units.
FIG. 21 is an explanatory diagram showing display timing of a sub-video unit.
FIG. 22 is an explanatory diagram showing a header configuration of a sub-picture unit.
FIG. 23 is an explanatory diagram of a sub-picture display control sequence table.
FIG. 24 is an explanatory diagram of a sub-picture display control sequence table.
FIG. 25 is an explanatory diagram of a sub-picture display control command.
FIG. 26 is an explanatory diagram of a sub-picture display control command.
FIG. 27 is an explanatory diagram of the contents of a sub-picture display control command.
FIG. 28 is an explanatory diagram of a run length compression rule.
FIG. 29 is an explanatory diagram showing an example of run-length compressed data.
FIG. 30 is an explanatory diagram for explaining a new structure of a sub-picture unit.
FIG. 31 is an explanatory diagram illustrating an example of pixel data included in a sub-video unit.
FIG. 32 is an explanatory diagram showing a new example of a display control command included in a sub-video unit.
33 is an explanatory diagram showing the description content of the color setting command in FIG. 32;
FIG. 34 is an explanatory diagram showing still another new example of the display control command included in the sub-video unit.
35 is an explanatory diagram showing the description content of the color setting command in FIG. 34;
FIG. 36 is an explanatory diagram showing the description content of a contrast setting command.
FIG. 37 is an explanatory diagram of a display area designation command in a display control command.
FIG. 38 is a diagram showing an example of a screen in which a sub-picture display area is designated by a display area designation command.
FIG. 39 is a diagram showing another example of an area designation command and an example of a screen in which a sub-picture display area is designated by the display area designation command.
FIG. 40 is a diagram showing the description content of line control information in a display control command.
FIG. 41 is a diagram illustrating the configuration of a playback apparatus according to the present invention.
FIG. 42 is an explanatory diagram showing a configuration of a sub-picture decoder unit.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Optical disk 101 ... Disk motor 102 ... Pickup part 103 ... Servo part 104 ... Disk motor drive part 105 ... Demodulation / error correction part 200 ... System control part 201 ... Operation part

Claims (4)

副映像データのユニットサイズおよび表示制御シーケンステーブルの開始アドレスを含む副映像ユニットヘッダ(SPUH)と、
映像データを複数ある所定の規則のうちの1つでランレングス圧縮したデータであって、その圧縮ルールを示す判別データと継続画素数及び圧縮画像の色などの内容を示す画素データからなる圧縮後映像データ(PXD)と、
前記圧縮後映像データを復号して表示する際に用いられる制御データとしての前記表示制御シーケンステーブル(SP_DCSQT)とを1単位とした副映像ユニットにおいて、
前記画素データのビット数Rを拡張してNビットとし、上記圧縮後画像データ形式の第1の圧縮後画像データ(PXD(A))には上記ビット数Rの画素データを含ませて、この第1の圧縮後画像データ(PXD(A))につづいて、(N−R)ビットの拡張分の画素データを拡張画素データ(PXD(B))として配置したことを特徴とするデータ構造。
A sub-picture unit header (SPUH) including a sub-picture data unit size and a display control sequence table start address;
After compression of video data, which is run-length compressed according to one of a plurality of predetermined rules, comprising discrimination data indicating the compression rule, and pixel data indicating contents such as the number of continuous pixels and the color of the compressed image Video data (PXD),
In the sub-video unit in which the display control sequence table (SP_DCSQT) as control data used when decoding and displaying the compressed video data is displayed as a unit,
The number of bits R of the pixel data is expanded to N bits, and the first compressed image data (PXD (A)) in the compressed image data format includes the pixel data of the number R of bits. A data structure characterized in that pixel data for an extension of (N−R) bits is arranged as extended pixel data (PXD (B)) following the first compressed image data (PXD (A)).
副映像データのユニットサイズおよび表示制御シーケンステーブルの開始アドレスを含む副映像ユニットヘッダ(SPUH)と、映像データを複数ある所定の規則のうちの1つでランレングス圧縮したデータであって、その圧縮ルールを示す判別データと継続画素数及び圧縮画像の色などの内容を示す画素データからなる圧縮後映像データ(PXD)と、前記圧縮後映像データを復号して表示する際に用いられる制御データとしての前記表示制御シーケンステーブル(SP_DCSQT)とを1単位として有し、
前記画素データのビット数Rを拡張してNビットとし、上記圧縮後画像データ形式の第1の圧縮後画像データ(PXD(A))には上記ビット数Rの画素データを含ませて、この第1の圧縮後画像データ(PXD(A))につづいて、(N−R)ビットの拡張分の画素データを拡張画素データ(PXD(B))として配置した構造の副映像ユニットを再生する装置であって
前記Nビットの画素データにより指定されるカラーコードを用いて、前記Nビットの画素データに対応してランレングスデコードされた画素に着色させるシーケンス制御手段を有したことを特徴とする副映像ユニットの再生装置。
A sub-picture unit header (SPUH) including the unit size of the sub-picture data and the start address of the display control sequence table, and data obtained by run-length compression of the video data according to one of a plurality of predetermined rules. As compressed control data used when decoding and displaying the compressed video data (PXD) composed of discrimination data indicating a rule, pixel data indicating the number of continuous pixels and the color of the compressed image, etc. And the display control sequence table (SP_DCSQT) as a unit,
The bit number R of the pixel data is expanded to N bits, and the first compressed image data (PXD (A)) in the compressed image data format includes the pixel data of the bit number R. Subsequent to the first compressed image data (PXD (A)), a sub-picture unit having a structure in which pixel data corresponding to (N−R) -bit expansion is arranged as extended pixel data (PXD (B)) is reproduced. A device ,
A sub-picture unit comprising: sequence control means for coloring a run-length decoded pixel corresponding to the N-bit pixel data using a color code specified by the N-bit pixel data. Playback device.
副映像データのユニットサイズおよび表示制御シーケンステーブルの開始アドレスを含む副映像ユニットヘッダ(SPUH)と、映像データを複数ある所定の規則のうちの1つでランレングス圧縮したデータであって、その圧縮ルールを示す判別データと継続画素数及び圧縮画像の色などの内容を示す画素データからなる圧縮後映像データ(PXD)と、前記圧縮後映像データを復号して表示する際に用いられる制御データとしての前記表示制御シーケンステーブル(SP_DCSQT)とを1単位として有し、
前記画素データのビット数Rを拡張してNビットとし、上記圧縮後画像データ形式の第1の圧縮後画像データ(PXD(A))には上記ビット数Rの画素データを含ませて、この第1の圧縮後画像データ(PXD(A))につづいて、(N−R)ビットの拡張分の画素データを拡張画素データ(PXD(B))として配置した構造の副映像ユニットを再生する装置であって、
前記Nビットの画素データにより指定されるコントラストコードを用いて、前記Nビットの画素データに対応してランレングスデコードされた画素にコントラストを設定するシーケンス制御手段を有したことを特徴とする副映像ユニットの再生装置
A sub-picture unit header (SPUH) including the unit size of the sub-picture data and the start address of the display control sequence table, and data obtained by run-length compression of the video data according to one of a plurality of predetermined rules. As compressed control data used when decoding and displaying the compressed video data (PXD) composed of discrimination data indicating a rule, pixel data indicating the number of continuous pixels and the color of the compressed image, etc. And the display control sequence table (SP_DCSQT) as a unit,
The bit number R of the pixel data is expanded to N bits, and the first compressed image data (PXD (A)) in the compressed image data format includes the pixel data of the bit number R. Subsequent to the first compressed image data (PXD (A)), a sub-picture unit having a structure in which pixel data corresponding to (N−R) -bit expansion is arranged as extended pixel data (PXD (B)) is reproduced. A device,
Sub-picture characterized by having sequence control means for setting contrast for pixels that have been run-length decoded corresponding to the N-bit pixel data using a contrast code specified by the N-bit pixel data Unit playback device .
副映像データのユニットサイズおよび表示制御シーケンステーブルの開始アドレスを含む副映像ユニットヘッダ(SPUH)と、A sub-picture unit header (SPUH) including a sub-picture data unit size and a display control sequence table start address;
映像データを複数ある所定の規則のうちの1つでランレングス圧縮したデータであって、その圧縮ルールを示す判別データと継続画素数及び圧縮画像の色などの内容を示す画素  Pixels that are data obtained by run-length compression of video data according to one of a plurality of predetermined rules, and that indicate discrimination data indicating the compression rules, the number of continuation pixels, the color of the compressed image, and the like データからなる圧縮後映像データ(PXD)と、Compressed video data (PXD) consisting of data,
前記圧縮後映像データを復号して表示する際に用いられる制御データとしての前記表示制御シーケンステーブル(SP_DCSQT)とを1単位とした副映像ユニットにおいて、  In the sub-video unit in which the display control sequence table (SP_DCSQT) as control data used when decoding and displaying the compressed video data is displayed as a unit,
前記画素データのビット数Rを拡張してNビットとし、上記圧縮後画像データ形式の第1の圧縮後画像データ(PXD(A))には上記ビット数Rの画素データを含ませて、この第1の圧縮後画像データ(PXD(A))につづいて、(N−R)ビットの拡張分の画素データを拡張画素データ(PXD(B))として配置したデータ構造を有することを特徴とする記録媒体。  The number of bits R of the pixel data is expanded to N bits, and the first compressed image data (PXD (A)) in the compressed image data format includes the pixel data of the number R of bits. The first post-compression image data (PXD (A)) has a data structure in which pixel data corresponding to (N−R) -bit expansion is arranged as expansion pixel data (PXD (B)). Recording media to be used.
JP03590998A 1998-02-18 1998-02-18 Sub-picture data structure, recording medium and reproducing apparatus Expired - Fee Related JP3844872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03590998A JP3844872B2 (en) 1998-02-18 1998-02-18 Sub-picture data structure, recording medium and reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03590998A JP3844872B2 (en) 1998-02-18 1998-02-18 Sub-picture data structure, recording medium and reproducing apparatus

Publications (2)

Publication Number Publication Date
JPH11234697A JPH11234697A (en) 1999-08-27
JP3844872B2 true JP3844872B2 (en) 2006-11-15

Family

ID=12455168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03590998A Expired - Fee Related JP3844872B2 (en) 1998-02-18 1998-02-18 Sub-picture data structure, recording medium and reproducing apparatus

Country Status (1)

Country Link
JP (1) JP3844872B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091985B1 (en) 2000-05-16 2006-08-15 International Business Machines Corporation System and method for compressing color data using expandable color palette
JP2006080666A (en) 2004-09-07 2006-03-23 Toshiba Corp Information recording medium, information recording apparatus, information reproducing apparatus, and information reproducing method
JP2010288299A (en) * 2010-07-23 2010-12-24 Toshiba Corp Information recording medium, information recording device, information reproducing device, and information reproducing method

Also Published As

Publication number Publication date
JPH11234697A (en) 1999-08-27

Similar Documents

Publication Publication Date Title
JP3356691B2 (en) Information recording medium, recording method and reproducing method thereof
JP4388701B2 (en) Method and apparatus for recording real-time information
US6360055B1 (en) Information storage medium, recording method used therefor and reproducing apparatus
JP2002530801A (en) Method and apparatus for recording real-time information
US20040163116A1 (en) Information recording medium, information reproduction apparatus, and information reproduction method
JP2001195809A (en) Recording and reproducing device
JP3702275B2 (en) Information reproducing apparatus, information reproducing method, and information recording medium
JPH11252459A (en) Image compositing device
JPH11149717A (en) Decoding processing method and device
JP2002044590A (en) Dvd video reproducing device
JP2857119B2 (en) Disc reproducing apparatus and method
JP3844872B2 (en) Sub-picture data structure, recording medium and reproducing apparatus
JPH11168702A (en) Video signal processor with display position control function for plural video image
JP2857130B2 (en) Information recording method and recording device
JPH11331777A (en) Three-dimensional noise reduction device and optical disk reproducing device using the same
JP3805886B2 (en) Video data input processing method and apparatus, and recording medium
JP3875379B2 (en) Sub-picture playback control apparatus and method
KR100264315B1 (en) Subimage reproducing control device and method therefor
JP2857123B2 (en) Information recording medium
JP2857129B2 (en) Information recording method and disc reproducing apparatus
JP2857135B2 (en) Information recording medium
JP3356773B1 (en) Information reproducing method, information reproducing apparatus, and information recording medium
JP2000076801A (en) Information reproduction apparatus
JP2857134B2 (en) Information recording medium
JP2857128B2 (en) Disc playback device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060817

LAPS Cancellation because of no payment of annual fees