JP2004194131A - Caption display method, reproducer, recording device, recording medium, and outputting device - Google Patents

Caption display method, reproducer, recording device, recording medium, and outputting device Download PDF

Info

Publication number
JP2004194131A
JP2004194131A JP2002361603A JP2002361603A JP2004194131A JP 2004194131 A JP2004194131 A JP 2004194131A JP 2002361603 A JP2002361603 A JP 2002361603A JP 2002361603 A JP2002361603 A JP 2002361603A JP 2004194131 A JP2004194131 A JP 2004194131A
Authority
JP
Japan
Prior art keywords
information
subtitle
display
display format
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002361603A
Other languages
Japanese (ja)
Inventor
Naozumi Sugimura
直純 杉村
Masuo Oku
万寿男 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002361603A priority Critical patent/JP2004194131A/en
Publication of JP2004194131A publication Critical patent/JP2004194131A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device capable of displaying a caption so that it is easy to read even when a screen is contracted by performing downconvert. <P>SOLUTION: A plurality of pieces of display form information are recorded on a recording medium and, in accordance with an output form, the display form information is selected. At the time of High-Vision display, the caption is displayed in letter size and at a position for the High-Vision and, at the time of the downconvert, the caption is displayed in letter size at the position for an NTSC. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、情報の記録再生技術に関し、特に、テレビジョン信号に字幕を合成する技術に関するものである。
【0002】
【従来の技術】
DVD(Digital Versatile Disc)に代表される記録媒体を用いて、映画などの映像コンテンツが幅広く流通している。これら記録媒体の高密度化や、放送のデジタル化、ブロードバンドに代表される通信速度の高速化などにより、高密度な画像を用いて映像を楽しむことが可能となった。
【0003】
高画質な映像を表示する装置として、ハイビジョンテレビがある。ハイビジョンテレビでは、従来のNTSC方式のテレビと比べ、高解像度で鮮明な画像を表示することができる。また、ハイビジョンテレビは、アスペクト比が16:9と横長で、より迫力のある映像を楽しむことができる。
【0004】
一方で、従来からのNTSC方式のテレビが未だ広く用いられている。一般的に、NTSC方式のテレビは、アスペクト比が4:3であり、ハイビジョンテレビと比較して横幅が短い。
【0005】
従来のNTSC方式のテレビを所有しているユーザーが、ハイビジョン映像の記録されたディスクを再生したり、ハイビジョン放送を視聴する場合においては、ダウンコンバートと呼ばれる機能を用いて、画像を縮小し、解像度を落としてテレビで表示している。この時、ハイビジョンテレビとNTSC方式のテレビでは、アスペクト比が異なるため、NTSC方式のテレビ上では、レターボックスと呼ばれる横長画像で表示される。レターボックス表示では、NTSC方式のテレビの上下に帯状の画像の表示されない領域が生じる。
【0006】
【特許文献1】
特開平8−317306号公報
【0007】
【発明が解決しようとする課題】
外国映画などでは、多くの場合、字幕が表示される。しかしながら、従来のテレビにレターボックス表示を行う場合、そこに表示される字幕も、映像とともに縮小されて表示されるため、非常に見にくいものとなってしまう。
【0008】
本発明の目的は、ダウンコンバートを行って画面を縮小した場合にも、字幕を見やすく表示することのできる装置を提供することにある。
【0009】
【課題を解決するための手段】
ハイビジョンテレビ用の画像とともに、複数の表示形式に対応した表示形式情報を同時に伝送ないし記録しておく。映像を表示する際には、上記の複数の表示形式情報から表示形式情報を選択し、表示形式情報に応じた字幕を生成し、映像に合成する。
【0010】
【発明の実施の形態】
図1に、本発明における字幕情報の記録形式を示す。
図1中、100は字幕情報ファイル、101は字幕情報サイズ、102は表示開始時刻、103は表示終了時刻、104は第1の表示形式情報、105は第2の表示形式情報、106は文字情報である。
【0011】
字幕情報ファイル100には、1プログラム(番組・映画)分の字幕情報が含まれる。もちろん、1プログラム分の字幕情報を、必要に応じて、複数のファイルに分割して記録してもよい。逆に、複数のプログラムの字幕情報をまとめて、一つの字幕情報ファイルとしてもよい。各々の字幕情報には、1つの字幕を表示するために必要な情報が含まれている。
【0012】
字幕情報サイズ101は、個々の字幕情報のデータサイズを示す。これを使用することにより、次の字幕情報の開始位置を容易に求めることができる。
【0013】
表示開始時刻102および表示終了時刻103は、各々、5バイトのデータ領域を持ち、そのうち33ビットが有効なデータである。ここで、表示開始時刻102は、字幕の表示開始時刻を示す。また、表示終了時刻103は、字幕の表示終了時刻を示す。これら時刻情報は、MPEG(Moving PictureExperts Group)ストリーム中の映像および音声の表示開始時刻(PTS)に対応しており、90kHzのクロックにより計測された33ビットの値である。
【0014】
映像信号および音声信号は、MPEG方式で画像圧縮処理されており、これを元の映像・音声に戻す処理が、デコーダによって行われる。画像および音声のデコードの基準となる時刻が、MPEG−TS(Transport Stream)中のPCR(Program Clock Reference)パケットと呼ばれるパケット中に書かれている。デコーダは、PCRパケット中の時刻情報を元に、いわゆるPLL制御により基準クロックを生成する。このクロックを使用して、音声と映像のデコード動作が行われる。
【0015】
映像の表示制御には、上記クロックを90kHzに分周したクロックが用いられ、このクロックで33ビットカウンターを計数させることによりタイムスタンプ値を得る。映像信号中の各画像には、表示時刻を指定するPTSが付加されており、この時刻とタイムスタンプによる時刻が一致した時点で、画像の表示が行われる。
【0016】
字幕情報においても、映像との同期を行うために、上記のタイムスタンプ値を使用する。具体的には、後述するシステム制御部が、タイムスタンプ値を参照し、字幕情報中の表示開始時刻との比較を行う。クロックカウンターの値が、表示開始時刻と一致したら、字幕表示処理を行う。同様に、字幕表示終了時は、クロックカウンターの値と、表示終了時刻との比較を行い、両者が一致した時点で、表示を終了する。
以上のような処理により、字幕と画像・音声の同期を取ることができる。
【0017】
第1の字幕表示形式情報104と第2の字幕表示形式情報105は、それぞれ字幕表示形式情報として、表示座標,文字サイズ,文字飾り等の情報を持つ。
【0018】
表示座標は、字幕の表示開始位置を表し、X軸座標、Y軸座標の順にそれぞれ2バイトの値で表す。
【0019】
文字サイズは、一つの文字の大きさをピクセル数で表す。ピクセル数は、1ビットあればよい。もちろん、文字の大きさを縦横それぞれ設定できるように、縦横のピクセル数をそれぞれ1バイトずつ記録してもよい。
【0020】
文字飾り情報は、斜体、太字、縁取り、影付きなどの文字修飾の条件を指定する。1バイトの領域を使用し、各ビットに斜体、太字などの意味付けを行う。
【0021】
ここで、第1の字幕表示形式情報104は、ハイビジョン用の字幕表示形式とし、第2の字幕表示形式情報105は、ダウンコンバート時の字幕表示形式として説明する。
【0022】
文字情報106は、文字数(バイト数)を表す情報と、実際の文字列データからなる。文字数は、1バイトで表される。文字列データは、日本語を用いる場合、UTF−16形式のような16ビットの文字コードを持ちいる。英語など、アルファベットを使用する言語の文字データは、ASCIIやUTF−8のような8ビットの文字コードを用いればよい。
【0023】
以上のデータの組み合わせにより、1つの字幕情報が構成される。字幕情報は、ひとつのプログラム分まとめて字幕情報ファイル100として、ディスク上に記録しておく。
【0024】
図2に、ハイビジョンおよびダウンコンバート時の字幕表示例を示す。
図2中、201はハイビジョンの字幕表示例、202はダウンコンバート時の字幕表示例である。
【0025】
ハイビジョンでは、縦1080ピクセル、横1920ピクセルの画素数がある。表示画像は、全てのピクセルを使用して表示される。この時、字幕は、201に示したように、画面下方に、画像の上にインポーズして表示される。
【0026】
一方、ダウンコンバート時の画像は、従来のNTSC形式の画像であり、縦480ピクセル、横720ピクセルを使用して画像表示が行われる。
【0027】
この時、ハイビジョンと従来のテレビでは、アスペクト比が異なっており、ハイビジョン用の画像全体を表示するためには、レターボックスと呼ばれる表示形式が取られる。レターボックス形式では、上下に画像が表示されない領域が生じる。
【0028】
ダウンコンバートした画像に、字幕を表示する場合、202に示したように、画像が表示されない領域に字幕を表示すれば、画像を遮ることなく字幕が表示でき、視認性がよい。
【0029】
第1の表示形式情報104は、ハイビジョン用の字幕情報であるから、ハイビジョンテレビ上に、201の如く字幕が表示されるように、ハイビジョン画像の字幕表示領域に合わせて文字サイズ・表示座標などの情報を設定する。
【0030】
一方、第2の表示形式情報105は、ダウンコンバート用の字幕情報であるから、NTSC方式のテレビ画面上に202の如く字幕が表示されるように、ダウンコンバート時の字幕表示領域に合わせて文字サイズ・表示座標などの情報を設定する。
【0031】
図3に、図2の字幕表示に対応した字幕情報の記録例を示す。図3中の記号は、図1と同等である。
字幕情報サイズ101は、この字幕情報のバイト数を表す。表示開始時刻102および表示終了時刻103は、5バイトのデータ領域を使用する。第1の表示形式情報104は、2バイトの表示X座標、2バイトの表示Y座標、1バイトの文字サイズからなる。同様に、第2の表示形式情報105は、2バイトの表示X座標、2バイトの表示Y座標、1バイトの文字サイズである。文字情報106は、文字数を表す1バイトのデータと、文字列データからなる。
【0032】
図3に示した例では、字幕情報をバイナリーデータ形式で記録しているが、これは限定されるものではなく、例えば、テキスト形式のようなデータ形式で記録してももちろん構わない。
【0033】
図4に、テキスト形式で記録する場合の例を示す。
1行目は、字幕情報データの開始を表すタグである。7行目の字幕情報終了タグまでで、一つの字幕情報データを表している。2行目は表示開始時刻102(PTS)、3行目は表示終了時刻103(ETS)の値を示している。ここで、PTSおよびETSは、時、分、秒およびフレーム番号の表示形式とした。ハイビジョン形式およびNTSC形式の映像は、毎秒30フレームの画像で構成されるので、フレーム番号は、0から29までの値を取る。4行目は、ハイビジョン用の表示形式情報104を表している。ここで、LOCATIONは表示位置座標を表しており、SIZEは文字サイズを表している。5行目は、ダウンコンバート時に用いる表示形式情報105である。6行目は、字幕として表示される文字列106を表す。これら字幕情報を用いて、各々の字幕画像を生成し、表示を行う。
【0034】
図5に、本発明にかかる光ディスク上のファイル構造を示す。
光ディスク上に記録されるデータは、それぞれがファイルとして取り扱われる。これにより、ファイル管理情報から、それぞれのファイルの名称や記録位置などの情報を容易に得ることができ、データ管理が容易になる。各ファイルは、必要に応じてディレクトリ形式で、まとめて管理する。
【0035】
「ROOT」ディレクトリ501には、「MENU」,「SUBTITLE」,「STREAM」の各ディレクトリがある。
【0036】
「MENU」ディレクトリには、再生開始時のメニュー画面に関する情報が記録されている。これは、例えば、再生開始時にユーザーに提示するタイトル画面の表示や、音声や字幕で使用される言語を選択、再生を行う章(チャプター)の選択などの要素に関する情報が含まれる。
【0037】
「SUBTITLE」ディレクトリには、字幕情報が記録されている。字幕情報は、複数用意することができ、例えば、言語に応じて切り換えて使用することができる。例として、日本語の字幕情報を「JAPANESE.STL」,英語の字幕情報を「ENGLISH.STL」,西語の字幕情報を「SPANISH.STL」のごとく異なったファイル名で記録しておけば、容易に切り換えて処理を行うことができる。
【0038】
「STREAM」ディレクトリには、映像および音声データを含んだMPEGストリームが記録されている。ここで、MPEGストリームは、一つだけ記してあるが、これは限定されるものではない。プログラム(番組・映画)毎にストリームを作成し、複数のストリームを光ディスク上に記録しても何ら問題はない。また、プログラム別に、複数のディレクトリを用意すれば、複数の番組を一つの光ディスク上に記録することができる。例えば、「001」「002」・・・というディレクトリを作成し、それぞれに、図5のデータを記録してもよい。
【0039】
あるいは、ストリームデータに「STREAM001.MPG」「STRAM002.MPG」の如く、異なったファイル名を付加すれば、容易にデータの識別が可能である。この場合、メニューおよび字幕に関しても、同様に「MENU001.DAT」「JAPANESE001.STL」のように、ファイル名を区別すれば、容易に識別し、選択することができる。もちろん、複数の言語の情報を一つのデータ中に存在させてもよい。
【0040】
図6に、本発明にかかる再生装置のブロック図を示す。
図6中、601は光ディスク、602は光ピックアップ、603は再生信号処理部、604は出力タイミング制御部、605はサーボ、606はドライブ制御部、607は音声デコーダ、608は音声出力端子、609は映像デコーダ、610は字幕合成部、611は映像出力端子、612はタイムスタンプ生成部、613はCPUで構成されているシステム制御部、614はリモコン受信部である。
【0041】
再生信号処理部603、出力タイミング制御部604、音声デコーダ607、映像デコーダ609、字幕合成部610は、タイムスタンプ生成部612をそれぞれ回路で構成し、後述する処理をハードウエア的に処理するものであってもいいし、システム制御部613内にプログラムとして記憶されている構成として、後述する処理をソフトウエア的に処理するようにしてもよい。
【0042】
光ディスク601の再生を開始する場合、ユーザーは、リモコン(図示せず)などにより、再生装置に再生開始指令を入力する。リモコンからの信号は、リモコン受信部614により取り込まれ、システム制御部613に入力される。システム制御部613は、リモコンからの再生開始指令を受け、ドライブ制御部606に対し、光ディスクからのデータ読み出しを指示する。
【0043】
具体的には、まず、ディスク上に記録されているデータファイルの名称を得るため、ファイル管理情報領域の読み出しを指示する。ドライブ制御部606は、システム制御部613からの指示を受け、サーボ605を制御する。サーボ605は、光ディスク601の回転速度および回転位相を制御し、かつ、光ピックアップの位置を制御する。これによりディスクの回転が制御され、光ピックアップ602により所定のファイル管理情報領域のデータが読み出される。
【0044】
光ディスク上から読み出されたデータは、再生信号処理部603に送られ、所定の復調処理、誤り訂正処理、データの並び替えなどが行われ、セクターデータの形に変換される。上記処理により、システム制御部から再生が指示された領域のセクターデータが読み出され、ドライブ制御部606からシステム制御部613に送り返される。システム制御部613は、読み出されたファイル管理情報領域のセクターデータを解析し、光ディスク上に記録されているファイルの情報を得る。
【0045】
次に、システム制御部613は、光ディスク上に記録されているファイルから、メニュー画面に関するファイルの読み出しを行い、このファイルの情報にしたがって、メニュー画面を表示する。ファイルの読み出しは、先に述べたような制御により行われる。ユーザーは、メニュー画面の指示にしたがい、再生するプログラムの選択や言語の選択などを行う。ユーザーにより、再生するプログラムが選択されると、システム制御部は、ストリームの再生を開始する。
【0046】
ストリームの再生開始に先立ち、システム制御部613は、ユーザーから指示された言語に対応した字幕情報の読み出しを行っておく。字幕情報は、例えば、「JAPANESE.STL」の如く、ファイルとして記録されているので、所望のファイルを予めメモリー上に読み出しておく。もちろん、ストリームの読み出しに平行して、少しずつ字幕情報を読み出してもよい。これにより、制御は複雑になるが、データを記憶するメモリーの容量を削減することができる。ここでは、予めデータを読み出しておくものとして説明する。
【0047】
前述のように、ユーザーは、光ディスクを再生する際に、字幕に用いられる言語を選択することができる。これは、ディスク挿入時に、メニュー画面より選択するようにユーザーに促してもよいし、あらかじめ、ユーザーの優先する言語を再生装置側で記憶しておいてもよい。
【0048】
字幕データの読み出し完了後、システム制御部613は、ドライブ制御部606に対し、MPEGストリームの読み出しを指示する。MPEGストリームも、ファイルとして管理されているので、MPEGストリームが記録されているファイルのファイル管理情報から、ファイルの記録位置を求めることができる。指定されたMPEGストリームの記録位置からデータが再生できるように、ドライブ制御部606によりサーボ605が制御され、光ピックアップ602により光ディスク上からデータが読み出される。読み出されたデータは、再生信号処理部603により所定の復調処理、誤り訂正処理、データの並び替えなどが行われ、セクターデータの形に変換される。読み出されたMPEGストリームのデータは、出力タイミング制御部604に入力され、所定のタイミングで出力される。ここで、MPEGストリームの各パケットには、出力タイミングを制御するためのタイムスタンプが付加されている。以下、MPEGストリームの記録形式について説明する。
【0049】
図7に、本発明にかかるMPEG−TSの記録形式を示す。
MPEG−TSは、188バイトのMPEGパケット(図中のMPEG PACKET)のデータ列である。MPEGパケットは、連続して送られる訳ではなく、間隔を持って伝送される。またこの間隔は一定とは限らない。そこで、光ディスクからの再生時にも、伝送時と同じパケット間隔でパケットを出力できるように、各パケットには、パケット伝送時刻を付加して記録する必要がある。そこで、本発明にかかる光ディスクでは、各パケットに、30ビットの伝送時刻を示すタイムスタンプ(図中のTime Stamp)を付加する。ここで、タイムスタンプは、27MHzのクロックで計数した値である。記録装置には、27MHzのクロックで自走する30ビットのカウンターを装備する。記録装置に、MPEGパケットが入力されたとき、そのパケットの先頭データが到着した時刻における前記カウンターのカウント値をMPEGパケットの先頭にタイムスタンプとして付加すれば、図7に示したようなMPEGパケットの記録を行うことができる。
【0050】
ここで、タイムスタンプは30ビットなので、4バイト中2ビットの領域が空いているが、これは各パケットへの付加情報(図中のAUX)の領域として使用することができる。例えば、パケットの著作権管理情報などへ応用が可能である。
【0051】
上記のように、4バイトのヘッダーを付加して192バイトとしたパケットデータは、光ディスク上のセクターに記録される。パケットデータを記録した領域に関する情報は、ファイル管理領域に記録され、ファイルとして扱われる。
【0052】
再生時には、MPEGパケットが4バイトのヘッダー(図中のHeader)とともに再生され、ヘッダー中のタイムスタンプの値に応じてパケットの出力タイミングが制御される。
【0053】
出力タイミング制御部604は、前述のパケットヘッダーに含まれるタイムスタンプを用いて、パケットの出力タイミングを制御する。
【0054】
再生装置中の出力タイミング制御部604は、記録装置と同様に、27MHzで自走する30ビットのタイムスタンプカウンターを有する。
【0055】
再生信号処理回路603から出力タイミング制御部604に供給されるデータは、4バイトのヘッダーを含んだ192バイトのパケットデータ形式である。出力タイミング制御部604は、供給されたパケットデータを一旦バッファメモリに蓄え、ヘッダー中のタイムスタンプの値と、前述のタイムスタンプカウンターの値とを比較する。ヘッダー中のタイムスタンプの値と、前述のタイムスタンプカウンターの値が一致すると、パケットの出力タイミングになったと判断し、パケットを出力する。この際、4ビットのパケットヘッダーは取り除き、188バイトのMPEGパケットのみを出力する。これにより、記録時と同じパケットの間隔でMPEGストリームのパケットが出力される。
【0056】
出力タイミング制御部604から出力されたMPEGストリームパケットは、音声デコーダ607、映像デコーダ609、タイムスタンプ生成部612にそれぞれ入力される。
【0057】
音声デコーダ607は、MPEGストリームを用いて、音声情報のデコードを行い、音声出力端子608に音声信号を出力する。
【0058】
映像デコーダ609は、MPEGストリームを用いて、映像情報のデコードを行い、映像信号を出力する。ここで、映像デコーダは、ハイビジョン用のデコーダであり、出力される映像信号もハイビジョン信号である。映像デコーダから出力された映像信号は、字幕合成部610で、後述の字幕画像をインポーズした後、映像信号出力端子611に出力される。
【0059】
ここで、字幕画像の生成について説明する。
システム制御部613には、予め、字幕情報ファイル100の内容が読み込まれている。字幕情報は、図1に示した情報である。
【0060】
システム制御部613は、MPEGストリームの再生と平行して、字幕画像の生成を行う。まず、先頭の字幕情報を読み出し、表示開始時刻102、表示終了時刻103、表示形式104および105、文字情報106を得る。ここで、表示形式として、第1の表示形式情報104か、第2の表示形式情報105か、どちらの表示形式を用いるかは、ハイビジョン用のテレビに接続するか、NTSC用にダウンコンバートした信号を出力するかによる。これは、予めユーザーに選択させればよい。もちろん、ハイビジョン出力と、ダウンコンバート出力の2つを設け、それぞれに別々の字幕を合成して出力してもよい。ここでは、ハイビジョン用の字幕を生成するものとして説明する。
【0061】
ハイビジョン用の字幕を生成するためには、第1の表示形式情報104を用いる。表示形式情報中の文字サイズ、文字飾りなどの情報にしたがって、文字情報106からビットマップ形式の画像を生成する。
【0062】
文字情報からビットマップ形式の画像への変換においては、各文字の形をデータ化したフォントデータが必要である。フォントデータには、ビットマップ形式やストロークデータ形式、アウトラインデータ形式などのデータ形式がある。これらフォントデータは、あらかじめ再生装置側にROMとして持っていても良いし、ディスク上にデータファイルとして記録しておき、再生開始時に字幕情報とともに読み出して使用するように制御しても良い。
【0063】
これらフォントデータと、文字情報と文字サイズ、文字飾りなどの情報を用いて、必要なビットマップ形式の画像が生成される。
【0064】
次に、システム制御部613は、タイムスタンプ生成部612によって生成されたタイムスタンプと、字幕情報中の表示開始時刻102・表示終了時刻103を用いて、字幕画像の表示タイミング制御を行う。
【0065】
ここで、タイムスタンプ生成部の動作を説明する。
【0066】
図8に、タイムスタンプ生成部の構成図を示す。
【0067】
図8中、801は入力端子、802はPCR抽出部、803は比較器、804はPCRカウンタ、805は電圧制御発振器(Voltage Controlled Oscillator)、806は除算器、807は出力端子である。
【0068】
入力端子801には、光ディスク上から再生されたMPEGストリームパケットが、所定のタイミングで入力される。PCR値抽出部802は、MPEGストリーム中からPCRを含んだパケットのみを選択し、そのパケットに含まれるPCRの値を抽出する。抽出されたパケット値は、比較器803に入力される。
【0069】
一方、PCRカウンタ804は、電圧制御発振器805で生成されたクロックの数をカウントしている。
【0070】
比較器803は、PCR値抽出部802で抽出されるPCR値と、PCRカウンタ804でカウントされるカウント値の大小を比較する。ここで、PCR値抽出部802で抽出されるPCR値と、PCRカウンタ804でカウントされるカウント値は、ともに33ビットの値である。
【0071】
比較器803は、大小の比較結果に応じて、電圧制御発振器805の制御電圧を変化させる。具体的には、PCRカウンタ804でカウントされるカウント値が、PCR値抽出部802によって抽出されたPCR値よりも小さい場合、時刻が遅れていると判断し、電圧制御発振器805の制御電圧を上昇させる。
【0072】
電圧制御発振器805は、制御電圧の高低に応じて、発振周波数を変化させる。電圧制御発振器805は、入力が0Vの場合、27MHzで発振する。入力電圧が、0Vよりも高くなると、発振周波数を上昇させる。逆に、入力電圧が、0Vよりも低くなると、発振周波数を低下させる。
【0073】
PCRカウンタ804でカウントされるカウント値が、PCR値抽出部802によって抽出されたPCR値よりも小さい場合、比較器803から出力される制御電圧は、上昇するので、電圧制御発振器805の発振周波数が上昇する。これにより、PCRカウンタ804でカウントされる時刻の進みが早くなり、MPEGストリーム中のPCR値に近づく。
【0074】
逆に、PCRカウンタ804でカウントされるカウント値が、PCR値抽出部802によって抽出されたPCR値よりも大きい場合、比較器803から出力される制御電圧は下降する。これは、PCRカウンタの値が、MPEGストリーム中のPCR値よりも進んでいることを意味する。この時、電圧制御発振器805の発振周波数が低下し、PCRカウンタ804でカウントされる時刻の進みが遅くなる。すなわち、MPEGストリーム中のPCR値に近づく。
【0075】
上記のような処理により、PCRカウンタ804でカウントされるカウント値と、PCR値抽出部802によって抽出されたPCR値とが一致するように制御される。
【0076】
PCRカウンタ804は、MPEGストリーム中のPCRとほぼ一致した周期でカウントしており、MPEGストリーム中の時間情報を表しているとしてよい。字幕情報の表示は、このPCRカウンタ804のカウント値と同期して行う。ただし、PCRカウンタ804は、27MHzでカウントいるが、字幕情報中のPTS,ETSは、90kHzでカウントしたものなので、PCRカウント値を除算器806にて300分の1として、出力端子807を介して、システム制御部613に出力する。
【0077】
システム制御部613では、タイムスタンプ生成部612から読み出したタイムスタンプ値を、字幕情報中の表示開始時刻102と比較する。タイムスタンプ生成部612のタイムスタンプ値が、字幕情報中の表示開始時刻102よりも小さい場合、字幕表示開始時刻に達していないので、字幕表示を行わず、待機する。タイムスタンプ生成部612のタイムスタンプ値が、字幕情報中の表示開始時刻102と一致した時点で、字幕画像を字幕合成部610のメモリーに書き込む。この際、書き込むメモリーのアドレスは、表示形式情報中の表示座標にしたがう。これにより、所定の位置に、映像・音声と同期して、字幕が合成される。
【0078】
字幕表示後、システム制御部613は、再度、タイムスタンプ生成部612からタイムスタンプを読み出し、字幕情報中の表示終了時刻103と比較する。タイムスタンプ生成部612から読み出したタイムスタンプが、字幕情報中の表示終了時刻103よりも小さい場合、字幕表示終了時刻に達していないので、字幕消去を行わず、待機する。タイムスタンプ生成部612のタイムスタンプ値が、字幕情報中の表示終了時刻103と一致した時点で、字幕合成部610のメモリーをクリアする。これにより、字幕の表示が終了する。
【0079】
字幕合成部610は、システム制御部613から与えられた字幕画像を、映像デコーダ609によりデコードされた映像にインポーズし、映像出力端子611に出力する。本再生装置の外部には、ハイビジョン用のモニターテレビが接続されており、映像出力端子611から出力された映像信号は、モニターテレビに映し出される。
【0080】
以上のようにして、光ディスク上に記録されている字幕情報が、ハイビジョンの映像および音声と同期して表示される。
【0081】
次に、映像出力を、ダウンコンバート出力とする場合について説明する。
ダウンコンバート出力を選択した場合、映像デコーダ609は、デコードされたハイビジョンの映像信号ではなく、この映像信号をNTSC形式にダウンコンバートして出力する。すなわち、字幕合成部610に入力される信号は、NTSC形式である。
【0082】
システム制御部613は、ダウンコンバート出力に対応し、字幕の生成を行う。具体的には、字幕情報中の第2の表示形式105と文字情報106を用いて、字幕画像の生成を行う。
【0083】
第2の表示形式情報105は、ダウンコンバート時のNTSC形式に対応した表示形式情報であり、図2に示したように、ダウンコンバートされた画像のレターボックス表示の外側に、字幕が表示されるように指定される。字幕の表示開始および表示終了タイミングの制御については、前述の動作と同じである。
【0084】
字幕合成部610は、映像デコーダ609によりデコードされ、ダウンコンバートされたNTSC映像信号に、システム制御部613から入力されたNTSC用の字幕画像を合成し、映像信号出力端子611から出力する。映像信号は、外部に接続されたNTSC形式のテレビモニターに表示される。
【0085】
以上のように、ダウンコンバート時には、ハイビジョン出力時とは異なった、ダウンコンバート用の字幕を合成して出力することにより、表示画像の上に字幕が重ならないので、字幕の視認性が向上される。
【0086】
上記のような構成により、ハイビジョン形式、ダウンコンバート形式のそれぞれにおいて、指定された表示形式で、字幕を表示する再生装置を実現することができる。
【0087】
なお、上記の再生装置では、ユーザーによりハイビジョン映像とダウンコンバートによるNTSC映像とを切り換えて出力するように構成したが、これは限定されるものではない。例えば、ハイビジョン映像出力と、ダウンコンバート出力の2系統の出力を持った再生装置を構成することもできる。この2系統の出力を持った再生装置の例を以下に示す。
【0088】
図9に、ハイビジョン出力と、ダウンコンバート出力の2つを設けた再生装置の例を示す。
図9中、901はダウンコンバータ、902はNTSC用字幕合成部、903はNTSC映像出力端子である。他の記号は、図6の601から614と同等である。
【0089】
再生時、光ディスクからの字幕データ読み出し、および、MPEGストリームの再生動作に関しては、図6に示した再生装置と同様である。
【0090】
図9に示した再生装置では、ハイビジョン用の字幕生成と、ダウンコンバート時に使用するNTSC用の字幕生成を並列して行う。ここで、これら字幕生成に用いる字幕情報ファイルは、図1に示したものとして説明する。
【0091】
MPEGストリーム再生に平行して、システム制御部613は、字幕情報から字幕画像の生成を行う。システム制御部は、字幕情報中から、第1の表示形式情報104と文字情報106を用いて、ハイビジョン用の第1の字幕画像を生成する。また、第2の表示形式情報105と文字情報106を用いて、NTSC用の第2の字幕画像を生成する。
【0092】
次に、システム制御部613は、タイムスタンプ生成部612から入力されるタイムスタンプをモニターし、表示開始時刻102と比較する。タイムスタンプ生成部から入力されるタイムスタンプが、表示開始時刻と一致すると、生成した字幕画像を字幕合成部に出力する。具体的には、表示開始時刻において、ハイビジョン用の第1の字幕画像を、ハイビジョン用の字幕合成部610内のメモリーに書き込む。また、NTSC用の第2の字幕情報を、NTSC用の字幕合成部902内のメモリーに書き込む。
【0093】
ここで、ハイビジョン用の映像デコーダ609からは、表示時刻に同期したハイビジョン画像が出力されており、このハイビジョン画像は、ハイビジョン用の字幕合成部610とダウンコンバータ901に入力される。
【0094】
ハイビジョン用の字幕合成部610は、システム制御部613により書き込まれた字幕画像と、ハイビジョン用映像デコーダ609から入力されたハイビジョン画像とを合成し、ハイビジョン用映像出力端子611にハイビジョン画像を出力する。
【0095】
一方、ダウンコンバータ901は、ハイビジョン用映像デコーダ609から入力されたハイビジョン映像をNTSC形式にダウンコンバートする。ダウンコンバートにより生成されたNTSC映像は、NTSC用字幕合成部902に入力される。
【0096】
NTSC用字幕合成部902は、システム制御部613から入力されたNTSC用字幕画像と、ダウンコンバートにより生成されたNTSC映像とを合成し、NTSC映像出力端子903にNTSC映像信号を出力する。
【0097】
上記のようにして、ハイビジョン映像信号と、NTSC映像信号のそれぞれに、字幕画像が合成される。この時、それぞれの字幕は、それぞれの映像信号に適した形式の字幕画像となっており、ハイビジョンで映像を見る場合にも、NTSC形式のモニターで映像を見る場合にも、見やすい字幕となっている。
【0098】
なお、ダウンコンバート処理に時間がかかることにより、ハイビジョン映像とNTSC画像で表示が数フレームずれる恐れがある。この場合、予めフレームずれを見込んで、NTSC用字幕合成部へのデータ書き込みタイミングをずらせば、NTSC映像への字幕合成での、映像と字幕のずれを防止することができる。
【0099】
なお、上記例では、字幕情報を一つの字幕情報ファイル100として光ディスク上に記録しておく例をあげたが、これは限定されるものではなく、例えば、MPEG−TS上に重畳して記録しておくこともできる。MPEGストリームに、字幕情報を重畳して伝送する場合の例を図12に示す。
【0100】
まず、図1に示した個々の字幕情報を、MPEGパケットに配置可能な大きさに分割する。分割された字幕情報には、MPEGパケットヘッダーを付加してMPEGパケットの形式に変換する。ここで、MPEGパケットヘッダーには、パケットの種類を判別するためのPID(パケットID)が含まれている。字幕情報パケットは、映像情報パケットや音声情報パケットと区別ができるように、固有のPIDを付加する。
【0101】
各PIDがどの情報パケットに対応するかの情報は、PMT(ProgramMap Table)と呼ばれるパケットに記録され、所定のタイミングでMPEGストリーム中に重畳される。
【0102】
固有のPIDが付加された字幕情報パケット(S)は、映像パケット(V),音声パケット(A)などとともにMPEGストリームに重畳され、伝送、記録される。
【0103】
再生時には、MPEGストリームから、PIDを元に各パケットが分別される。字幕情報パケットは、字幕情報パケットのPIDにより、他の情報パケットと区別され、字幕情報パケットのみが取り出される。取り出された字幕情報パケットからは、ヘッダーが取り除かれ、字幕情報データのみが抽出される。これにより、独立にファイルに記録した場合と同様に、字幕情報を取り出すことができる。
【0104】
このように、MPEGストリームに字幕情報を重畳することで、デジタル放送などにおいても、複数の表示形式に応じた字幕情報を伝送することができる。したがって、本発明は、記録装置だけでなく、放送局の放送装置やネットワークを利用した伝送装置にも適用することができる。
【0105】
なお、上記の装置の例では、一つの字幕情報中に、2つの表示形式情報(104および105)を含めて記録しているが、これは限定されるものではない。例えば、図10に示すように、ハイビジョン用の第1の表示形式情報104と文字情報106で一つの字幕情報ファイルを構成し、第1の字幕情報ファイル110とする。同様に、ダウンコンバート用の第2の表示形式情報105と文字情報106で一つの字幕情報ファイルを構成し、第2の字幕情報ファイル111とする。これら2つをそれぞれファイルとして光ディスク上に記録しておき、使用する字幕情報に応じて、選択して使用することもできる。
【0106】
この時、第1の字幕情報ファイル110と第2の字幕情報ファイル111をそれぞれ「JAPANESE.HST」、「JAPANESE.SST」の如く、ファイル名を変えて記録することで、容易に区別して使用することができる。この時のファイル構造は、図11にようになる。
【0107】
また、MPEG−TSに重畳して記録する場合には、ハイビジョン用の字幕情報と、ダウンコンバート時に使用する字幕情報をそれぞれ異なったPIDを持つパケットとして記録すれば、容易に区別することができる。
【0108】
あるいは、ハイビジョン用の字幕情報か、ダウンコンバート時に使用する字幕情報かを判別する識別フラグをデータ中に含めることにより判別を行ってもよい。
【0109】
ところで、上記のように、ハイビジョン用の字幕情報110と、ダウンコンバート用の字幕情報111とを完全に分離して、2つのファイルとして記録すると、文字情報106をそれぞれの字幕情報に記録する必要があり、記録領域を無駄に使用してしまうことになる。これを防ぐためには、表示形式情報(104および105)と文字情報106を分離して、別々のファイルとして記録すればよい。
【0110】
具体的には、表示開始時刻102・表示終了時刻103・文字情報104を一つのファイルとし、字幕情報ファイル120として記録する。一方、第1の表示形式情報104のみを集めて、第1の表示形式情報ファイル121として記録する。同様に、第2の表示形式情報105のみを集めて、第2の表示形式情報ファイル122として記録する。これを図示すると、図13のようになる。
【0111】
この時、第1の表示形式情報ファイル121を「JAPANESE.HDS」のようなファイル名とし、第2の表示形式情報ファイル122を「JAPANESE.SDS」、字幕情報ファイル120を「JAPANESE.STX」の如くファイル名を付ければ、それぞれのデータファイルを識別することができる。このようなファイル名を付加したファイル構造を示すと、図14のようになる。
【0112】
これにより、文字情報の重複記録をなくし、字幕情報の記録容量を削減することができる。この時、ハイビジョン用の字幕情報を表示する場合には、図13の第1の表示形式情報ファイル121と、字幕情報ファイル120を読み込んで使用すればよい。同様に、ダウンコンバート時には、第2の表示形式情報ファイル122と、字幕情報ファイル120を読み込んで使用することにより、NTSC信号における字幕表示が実現される。
【0113】
ところで、上記の再生装置では、記録されている字幕情報は、文字情報と表示形式情報であり、これらからビットマップ形式の字幕画像を生成して表示を行っていた。しかしながら、予め、ビットマップ形式の字幕画像として、データを記録しておいてももちろん構わない。この場合において、ハイビジョン用の字幕画像と、ダウンコンバート用の字幕画像をそれぞれ別々に作成しておき、出力形式に応じて切り換えて出力すれば、実現が可能である。あるいは、字幕画像は一つだけ記録しておき、ハイビジョン出力時と、ダウンコンバート出力時で、画像サイズなどを変化させるなどにより、異なった字幕画像の如く表示を行うこともできる。この時は、表示形式情報として、表示位置、表示開始時刻、表示終了時刻、拡大率などの情報を記録しておけばよい。字幕情報をビットマップ形式で記録する場合の字幕情報ファイルの構成は、図15のようになる。
【0114】
【発明の効果】
本発明によれば、ダウンコンバートを行って画面を縮小した場合にも、字幕を見やすく表示することのできる。
【図面の簡単な説明】
【図1】字幕情報ファイルの記録方法を示す図である。
【図2】字幕の表示例を示す図である。
【図3】字幕情報ファイルの具体例を示す図である。
【図4】字幕情報ファイルの第2の具体例を示す図である。
【図5】ファイル構造を示す図である。
【図6】再生装置のブロック図を示す図である。
【図7】MPEGパケットの記録構造を示す図である。
【図8】タイムスタンプ生成部のブロック図を示す図である。
【図9】再生装置の第2のブロック図を示す図である。
【図10】字幕情報ファイルの第2の記録方法を示す図である。
【図11】第2のファイル構造を示す図である。
【図12】字幕情報のMPEGパケットへの重畳方法を示す図である。
【図13】字幕情報ファイルの第3の記録方法を示す図である。
【図14】第3のファイル構造を示す図である。
【図15】字幕情報ファイルの第4の記録方法を示す図である。
【符号の説明】
100…字幕情報ファイル、101…字幕情報サイズ、102…表示開始時刻、103…表示終了時刻、104…第1の表示形式情報、105…第2の表示形式情報、106…文字情報、110…第1の字幕情報ファイル、111…第2の字幕情報ファイル、120…字幕情報ファイル、121…第1の表示形式情報ファイル、122…第2の表示形式情報ファイル、601…光ディスク、602…光ピックアップ、603…再生信号処理部、604…出力タイミング制御部、605…サーボ部、606…ドライブ制御部、607…音声デコーダ、608…音声出力端子、609…映像デコーダ、610…字幕合成部、611…映像出力端子、612…タイムスタンプ生成部、613…システム制御部、614…リモコン受信部、801…入力端子、802…PCR値抽出部、803…比較器、804…PCRカウンタ、805…電圧制御発振器、806…除算器、807…出力端子、901…ダウンコンバータ、902…NTSC用字幕合成部、903…NTSC映像出力端子。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for recording and reproducing information, and more particularly to a technology for combining subtitles with a television signal.
[0002]
[Prior art]
2. Description of the Related Art Video contents such as movies are widely distributed using recording media typified by DVDs (Digital Versatile Discs). The high density of these recording media, the digitization of broadcasting, and the increase in communication speed represented by broadband have made it possible to enjoy images using high density images.
[0003]
As a device for displaying high-quality video, there is a high-definition television. A high-definition television can display a clearer image with higher resolution than a conventional NTSC television. Also, the high-definition television has an aspect ratio of 16: 9 and is horizontally long, so that more powerful images can be enjoyed.
[0004]
On the other hand, conventional NTSC televisions are still widely used. Generally, an NTSC television has an aspect ratio of 4: 3 and a shorter width than a high-definition television.
[0005]
When a user who owns a conventional NTSC television reproduces a disc on which a high-definition video is recorded or watches a high-definition broadcast, a function called down-conversion is used to reduce the image and reduce the resolution. Is dropped and displayed on the TV. At this time, since the aspect ratio is different between the high-vision television and the NTSC television, the image is displayed as a landscape image called a letter box on the NTSC television. In the letterbox display, a region where a band-shaped image is not displayed occurs above and below the NTSC television.
[0006]
[Patent Document 1]
JP-A-8-317306
[0007]
[Problems to be solved by the invention]
In foreign films, subtitles are often displayed. However, when letterbox display is performed on a conventional television, the subtitles displayed there are also reduced in size and displayed together with the video, and thus are very difficult to see.
[0008]
An object of the present invention is to provide an apparatus that can display subtitles in a legible manner even when a screen is reduced by down-conversion.
[0009]
[Means for Solving the Problems]
Display format information corresponding to a plurality of display formats is simultaneously transmitted or recorded together with the image for the high-definition television. When displaying a video, display format information is selected from the plurality of display format information, captions corresponding to the display format information are generated, and combined with the video.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a recording format of subtitle information in the present invention.
In FIG. 1, 100 is a caption information file, 101 is a caption information size, 102 is a display start time, 103 is a display end time, 104 is first display format information, 105 is second display format information, and 106 is character information. It is.
[0011]
The subtitle information file 100 includes subtitle information for one program (program / movie). Of course, the caption information for one program may be divided into a plurality of files and recorded as necessary. Conversely, subtitle information of a plurality of programs may be combined into one subtitle information file. Each piece of caption information includes information necessary to display one caption.
[0012]
The caption information size 101 indicates the data size of each piece of caption information. By using this, the start position of the next subtitle information can be easily obtained.
[0013]
The display start time 102 and the display end time 103 each have a 5-byte data area, of which 33 bits are valid data. Here, the display start time 102 indicates the display start time of the subtitle. The display end time 103 indicates the display end time of the caption. The time information corresponds to a display start time (PTS) of video and audio in an MPEG (Moving Picture Experts Group) stream, and is a 33-bit value measured by a clock of 90 kHz.
[0014]
The video signal and the audio signal are subjected to image compression processing by the MPEG system, and the processing of returning them to the original video / audio is performed by the decoder. The time serving as a reference for decoding images and audio is written in a packet called a PCR (Program Clock Reference) packet in an MPEG-TS (Transport Stream). The decoder generates a reference clock by so-called PLL control based on time information in the PCR packet. Using this clock, audio and video decoding operations are performed.
[0015]
A clock obtained by dividing the above clock to 90 kHz is used for video display control, and a time stamp value is obtained by counting a 33-bit counter using this clock. A PTS designating a display time is added to each image in the video signal, and the image is displayed when the time and the time according to the time stamp match.
[0016]
Also in the subtitle information, the above time stamp value is used in order to synchronize with the video. Specifically, the system control unit described later refers to the time stamp value and compares the time stamp value with the display start time in the caption information. When the value of the clock counter matches the display start time, a subtitle display process is performed. Similarly, when the subtitle display ends, the value of the clock counter is compared with the display end time, and the display ends when the two match.
By the above processing, the subtitles and the image / audio can be synchronized.
[0017]
The first subtitle display format information 104 and the second subtitle display format information 105 each have information such as display coordinates, character size, and character decoration as subtitle display format information.
[0018]
The display coordinates indicate the display start position of the caption, and are represented by 2-byte values in the order of the X-axis coordinates and the Y-axis coordinates.
[0019]
The character size represents the size of one character in pixels. The number of pixels may be one bit. Of course, the number of vertical and horizontal pixels may be recorded by 1 byte so that the character size can be set vertically and horizontally.
[0020]
The character decoration information specifies conditions for character modification, such as italic, bold, border, and shadow. A 1-byte area is used, and each bit is given a meaning such as italic or bold.
[0021]
Here, the first subtitle display format information 104 will be described as a subtitle display format for HDTV, and the second subtitle display format information 105 will be described as a subtitle display format at the time of down-conversion.
[0022]
The character information 106 includes information indicating the number of characters (the number of bytes) and actual character string data. The number of characters is represented by one byte. When Japanese is used, the character string data has a 16-bit character code such as UTF-16 format. For character data in a language using alphabets such as English, an 8-bit character code such as ASCII or UTF-8 may be used.
[0023]
One subtitle information is configured by a combination of the above data. The subtitle information is recorded on the disc as a subtitle information file 100 for one program.
[0024]
FIG. 2 shows an example of caption display at the time of hi-vision and down-conversion.
In FIG. 2, reference numeral 201 denotes a display example of high-definition subtitles, and reference numeral 202 denotes a subtitle display example at the time of down-conversion.
[0025]
In HDTV, there are 1080 vertical pixels and 1920 horizontal pixels. The display image is displayed using all pixels. At this time, the caption is displayed on the image at the lower part of the screen as shown in 201.
[0026]
On the other hand, the image at the time of down-conversion is a conventional NTSC format image, and image display is performed using 480 pixels vertically and 720 pixels horizontally.
[0027]
At this time, the aspect ratio is different between the high-definition television and the conventional television, and a display format called a letter box is adopted to display the entire high-definition image. In the letterbox format, there are areas where no image is displayed above and below.
[0028]
When a subtitle is displayed on a down-converted image, as shown in 202, if the subtitle is displayed in an area where the image is not displayed, the subtitle can be displayed without blocking the image, and visibility is good.
[0029]
Since the first display format information 104 is subtitle information for high-definition television, the first display format information 104 is displayed on a high-definition television so that subtitles 201 are displayed in accordance with the subtitle display area of the high-definition image. Set information.
[0030]
On the other hand, since the second display format information 105 is subtitle information for down-conversion, the second display format information 105 is displayed in accordance with the subtitle display area at the time of down-conversion so that the subtitle is displayed as 202 on the NTSC television screen. Set information such as size and display coordinates.
[0031]
FIG. 3 shows a recording example of caption information corresponding to the caption display of FIG. The symbols in FIG. 3 are equivalent to those in FIG.
The caption information size 101 indicates the number of bytes of the caption information. The display start time 102 and the display end time 103 use a 5-byte data area. The first display format information 104 includes a display X coordinate of 2 bytes, a display Y coordinate of 2 bytes, and a character size of 1 byte. Similarly, the second display format information 105 is a display X coordinate of 2 bytes, a display Y coordinate of 2 bytes, and a character size of 1 byte. The character information 106 includes 1-byte data indicating the number of characters and character string data.
[0032]
In the example shown in FIG. 3, the subtitle information is recorded in a binary data format, but this is not a limitation, and of course, it may be recorded in a data format such as a text format.
[0033]
FIG. 4 shows an example of recording in a text format.
The first line is a tag indicating the start of subtitle information data. One piece of caption information data is represented by the caption information end tag on the seventh line. The second line shows the value of the display start time 102 (PTS), and the third line shows the value of the display end time 103 (ETS). Here, the PTS and the ETS have a display format of hour, minute, second, and frame number. Since the video in the high-definition format and the NTSC format is composed of an image of 30 frames per second, the frame number takes a value from 0 to 29. The fourth line indicates the display format information 104 for HDTV. Here, LOCATION represents the display position coordinates, and SIZE represents the character size. The fifth line is display format information 105 used at the time of down-conversion. The sixth line indicates a character string 106 displayed as subtitles. Using these caption information, each caption image is generated and displayed.
[0034]
FIG. 5 shows a file structure on an optical disc according to the present invention.
Each of the data recorded on the optical disk is handled as a file. As a result, information such as the name and recording position of each file can be easily obtained from the file management information, which facilitates data management. Each file is collectively managed in a directory format as needed.
[0035]
The “ROOT” directory 501 has directories of “MENU”, “SUBTITLE”, and “STREAM”.
[0036]
In the “MENU” directory, information on a menu screen at the time of starting reproduction is recorded. This includes, for example, information on elements such as display of a title screen to be presented to a user at the start of reproduction, selection of a language used in audio and subtitles, and selection of a chapter (chapter) to be reproduced.
[0037]
Subtitle information is recorded in the “SUBTITLE” directory. A plurality of subtitle information can be prepared, and can be switched and used according to the language, for example. For example, if the Japanese subtitle information is recorded with different file names such as "JAPANESE.STL", the English subtitle information is recorded as "ENGLISH.STL", and the Western subtitle information is recorded as "SPANISH.STL", Switching can be easily performed for processing.
[0038]
In the “STREAM” directory, an MPEG stream including video and audio data is recorded. Here, only one MPEG stream is described, but this is not a limitation. There is no problem if a stream is created for each program (program / movie) and a plurality of streams are recorded on the optical disk. If a plurality of directories are prepared for each program, a plurality of programs can be recorded on one optical disc. For example, directories “001”, “002”,... May be created, and the data of FIG. 5 may be recorded in each of the directories.
[0039]
Alternatively, if different file names such as “STREAM001.MPG” and “STRAM002.MPG” are added to the stream data, the data can be easily identified. In this case, the menus and subtitles can be easily identified and selected by distinguishing the file names like “MENU001.DAT” and “JAPANESE001.STL”. Of course, information of a plurality of languages may exist in one data.
[0040]
FIG. 6 shows a block diagram of a reproducing apparatus according to the present invention.
6, 601 is an optical disk, 602 is an optical pickup, 603 is a reproduction signal processing unit, 604 is an output timing control unit, 605 is a servo, 606 is a drive control unit, 607 is an audio decoder, 608 is an audio output terminal, and 609 is an audio output terminal. A video decoder, 610 is a subtitle synthesizing unit, 611 is a video output terminal, 612 is a time stamp generating unit, 613 is a system control unit composed of a CPU, and 614 is a remote control receiving unit.
[0041]
The reproduction signal processing unit 603, the output timing control unit 604, the audio decoder 607, the video decoder 609, and the subtitle synthesizing unit 610 each constitute a time stamp generating unit 612 as a circuit, and perform processing to be described later in hardware. Alternatively, as a configuration stored as a program in the system control unit 613, processing to be described later may be performed by software.
[0042]
When starting reproduction of the optical disk 601, the user inputs a reproduction start command to the reproduction device using a remote controller (not shown) or the like. A signal from the remote controller is captured by the remote controller receiving unit 614 and input to the system control unit 613. The system control unit 613 receives a reproduction start command from the remote controller, and instructs the drive control unit 606 to read data from the optical disc.
[0043]
Specifically, first, in order to obtain the name of the data file recorded on the disk, an instruction is issued to read the file management information area. The drive control unit 606 receives an instruction from the system control unit 613 and controls the servo 605. The servo 605 controls the rotation speed and rotation phase of the optical disc 601 and controls the position of the optical pickup. As a result, the rotation of the disk is controlled, and data in a predetermined file management information area is read by the optical pickup 602.
[0044]
The data read from the optical disk is sent to the reproduction signal processing unit 603, where the data is subjected to predetermined demodulation processing, error correction processing, data rearrangement, and the like, and is converted into sector data. By the above processing, the sector data of the area instructed to be reproduced by the system control unit is read out, and sent back from the drive control unit 606 to the system control unit 613. The system control unit 613 analyzes the read sector data in the file management information area, and obtains information on the file recorded on the optical disc.
[0045]
Next, the system control unit 613 reads a file related to the menu screen from the file recorded on the optical disc, and displays the menu screen according to the information of the file. Reading of the file is performed by the control as described above. The user selects a program to be reproduced, a language, and the like according to the instructions on the menu screen. When the program to be reproduced is selected by the user, the system control unit starts reproducing the stream.
[0046]
Prior to the start of stream reproduction, the system control unit 613 reads subtitle information corresponding to the language specified by the user. Since the subtitle information is recorded as a file, for example, “JAPANESE.STL”, a desired file is read in advance in a memory. Of course, the subtitle information may be read little by little in parallel with the reading of the stream. As a result, the control becomes complicated, but the capacity of the memory for storing data can be reduced. Here, description will be made assuming that data is read in advance.
[0047]
As described above, the user can select a language used for subtitles when playing the optical disc. In this case, when the disc is inserted, the user may be prompted to make a selection from the menu screen, or the user's preferred language may be stored in the playback device in advance.
[0048]
After completing the reading of the subtitle data, the system control unit 613 instructs the drive control unit 606 to read the MPEG stream. Since the MPEG stream is also managed as a file, the recording position of the file can be obtained from the file management information of the file in which the MPEG stream is recorded. The drive control unit 606 controls the servo 605 so that data can be reproduced from the designated recording position of the MPEG stream, and the optical pickup 602 reads data from the optical disk. The read data is subjected to predetermined demodulation processing, error correction processing, data rearrangement, and the like by the reproduction signal processing unit 603, and is converted into sector data. The read data of the MPEG stream is input to the output timing control unit 604 and output at a predetermined timing. Here, a time stamp for controlling the output timing is added to each packet of the MPEG stream. Hereinafter, the recording format of the MPEG stream will be described.
[0049]
FIG. 7 shows a recording format of MPEG-TS according to the present invention.
MPEG-TS is a data string of a 188-byte MPEG packet (MPEG PACKET in the figure). MPEG packets are not sent continuously, but are transmitted at intervals. This interval is not always constant. Therefore, it is necessary to add a packet transmission time to each packet and record the packet so that the packet can be output at the same packet interval as during transmission even during reproduction from the optical disk. Therefore, in the optical disc according to the present invention, a time stamp (Time Stamp in the figure) indicating the transmission time of 30 bits is added to each packet. Here, the time stamp is a value counted by a 27 MHz clock. The recording device is equipped with a 30-bit counter that runs by itself at a clock of 27 MHz. When an MPEG packet is input to the recording device, if the count value of the counter at the time when the head data of the packet arrives is added as a time stamp to the head of the MPEG packet, the MPEG packet as shown in FIG. Records can be made.
[0050]
Here, since the time stamp is 30 bits, an area of 2 bits out of 4 bytes is vacant, but this area can be used as an area of additional information (AUX in the figure) for each packet. For example, it can be applied to copyright management information of a packet.
[0051]
As described above, the packet data having a 4-byte header and 192 bytes is recorded in the sector on the optical disk. Information about the area where the packet data is recorded is recorded in the file management area and treated as a file.
[0052]
At the time of reproduction, an MPEG packet is reproduced together with a 4-byte header (Header in the figure), and the output timing of the packet is controlled according to the value of the time stamp in the header.
[0053]
The output timing control unit 604 controls the output timing of the packet using the time stamp included in the packet header.
[0054]
The output timing control unit 604 in the playback device has a 30-bit time stamp counter that runs by itself at 27 MHz, like the recording device.
[0055]
The data supplied from the reproduction signal processing circuit 603 to the output timing control unit 604 is in a 192-byte packet data format including a 4-byte header. The output timing control unit 604 temporarily stores the supplied packet data in the buffer memory, and compares the value of the time stamp in the header with the value of the above-described time stamp counter. When the value of the time stamp in the header matches the value of the above-described time stamp counter, it is determined that it is time to output the packet, and the packet is output. At this time, the 4-bit packet header is removed, and only the 188-byte MPEG packet is output. As a result, packets of the MPEG stream are output at the same packet interval as during recording.
[0056]
The MPEG stream packet output from the output timing control unit 604 is input to the audio decoder 607, the video decoder 609, and the time stamp generation unit 612, respectively.
[0057]
The audio decoder 607 decodes audio information using the MPEG stream, and outputs an audio signal to an audio output terminal 608.
[0058]
The video decoder 609 decodes video information using the MPEG stream and outputs a video signal. Here, the video decoder is a high-vision decoder, and the output video signal is also a high-vision signal. The video signal output from the video decoder is output to a video signal output terminal 611 after a caption synthesis unit 610 imposes a caption image described later.
[0059]
Here, generation of a subtitle image will be described.
The contents of the subtitle information file 100 are read in the system control unit 613 in advance. The subtitle information is the information shown in FIG.
[0060]
The system control unit 613 generates a caption image in parallel with the reproduction of the MPEG stream. First, the head caption information is read, and a display start time 102, a display end time 103, display formats 104 and 105, and character information 106 are obtained. Here, whether to use the first display format information 104 or the second display format information 105 as the display format is determined by connecting to a high-definition television or down-converting a signal for NTSC. Is output. This may be selected by the user in advance. Of course, two outputs, a high-definition output and a down-converted output, may be provided, and separate subtitles may be combined and output. Here, a description will be given assuming that a subtitle for high definition is generated.
[0061]
The first display format information 104 is used to generate subtitles for HDTV. A bitmap image is generated from the character information 106 according to information such as the character size and the character decoration in the display format information.
[0062]
In converting character information into an image in a bitmap format, font data in which the shape of each character is converted into data is required. Font data has a data format such as a bitmap format, a stroke data format, and an outline data format. These font data may be stored in the ROM on the reproducing apparatus in advance, or may be recorded as a data file on a disc, and may be controlled so as to be read out and used together with subtitle information at the start of reproduction.
[0063]
Using these font data, character information, character size, character decoration, and other information, a required bitmap image is generated.
[0064]
Next, the system control unit 613 controls the display timing of the subtitle image using the time stamp generated by the time stamp generation unit 612 and the display start time 102 and the display end time 103 in the subtitle information.
[0065]
Here, the operation of the time stamp generation unit will be described.
[0066]
FIG. 8 shows a configuration diagram of the time stamp generation unit.
[0067]
In FIG. 8, reference numeral 801 denotes an input terminal, 802 denotes a PCR extraction unit, 803 denotes a comparator, 804 denotes a PCR counter, 805 denotes a voltage controlled oscillator (Voltage Controlled Oscillator), 806 denotes a divider, and 807 denotes an output terminal.
[0068]
An MPEG stream packet reproduced from the optical disk is input to the input terminal 801 at a predetermined timing. The PCR value extraction unit 802 selects only a packet including a PCR from the MPEG stream, and extracts a value of the PCR included in the packet. The extracted packet value is input to the comparator 803.
[0069]
On the other hand, the PCR counter 804 counts the number of clocks generated by the voltage controlled oscillator 805.
[0070]
The comparator 803 compares the PCR value extracted by the PCR value extraction unit 802 with the count value counted by the PCR counter 804. Here, the PCR value extracted by the PCR value extraction unit 802 and the count value counted by the PCR counter 804 are both 33-bit values.
[0071]
The comparator 803 changes the control voltage of the voltage controlled oscillator 805 according to the comparison result. Specifically, when the count value counted by the PCR counter 804 is smaller than the PCR value extracted by the PCR value extracting unit 802, it is determined that the time is late, and the control voltage of the voltage controlled oscillator 805 is increased. Let it.
[0072]
The voltage controlled oscillator 805 changes the oscillation frequency according to the level of the control voltage. When the input is 0 V, the voltage controlled oscillator 805 oscillates at 27 MHz. When the input voltage becomes higher than 0V, the oscillation frequency is increased. Conversely, when the input voltage becomes lower than 0 V, the oscillation frequency is reduced.
[0073]
When the count value counted by the PCR counter 804 is smaller than the PCR value extracted by the PCR value extraction unit 802, the control voltage output from the comparator 803 increases, so that the oscillation frequency of the voltage control oscillator 805 increases. To rise. As a result, the time counted by the PCR counter 804 advances earlier, and approaches the PCR value in the MPEG stream.
[0074]
Conversely, when the count value counted by the PCR counter 804 is larger than the PCR value extracted by the PCR value extraction unit 802, the control voltage output from the comparator 803 decreases. This means that the value of the PCR counter is ahead of the PCR value in the MPEG stream. At this time, the oscillation frequency of the voltage controlled oscillator 805 decreases, and the advance of the time counted by the PCR counter 804 becomes slow. That is, it approaches the PCR value in the MPEG stream.
[0075]
By the above-described processing, control is performed so that the count value counted by the PCR counter 804 and the PCR value extracted by the PCR value extraction unit 802 match.
[0076]
The PCR counter 804 counts at a cycle substantially coincident with the PCR in the MPEG stream, and may indicate time information in the MPEG stream. The display of the subtitle information is performed in synchronization with the count value of the PCR counter 804. However, although the PCR counter 804 counts at 27 MHz, the PTS and ETS in the caption information are counted at 90 kHz, so the PCR count value is divided by the divider 806 to 1/300 and output via the output terminal 807. , To the system control unit 613.
[0077]
The system control unit 613 compares the time stamp value read from the time stamp generation unit 612 with the display start time 102 in the caption information. When the time stamp value of the time stamp generation unit 612 is smaller than the display start time 102 in the subtitle information, the subtitle display start time has not been reached, so that the subtitle display is not performed and the process stands by. When the time stamp value of the time stamp generation unit 612 matches the display start time 102 in the subtitle information, the subtitle image is written to the memory of the subtitle synthesis unit 610. At this time, the address of the memory to be written follows the display coordinates in the display format information. As a result, subtitles are synthesized at predetermined positions in synchronization with video and audio.
[0078]
After displaying the caption, the system control unit 613 reads the time stamp again from the time stamp generation unit 612 and compares the time stamp with the display end time 103 in the caption information. If the timestamp read from the timestamp generation unit 612 is smaller than the display end time 103 in the subtitle information, the subtitle display end time has not been reached, so that the subtitle is not erased and waits. When the time stamp value of the time stamp generation unit 612 matches the display end time 103 in the caption information, the memory of the caption synthesizing unit 610 is cleared. Thus, the display of the caption is completed.
[0079]
The caption synthesizing unit 610 imposes the caption image provided from the system control unit 613 on the video decoded by the video decoder 609 and outputs the video to the video output terminal 611. A monitor television for high vision is connected to the outside of the playback device, and the video signal output from the video output terminal 611 is displayed on the monitor television.
[0080]
As described above, the subtitle information recorded on the optical disc is displayed in synchronization with the high-definition video and audio.
[0081]
Next, a case where the video output is a down-converted output will be described.
When the down-conversion output is selected, the video decoder 609 down-converts this video signal to an NTSC format and outputs it instead of the decoded high-vision video signal. That is, the signal input to caption synthesizing section 610 is in the NTSC format.
[0082]
The system control unit 613 generates captions corresponding to the down-converted output. Specifically, a subtitle image is generated using the second display format 105 and the character information 106 in the subtitle information.
[0083]
The second display format information 105 is display format information corresponding to the NTSC format at the time of down-conversion. As shown in FIG. 2, subtitles are displayed outside the letter box display of the down-converted image. Is specified as The control of the subtitle display start and display end timings is the same as the operation described above.
[0084]
The subtitle synthesizing unit 610 synthesizes the NTSC video signal decoded and down-converted by the video decoder 609 with the NTSC subtitle image input from the system control unit 613, and outputs the synthesized NTSC video signal from the video signal output terminal 611. The video signal is displayed on an externally connected NTSC television monitor.
[0085]
As described above, at the time of down-conversion, by combining and outputting subtitles for down-conversion, which is different from that at the time of high-definition output, subtitles do not overlap on the display image, so that the visibility of subtitles is improved. .
[0086]
With the above configuration, it is possible to realize a playback device that displays subtitles in a specified display format in each of the high-definition format and the down-convert format.
[0087]
In the above-described reproducing apparatus, the user switches between the high-definition video and the down-converted NTSC video and outputs it, but the present invention is not limited to this. For example, a playback device having two systems of output, a high-definition video output and a down-convert output, can be configured. An example of a reproducing apparatus having these two outputs is shown below.
[0088]
FIG. 9 shows an example of a reproducing apparatus provided with two outputs, a high-definition output and a down-converted output.
In FIG. 9, reference numeral 901 denotes a down converter, 902 denotes an NTSC subtitle synthesizing unit, and 903 denotes an NTSC video output terminal. Other symbols are equivalent to 601 to 614 in FIG.
[0089]
At the time of reproduction, the operation of reading subtitle data from the optical disc and the operation of reproducing the MPEG stream are the same as those of the reproducing apparatus shown in FIG.
[0090]
In the reproducing apparatus shown in FIG. 9, the generation of subtitles for high definition and the generation of subtitles for NTSC used at the time of down-conversion are performed in parallel. Here, the caption information file used for generating these captions will be described as shown in FIG.
[0091]
In parallel with the reproduction of the MPEG stream, the system control unit 613 generates a caption image from the caption information. The system control unit generates a first HDTV subtitle image from the subtitle information using the first display format information 104 and the character information 106. Further, a second subtitle image for NTSC is generated using the second display format information 105 and the character information 106.
[0092]
Next, the system control unit 613 monitors the time stamp input from the time stamp generation unit 612 and compares the time stamp with the display start time 102. When the time stamp input from the time stamp generation unit matches the display start time, the generated subtitle image is output to the subtitle synthesis unit. Specifically, at the display start time, the first subtitle image for high definition is written to the memory in the subtitle synthesizing unit 610 for high definition. Also, the second subtitle information for NTSC is written to the memory in the subtitle synthesizing unit 902 for NTSC.
[0093]
Here, a high-definition image synchronized with the display time is output from the high-definition video decoder 609, and the high-definition image is input to the high-definition subtitle synthesizing unit 610 and the down converter 901.
[0094]
The high-vision subtitle synthesizing unit 610 synthesizes the subtitle image written by the system control unit 613 with the high-vision image input from the high-vision video decoder 609, and outputs the high-vision image to the high-vision video output terminal 611.
[0095]
On the other hand, the downconverter 901 downconverts the high definition video input from the high definition video decoder 609 to the NTSC format. The NTSC video generated by the down-conversion is input to the NTSC subtitle synthesizing unit 902.
[0096]
The NTSC subtitle synthesizing unit 902 synthesizes the NTSC subtitle image input from the system control unit 613 with the NTSC video generated by down-conversion, and outputs an NTSC video signal to the NTSC video output terminal 903.
[0097]
As described above, a subtitle image is combined with each of the high-definition video signal and the NTSC video signal. At this time, each subtitle is a subtitle image in a format suitable for each video signal, so that the subtitles are easy to see when watching a video in high definition or when viewing a video on a monitor in the NTSC format. I have.
[0098]
In addition, since the down conversion process takes a long time, there is a possibility that the display of the high-definition video and the NTSC image is shifted by several frames. In this case, if the data writing timing to the NTSC subtitle synthesizing unit is shifted in anticipation of the frame shift in advance, it is possible to prevent the shift between the video and the subtitle in the subtitle synthesis with the NTSC video.
[0099]
In the above example, an example is given in which subtitle information is recorded as one subtitle information file 100 on an optical disc. However, the present invention is not limited to this. You can keep it. FIG. 12 shows an example in which subtitle information is superimposed on an MPEG stream and transmitted.
[0100]
First, the individual subtitle information shown in FIG. 1 is divided into a size that can be arranged in an MPEG packet. The divided subtitle information is converted into an MPEG packet format by adding an MPEG packet header. Here, the MPEG packet header includes a PID (packet ID) for determining the type of the packet. The caption information packet has a unique PID added so that it can be distinguished from the video information packet and the audio information packet.
[0101]
Information on which information packet each PID corresponds to is recorded in a packet called a PMT (Program Map Table), and is superimposed in the MPEG stream at a predetermined timing.
[0102]
The caption information packet (S) to which the unique PID is added is superimposed on the MPEG stream together with the video packet (V) and the audio packet (A), and is transmitted and recorded.
[0103]
At the time of reproduction, each packet is separated from the MPEG stream based on the PID. The subtitle information packet is distinguished from other information packets by the PID of the subtitle information packet, and only the subtitle information packet is extracted. The header is removed from the extracted subtitle information packet, and only the subtitle information data is extracted. As a result, subtitle information can be extracted in the same manner as in the case of independently recording in a file.
[0104]
As described above, by superimposing subtitle information on the MPEG stream, it is possible to transmit subtitle information according to a plurality of display formats even in digital broadcasting. Therefore, the present invention can be applied to not only a recording device but also a broadcasting device of a broadcasting station or a transmission device using a network.
[0105]
In the example of the apparatus described above, two pieces of display format information (104 and 105) are recorded in one piece of caption information, but the present invention is not limited to this. For example, as shown in FIG. 10, one subtitle information file is composed of the first display format information 104 for high-definition and the character information 106, and the first subtitle information file 110 is used. Similarly, one subtitle information file is configured by the second display format information 105 for down-conversion and the character information 106, and is defined as a second subtitle information file 111. These two can be recorded on the optical disc as files, respectively, and can be selectively used according to the subtitle information to be used.
[0106]
At this time, the first subtitle information file 110 and the second subtitle information file 111 are recorded with different file names such as “JAPANESE.HST” and “JAPANESE.SST”, and are easily distinguished and used. be able to. The file structure at this time is as shown in FIG.
[0107]
In the case of superimposing and recording on the MPEG-TS, if the subtitle information for Hi-Vision and the subtitle information used at the time of down-conversion are recorded as packets having different PIDs, it can be easily distinguished.
[0108]
Alternatively, the determination may be performed by including in the data an identification flag for determining whether the information is subtitle information for high-definition or subtitle information to be used at the time of down-conversion.
[0109]
By the way, as described above, when the subtitle information 110 for high definition and the subtitle information 111 for down-conversion are completely separated and recorded as two files, it is necessary to record the character information 106 in each subtitle information. Yes, the recording area is wasted. To prevent this, display format information (104 and 105) and character information 106 may be separated and recorded as separate files.
[0110]
Specifically, the display start time 102, the display end time 103, and the character information 104 are recorded as one file, and recorded as the subtitle information file 120. On the other hand, only the first display format information 104 is collected and recorded as the first display format information file 121. Similarly, only the second display format information 105 is collected and recorded as the second display format information file 122. This is illustrated in FIG.
[0111]
At this time, the first display format information file 121 has a file name such as “JAPANESE.HDS”, the second display format information file 122 has a file name “JAPANESE.SDS”, and the subtitle information file 120 has a file name “JAPANESE.STX”. By assigning file names as described above, each data file can be identified. FIG. 14 shows a file structure to which such a file name is added.
[0112]
As a result, it is possible to eliminate redundant recording of character information and reduce the recording capacity of subtitle information. At this time, when displaying the subtitle information for high definition, the first display format information file 121 and the subtitle information file 120 in FIG. 13 may be read and used. Similarly, at the time of down conversion, the subtitle display in the NTSC signal is realized by reading and using the second display format information file 122 and the subtitle information file 120.
[0113]
By the way, in the above-described reproducing apparatus, the recorded subtitle information is character information and display format information, and a subtitle image in a bitmap format is generated from these and displayed. However, data may be recorded in advance as a bitmap subtitle image. In this case, it is possible to realize this by separately creating a subtitle image for hi-vision and a subtitle image for down-conversion, and switching and outputting them according to the output format. Alternatively, it is also possible to record only one subtitle image and display it as a different subtitle image by changing the image size or the like between high-definition output and down-converted output. At this time, information such as a display position, a display start time, a display end time, and an enlargement ratio may be recorded as the display format information. FIG. 15 shows the configuration of the subtitle information file when subtitle information is recorded in the bitmap format.
[0114]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, even if it reduces a screen by performing down conversion, a subtitle can be displayed easily.
[Brief description of the drawings]
FIG. 1 is a diagram showing a recording method of a caption information file.
FIG. 2 is a diagram showing a display example of captions.
FIG. 3 is a diagram showing a specific example of a caption information file.
FIG. 4 is a diagram showing a second specific example of a caption information file.
FIG. 5 is a diagram showing a file structure.
FIG. 6 is a diagram showing a block diagram of a playback device.
FIG. 7 is a diagram showing a recording structure of an MPEG packet.
FIG. 8 is a block diagram illustrating a time stamp generation unit.
FIG. 9 is a diagram showing a second block diagram of the playback device.
FIG. 10 is a diagram showing a second recording method of a subtitle information file.
FIG. 11 is a diagram showing a second file structure.
FIG. 12 is a diagram illustrating a method of superimposing subtitle information on an MPEG packet.
FIG. 13 is a diagram illustrating a third recording method of a subtitle information file.
FIG. 14 is a diagram showing a third file structure.
FIG. 15 is a diagram illustrating a fourth recording method of a caption information file.
[Explanation of symbols]
100: closed caption information file, 101: closed caption information size, 102: display start time, 103: display end time, 104: first display format information, 105: second display format information, 106: character information, 110: first 1 subtitle information file, 111: second subtitle information file, 120: subtitle information file, 121: first display format information file, 122: second display format information file, 601: optical disk, 602: optical pickup, 603: playback signal processing unit, 604: output timing control unit, 605: servo unit, 606: drive control unit, 607: audio decoder, 608: audio output terminal, 609: video decoder, 610: subtitle synthesis unit, 611: video Output terminal, 612: time stamp generation unit, 613: system control unit, 614: remote control reception unit, 801: input Terminals: 802: PCR value extraction unit, 803: Comparator, 804: PCR counter, 805: Voltage controlled oscillator, 806: Divider, 807: Output terminal, 901: Down converter, 902: NTSC subtitle synthesis unit, 903 ... NTSC video output terminal.

Claims (12)

映像に同期した字幕表示を行う字幕表示方法であって、
字幕情報として、複数の表示形式情報が含まれており、
映像を表示する際には、上記の複数の表示形式情報から表示形式情報を選択し、表示形式情報に応じた字幕を生成し、映像に合成することを特徴とする字幕表示方法。
A subtitle display method for displaying subtitles synchronized with video,
Caption information includes multiple display format information,
When displaying a video, a subtitle display method characterized by selecting display format information from the plurality of display format information, generating subtitles according to the display format information, and combining the generated subtitles with the video.
請求項1に記載の字幕表示方法であって、
複数の表示形式情報から表示形式情報を選択する際には、接続する機器の種類に応じて表示形式情報を選択することを特徴とする字幕表示方法。
The subtitle display method according to claim 1, wherein
When selecting display format information from a plurality of display format information, a subtitle display method characterized by selecting display format information according to the type of device to be connected.
請求項1に記載の字幕表示方法に使用する字幕情報であって、
表示形式情報は、字幕の表示位置情報を含むことを特徴とする字幕表示方法。
Subtitle information used in the subtitle display method according to claim 1,
A subtitle display method, wherein the display format information includes subtitle display position information.
記録媒体から映像および字幕情報を再生し、映像に字幕を合成して出力する再生装置であって、
記録媒体に記録されている字幕情報は、複数の表示形式に対応した表示形式情報を含んでおり、
上記の複数の表示形式情報から表示形式情報を選択し、選択した表示形式情報に応じた字幕を生成し、映像に合成して出力することを特徴とする再生装置。
A playback device that plays back video and subtitle information from a recording medium and combines and outputs subtitles to the video,
The subtitle information recorded on the recording medium includes display format information corresponding to a plurality of display formats,
A playback apparatus characterized by selecting display format information from the plurality of display format information, generating subtitles according to the selected display format information, synthesizing the caption with a video, and outputting the video.
請求項4に記載の再生装置であって、
表示形式情報は、字幕の表示位置情報を有することを特徴とする再生装置。
The playback device according to claim 4, wherein
A display device, wherein the display format information includes display position information of a subtitle.
請求項4に記載の再生装置であって、
表示形式情報は、字幕の文字サイズ情報を有することを特徴とする再生装置。
The playback device according to claim 4, wherein
A display device, wherein the display format information includes character size information of a subtitle.
請求項4に記載の再生装置であって、
字幕情報には、字幕に表示する文字コード情報が含まれ、上記の文字コード情報は、表示形式情報によらず、共通に使用することを特徴とする再生装置。
The playback device according to claim 4, wherein
A reproducing apparatus characterized in that subtitle information includes character code information to be displayed in subtitles, and the character code information is commonly used regardless of display format information.
請求項7に記載の再生装置であって、
文字コードに対応した文字形状を意味するフォントデータが、記録媒体上に記録されており、このフォントデータを読み出して使用することを特徴とする再生装置。
The playback device according to claim 7, wherein
A reproducing apparatus characterized in that font data meaning a character shape corresponding to a character code is recorded on a recording medium, and the font data is read and used.
記録媒体に、映像情報とともに字幕情報を記録する記録装置であって、
字幕情報に、複数の表示形式情報を記録することを特徴とする記録装置。
A recording device for recording subtitle information together with video information on a recording medium,
A recording device for recording a plurality of display format information in caption information.
映像情報とともに字幕情報を記録した記録媒体であって、
字幕情報に、複数の表示形式情報を記録したことを特徴とする記録媒体。
A recording medium on which subtitle information is recorded together with video information,
A recording medium characterized by recording a plurality of display format information in caption information.
入力された映像と字幕情報を用いて、映像に同期した字幕表示を行う字幕表示装置であって、
入力される字幕情報は、複数の表示形式に対応した表示形式情報を含んでおり、上記の複数の表示形式情報から表示形式情報を選択し、選択した表示形式情報に応じた字幕を生成し、映像に合成して出力することを特徴とする再生装置。
A subtitle display device that performs subtitle display synchronized with the video using the input video and subtitle information,
The input subtitle information includes display format information corresponding to a plurality of display formats, selects display format information from the plurality of display format information, generates subtitles according to the selected display format information, A playback device characterized in that it is synthesized with a video and output.
映像とともに字幕情報を出力する出力装置であって、
出力する字幕情報は、複数の表示形式に対応した表示形式情報を含むことを特徴とする出力装置。
An output device that outputs subtitle information together with a video,
An output device, wherein the subtitle information to be output includes display format information corresponding to a plurality of display formats.
JP2002361603A 2002-12-13 2002-12-13 Caption display method, reproducer, recording device, recording medium, and outputting device Pending JP2004194131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002361603A JP2004194131A (en) 2002-12-13 2002-12-13 Caption display method, reproducer, recording device, recording medium, and outputting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002361603A JP2004194131A (en) 2002-12-13 2002-12-13 Caption display method, reproducer, recording device, recording medium, and outputting device

Publications (1)

Publication Number Publication Date
JP2004194131A true JP2004194131A (en) 2004-07-08

Family

ID=32760270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002361603A Pending JP2004194131A (en) 2002-12-13 2002-12-13 Caption display method, reproducer, recording device, recording medium, and outputting device

Country Status (1)

Country Link
JP (1) JP2004194131A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122569A1 (en) * 2004-06-11 2005-12-22 Sony Corporation Data processing device, data processing method, program, program recording medium, data recording medium, and data structure
JP2006287747A (en) * 2005-04-01 2006-10-19 Canon Inc Image processor, image processing method, program and storage medium
JP2006308671A (en) * 2005-04-26 2006-11-09 Sony Corp Information processor, information processing method, program storage medium and program
JP2007507828A (en) * 2003-10-04 2007-03-29 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which text-based subtitle information is recorded, processing apparatus and method therefor
JP2007514255A (en) * 2003-11-10 2007-05-31 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which subtitles are recorded and processing apparatus therefor
JP2007520844A (en) * 2004-02-03 2007-07-26 エルジー エレクトロニクス インコーポレーテッド Text subtitle decoder and method for decoding text subtitle
JP2009177720A (en) * 2008-01-28 2009-08-06 Sony Corp Method and device for display control, and program
US7574119B2 (en) 2004-07-27 2009-08-11 Kabushiki Kaisha Toshiba Information playback apparatus and information playback method
JP2009301704A (en) * 2003-10-04 2009-12-24 Samsung Electronics Co Ltd Method for providing text-based subtitle
US7787753B2 (en) 2003-04-09 2010-08-31 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
US7809244B2 (en) 2004-03-26 2010-10-05 Lg Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams with style information
JP2011030224A (en) * 2009-07-27 2011-02-10 Ipeer Multimedia Internatl Ltd System and method for displaying multimedia subtitle
JP2012529832A (en) * 2009-06-08 2012-11-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Video data processing apparatus and method
KR101323979B1 (en) 2006-12-13 2013-10-30 엘지전자 주식회사 System and Method of Supportting Portable Handler
KR101335174B1 (en) 2007-04-13 2013-11-29 주식회사 엘지유플러스 Method and system for managing moving picture in mobile communication terminal
JP2017500770A (en) * 2013-10-24 2017-01-05 ▲華▼▲為▼▲終▼端有限公司 Subtitle display method and subtitle display device

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787753B2 (en) 2003-04-09 2010-08-31 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
US8135259B2 (en) 2003-04-09 2012-03-13 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
US8331762B2 (en) 2003-10-04 2012-12-11 Samsung Electronics Co., Ltd. Information storage medium storing text-based subtitle, and apparatus and method for processing text-based subtitle
JP2009301704A (en) * 2003-10-04 2009-12-24 Samsung Electronics Co Ltd Method for providing text-based subtitle
JP4690330B2 (en) * 2003-10-04 2011-06-01 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which text-based subtitle information is recorded, and reproducing apparatus
JP2011090779A (en) * 2003-10-04 2011-05-06 Samsung Electronics Co Ltd Information recording medium providing text-based subtitle, and playback device
JP2007507828A (en) * 2003-10-04 2007-03-29 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which text-based subtitle information is recorded, processing apparatus and method therefor
US9031380B2 (en) 2003-10-04 2015-05-12 Samsung Electronics Co., Ltd. Information storage medium storing text-based subtitle, and apparatus and method for processing text-based subtitle
US8428432B2 (en) 2003-10-04 2013-04-23 Samsung Electronics Co., Ltd. Information storage medium storing text-based subtitle, and apparatus and method for processing text-based subtitle
US8204361B2 (en) 2003-10-04 2012-06-19 Samsung Electronics Co., Ltd. Information storage medium storing text-based subtitle, and apparatus and method for processing text-based subtitle
US8045056B2 (en) 2003-11-10 2011-10-25 Samsung Electronics Co., Ltd. Information storage medium containing subtitles and processing apparatus therefor
JP2010020901A (en) * 2003-11-10 2010-01-28 Samsung Electronics Co Ltd Reproducing method using information recording medium with subtitle recorded thereon
US8325275B2 (en) 2003-11-10 2012-12-04 Samsung Electronics Co., Ltd. Information storage medium containing subtitles and processing apparatus therefor
US8218078B2 (en) 2003-11-10 2012-07-10 Samsung Electronics Co., Ltd. Information storage medium containing subtitles and processing apparatus therefor
US8289448B2 (en) 2003-11-10 2012-10-16 Samsung Electronics Co., Ltd. Information storage medium containing subtitles and processing apparatus therefor
JP2007514255A (en) * 2003-11-10 2007-05-31 サムスン エレクトロニクス カンパニー リミテッド Information recording medium on which subtitles are recorded and processing apparatus therefor
JP2008079346A (en) * 2004-02-03 2008-04-03 Lg Electron Inc Text subtitle decoder which decodes test subtitle and its method
US7982802B2 (en) 2004-02-03 2011-07-19 Lg Electronics Inc. Text subtitle decoder and method for decoding text subtitle streams
US8498515B2 (en) 2004-02-03 2013-07-30 Lg Electronics Inc. Recording medium and recording and reproducing method and apparatuses
US8081860B2 (en) 2004-02-03 2011-12-20 Lg Electronics Inc. Recording medium and recording and reproducing methods and apparatuses
JP2007520844A (en) * 2004-02-03 2007-07-26 エルジー エレクトロニクス インコーポレーテッド Text subtitle decoder and method for decoding text subtitle
US7809244B2 (en) 2004-03-26 2010-10-05 Lg Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams with style information
US8326118B2 (en) 2004-03-26 2012-12-04 Lg Electronics, Inc. Recording medium storing a text subtitle stream including a style segment and a plurality of presentation segments, method and apparatus for reproducing a text subtitle stream including a style segment and a plurality of presentation segments
US8554053B2 (en) 2004-03-26 2013-10-08 Lg Electronics, Inc. Recording medium storing a text subtitle stream including a style segment and a plurality of presentation segments, method and apparatus for reproducing a text subtitle stream including a style segment and a plurality of presentation segments
WO2005122569A1 (en) * 2004-06-11 2005-12-22 Sony Corporation Data processing device, data processing method, program, program recording medium, data recording medium, and data structure
US7574119B2 (en) 2004-07-27 2009-08-11 Kabushiki Kaisha Toshiba Information playback apparatus and information playback method
JP4756892B2 (en) * 2005-04-01 2011-08-24 キヤノン株式会社 Image processing device
JP2006287747A (en) * 2005-04-01 2006-10-19 Canon Inc Image processor, image processing method, program and storage medium
JP2006308671A (en) * 2005-04-26 2006-11-09 Sony Corp Information processor, information processing method, program storage medium and program
KR101323979B1 (en) 2006-12-13 2013-10-30 엘지전자 주식회사 System and Method of Supportting Portable Handler
KR101335174B1 (en) 2007-04-13 2013-11-29 주식회사 엘지유플러스 Method and system for managing moving picture in mobile communication terminal
JP2009177720A (en) * 2008-01-28 2009-08-06 Sony Corp Method and device for display control, and program
JP2012529832A (en) * 2009-06-08 2012-11-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Video data processing apparatus and method
JP2011030224A (en) * 2009-07-27 2011-02-10 Ipeer Multimedia Internatl Ltd System and method for displaying multimedia subtitle
JP2017500770A (en) * 2013-10-24 2017-01-05 ▲華▼▲為▼▲終▼端有限公司 Subtitle display method and subtitle display device
US9813773B2 (en) 2013-10-24 2017-11-07 Huawei Device Co., Ltd. Subtitle display method and subtitle display device

Similar Documents

Publication Publication Date Title
KR100304644B1 (en) Apparatus and method for transmitting informtion via network
US6724981B1 (en) Apparatus and method for transferring digital versatile disc information
KR100956915B1 (en) Display of closed captioned information during video trick modes
US6424792B1 (en) Subtitle encoding/decoding method and apparatus
JP2004194131A (en) Caption display method, reproducer, recording device, recording medium, and outputting device
JP2000511020A (en) Processing digital data and program guide information
JP2002247526A (en) Synchronous reproducing device for internal and external stream data, and stream data distributing device
WO1997039578A1 (en) Data decoder and data decoding method
US6249640B1 (en) System and method for rapidly decoding sub-pictures in a DVD player
US7200322B2 (en) Video-signal recording and playback apparatus, video-signal recording and playback method and recording medium
JP4296676B2 (en) Image recording apparatus and method, image reproducing apparatus and method, and recording medium
JP4063212B2 (en) Information recording / reproducing apparatus and information recording method
JP2010124073A (en) Video recording apparatus and method
JP4288442B2 (en) Recording / reproducing apparatus and video processing method
JP2006253925A (en) Display control device and program picture-recording device
JP2002247506A (en) Recording device for digital audiovisual information
JP2000295527A (en) Video image compositing device
JPH1070705A (en) Image information recording medium and its manufacture
JP2004104477A (en) Information processor and information method processing, program, as well as recording medium
JP2006180091A (en) Apparatus and method of compositing content
JP2004343786A (en) Encoding method, reproducing method, and reproducing apparatus, of image information
JPH09233425A (en) Camera
JP2004343785A (en) Encoding method, reproducing method, and reproducing apparatus, of image information
JP2004266869A (en) Playback apparatus and playback method
JPH09294248A (en) Optical disk reproducing device