JP2006311328A - 字幕生成装置及び方法 - Google Patents

字幕生成装置及び方法 Download PDF

Info

Publication number
JP2006311328A
JP2006311328A JP2005132849A JP2005132849A JP2006311328A JP 2006311328 A JP2006311328 A JP 2006311328A JP 2005132849 A JP2005132849 A JP 2005132849A JP 2005132849 A JP2005132849 A JP 2005132849A JP 2006311328 A JP2006311328 A JP 2006311328A
Authority
JP
Japan
Prior art keywords
file
subtitle
data
caption
internal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005132849A
Other languages
English (en)
Other versions
JP4356645B2 (ja
Inventor
Hiroshi Nakano
宏 中野
Hiroyasu Furuse
弘康 古瀬
Yoshihisa Gonno
善久 権野
Akifumi Mishima
朗史 三嶋
Tsutomu Yamamoto
勉 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005132849A priority Critical patent/JP4356645B2/ja
Priority to US11/412,692 priority patent/US8254753B2/en
Priority to CNB2006100774987A priority patent/CN100442829C/zh
Publication of JP2006311328A publication Critical patent/JP2006311328A/ja
Application granted granted Critical
Publication of JP4356645B2 publication Critical patent/JP4356645B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】デジタル映画上映システムの字幕生成の際に、上映時における字幕処理の負担を軽減させる。
【解決手段】映画館側のユーザ側システム3は、映画の字幕ファイル10が格納されているデータ格納装置200と、字幕ファイル10から内部ファイル40を生成するコンピュータ400と、内部ファイル40を復号して字幕を生成する復号装置100とを備える。字幕ファイル10は、テキストデータ及び制御情報が記述されているXMLファイル11と、画像ファイルであるPNGファイル13とから構成されている。内部ファイル40は、メインファイル11とフォントファイル12と画像ファイル13とを合成して一本化したファイルである。復号装置100は、映画の上映に先立って、字幕ファイル10から内部ファイル40を生成しておく。
【選択図】図2

Description

本発明は、デジタル映画上映システムで用いられる字幕生成装置及び字幕の生成方法に関するものである。
近年、映像ソースとしてフィルムを用いずにデジタルデータを用いて映画を大型スクリーンに投射するデジタル映画上映システムが広く推進されてきている。米大手映画会社が作る業界団体のDigital Cinema Initiatives ,LCC(DCI:非特許文献1参照。)は、デジタル映画の規格を提案している。
DCIが提案するデジタル映画の規格では、映像のフォーマットとして、2K(1920H×1080V)及び4K(4096H×2160V)の画素の静止画像を、24枚/秒毎に、JPEG2000方式で符号化することを規格化している。
また、DCIでは、映像に重畳表示する字幕を、映像データとは別にファイル化してユーザ(映画館)に提供し、表示時において映像と字幕とを合成表示することについて仕様の提案がされている。
詳細規格化はSMPTE(Society of Motion Picture and Television Engineers:全米映画テレビジョン技術者協会)のTechnology Committees, Digital Cinema Technology (DC28)分科会にて進行している。
(http://www.smpte.org/engineering_committees/technology_committees/)
図17に、デジタル映画上映システムにおける字幕ファイルの制作/上映の例を示す。
デジタル映画上映システム1は、図17に示すように、コンテンツを作成して所定の形式にデータ化するコンテンツ制作者側システム2と、映像をスクリーンに表示する映画館に備えられるユーザ側システム3とから構成される。
コンテンツ制作者側システム2では、映像に字幕として表示する情報内容を示すテキストデータ、字幕として表示する各文字の書体(フォント)の実体データ、テキストデータで表現されない文字や絵等を表示する際に字幕として表示する画像データを生成し、字幕ファイル作成装置2-1に入力する。字幕ファイル作成装置2-1は、これらのテキストデータ、フォントの実体データ及び画像データを、SMPTEで規定された所定の形式の字幕ファイル10に変換する。コンテンツ制作者側システム2で制作された字幕ファイル10は、例えば記録媒体にパッケージ化され、ユーザ側システム3に渡される。又は、ネットワーク等を介してコンテンツ制作者側システム2からユーザ側システム3に転送されてもよい。
ユーザ側システム3では、コンテンツ制作者側システム2から記録媒体やネットワークを介して字幕ファイル10を受け取り、コンテンツ格納部200に格納する。コンテンツ格納部200に格納されている字幕ファイル10(XMLデータ11、フォントファイル12、PNGファイル13)は、コンテンツ復号装置100により読み出されて復号及び描画がされ、描画された字幕が映画の映像データに合成される。字幕が合成された映画の映像データは、プロジェクタ等の映像出力装置300に供給され、スクリーンに投射される。
字幕ファイル10は、メインファイルとなるXMLファイル11と、フォントファイル12と、PNGファイル13とを含んでいる。
XMLファイル11は、XML(extensible markup language:文書の記述言語の一つ)で記述されている。XMLファイル11は、字幕として表示する文字及び記号を示したテキストデータが、要素毎(例えばシーン毎)に記述されているとともに、そのテキストデータを表示する際の要素毎の表示時間、表示位置、そのフォントの区別等を示した制御データが記述されている。また、XMLファイル11は、字幕としてPNGデータを表示する場合には、そのPNGデータのファイル名(ネットワークを介して取得する場合にはURL等のネットワーク上の格納場所)が記述されているとともに、そのPNGデータを表示する際の要素毎の表示時間及び表示位置等を示す制御データも記述されている。
フォントファイル12は、画像としてスクリーン上にテキストデータを表示する際の書体(フォント)の実体が格納されているファイルである。例えば、ゴチック体等といったフォントの実体データが格納されている。映画の場合、特に、一般の書籍やコンピュータで使われているフォントではなく、特別な映画専用のフォントが使われることが多い。コンテンツ制作者は、フォントの作成者から使用のライセンスを取得して当該字幕ファイルに含めることとなる。
PNGファイル13は、フォントファイルで含まれていない特殊なフォントや記号,絵等を表示する場合に、その特殊なフォントや記号,絵等をPNG形式で作成した画像データである。PNGファイル13は、1本の映画内で当該字幕画像を表示するシーン毎に形成されるため、1本の映画で数1000ファイル形成される場合もある。
図18は、データ格納装置200に格納された場合の、字幕ファイル10のディレクトリ/ファイル構造の一例を示している。
STPが、字幕ファイル10である。STP内には、xmlフォルダ、fontフォルダ、PNGフォルダが形成されている。
xmlフォルダ内には、XMLファイル11(subtitle.xml)が格納されている。fontフォルダ内には、XMLファイル11で参照される1又は複数のフォントファイル12(MovieFont1.ttf, MovieFont2.ttf, MovieFont3.ttf )が格納されている。フォントファイル12は、一本の映画に表示する字幕で使用するフォントの種類分だけ、フォントファイルが存在する。PNGフォルダ内には、XMLファイル11で参照される1又は複数のPNGファイル13(PNG001.PNG, PNG002.PNG, PNG003.PNG,…,PNGxxx.PNG)が格納されている。
つぎに、SMPTEで規定されたXMLファイル11の記述の一例を示す。
--------------------------------------------------------------
<Subtitle SpotNumber="3"
TimeIn="00:00:13:000" TimeOut="00:00:16:000"
FadeUpTime="00:00:00:020" FadeDownTime="00:00:00:020">
<Font ID="映画字幕書体3" Script="normal" Effect="border"
Italic="no" Underline="no" Weight="normal"
Color="FFFFFFFF" EffectColor="FF000000" Size="42">
<Text Halign="center" Hposition="0"
Valign="bottom" Vposition="10" Direction="ltr">
映画字幕書体3の文字です。
</Text>
<Text Halign="center" Hposition="0"
Valign="bottom" Vposition="4" Direction="ltr">
2行目の文字です。
</Text>
</Font>
</Subtitle>
--------------------------------------------------------------
前記のXMLファイル11の記述のフォーマットの意味内容は次の通りである。
"<Subtitle"〜"</Subtitle>"で囲まれた領域の中が、字幕データの各種記述であることを示している。SpotNumber="xxx" は、その字幕のシーン番号(要素番号)を示している。
TimeIn="HH:MM:SS:EEE"は、文字又はピクチャの表示開始時刻である。TimeOut="HH:MM:SS:EEE"は、文字又はピクチャの表示終了時刻である。FadeUpTime="HH:MM:SS:EEE"は、100%透明から完全不透明に至る時間である。FadeDownTime="HH:MM:SS:EEE"は、完全不透明から100%透明に至る時間である。
"<Font"〜"</Font>"で囲まれた領域の中は、フォントに関する情報の記述である。
ID="xxxxxxx"は、フォントファイルのファイル名である。Script="xxxxx"は、文字の上付き、下付き、通常の違いを規定する。Effect="xxxxx"は、縁取り、影付き、通常の違いを規定する。Italic="xx"は、イタリック体にするか否かを規定する。Underline="xxxxx"は、アンダーラインを付けるか否かを規定する。Weight="xxxxx"は、太字とするか否かを規定する。Color="xxxxx"は、文字色を規定する。EffectColor="xxxxx"は、Effectで縁取りか影付きが選択された場合に縁取り部分、もしくは影付き部分の色を規定する。Size="xxxxx"は、字のサイズを規定する。
"<Text"〜"</Text>"で囲まれた領域の中は、テキストに関する情報の記述である。
Halign="xxxxx"は、文字又はピクチャの水平位置をHpositionを基準として規定する。Hposition="xxxxx"は、文字又はピクチャの水平位置の基準を規定する。例えば、Halign=Leftの時は、画面左端を基準、Halign=Rightの時は、画面右端を基準、Halign=Centerの時は、画面中央を基準とする。Valign="xxxxx"は、文字又はピクチャの垂直位置をVpositionを基準として規定する。Vposition="xxxxx"は、文字又はピクチャの垂直位置の基準を規定する。例えば、Valign=Topの時は、画面上端を基準、Valign= Bottomの時は、画面底を基準、Valign= Centerの時は、画面中央を基準とする。Direction"xxxxx"は、文字描画方向を規定する。さらに、</Text>の手前に記載されたテキストの内容が、字幕として表示する文字の内容である。
以上のようなXMLファイル11が含まれた字幕ファイル10を、コンテンツ復号装置100内の字幕処理プロセッサで処理して描画する場合には、字幕処理プロセッサは、次のような処理を行う必要がある。
まず、字幕処理プロセッサは、"<Subtitle"〜"</Subtitle>"で囲まれた領域の中から、TimeIn, TimeOut, FadeUpTime, FadeDownTime情報を抜き出す。
続いて、字幕処理プロセッサは、 "<Font"〜"</Font>"で囲まれた領域の中から、Italic, Underline, Weight, Color, EffectColor情報を抜き出す。
続いて、字幕処理プロセッサは、"<Text"〜"</Text>"で囲まれた領域の中から、2行の文字列があることを判断し、さらに、各々の行に対してHalign, Hposition, Valign, Vposition情報を抜き出し、さらに、各々の行に文字情報が、1行目は「映画字幕書体3の文字です。」、2行目は「2行目の文字です。」であることを抜き出す。
つぎに、SMPTEで規定されたXMLファイル11の記述の、他の一例を示す。
--------------------------------------------------------------
<Subtitle SpotNumber="1"
TimeIn="00:00:05:000" TimeOut="00:00:15:000"
FadeUpTime="00:00:00:020" FadeDownTime="00:00:00:020">
<Image Halign="center" Hposition="0"
Valign="bottom" Vposition="10">
.\STP\PNG\PNG001.png
</Image>
</Subtitle>
--------------------------------------------------------------
前記のXMLファイル11の記述のフォーマットの意味内容は次の通りである。
なお、先に示したXMLファイル11で説明した内容と同一の部分については説明を略する。
"<Image "〜"</Image>"で囲まれた領域の中は、字幕としてPNGファイルの画像データを表示する際にその画像データに関する情報の記述である。
Halign="xxxxx"は、その画像の水平位置をHpositionを基準として規定する。Hposition="xxxxx"は、その画像の水平位置の基準を規定する。Valign="xxxxx"は、その画像の垂直位置をVpositionを基準として規定する。Vposition="xxxxx"は、その画像の垂直位置の基準を規定する。
さらに、</Image>の手前に記載されたファイル格納場所又はネットワークアドレスが、字幕として表示するPNGファイル13の実体の存在場所である。
以上のようなXMLファイル11が含まれた字幕ファイル10を、コンテンツ復号装置100内の字幕処理プロセッサで処理して描画する場合には、字幕処理プロセッサは、次のような処理を行う必要がある。
まず、字幕処理プロセッサは、"<Subtitle"〜"</Subtitle>"で囲まれた領域の中から、TimeIn, TimeOut, FadeUpTime, FadeDownTime情報を抜き出す。
続いて、字幕処理プロセッサは、"<Image "〜"</Image>"で囲まれた領域の中から、Halign, Hposition, Valign, Vposition情報を抜き出し、さらに、データ格納装置200やネットワークにアクセスをしてそのファイルの格納場所から、PNGファイル13を読み出して、さらに、PNGファイル13のデコード処理を行う。
デジタル映画上映システム1におけるユーザ側システム3では、以上のように字幕に対する処理が行われる。
Digital Cinema Initiatives, LLC (DCI)ホームページ、[online]、[平成17年4月28日検索]、インターネット<URL : http://www.dcimovies.com/>
ところで、字幕のテキストデータ部分の容量は、1シーンあたりの文字数が20文字(40bytes)で、1作品あたりに3000シーンが含まれているとすると、合計120Kバイトとなる。また、XMLに変換した後の制御データ等のオーバーヘッドを考慮すると、テキストデータ及びその他の制御データを含むXMLファイル11の容量は、数Mバイト分となる。
フォントファイル12は、1ファイルあたり数10Mバイト程度であり、1作品あたり5種類のフォントが必要であると考えると、1作品全体で100Mバイトの容量となる。
PNGファイル13は、1ファイルあたり100Kバイト、1作品あたりに3000シーンが含まれているとすると、1作品全体で300Mバイトの容量となる。また、1ファイルあたり300Kバイトあるとすれば、1作品全体で900Mバイトの容量となる。
XMLファイル11及びフォントファイル12は、合わせて100Mバイト程度の容量であり、比較的に少ない。そのため、コンテンツ復号装置100内の字幕処理プロセッサに対して処理をさせる際に、XMLファイル11及びフォントファイル12については、データ格納装置200から、コンテンツ復号装置10の字幕処理プロセッサのワーキングメモリ上へ、映画上映の前に予め全て転送しておくことが可能な容量である。
これに対して、PNGファイル13の総容量は、300Mバイト或いはそれ以上となる。このため、映画上映の前に予め全て字幕処理プロセッサのワーキングメモリ上へ転送することはできないので、PNGファイルについては、上映処理を進めながら、適宜に、データ転送装置200にアクセスを行いファイル転送を実行する必要がある。
しかしながら、ファイル転送が頻繁に行われると、ファイルアクセス処理と、各々の処理回路への制御処理との競合が発生するため、ファイル転送の遅れ、消失、もしくは制御の遅れとなる可能性があり、システム制御の信頼性が低下するという問題がある。
さらに、XMLファイル11及びフォントファイル12も確かに字幕処理プロセッサのワーキングメモリ上へ転送することは可能であるが、字幕データを解釈して情報を抜き出す処理は、組み込み処理を実現するプロセッサにより実現される字幕処理プロセッサにとっては負担が重い。
本発明は、以上のような問題を解決するものであり、デジタル映画上映システムの字幕生成の際に、上映時における字幕処理の負担を軽減させることが可能な、字幕生成装置及び方法を提供することを目的とする。
本発明に係る字幕生成装置は、デジタル映画上映システムで用いられる字幕生成装置において、映画の字幕ファイルが格納されている記憶部と、前記字幕ファイルに基づき内部ファイルを生成する制御部と、前記内部ファイルを復号して字幕を生成し、当該字幕を映画の画像合成する字幕処理部とを備え、前記字幕ファイルは、映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されており、前記内部ファイルは、前記メインファイルの記述内容に対して、前記フォントファイル及び画像ファイルの実体データを合成することにより、前記メインファイルと前記フォントファイルと前記画像ファイルとを一本化したファイルであり、前記制御部は、映画の表示に先立って、前記字幕ファイルから前記内部ファイルを生成しておくことを特徴とする。
本発明に係る字幕生成装置は、デジタル映画上映システムで用いられる字幕生成装置において、映画の字幕ファイルが格納されている記憶部と、前記字幕ファイルに基づき内部ファイルを生成する制御部と、前記内部ファイルを復号して字幕を生成し、当該字幕を映画の画像合成する字幕処理部とを備え、前記字幕ファイルは、映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されており、 前記内部ファイルは、ピクチャデータ部の要素毎のデータサイズ、及び、各要素の表示時刻も記述されたインデックス部を有するファイルであり、前記制御部は、映画の表示に先立って、前記字幕ファイルから前記内部ファイルを生成しておくことを特徴とする。
本発明に係る字幕生成方法は、デジタル映画上映システムにおける字幕の生成方法において、映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されている字幕ファイルを、記録媒体に格納しておき、前記字幕ファイルに基づき、前記メインファイルの記述内容に対して、前記フォントファイル及び画像ファイルの実体データを合成することにより、前記メインファイルと前記フォントファイルと前記画像ファイルとを一本化した内部ファイルを、映画の表示に先立って生成しておき、映画の映像の表示とともに前記内部ファイルを復号して字幕を生成し、当該字幕を映画の画像合成することを特徴とする。
本発明に係る字幕生成方法は、デジタル映画上映システムにおける字幕の生成方法において、映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されている字幕ファイルを、記録媒体に格納しておき、前記内部ファイルは、ピクチャデータ部の要素毎のデータサイズ、及び、各要素の表示時刻も記述されたインデックス部を有するファイルであり、前記制御部は、映画の表示に先立って、前記字幕ファイルから前記内部ファイルを生成しておくことを特徴とする。
本発明に係る字幕生成装置及び方法では、メインファイルとフォントファイルと画像ファイルとから構成される字幕ファイルを、映画の表示に先立って一本化した内部ファイルを生成しておく。
このことにより、字幕生成装置及び方法では、デジタル映画上映システムの字幕生成の際に、上映時における字幕処理の負担を軽減させることができる。
本発明が適用されたデジタル映画上映システムについて説明をする。なお、以下説明を行うデジタル映画上映システムは、DCIに提案されているデジタル映画を上映することが可能なシステムである。
(全体構成の説明)
図1は、上記デジタル映画システムをブロック構成図で表した図であり、図2は、本発明が適用されたデジタル映画上映システムのユーザ側(映画館側)のシステムを模式的に表した図である。
デジタル映画上映システム1は、図1に示すように、コンテンツを作成して所定の形式にデータ化するコンテンツ制作者側システム2と、映像をスクリーンに表示する映画館に備えられるユーザ側システム3とから構成される。
ユーザ側システム3は、図1及び図2に示すように、映像,音声,字幕の映画ソースとなる各映像,音声,字幕ファイルから映像,音声及び字幕を復号するコンテンツ復号装置100と、映像,音声,字幕等の映画ソースとなる各ファイルを格納する例えばハードディスク群から構成されたデータ格納装置200と、コンテンツ復号装置100により復号された映像を投射する映像出力装置300と、コンテンツ復号装置100を外部から制御等をする制御用コンピュータ400と、映像出力装置300により投射された映像を映し出すスクリーン500と、コンテンツ復号装置100により復号された音声を出力する音声出力装置600とを備えている。
なお、ユーザ側システム3のコンテンツ復号装置100及びデータ格納装置200は、映画のソースとなる映像,音声,字幕ファイルのセキュリティを守るために、物理的にも電子的にもソースデータが参照されないようなセキュアな状態となっている。
コンテンツ制作者側システム2では、SMPTEの規格に基づく映像ファイル20,音声ファイル30及び字幕ファイル10を生成し、これらを記録媒体やネットワークを介して、ユーザ側システム3に受け渡す。映像ファイル20,音声ファイル30及び字幕ファイル10は、従来のフィルムに変わる映画上映のためのソースである。映像ファイル20は、映像を表示するためのデータであり、音声ファイル30は、音声を出力するためのデータであり、字幕ファイル10は、字幕を映像に重畳して描画するためのデータである。
字幕ファイル10は、図18等を参照して背景技術で説明したものと同様である。すなわち、字幕ファイル10は、XMLファイル11と、フォントファイル12と、PNGファイル13とから構成されたファイルである。
ユーザ側システム3では、コンテンツ制作者側システム2から映像ファイル20,音声ファイル30及び字幕ファイル10を受け取り、コンテンツ格納部200に格納する。
映画の上映が開始されると、コンテンツ格納部200に格納されている映像ファイル20,音声ファイル30及び字幕ファイル10は、コンテンツ復号装置100により読み出されて復号がされる。コンテンツ復号装置100は、映像ファイル20を復号するとともに字幕を合成した映像データを生成し、映像出力装置300に供給する。映像出力装置300は、供給された映像データをスクリーン500上に投射する。また、コンテンツ復号装置100は、音声ファイル30を復号して音声データを生成し、音声出力装置600に供給する。音声出力装置600は、供給された音声データをスピーカから出力する。
ここで、コンテンツ制作者側システム2では、字幕ファイル10(XMLデータ11、フォントファイル12、PNGファイル13)が、映画の上映前に予め一体化(一本化)され、所定のフォーマット(以下、内部フォーマットという。)で記述された1つの内部ファイル40が作成されている。映画の上映時には、コンテンツ復号装置100は、字幕ファイル10ではなく、内部ファイル40を読み出して、字幕の復号及び描画処理を行う。また、字幕ファイル10から内部ファイル40を作成するのは、制御用コンピュータ400により行われる。
なお、内部ファイル40について、並びに、字幕ファイル10から内部ファイル40を作成する処理についてはその詳細を後述する。
(コンテンツ復号装置)
つぎに、コンテンツ復号装置100の構成について、図3を参照して説明をする。
コンテンツ復号装置100は、図3に示すように、制御用コンピュータ400と通信を行う第1のネットワークI/F111と、データ格納装置200と高速通信を行うファイバーチャネルI/F112と、ホストCPU(Central Processing Unit)113と、ホストCPU113のワーキングメモリとなる主メモリ114と、ホストCPU113がデータ格納装置200と通信を行うための第2のネットワークI/F115とを備えている。
また、コンテンツ復号装置100は、制御データ等の解析並びに映像及び音声の復号処理を行う映像音声処理回路120と、字幕の処理を行う字幕処理回路130とを備えている。
コンテンツ復号装置100では、バス116上に、第1のネットワークI/F111、ファイバーチャネルI/F112、ホストCPU113及び映像音声処理回路120が接続されており、ホストCPU113の制御に従い互いに通信を行う。
映像音声処理回路120は、バス116との通信を行うバスI/F121と、入出力するデータのコンテンツ構文を解釈し、そのデータが映像、音声又は字幕であるか否かを判断して適切に分配を行うコンテンツ構文処理部123と、当該コンテンツ構文処理部123のワーキングメモリとなるローカルメモリ122と、音声復号処理を行う音声復号処理部124と、映像復号処理を行う映像復号処理部125と、映像復号処理のための各種制御を行う信号処理CPU126と、その信号処理CPU126のワーキングメモリとなる主メモリ127と、映像復号処理部125により復号された画像を一時的に格納し、その格納している画像に字幕処理回路130で処理された字幕画像を合成するフレームバッファ(映像/字幕合成部)128とを備えている。
字幕処理回路130は、字幕の復号及び描画処理を行う字幕処理プロセッサ131と、コンテンツ構文処理部123から字幕に関するデータを受信するためのローカルI/F132と、字幕処理プロセッサ131のワーキングメモリとなる主メモリ133と、映像音声処理回路120の信号制御CPU126と字幕処理プロセッサ131との通信のためのI/Fメモリ134と、復号された字幕を画像として描画するためのバッファメモリ135と、データ格納装置200から受信された復号前の字幕に関するデータを格納しておく字幕メモリ136とを備えている。
このような構成のコンテンツ復号装置100の動作を説明する。
コンテンツ制作者が制作した映像ファイル120、音声ファイル130及び内部ファイル40は、データ格納装置200に格納されている。ホストCPU113はデータ格納装置200に格納された各ファイルにアクセスし、ファイバーチャネルI/F112又は第2のネットワークI/F115を介して各ファイルを取得する。ホストCPU113は、取得した各ファイルをバス116を経由して映像音声処理回路120に転送する。
映像音声処理回路120に転送された各ファイルは、バスI/F121を経由してコンテンツ構文処理装置123に渡される。コンテンツ構文処理装置123は、転送されたファイルのコンテンツの構文処理を行い、動画ファイル20、音声ファイル30、内部ファイル40への分解を行い、動画ファイル20については映像復号処理部125へ、音声ファイル30については音声復号処理部124へ渡す。内部ファイル40については、字幕処理回路130のローカルI/F132を経由して、字幕メモリ136へ格納される。
字幕処理プロセッサ136は、一旦字幕メモリ136へ格納された内部ファイル40のうち、テキストデータ部分及びフォント部分を主メモリ133へ転送し、上映再生の準備が整ったことをI/Fメモリ134、信号制御CPU126、バス116を経由してホストCPU113へ伝える。
ホストCPU113は、音声復号処理部124、映像復号処理部125の上映再生の準備が整ったことを信号制御CPU126、バス116を経由した通知と合わせて受け取り、全体の上映再生の準備が整ったことの判断とする。この判断の後、ホストCPU113はバス116、信号制御CPU126を経由して音声復号処理部124、映像復号処理部125へ上映開始の制御信号を送り、同時にバス116、信号制御CPU126、I/Fメモリ134を経由して字幕処理プロセッサ131へ伝える。
字幕処理プロセッサ131は、ホストCPU113からの上映開始の制御信号を受け取った後、字幕メモリ136へ格納されているPNGデータ部分を主メモリ133へ転送し、PBGのデコード処理を進め、デコードされた静止画データをバッファメモリ135に書き込む。すでに格納されているテキストデータ部分及びフォント部分も、字幕処理プロセッサ136で描画処理を進め、処理結果をバッファメモリ135に書き込む。書き込まれた静止画データ、文字データは、フレームバッファ128に送られ、映像復号処理部125の出力動画データと合成される。合成された画像は、映像出力装置300に供給される。音声データも同様に、音声復号処理部124からの信号が音声出力装置600に供給される。
(字幕ファイルから内部ファイルを作成する処理)
つぎに、字幕ファイル10を、内部ファイル40へ変換する処理について説明をする。
ユーザ側システム3では、上映時における字幕の処理負担が軽くなるように、映画の上映に先立って、コンテンツ制作者により作成された字幕ファイル10を、内部ファイル40に変換している。
内部ファイル40は、字幕ファイル10のXMLファイル11、1又は複数のフォントファイル12及び1又は複数のPNGファイル13を一本化した合成ファイルである。
具体的には、内部ファイル40は、字幕ファイル10内のXMLファイル11の各種制御情報の記述を切り出して、そのまま反映されている。それとともに、内部ファイル40には、XMLファイル11にフォントファイル12のファイル名(又はURL)が記述されていれば、予めその実体データが読み出されて、ファイル内に取り込まれている。また、内部ファイル40には、XMLファイル11にPNGファイル13のファイル名(又はURL)が記述されていれば、予めその実体データを読み出されて、ファイル内に取り込まれている。
また、内部ファイル40は、先頭から、インデックス部と、ヘッダ部と、テキストデータ部と、ピクチャデータ部とに構成が分離されている。
ヘッダ部は、字幕ファイル10の先頭部分に記述されている字幕ファイル10の全体の内容を特定する情報と、フォントファイル20の実体データが含まれている。
テキストデータ部は、字幕ファイル10の字幕に関する情報が記述されている部分(<Subtitle>〜</ Subtitle >で囲まれた部分)のなかで、テキストデータが記述された部分(<Text >〜</ Text >で囲まれた部分)並びに字幕ファイル10のフォントに関する情報が記述された部分(<Font>〜</ Font >で囲まれた部分)の記述が含まれている。
ピクチャデータ部は、字幕ファイル10の字幕に関する情報が記述されている部分(<Subtitle>〜</ Subtitle >で囲まれた部分)のなかで、字幕ファイル10のピクチャデータが記述された部分(<Image >〜</ Image >で囲まれた部分)のPNGファイルの表示時刻、位置情報及びPNGファイルの実体データとが含まれている。
インデックス部は、ヘッダ部、テキストデータ部及びピクチャデータ部の各サイズ、並びに、ピクチャデータ部の要素(シーン)毎のサイズ及び表示時刻を記述している。
以下、内部ファイル40のそれぞれの部分の作成アルゴリズムを、図4〜図9のフローチャートを参照して説明する。
(内部ファイルのヘッダ部の作成処理)
図4及び図5は、制御用コンピュータ400による内部ファイル40のヘッダ部の作成処理のフローチャートである。
まず、制御用コンピュータ400は、ステップS101において、字幕ファイル10のXMLファイル11をデータ格納装置200から読み出して入力する。
続いて、制御用コンピュータ400は、ステップS102において、入力した字幕ファイル10のXMLファイル11から、文字列“< ID >”を検出する。文字列“< ID >”が検出できない場合には、異常終了する。文字列“< ID >”が検出できた場合には、制御用コンピュータ400は、ステップS103において、入力した字幕ファイル10のXMLファイル11から、< ID >〜< /ID >で囲まれた領域の文字を抜き取り、内部ファイル40のヘッダ部に出力する。
続いて、制御用コンピュータ400は、ステップS104において、入力した字幕ファイル10のXMLファイル11から、文字列“< ContentTitle Text >”を検出する。文字列“< ContentTitle Text >”が検出できない場合には、異常終了する。文字列“< ContentTitle Text >”が検出できた場合には、制御用コンピュータ400は、ステップS105において、入力した字幕ファイル10のXMLファイル11から、< ContentTitle Text >〜< / ContentTitle Text >で囲まれた領域の文字を抜き取り、内部ファイル40のヘッダ部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS106において、入力した字幕ファイル10のXMLファイル11から、文字列“< Annotation Text >”を検出する。文字列“< Annotation Text >”が検出できた場合には、制御用コンピュータ400は、ステップS107において、入力した字幕ファイル10のXMLファイル11から、< Annotation Text >〜< / Annotation Text >で囲まれた領域の文字を抜き取り、抜き取った文字列に対応するサイズをbyte数に換算してAnnotationTextSize変数として記述し、その後、文字列を内部ファイル40のヘッダ部の続きに出力する。一方、文字列“< Annotation Text >”が検出できない場合には、制御用コンピュータ400は、ステップS108において、内部ファイル40のヘッダ部の続きに、AnnotationTextSize=0という記述を出力する。
続いて、制御用コンピュータ400は、ステップS109において、入力した字幕ファイル10のXMLファイル11から、文字列“< IssueDate >”を検出する。文字列“< IssueDate >”が検出できない場合には、異常終了する。文字列“< IssueDate >”が検出できた場合には、制御用コンピュータ400は、ステップS110において、入力した字幕ファイル10のXMLファイル11から、< IssueDate >〜< / IssueDate >で囲まれた領域の文字を抜き取り、内部ファイル40のヘッダ部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS111において、入力した字幕ファイル10のXMLファイル11から、文字列“< ReelNumber >”を検出する。文字列“< ReelNumber >”が検出できた場合には、制御用コンピュータ400は、ステップS112において、ReelNumberExist=1と記述し、その後、入力した字幕ファイル10のXMLファイル11から、< ReelNumber >〜< / ReelNumber >で囲まれた領域の文字を抜き取り、内部ファイル40のヘッダ部の続きに出力する。一方、文字列“< ReelNumber >”が検出できない場合には、制御用コンピュータ400は、ステップS113において、内部ファイル40のヘッダ部の続きに、ReelNumberExist=0という記述を出力する。
続いて、制御用コンピュータ400は、ステップS114において、入力した字幕ファイル10のXMLファイル11から、文字列“< Language >”を検出する。文字列“< Language >”が検出できない場合には、異常終了する。文字列“< Language >”が検出できた場合には、制御用コンピュータ400は、ステップS115において、入力した字幕ファイル10のXMLファイル11から、< Language >〜< / Language >で囲まれた領域の文字を抜き取り、内部ファイル40のヘッダ部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS116において、入力した字幕ファイル10のXMLファイル11から、文字列“< StartTime >”を検出する。文字列“< StartTime >”が検出できた場合には、制御用コンピュータ400は、ステップS117において、StartTimeExist=1と記述し、その後、入力した字幕ファイル10のXMLファイル11から< StartTime >〜< / StartTime >で囲まれた領域の文字を抜き取り、内部ファイル40のヘッダ部の続きに出力する。一方、文字列“< StartTime >”が検出できない場合には、制御用コンピュータ400は、ステップS118において、内部ファイル40のヘッダ部の続きに、StartTimeExist=0という記述を出力する。
続いて、制御用コンピュータ400は、ステップS119において、入力した字幕ファイル10のXMLファイル11から、文字列“< LoadFont >”を検出する。文字列“< LoadFont >”が検出できた場合には、制御用コンピュータ400は、ステップS120において、入力した字幕ファイル10のXMLファイル11に含まれている< LoadFont >タグの発生回数をNとし、LoadFontNumber=Nとして記述して、内部ファイル40のヘッダ部の続きに出力する。文字列“< LoadFont >”が検出できなかった場合には、制御用コンピュータ400は、ステップS121において、LoadFontNumber=0として記述して、内部ファイル40のヘッダ部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS123の処理を、< LoadFont >タグの発生回数をNだけ繰り返し行う。なお、ステップS122はそのループの始点を示しており、ステップS124はそのループの終点を示している。
ステップS123では、< LoadFont >タグが示すフォントファイルの名称< ID >に示されたフォントファイルの実体データを読み出し、その名称< ID >と、その実体データと、そのファイルサイズとを、内部ファイル40のヘッダ部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS125において、入力した字幕ファイル10のXMLファイル11から、文字列“< SubtitleList >を検出する。文字列“< SubtitleList >が検出できない場合には、異常終了する。文字列“< SubtitleList >”が検出できた場合には、制御用コンピュータ400は、そのまま正常終了する。
(内部ファイルのテキストデータ部の作成処理)
図6及び図7は、制御用コンピュータ400による内部ファイルのテキストデータ部の作成処理のフローチャートである。
まず、制御用コンピュータ400は、ステップS201において、字幕ファイル10のXMLファイル11をデータ格納装置200から読み出して入力する。
続いて、制御用コンピュータ400は、ステップS202において、入力した字幕ファイル10のXMLファイル11から、文字列“<SubtitleList>”を検出する。文字列“< SubtitleList >”が検出できない場合には、異常終了する。
続いて、制御用コンピュータ400は、ステップS203において、入力した字幕ファイル10のXMLファイル11から、文字列“<Text>”タグを含む<Subtitle>を検出する。文字列“<Text>”タグを含む<Subtitle>が検出できなかった場合には、正常終了する。
続いて、制御用コンピュータ400は、ステップS204において、入力した字幕ファイル10のXMLファイル11に含まれている文字列“<Text>”タグを含む<Subtitle>タグの発生回数をNとし、TextInstanceNumber=Nとして記述して、内部ファイル40のテキストデータ部の続きに出力する。
以下、TextInstance毎に以下処理を進める。
続いて、制御用コンピュータ400は、ステップS205において、入力した字幕ファイル10のXMLファイル11から、文字列“<Font>”を検出する。文字列“< Font >”が検出できた場合には、制御用コンピュータ400は、ステップS206において、入力した字幕ファイル10のXMLファイル11から、<Font >〜</ Font>で囲まれた領域の文字を抜き取り、内部ファイル40のテキストデータ部の続きに出力する。なお、内部ファイル40への記述の方法は、後述する「シンタックス」「セマンティクス」に示した規則に従う。一方、文字列“< Font>”が検出できない場合には、制御用コンピュータ400は、ステップS207において、内部ファイル40のテキストデータ部の続きに、FontElementExist=0という記述を出力する。
続いて、制御用コンピュータ400は、ステップS208以下の表示テキストループの処理を、TextInstanceNumberで指定された回数だけ繰り返し行う。なお、ステップS208は当該表示テキストループの始点を示しており、ステップS217は当該表示テキストループの終点を示している。
続いて、制御用コンピュータ400は、ステップS209において、入力した字幕ファイル10のXMLファイル11から、文字列“<Font>”を検出する。文字列“< Font >”が検出できた場合には、制御用コンピュータ400は、ステップS210において、入力した字幕ファイル10のXMLファイル11から、<Font >〜</ Font>で囲まれた領域の文字を抜き取り、内部ファイル40のテキストデータ部の続きに出力する。なお、内部ファイル40への記述の方法は、後述する「シンタックス」「セマンティクス」に示した規則に従う。一方、文字列“< Font>”が検出できない場合には、制御用コンピュータ400は、ステップS211において、内部ファイル40のテキストデータ部の続きに、FontElementExist=0という記述を出力する。
続いて、制御用コンピュータ400は、ステップS212において、入力した字幕ファイル10のXMLファイル11から、<Text >〜</ Text >で囲まれた領域の文字を抜き取り、内部ファイル40のテキストデータ部の続きに出力する。なお、内部ファイル40への記述の方法は、後述する「シンタックス」「セマンティクス」に示した規則に従う。
続いて、制御用コンピュータ400は、ステップS213において、入力した字幕ファイル10のXMLファイル11に含まれている文字列“<Text>”タグの発生回数をNとし、ColumnNumber=Nとして記述して、内部ファイル40のテキストデータ部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS214以下の改行ループの処理を、ColumnNumberで指定された回数だけ繰り返し行う。なお、ステップS214は当該表示テキストループの始点を示しており、ステップS216は当該表示テキストループの終点を示している。
続いて、制御用コンピュータ400は、ステップS215において、入力した字幕ファイル10のXMLファイル11から、<Text >〜</ Text >で囲まれた領域の文字を抜き取り、内部ファイル40のテキストデータ部の続きに出力する。なお、内部ファイル40への記述の方法は、後述する「シンタックス」「セマンティクス」に示した規則に従う。
そして、改行ループ及び表示テキストループが終了すると、ステップS216及びステップS217を抜け、テキストデータ部の作成処理を正常終了する。
(内部ファイルのピクチャデータ部の作成処理)
図8は、制御用コンピュータ400による内部ファイルのピクチャデータ部の作成処理のフローチャートである。
まず、制御用コンピュータ400は、ステップS301において、字幕ファイル10のXMLファイル11をデータ格納装置200から読み出して入力する。
続いて、制御用コンピュータ400は、ステップS302において、入力した字幕ファイル10のXMLファイル11から、文字列“<SubtitleList>”を検出する。文字列“< SubtitleList >”が検出できない場合には、異常終了する。
続いて、制御用コンピュータ400は、ステップS303において、入力した字幕ファイル10のXMLファイル11から、文字列“<Image>”タグを含む<Subtitle>を検出する。文字列“<Image>”タグを含む<Subtitle>が検出できなかった場合には、正常終了する。
続いて、制御用コンピュータ400は、ステップS304において、入力した字幕ファイル10のXMLファイル11に含まれている文字列“<Image>”タグを含む<Subtitle>タグの発生回数をNとし、PictureNumber=Nとして記述して、内部ファイル40のピクチャデータ部の続きに出力する。
以下、PictureInstance毎に以下処理を進める。
続いて、制御用コンピュータ400は、ステップS305以下の表示ピクチャループの処理を、PictureNumberで指定された回数だけ繰り返し行う。なお、ステップS305は当該表示ピクチャループの始点を示しており、ステップS307は当該表示ピクチャループの終点を示している。
続いて、制御用コンピュータ400は、ステップS306において、入力した字幕ファイル10のXMLファイル11から、<Image >〜</ Image>で囲まれた領域の文字を抜き取り、内部ファイル40のピクチャデータ部の続きに出力する。なお、内部ファイル40への記述の方法は、後述する「シンタックス」「セマンティクス」に示した規則に従う。
また、このときに、PNGファイル(PNG file())が含まれていれば、その実体データであるPNGファイル13をデータ格納装置200から読み出して、内部ファイル40の当該ピクチャ部に割り当てる。
そして、表示ピクチャループが終了すると、ステップS307を抜け、ピクチャデータ部の作成処理を正常終了する。
(内部ファイルのインデックス部の作成処理)
図9は、制御用コンピュータ400による内部ファイルのインデックス部の作成処理のフローチャートである。
まず、制御用コンピュータ400は、ステップS401において、これまでに作成した内部ファイルのヘッダ部、テキストデータ部及びピクチャデータ部をデータ格納装置200から読み出して入力する。
続いて、制御用コンピュータ400は、ステップS402において、ヘッダ部、テキストデータ部及びピクチャデータ部の合計のサイズを、TotalSizeとして記述して、内部ファイル40のインデックス部の続きに出力する。また、制御用コンピュータ400は、ヘッダ部のサイズとテキストデータ部のサイズとの和のサイズを、TextSizeとして記述して、内部ファイル40のインデックス部の続きに出力する。また、制御用コンピュータ400は、ピクチャデータ部のサイズを、PictureSizeとして記述して、内部ファイル40のインデックス部の続きに出力する。また、制御用コンピュータ400は、各ピクチャデータ部に記述されたPictureNumberを、内部ファイル40のインデックス部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS403〜ステップS405の記録ピクチャループの処理を、PictureNumberで指定された回数だけ繰り返し行う。なお、ステップS403は当該記録ピクチャループの始点を示しており、ステップS405は当該記録ピクチャループの終点を示している。
記録ピクチャループ内のステップS404では、制御用コンピュータ400は、ピクチャデータ部に記述されたPictureNumberで指定された繰り返しループの先頭のTimeINの値(そのピクチャの表示開始時間)をStaretTimeとして、内部ファイル40のインデックス部の続きに出力する。また、制御用コンピュータ400は、ピクチャデータ部に記述されたPictureNumberで指定された繰り返しループの先頭のTimeINの項目と、ピクチャデータ部の先頭からのオフセット値とTextSizeとの和をOffsetSizeとして、内部ファイル40のインデックス部の続きに出力する。
続いて、制御用コンピュータ400は、ステップS406において、インデックスデータ部のサイズを計算して、その値をindexsizeとして、内部ファイル40のインデックス部の続きに出力する。また、制御用コンピュータ400は、既に記述しているTotalSizeを、TotalSize=TotalSize+indexsizeと修正して、内部ファイル40のインデックス部に上書き出力をする。
続いて、制御用コンピュータ400は、ステップS407〜ステップS409の補正ループの処理を、PictureNumberで指定された回数だけ繰り返し行う。なお、ステップS407は当該補正ループの始点を示しており、ステップS409は当該補正ループの終点を示している。
補正ループ内のステップS408では、制御用コンピュータ400は、既に記述しているoffsetSizeを、offsetSize = offsetSize +indexsizeと修正して、内部ファイル40のインデックス部に上書き出力をする。
そして、補正ループが終了すると、ステップS408を抜け、インデックス部の作成処理を正常終了する。
(内部ファイルの転送処理)
このように内部ファイルのインデックス部には、ヘッダ部、テキストデータ部及びピクチャデータ部のそれぞれのデータサイズが記述される。また、さらに、ピクチャデータ部のそれぞれの字幕の表示の画像要素毎(例えばシーン毎)に、そのデータサイズ、及び、その表示開始時間が、先頭からのオフセットの形で表されている。
このため、映画上映時において、字幕処理プロセッサ131が字幕に対する処理を行っている最中に、ホストCPU113がデータ格納装置200から字幕メモリ136へ適宜データ転送を行うが、その際に、ホストCPU113が、各要素のデータサイズ及び表示開始時間に基づき、字幕メモリ136内のデータ占有量を算出し、当該字幕メモリ136が溢れないようにデータ転送の制御をすることが可能となる。従って、字幕処理プロセッサ131が、データの読み出し命令等を発行する必要がなくなり、また、ホストCPU113がXMLファイルを解析して容量を計算する必要がなくなり、字幕処理時の処理負担を大幅に軽減することが可能となる。
具体的に、内部ファイル40を、データ格納装置200から字幕処理部130の字幕メモリ136へ転送する際の、ホストCPU113の転送処理のフローを図10に示す。
まず、ホストCPU113は、ステップS501において、字幕メモリ136の占有量を管理するマップの内容をクリアするとともに、変数PictureNumberを0に設定する。
続いて、ホストCPU113は、ステップS502において、内部ファイル40のインデックス部をデータ格納装置200から読み出して入力する。
続いて、ホストCPU113は、ステップS503において、内部ファイル40のテキストデータ部を、字幕メモリ136経由で、字幕処理プロセッサ131のワーキングメモリである主メモリ133に転送する。
続いて、ホストCPU113は、ステップS504において、PictureNumber=PictureNumber+1の演算を行う。
続いて、ホストCPU113は、ステップS505において、入力されたインデックス部のPictureNumberに対応するstartTime(n)及びoffsetSize(n)を取得する。
続いて、ホストCPU113は、ステップS506において、startTime(n)は現在時刻よりも進んでいるか否かを判断する。ステップS506でstartTime(n)が現在時刻よりも進んでいると判断した場合には異常終了する。
続いて、ホストCPU113は、ステップS507において、字幕メモリマップの容量の総和+PictureSizeと、字幕メモリ136の容量とを比較する。比較した結果、字幕メモリ136の容量の方が大きい場合には、ステップS511に進み、字幕メモリマップの容量の総和+PictureSizeの方が大きい場合にはステップS508に進む。
ステップS508において、ホストCPU113は、字幕メモリマップの先頭の要素の表示時刻は、現在時刻よりも進んでいるか否かを判断する。進んでいなければステップS509で1秒待機して、再度ステップS508の処理を行い、字幕メモリマップの先頭の要素の表示時刻を過ぎるまでステップS508で待機する。
ステップS508を抜けると、続いて、ホストCPU113は、ステップS510において、字幕メモリマップの容量の総和=(字幕メモリマップの容量の総和−先頭の要素のファイルサイズ)とし、さらに、字幕メモリマップから、先頭の要素の項目を削除する。
ステップS510の処理を終えると、ホストCPU113は、ステップS507に進み、再度、字幕メモリマップの容量の総和+PictureSizeと、字幕メモリ136の容量とを比較する。
字幕メモリマップの容量の総和+PictureSizeよりも字幕メモリ136の容量の方が大きくなると、ステップS507を抜けて、ステップS511に進む。
ホストCPU113は、ステップS511において、字幕メモリマップの最後尾の項目に新たな要素のファイルサイズと表示時刻を登録し、さらに、ファイルサイズの総和を更新する。
続いて、ホストCPU113は、ステップS512において、内部ファイル40のピクチャデータ部に含まれているPNGfile()を、データ格納装置200から字幕メモリ136に転送する。転送する際には、先頭からの位置を示したオフセット(OffsetSize(n))とサイズ(PictureSize(n))を参照して、内部ファイル40から該当部分を切り出して転送する。
続いて、ホストCPU113は、ステップS513において、インデックス部の最後まで処理をしたか否かを判断する。最後まで処理をしていない場合には、ステップS504にもどり、次のピクチャに対する処理を行う。
ホストCPU113は、インデックス部の最後まで処理をしたと判断した場合には、当該転送処理を終了する。
(コンテンツ復号装置の第1の変形例)
つぎに、コンテンツ復号装置100の第1の変形例について、図11を参照して説明をする。
図11に示した第1の変形例は、字幕処理回路130の部分を、コンテンツ復号装置100から分離して字幕処理/表示装置700として構成したものである。この場合、字幕処理/表示700の内部構成は、字幕処理回路130が有していた構成要素は全て有しており、さらに、ネットワークI/F137と、フレームバッファ128とを有している。また、コンテンツ復号装置100には、ネットワークI/F117が追加されている。
字幕処理/表示装置700は、ネットワークI/F137を介してコンテンツ復号装置100から、内部ファイル40の転送を受け、字幕の復号を行う。また、字幕処理/表示装置700は、コンテンツ復号装置100により復号された映像データがフレームバッファ128に格納され、当該フレームバッファ128上で復号した字幕画像と合成して映像出力装置300に供給される。
(コンテンツ復号装置の第2の変形例)
つぎに、コンテンツ復号装置100の第2の変形例について、図12、図13及び図14を参照して説明をする。
図12に示した第2の変形例は、データ転送を行う部分を、コンテンツ復号装置100から分離してデータ転送装置800として構成したものである。
この場合、データ転送装置800は、第1のネットワークI/F111、ファイバチャネルI/F112、ホストCPU113、主メモリ114及び第2のネットワークI/F115に加えて、ネットワークI/F118及びデータI/F119とを備えている。また、コンテンツ復号装置100の映像音声処理回路120には、バスI/F121に代わるデータI/F121と、ネットワークI/F129を備えている。
データ転送装置800は、ネットワークI/F118を介して内部ファイル40をコンテンツ復号装置100に転送する。また、コンテンツ格納装置200に格納されている映像ファイル20,音声ファイル30はデータI/F119、121を介してデータI/Fコンテンツ構文処理123に転送する。上映開始の命令等の信号は、ネットワークI/F118を介してコンテンツ復号装置100に転送する。
次に、第2の変形例において、内部ファイル40を、データ格納装置200から字幕処理部130の字幕メモリ136へ転送する際の字幕処理プロセッサ131で転送処理について説明をする。図13及び図14は、内部ファイル40の転送時の字幕処理プロセッサ131の処理内容を示したフローチャートである。
まず、字幕処理プロセッサ131は、ステップS601において、字幕メモリ136の占有量を管理するマップの内容をクリアするとともに、変数PictureNumberを0に設定する。
続いて、字幕処理プロセッサ131は、ステップS602において、内部ファイル40のインデックス部を、ホストCPU113で制御されるデータ転送装置800を介して、データ格納装置200から入力する。
続いて、字幕処理プロセッサ131は、ステップS603において、内部ファイル40のテキストデータ部を、字幕メモリ136経由で、字幕処理プロセッサ131のワーキングメモリである主メモリ133に転送する。
続いて、字幕処理プロセッサ131は、ステップS604において、転送されたインデックス部とテキストデータ部の総サイズの転送が終了したことを検出し、ある規定時間を設け、この規定時間以内に転送が終了しない場合は異常終了する。転送が終了した場合は次のステップS605へ進む。
続いて、字幕処理プロセッサ131は、ステップS605において、PictureNumber=PictureNumber+1の演算を行う。
続いて、字幕処理プロセッサ131は、ステップS605において、入力されたインデックス部のPictureNumberに対応するstartTime(n)及びoffsetSize(n)を取得する。
続いて、字幕処理プロセッサ131は、ステップS606において、startTime(n)は現在時刻よりも進んでいるか否かを判断する。ステップS606でstartTime(n)が現在時刻よりも進んでいると判断した場合には異常終了する。
続いて、字幕処理プロセッサ131は、ステップS607において、字幕メモリマップの容量の総和+PictureSizeと、字幕メモリ136の容量とを比較する。比較した結果、字幕メモリ136の容量の方が大きい場合には、ステップS611に進み、字幕メモリマップの容量の総和+PictureSizeの方が大きい場合にはステップS608に進む。
ステップS608において、字幕処理プロセッサ131は、字幕メモリマップの先頭の要素の表示時刻は、現在時刻よりも進んでいるか否かを判断する。進んでいなければステップS609で1秒待機して、再度ステップS608の処理を行い、字幕メモリマップの先頭の要素の表示時刻を過ぎるまでステップS608で待機する。
ステップS608を抜けると、続いて、字幕処理プロセッサ131は、ステップS610において、字幕メモリマップの容量の総和=(字幕メモリマップの容量の総和−先頭の要素のファイルサイズ)とし、さらに、字幕メモリマップから、先頭の要素の項目を削除する。
ステップS610の処理を終えると、字幕処理プロセッサ131は、ステップS607に進み、再度、字幕メモリマップの容量の総和+PictureSizeと、字幕メモリ136の容量とを比較する。
字幕メモリマップの容量の総和+PictureSizeよりも字幕メモリ136の容量の方が大きくなると、ステップS607を抜けて、ステップS611に進む。
字幕処理プロセッサ131は、ステップS611において、字幕メモリマップの最後尾の項目に新たな要素のファイルサイズと表示時刻を登録し、さらに、ファイルサイズの総和を更新する。
続いて、字幕処理プロセッサ131は、ステップS612において、ホストCPU113で制御されるデータ転送装置800に対してPictureNumberに対応するピクチャデータの送信を要求する。
送信要求を受けて、ホストCPU113で制御されるデータ転送装置800は、ステップS613において、内部ファイル40のピクチャデータ部に含まれているPNGfile()をデータ格納装置200から字幕メモリ136に転送する。転送する際には、先頭からの位置を示したオフセット(OffsetSize(n))とサイズ(PictureSize(n))を参照して、内部ファイル40から該当部分を切り出して転送する。
続いて、字幕処理プロセッサ131は、ステップS614において、PictureSize分のピクチャデータの総サイズの転送が終了したことを検出し、ある規定時間を設け、この規定時間以内に転送が終了しない場合は異常終了する。転送が終了した場合は次のステップS615へ進む。
続いて、字幕処理プロセッサ131は、ステップS615において、インデックス部の最後まで処理をしたか否かを判断する。最後まで処理をしていない場合には、ステップS604にもどり、次のピクチャに対する処理を行う。
字幕処理プロセッサ131は、インデックス部の最後まで処理をしたと判断した場合には、当該転送処理を終了する。
次に、第2の変形例において、内部ファイル40を、データ格納装置200から字幕処理部130の字幕メモリ136へ転送する際の字幕処理プロセッサ131の転送処理の第2の例について説明をする。本例では、内部ファイルとしてまとめられたインデックスデータを元に字幕メモリ136の占有量を管理し、コンテンツ格納部200に格納されているPNGファイルを転送する例である。図15及び図16は、内部ファイル40の転送時の字幕処理プロセッサ131の処理内容を示したフローチャートである。インデックスデータとして、図15及び図16に示すように、各PictureNumber毎に、コンテンツ格納部200内の対応するfile_nameを記述する。
まず、字幕処理プロセッサ131は、ステップS701において、字幕メモリ136の占有量を管理するマップの内容をクリアするとともに、変数PictureNumberを0に設定する。
続いて、字幕処理プロセッサ131は、ステップS702において、内部ファイル40のインデックス部を、ホストCPU113で制御されるデータ転送装置800を介して、データ格納装置200から入力する。
続いて、字幕処理プロセッサ131は、ステップS703において、内部ファイル40のテキストデータ部を、字幕メモリ136経由で、字幕処理プロセッサ131のワーキングメモリである主メモリ133に転送する。
続いて、字幕処理プロセッサ131は、ステップS703aにおいて、転送されたインデックス部とテキストデータ部の総サイズの転送が終了したことを検出し、ある規定時間を設け、この規定時間以内に転送が終了しない場合は異常終了する。転送が終了した場合は次のステップS704へ進む。
続いて、字幕処理プロセッサ131は、ステップS704において、PictureNumber=PictureNumber+1の演算を行う。
続いて、字幕処理プロセッサ131は、ステップS705において、入力されたインデックス部のPictureNumberに対応するstartTime(n)及びoffsetSize(n)を取得する。
続いて、字幕処理プロセッサ131は、ステップS706において、startTime(n)は現在時刻よりも進んでいるか否かを判断する。ステップS706でstartTime(n)が現在時刻よりも進んでいると判断した場合には異常終了する。
続いて、字幕処理プロセッサ131は、ステップS707において、字幕メモリマップの容量の総和+PictureSizeと、字幕メモリ136の容量とを比較する。比較した結果、字幕メモリ136の容量の方が大きい場合には、ステップS711に進み、字幕メモリマップの容量の総和+PictureSizeの方が大きい場合にはステップS708に進む。
ステップS708において、字幕処理プロセッサ131は、字幕メモリマップの先頭の要素の表示時刻は、現在時刻よりも進んでいるか否かを判断する。進んでいなければステップS709で1秒待機して、再度ステップS708の処理を行い、字幕メモリマップの先頭の要素の表示時刻を過ぎるまでステップS708で待機する。
ステップS708を抜けると、続いて、字幕処理プロセッサ131は、ステップS710において、字幕メモリマップの容量の総和=(字幕メモリマップの容量の総和−先頭の要素のファイルサイズ)とし、さらに、字幕メモリマップから、先頭の要素の項目を削除する。
ステップS710の処理を終えると、字幕処理プロセッサ131は、ステップS707に進み、再度、字幕メモリマップの容量の総和+PictureSizeと、字幕メモリ136の容量とを比較する。
字幕メモリマップの容量の総和+PictureSizeよりも字幕メモリ136の容量の方が大きくなると、ステップS707を抜けて、ステップS711に進む。
字幕処理プロセッサ131は、ステップS711において、字幕メモリマップの最後尾の項目に新たな要素のファイルサイズと表示時刻を登録し、さらに、ファイルサイズの総和を更新する。
続いて、字幕処理プロセッサ131は、ステップS712において、ホストCPU113で制御されるデータ転送装置800に対してPictureNumberに対応するピクチャデータの送信を要求する。
送信要求を受けて、ホストCPU113で制御されるデータ転送装置800は、ステップS713において、PictureNumberに対応するfile_nameからPNGfile()を特定し、データ格納装置200から字幕メモリ136に転送する。
続いて、字幕処理プロセッサ131は、ステップS714において、PictureSize分のピクチャデータの総サイズの転送が終了したことを検出し、ある規定時間を設け、この規定時間以内に転送が終了しない場合は異常終了する。転送が終了した場合は次のステップS715へ進む。
続いて、字幕処理プロセッサ131は、ステップS715において、インデックス部の最後まで処理をしたか否かを判断する。最後まで処理をしていない場合には、ステップS704にもどり、次のピクチャに対する処理を行う。
字幕処理プロセッサ131は、インデックス部の最後まで処理をしたと判断した場合には、当該転送処理を終了する。
(内部ファイル40の他の構成例)
以上説明をしたデジタル映画上映システムにおいては、内部ファイル40は、先頭から、インデックス部と、ヘッダ部と、テキストデータ部と、ピクチャデータ部とが、連続して記述されているとともに、これらの部分を一つのファイルとして取り扱っている。
しかしながら、本発明では、それぞれの部分を、別々にファイル化して、4つのファイルとして取り扱ってもよい。
また、インデックス部は、ヘッダ部、テキストデータ部及びピクチャデータ部を読み出しの時間及び容量が記述されているため、インデックス部のみを別ファイルとし、ヘッダ部、テキストデータ部及びピクチャデータ部を一つのファイルとして構成してもよい。
また、ピクチャデータ部は、画像データが含まれているために、他の部分と比べてデータサイズが大きくなる。従って、取り扱いが簡単になるように、ピクチャデータ部のみを別ファイルとし、インデックス部、ヘッダ部及びテキストデータ部を一つのファイルとして構成してもよい。
またデータ転送に際しては、内部ファイルとしてインデックス部を単独に記録し、他の字幕メインファイルと、テキストデータのフォントデータが含まれている1以上のフォントファイルと、画像データが含まれている1以上の画像ファイルを従来通りに記録する構成としてもよい。
(字幕ファイル及び内部ファイルの記述例)
つぎに、字幕ファイル10及び内部ファイル40の記述例を示す。
---------------------------------------------------------------
<?xml version="1.0" encoding="UTF-8"?>
<SubtitleReel
xmlns="http://www.smpte-ra.org/415M/2005/DCST-1#"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.smpte-ra.org/415M/2005/DCST-1#">
<ID>b0d9a865-0909-4024-b04a-1145ee4a0001</ID>
<ContentTitleText Language="en">Subtitle sample</ContentTitleText>
<AnnotationText Language="ja">
xml字幕データのサンプルファイル(subtitle.xml)です。
</AnnotationText>
<IssueDate>2004-10-20T20:00:00Z</IssueDate>
<ReelNumber>1</ReelNumber>
<Language>ja</Language>
<StartTime>00:00:00:000</StartTime>
<LoadFont ID="映画字幕書体1">.\STP\font\MovieFont1.ttf</LoadFont>
<LoadFont ID="映画字幕書体2">.\STP\font\MovieFont2.ttf</LoadFont>
<LoadFont ID="映画字幕書体3">.\STP\font\MovieFont3.ttf</LoadFont>
<SubtitleList>
<Font ID="映画字幕書体1" Script="normal" Effect="border"
Italic="no" Underline="no" Weight="normal"
Color="FFFFFFFF" EffectColor="FF000000" Size="42">
<Subtitle SpotNumber="1"
TimeIn="00:00:05:000" TimeOut="00:00:15:000"
FadeUpTime="00:00:00:020" FadeDownTime="00:00:00:020">
<Image Halign="center" Hposition="0"
Valign="bottom" Vposition="10">
.\STP\PNG\PNG001.png
</Image>
</Subtitle>
<Subtitle SpotNumber="2"
TimeIn="00:00:09:000" TimeOut="00:00:12:000"
FadeUpTime="00:00:00:020" FadeDownTime="00:00:00:020">
<Text Halign="center" Hposition="0"
Valign="bottom" Vposition="10" Direction="ltr">
映画字幕書体1の文字です。
</Text>
</Subtitle>
</Font>
<Subtitle SpotNumber="3"
TimeIn="00:00:13:000" TimeOut="00:00:16:000"
FadeUpTime="00:00:00:020" FadeDownTime="00:00:00:020">
<Font ID="映画字幕書体3" Script="normal" Effect="border"
Italic="no" Underline="no" Weight="normal"
Color="FFFFFFFF" EffectColor="FF000000" Size="42">
<Text Halign="center" Hposition="0"
Valign="bottom" Vposition="10" Direction="ltr">
映画字幕書体3の文字です。
</Text>
<Text Halign="center" Hposition="0"
Valign="bottom" Vposition="4" Direction="ltr">
2行目の文字です。
</Text>
</Font>
</Subtitle>
<Subtitle SpotNumber="1"
TimeIn="00:00:17:000" TimeOut="00:00:27:000"
FadeUpTime="00:00:00:020" FadeDownTime="00:00:00:020">
<Image Halign="center" Hposition="0"
Valign="bottom" Vposition="10">
.\STP\PNG\PNG002.png
</Image>
</Subtitle>
</SubtitleList>
</SubtitleReel>
--------------------------------------------------------------
つぎに、以上のように記述された字幕データ10を一本化した内部ファイル40の記述例「シンタックス」を示す。
--------------------------------------------------------------
index() {
TotalSize 10 bytes
TextSize 8 bytes
PictureSize 6 bytes
PictureNumber 4 bytes
for(i=0; i<PictureNumber; i++) {
startTime 12 bytes
offsetSize 10 bytes
}
}

SubtitleReel() {
ID 36 bytes
ContentTitleTextLanguage 2 bytes
ContentTitleTextSize 2 bytes
for(i=0; i<ContentTitleTextSize; i++){
ContentTitleText bytes
}
AnnotationTextLanguage 2 bytes
AnnotationTextSize 2 bytes
for(i=0; i<AnnotationTextSize; i++){
AnnotationText bytes
}
IssueDate 20 bytes
ReelNumberExist 1 byte
if (ReelNumberExist){
ReelNumber 4 bytes
}
Language 2 bytes
StartTimeExist 1 byte
if (StartTimeExist){
StartTime 12 bytes
}
LoadFontNumber 2 bytes
for(i=0; i<LoadFontNumber; i++){
FontID 26 bytes
fontFileSize 6 bytes
for(i=0; i<fontFileSize; i++){
FontFile bytes
}
}

SubtitleTextList() {
FontElementExist 1 byte
if (FontElementExist){
FontID 26 bytes
Script 1 byte
Effect 1 byte
Italic 1 byte
Underline 1 byte
Weight 1 byte
Color 8 bytes
EffectColor 8 bytes
Size 3 bytes
}
TextInstanceNumber 4 bytes
for(i=0; i<TextInstanceNumber; i++){
FontElementExist 1 byte
if (FontElementExist){
FontID 26 bytes
Script 1 byte
Effect 1 byte
Italic 1 byte
Underline 1 byte
Weight 1 byte
Color 8 bytes
EffectColor 8 bytes
Size 3 bytes
}
TimeIn 12 bytes
TimeOut 12 bytes
FadeUpTime 12 bytes
FadeDownTime 12 bytes
Halign 1 byte
Hposition 2 byte
Valign 1 byte
Vposition 1 byte
Direction 3 bytes
ColumnNumber 1 byte
for(i=0; i<ColumnNumberr; i++){
textSize 2 byte
for(i=0; i<textSize; i++){
text bytes
}
}
}
}

SubtitlePictureList() {
PictureNumber 4 bytes
for(i=0; i<PictureNumber; i++) {
TimeIn 12 bytes
TimeOut 12 bytes
FadeUpTime 12 bytes
FadeDownTime 12 bytes
Halign 1 byte
Hposition 1 byte
Valign 1 byte
Vposition 1 byte
PictureSize 4 bytes
for(i=0; i<PictureSize; i++) {
PNG file() 5 bytes
}
}
}
}
--------------------------------------------------------------
つぎに、以上の内部ファイル40の各コードの意味内容「セマンティクス」を以下に示す。
--------------------------------------------------------------
index()
TotalSize
ファイルサイズ。単位はbyte。10進数で1-9,999,999,999まで。
TextSize
SubtitleTextList()のサイズ。単位はbyte。10進数で1-99,999,999まで。
PictureSize
SubtitlePictureList()のサイズ。単位はbyte。10進数で1-999,999まで。
PictureNumber
<SubtitleReel>タグで示された領域内に含まれる PNGファイルの数。
10進数で1-9,999まで。
PictureStartTime
各PNGファイルに対して設定されている TimeInの値。
PictureOffsetSize
各PNGファイルのファイル先頭からの差分位置。単位はbyte。
10進数で1-9,999,999,999まで。

SubtitleReel()
ID
time-low "-" time-mid "-" time-high-and-version "-"
clock-seq-and-reserved, clock-seq-low "-" node
time-low = 8hexDigit
time-mid = 4hexDigit
time-high-and-version = 4hexDigit
clock-seq-and-reserved = 2hexDigit
clock-seq-low = 2hexDigit
node = 12hexDigit
example) f81d4fae-7dec-11d0-a765-00a0c91e6bf6

ContentTitleTextLanguage
ContentTitleTextを示す言語コード。
XML xs:language typeであらわす。
ContentTitleTextSize
ContentTitleTextの byteサイズ。10進数で1-99まで。
ContentTitleText
コンテンツのタイトル等を記述する文字情報。

AnnotationTextLanguage
AnnotationTextを示す言語コード。
XML xs:language typeであらわす。
AnnotationTextSize
AnnotationTextのサイズ(byte)。10進数で0-99まで。
AnnotationText
コンテンツの内容等を記述する文字情報。

IssueDate
ファイル作成時の日時情報。
XML xs:dateTime typeであらわす。
example) 2005-03-20T20:00:00Z

ReelNumberExist
xmlファイルの<ReelNumber>タグで示された ReelNumber element
の有無を表す。1:exist, 0:not exist
ReelNumber
複数リールに渡ってファイルが含まれる場合、
ファイルが含まれているリールの番号を示す。
10進数で1-9999まで

Language
字幕ファイルのテキストが使用している言語コード。
XML xs:language typeであらわす。

StartTimeExist
xmlファイルの<StartTime>タグで示された StartTime element
の有無を表す。1:exist, 0:not exist
StartTime
字幕処理開始時刻を規定する。
example) 01:00:00:000

LoadFontNumber
ダウンロードするフォントファイルの数。10進数で0-99まで。
FontID
SubtitleTextList()の Fontエレメント内の IDで規定される
使用フォントとの対応がとれるように、ダウンロードするフォ
ントに IDを規定する。例えばフォントファイル名称を示す。
fontFileSize
フォントファイルのサイズ(byte)。xml の <LoadFontID>
タグで示されるファイルのサイズ。10進数で1-999999まで。
FontFile
フォントファイルの実体。xml の <LoadFontID>タグで
示されるファイル。

SubtitleTextList()
TextInstanceNumber
FontElementとTextElement、もしくは TextElementの繰り
返しの回数。10進数で0-9999まで。
FontElementExist
xmlファイルの<Font>タグで示された Font element の有無を
表す。1:exist, 0:not exist, X:記述が無い場合
FontID
SubtitleTextReel()の FontIDで規定される使用フォントとの
対応がとれるように、ダウンロードするフォントに IDを規定
する。例えばフォントファイル名称を示す。記述が無い場合は all"0"
Script
文字修飾機能の一部。
文字の上付き、下付き、通常の違いを規定する。
0 : 上付き、1 : 下付き、2 : 通常か、記述が無い場合
Effect
文字修飾機能の一部。
0 : 縁取り、1 : 影付き、2 : 通常か、記述が無い場合
Italic
0 : off、1 : on(Italic) 記述が無い場合は "0"
Underline
0 : off、1 : on(Underline) 記述が無い場合は "0"
Weight
0 : off、1 : on(Italic) 記述が無い場合は "0"
Color
文字のカラー、ARGBを各々 2hexDigitであらわす。
記述が無い場合は "FFFFFFFF"(不透明の白)
EffectColor
文字修飾部のカラー、ARGBを各々 2hexDigitであらわす。
記述が無い場合は "FF000000"(不透明の黒)
Size
文字のサイズ。単位はポイント。10進数で1-999まで。
記述が無い場合は "42"

TimeIn
HH:MM:SS:EEEで示される文字またはピクチャの表示開始時刻。
EEEは edit units = 1/250sec = 4msec
TimeOut
HH:MM:SS:EEE)で示される文字またはピクチャの表示終了時刻。
FadeUpTime
HH:MM:SS:EEEで示される100%透明から完全不透明に至る時間。
FadeDownTime
HH:MM:SS:EEEで示される完全不透明から100%透明に至る時間。

Halign
文字またはピクチャの水平位置を Hpositionとの組み合わせで
規定。 0 : Left, 1 : Center, 2 : Right
Hposition
文字またはピクチャの水平位置を Halignとの組み合わせで
規定。Halign = Leftの時は、画面左端を基準、
Halign = Rightの時は、画面右端を基準、
Halign = Centerの時は、画面中央を基準、として、
基準からの配置距離を画面水平枠に対する比率(%)で規定する。
Valign
文字またはピクチャの垂直位置を Vpositionとの組み合わせで
規定。 0 : Top, 1 : Center, 2 : Bottom
Vposition
文字またはピクチャの垂直位置を Valignとの組み合わせで
規定。Valign = Topの時は、画面上端を基準、
Halign = Bottomの時は、画面底を基準、
Halign = Centerの時は、画面中央を基準、として、
基準からの配置距離を画面高に対する比率(%)で規定する。
Direction
文字描画方向を規定する。
0 : left to right
1 : right to left
2 : top to bottom

ColumnNumber
表示する文字の行数。xmlファイルの<Subtitle>タグで示される
Subtitle element内の <Text>タグで指定された領域の発生回数。
textSize
表示する文字のbyte数。xmlファイルの<Subtitle>タグで示される
Subtitle element内の <Text>タグで指定された領域で規定される
表示文字のbyte数。
text
表示文字。xmlファイルの<Subtitle>タグで示されるSubtitle
element内の <Text>タグで指定された文字。

PictureNumber
<SubtitleReel>タグで示された領域内に含まれる PNGファイルの数。
PictureSize
PNGファイルのサイズ。単位はbyte。10進数で1-99999まで。
PNG file()
PNGファイルの実体。xml の <Image>タグで示されるファイル。
デジタル映画システムを表したブロック構成図である。 本発明が適用されたデジタル映画上映システムのユーザ側(映画館側)のシステムを模式的に表した図である。 コンテンツ復号装置の構成を表したブロック図である。 内部ファイルのヘッダ部の作成処理のフローチャートである。 図4に続くフローチャートである。 内部ファイルのテキストデータ部の作成処理のフローチャートである。 図6に続くフローチャートである。 内部ファイルのピクチャデータ部の作成処理のフローチャートである。 内部ファイルのインデックス部の作成処理のフローチャートである。 内部ファイルの転送処理のフローチャートである。 コンテンツ復号装置の第1の変形例の構成を表したブロック図である。 コンテンツ復号装置の第2の変形例の構成を表したブロック図である。 第2の変形例での内部ファイルの転送処理のフローチャートである。 図13に続く内部ファイルの転送処理のフローチャートである。 第2の変形例での内部ファイルの他の転送処理のフローチャートである。 図15に続く内部ファイルの転送処理のフローチャートである。 デジタル映画上映システムにおける字幕ファイル制作/上映を表すブロック図である。 データ格納部に格納された字幕ファイルのディレクトリ/ファイル構造を示す図である。
符号の説明
1 デジタル映画上映システム、2 コンテンツ制作者側システム、3 ユーザ側システム、10 字幕ファイル、11 XMLファイル、12 フォントファイル、13 PNGファイル、40 内部ファイル、100 コンテンツ復号装置、200 データ格納装置、300 映像出力装置、400 制御用コンピュータ、500 スクリーン、600 音声出力装置

Claims (20)

  1. デジタル映画上映システムで用いられる字幕生成装置において、
    映画の字幕ファイルが格納されている記憶部と、
    前記字幕ファイルに基づき内部ファイルを生成する制御部と、
    前記内部ファイルを復号して字幕を生成し、当該字幕を映画の画像合成する字幕処理部とを備え、
    前記字幕ファイルは、映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されており、
    前記内部ファイルは、前記メインファイルの記述内容に対して、前記フォントファイル及び画像ファイルの実体データを合成することにより、前記メインファイルと前記フォントファイルと前記画像ファイルとを一本化したファイルであり、
    前記制御部は、映画の表示に先立って、前記字幕ファイルから前記内部ファイルを生成しておくこと
    を特徴とする字幕生成装置。
  2. 前記内部ファイルには、メインファイルのヘッダ情報が含まれているヘッダ部と、テキストデータが含まれているテキストデータ部と、画像データが含まれているピクチャデータ部とに分離されており、それぞれの部がまとめて記述されていること
    を特徴とする請求項1記載の字幕生成装置。
  3. 前記内部ファイルには、ヘッダ部、テキストデータ部及びピクチャデータ部の要素毎のデータサイズ、及び、各要素に対する処理の繰り返し回数が記述されたインデックス部を有すること
    を特徴とする請求項2記載の字幕生成装置。
  4. 前記インデックス部は、内部ファイルの先頭に記述されていること
    を特徴とする請求項3記載の字幕生成装置。
  5. インデックス部、ヘッダ部、テキストデータ部、ピクチャデータ部は、それぞれ独立したファイルとして管理されていること
    を特徴とする請求項3記載の字幕生成装置。
  6. インデックス部は、他のファイルと独立したファイルとして管理されていること
    を特徴とする請求項3記載の字幕生成装置。
  7. ピクチャデータ部は、他のファイルと独立したファイルとして管理されていること
    を特徴とする請求項3記載の字幕生成装置。
  8. デジタル映画上映システムで用いられる字幕生成装置において、
    映画の字幕ファイルが格納されている記憶部と、
    前記字幕ファイルに基づき内部ファイルを生成する制御部と、
    前記内部ファイルを復号して字幕を生成し、当該字幕を映画の画像合成する字幕処理部とを備え、
    前記字幕ファイルは、映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されており、
    前記内部ファイルは、ピクチャデータ部の要素毎のデータサイズ、及び、各要素の表示時刻も記述されたインデックス部を有するファイルであり、
    前記制御部は、映画の表示に先立って、前記字幕ファイルから前記内部ファイルを生成しておくこと
    を特徴とする字幕生成装置。
  9. 内部ファイルを前記記憶部から字幕処理部へ転送する転送制御部を備え、
    前記転送制御部は、前記インデックス部を読み出して当該インデックス部を解析することにより、前記字幕処理部の内部メモリの容量を、各要素の前記表示時刻及びデータサイズから換算し、前記内部メモリが溢れないように内部メモリを転送すること
    を特徴とする請求項8記載の字幕生成装置。
  10. 前記記憶部から字幕処理部へデータを転送する転送制御部を備え、
    前記字幕処理部は、前記インデックス部を読み出して当該インデックス部を解析することにより、前記字幕処理部の内部メモリの容量を各要素の前記表示時刻及びデータサイズから換算し、前記内部メモリが溢れないようにインデックス部以降のデータの転送命令を前記転送制御部に対して発行すること
    を特徴とする請求項8記載の字幕生成装置。
  11. デジタル映画上映システムにおける字幕の生成方法において、
    映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されている字幕ファイルを、記録媒体に格納しておき、
    前記字幕ファイルに基づき、前記メインファイルの記述内容に対して、前記フォントファイル及び画像ファイルの実体データを合成することにより、前記メインファイルと前記フォントファイルと前記画像ファイルとを一本化した内部ファイルを、映画の表示に先立って生成しておき、
    映画の映像の表示とともに前記内部ファイルを復号して字幕を生成し、当該字幕を映画の画像合成すること
    を特徴とする字幕生成方法。
  12. 前記内部ファイルには、メインファイルのヘッダ情報が含まれているヘッダ部と、テキストデータが含まれているテキストデータ部と、画像データが含まれているピクチャデータ部とに分離されており、それぞれの部がまとめて記述されていること
    を特徴とする請求項11記載の字幕生成方法。
  13. 前記内部ファイルには、少なくともピクチャデータ部の要素毎のデータサイズ、及び、各要素に対する処理の繰り返し回数が記述されたインデックス部を有すること
    を特徴とする請求項11記載の字幕生成方法。
  14. 前記インデックス部は、内部ファイルの先頭に記述されていること
    を特徴とする請求項11記載の字幕生成方法。
  15. インデックス部、ヘッダ部、テキストデータ部、ピクチャデータ部は、それぞれ独立したファイルとして管理されていること
    を特徴とする請求項11記載の字幕生成方法。
  16. インデックス部は、他のファイルと独立したファイルとして管理されていること
    を特徴とする請求項11記載の字幕生成方法。
  17. ピクチャデータ部は、他のファイルと独立したファイルとして管理されていること
    を特徴とする請求項11記載の字幕生成方法。
  18. デジタル映画上映システムにおける字幕の生成方法において、
    映画の字幕として表示する文字内容を示すテキストデータ、映画の字幕として表示する画像内容を示す画像データのファイルを特定する情報が、字幕を表示するための制御データとともに記述されているメインファイルと、前記テキストデータのフォントデータが含まれている1以上のフォントファイルと、前記画像データが含まれている1以上の画像ファイルとから構成されている字幕ファイルを、記録媒体に格納しておき、
    前記内部ファイルは、ピクチャデータ部の要素毎のデータサイズ、及び、各要素の表示時刻も記述されたインデックス部を有するファイルであり、
    前記制御部は、映画の表示に先立って、前記字幕ファイルから前記内部ファイルを生成しておくこと
    を特徴とする字幕生成方法。
  19. 内部メモリの容量を、各要素の前記表示時刻及びデータサイズから換算し、内部ファイルを転送する際に前記内部メモリが溢れないように制御すること
    を特徴とする請求項18記載の字幕生成方法。
  20. 上記内部メモリへの転送制御は、字幕処理を行うプロセッサが行うこと
    を特徴とする請求項19記載の字幕生成方法。
JP2005132849A 2005-04-28 2005-04-28 字幕生成装置及び方法 Expired - Fee Related JP4356645B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005132849A JP4356645B2 (ja) 2005-04-28 2005-04-28 字幕生成装置及び方法
US11/412,692 US8254753B2 (en) 2005-04-28 2006-04-27 Subtitle generating apparatus and method
CNB2006100774987A CN100442829C (zh) 2005-04-28 2006-04-28 字幕产生设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005132849A JP4356645B2 (ja) 2005-04-28 2005-04-28 字幕生成装置及び方法

Publications (2)

Publication Number Publication Date
JP2006311328A true JP2006311328A (ja) 2006-11-09
JP4356645B2 JP4356645B2 (ja) 2009-11-04

Family

ID=37195821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005132849A Expired - Fee Related JP4356645B2 (ja) 2005-04-28 2005-04-28 字幕生成装置及び方法

Country Status (3)

Country Link
US (1) US8254753B2 (ja)
JP (1) JP4356645B2 (ja)
CN (1) CN100442829C (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008166914A (ja) * 2006-12-27 2008-07-17 Internatl Business Mach Corp <Ibm> コンテンツのデータ・ストリームとメタデータを同期するための方法および装置。
JP2009081610A (ja) * 2007-09-26 2009-04-16 Nippon Telegr & Teleph Corp <Ntt> デジタルシネマ再生装置,デジタルシネマ再生方法およびデジタルシネマ再生プログラム
CN102088568A (zh) * 2009-12-08 2011-06-08 新奥特(北京)视频技术有限公司 一种字幕制作系统
JP2011529643A (ja) * 2008-06-30 2011-12-08 トムソン ライセンシング デジタル映画のための動的表示のための方法および装置
JP2013511196A (ja) * 2009-11-13 2013-03-28 サムスン エレクトロニクス カンパニー リミテッド 部分化を利用した適応的なストリーミング方法及びその装置
KR20140044861A (ko) * 2011-07-29 2014-04-15 소니 주식회사 스트리밍 배신 장치 및 방법, 스트리밍 수신 장치 및 방법, 스트리밍 시스템, 프로그램과 기록 매체
JP2015065694A (ja) * 2014-12-05 2015-04-09 トムソン ライセンシングThomson Licensing デジタル映画のための動的表示のための方法および装置
US9197689B2 (en) 2010-03-19 2015-11-24 Samsung Electronics Co., Ltd. Method and apparatus for adaptively streaming content including plurality of chapters
US9277252B2 (en) 2010-06-04 2016-03-01 Samsung Electronics Co., Ltd. Method and apparatus for adaptive streaming based on plurality of elements for determining quality of content
US9699486B2 (en) 2010-02-23 2017-07-04 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving data
US9756364B2 (en) 2009-12-07 2017-09-05 Samsung Electronics Co., Ltd. Streaming method and apparatus operating by inserting other content into main content
US9860573B2 (en) 2009-11-13 2018-01-02 Samsung Electronics Co., Ltd. Method and apparatus for providing and receiving data
US9967598B2 (en) 2009-11-13 2018-05-08 Samsung Electronics Co., Ltd. Adaptive streaming method and apparatus
KR20180112848A (ko) * 2016-03-14 2018-10-12 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 정보 처리 방법 및 단말
USRE48360E1 (en) 2009-11-13 2020-12-15 Samsung Electronics Co., Ltd. Method and apparatus for providing trick play service

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
GB2419975A (en) * 2004-11-09 2006-05-10 Nokia Corp Auxiliary content handling
JP5200204B2 (ja) 2006-03-14 2013-06-05 ディブエックス リミテッド ライアビリティー カンパニー 高信頼性システムを含む連合型デジタル権限管理機構
WO2009065137A1 (en) 2007-11-16 2009-05-22 Divx, Inc. Hierarchical and reduced index structures for multimedia files
US8997161B2 (en) 2008-01-02 2015-03-31 Sonic Ip, Inc. Application enhancement tracks
CN101674456B (zh) * 2008-09-10 2013-03-06 新奥特(北京)视频技术有限公司 总控播出线异构系统间基于消息队列的信息交互方法
CN101674423B (zh) * 2008-09-10 2013-02-20 新奥特(北京)视频技术有限公司 一种在线节目单驱动的字幕播出列表的生成方法
AU2010203605B2 (en) 2009-01-07 2015-05-14 Divx, Llc Singular, collective and automated creation of a media guide for online content
US9319444B2 (en) * 2009-06-22 2016-04-19 Monotype Imaging Inc. Font data streaming
KR20110043051A (ko) * 2009-10-20 2011-04-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
CA2782825C (en) 2009-12-04 2016-04-26 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
CN102118569B (zh) * 2009-12-30 2015-09-23 新奥特(北京)视频技术有限公司 一种字幕播出中公共数据的处理方法和处理装置
CN102118582A (zh) * 2009-12-30 2011-07-06 新奥特(北京)视频技术有限公司 一种制播分离的字幕播放装置及其播放方法
US8615709B2 (en) 2010-04-29 2013-12-24 Monotype Imaging Inc. Initiating font subsets
CN101873452B (zh) * 2010-06-22 2011-11-16 武汉东太信息产业有限公司 基于gif图像文件的数字电视滚动字幕显示方法
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
CN108989847B (zh) 2011-08-30 2021-03-09 帝威视有限公司 用于编码和流处理视频的系统和方法
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8918908B2 (en) 2012-01-06 2014-12-23 Sonic Ip, Inc. Systems and methods for accessing digital content using electronic tickets and ticket tokens
US9197685B2 (en) * 2012-06-28 2015-11-24 Sonic Ip, Inc. Systems and methods for fast video startup using trick play streams
US9143812B2 (en) 2012-06-29 2015-09-22 Sonic Ip, Inc. Adaptive streaming of multimedia
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
EP2875417B1 (en) 2012-07-18 2020-01-01 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear tv experience using streaming content distribution
US8914836B2 (en) 2012-09-28 2014-12-16 Sonic Ip, Inc. Systems, methods, and computer program products for load adaptive streaming
US8997254B2 (en) 2012-09-28 2015-03-31 Sonic Ip, Inc. Systems and methods for fast startup streaming of encrypted multimedia content
US9817615B2 (en) 2012-12-03 2017-11-14 Monotype Imaging Inc. Network based font management for imaging devices
WO2014100582A2 (en) 2012-12-21 2014-06-26 Monotype Imaging Inc. Supporting color fonts
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9264475B2 (en) 2012-12-31 2016-02-16 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
EP2943894A2 (en) 2013-01-09 2015-11-18 Monotype Imaging Inc. Advanced text editor
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US9344517B2 (en) 2013-03-28 2016-05-17 Sonic Ip, Inc. Downloading and adaptive streaming of multimedia content to a device with cache assist
US9173004B2 (en) 2013-04-03 2015-10-27 Sony Corporation Reproducing device, reproducing method, program, and transmitting device
US9247317B2 (en) 2013-05-30 2016-01-26 Sonic Ip, Inc. Content streaming with client device trick play index
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
US9317777B2 (en) 2013-10-04 2016-04-19 Monotype Imaging Inc. Analyzing font similarity for presentation
US9343112B2 (en) 2013-10-31 2016-05-17 Sonic Ip, Inc. Systems and methods for supplementing content from a server
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
EP2938087A1 (en) * 2014-04-24 2015-10-28 Thomson Licensing Method and apparatus for amending digital cinema package data with associated subtitle track data
US9691169B2 (en) 2014-05-29 2017-06-27 Monotype Imaging Inc. Compact font hinting
CN107431780A (zh) * 2015-01-27 2017-12-01 巴科公司 用于合并用于多屏幕环境的数字电影包的系统和方法
US10115215B2 (en) 2015-04-17 2018-10-30 Monotype Imaging Inc. Pairing fonts for presentation
US11537262B1 (en) 2015-07-21 2022-12-27 Monotype Imaging Inc. Using attributes for font recommendations
JP6977707B2 (ja) * 2016-03-10 2021-12-08 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
GB2557194A (en) * 2016-11-29 2018-06-20 Sony Corp A decoder, encoder, computer program and method
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
US11334750B2 (en) 2017-09-07 2022-05-17 Monotype Imaging Inc. Using attributes for predicting imagery performance
US10909429B2 (en) 2017-09-27 2021-02-02 Monotype Imaging Inc. Using attributes for identifying imagery for selection
WO2019089578A1 (en) 2017-10-30 2019-05-09 Monotype Imaging Inc. Font identification from imagery
CN111031380A (zh) * 2019-12-20 2020-04-17 威创集团股份有限公司 一种字幕视频处理方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336606A (ja) * 2003-05-12 2004-11-25 National Institute Of Information & Communication Technology 字幕制作システム
JP2006238147A (ja) * 2005-02-25 2006-09-07 Toshiba Corp コンテンツ再生装置、字幕再生方法及びプログラム
JP2006308952A (ja) * 2005-04-28 2006-11-09 Sony Corp 文字情報生成装置及び方法、文字情報表示装置及び方法、デジタル映画上映方法及びシステム、並びに、字幕表示装置
JP2006333460A (ja) * 2005-05-26 2006-12-07 Samsung Electronics Co Ltd 拡張型字幕ファイルを用いて付加情報を提供する装置及び方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771888B1 (en) * 1993-10-29 2004-08-03 Christopher J. Cookson Data structure for allowing play of a video program in multiple aspect ratios
JP3717585B2 (ja) * 1996-03-19 2005-11-16 パイオニア株式会社 情報記録媒体及びその情報記録装置
EP1331813A4 (en) * 2000-11-02 2007-03-21 Fujiyama Co Ltd DIGITAL IMAGE CONTENT DISTRIBUTION SYSTEM, REPRODUCTION METHOD AND RECORDING MEDIUM FOR RECORDING THE SAME
CN1218574C (zh) * 2001-10-15 2005-09-07 华为技术有限公司 交互式视频设备及其字幕叠加方法
KR100457512B1 (ko) * 2001-11-29 2004-11-17 삼성전자주식회사 광 기록 매체, 광 기록 매체 재생 장치 및 방법
US20050071888A1 (en) * 2003-09-30 2005-03-31 International Business Machines Corporation Method and apparatus for analyzing subtitles in a video
US7529467B2 (en) * 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336606A (ja) * 2003-05-12 2004-11-25 National Institute Of Information & Communication Technology 字幕制作システム
JP2006238147A (ja) * 2005-02-25 2006-09-07 Toshiba Corp コンテンツ再生装置、字幕再生方法及びプログラム
JP2006308952A (ja) * 2005-04-28 2006-11-09 Sony Corp 文字情報生成装置及び方法、文字情報表示装置及び方法、デジタル映画上映方法及びシステム、並びに、字幕表示装置
JP2006333460A (ja) * 2005-05-26 2006-12-07 Samsung Electronics Co Ltd 拡張型字幕ファイルを用いて付加情報を提供する装置及び方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8838594B2 (en) 2006-12-27 2014-09-16 International Business Machines Corporation Automatic method to synchronize the time-line of video with audio feature quantity
JP2008166914A (ja) * 2006-12-27 2008-07-17 Internatl Business Mach Corp <Ibm> コンテンツのデータ・ストリームとメタデータを同期するための方法および装置。
JP2009081610A (ja) * 2007-09-26 2009-04-16 Nippon Telegr & Teleph Corp <Ntt> デジタルシネマ再生装置,デジタルシネマ再生方法およびデジタルシネマ再生プログラム
JP4647645B2 (ja) * 2007-09-26 2011-03-09 日本電信電話株式会社 デジタルシネマ再生装置,デジタルシネマ再生方法およびデジタルシネマ再生プログラム
JP2011529643A (ja) * 2008-06-30 2011-12-08 トムソン ライセンシング デジタル映画のための動的表示のための方法および装置
US9967598B2 (en) 2009-11-13 2018-05-08 Samsung Electronics Co., Ltd. Adaptive streaming method and apparatus
JP2013511196A (ja) * 2009-11-13 2013-03-28 サムスン エレクトロニクス カンパニー リミテッド 部分化を利用した適応的なストリーミング方法及びその装置
USRE48360E1 (en) 2009-11-13 2020-12-15 Samsung Electronics Co., Ltd. Method and apparatus for providing trick play service
US10425666B2 (en) 2009-11-13 2019-09-24 Samsung Electronics Co., Ltd. Method and apparatus for adaptive streaming using segmentation
US9860573B2 (en) 2009-11-13 2018-01-02 Samsung Electronics Co., Ltd. Method and apparatus for providing and receiving data
US9756364B2 (en) 2009-12-07 2017-09-05 Samsung Electronics Co., Ltd. Streaming method and apparatus operating by inserting other content into main content
CN102088568A (zh) * 2009-12-08 2011-06-08 新奥特(北京)视频技术有限公司 一种字幕制作系统
US9699486B2 (en) 2010-02-23 2017-07-04 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving data
US9197689B2 (en) 2010-03-19 2015-11-24 Samsung Electronics Co., Ltd. Method and apparatus for adaptively streaming content including plurality of chapters
US9277252B2 (en) 2010-06-04 2016-03-01 Samsung Electronics Co., Ltd. Method and apparatus for adaptive streaming based on plurality of elements for determining quality of content
KR102023788B1 (ko) * 2011-07-29 2019-09-20 소니 주식회사 스트리밍 배신 장치 및 방법, 스트리밍 수신 장치 및 방법, 스트리밍 시스템, 프로그램과 기록 매체
KR20140044861A (ko) * 2011-07-29 2014-04-15 소니 주식회사 스트리밍 배신 장치 및 방법, 스트리밍 수신 장치 및 방법, 스트리밍 시스템, 프로그램과 기록 매체
JP2015065694A (ja) * 2014-12-05 2015-04-09 トムソン ライセンシングThomson Licensing デジタル映画のための動的表示のための方法および装置
KR20180112848A (ko) * 2016-03-14 2018-10-12 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 정보 처리 방법 및 단말
JP2019504532A (ja) * 2016-03-14 2019-02-14 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 情報処理方法及び端末
KR102135215B1 (ko) * 2016-03-14 2020-07-17 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 정보 처리 방법 및 단말
US11140436B2 (en) 2016-03-14 2021-10-05 Tencent Technology (Shenzhen) Company Limited Information processing method and terminal

Also Published As

Publication number Publication date
CN100442829C (zh) 2008-12-10
JP4356645B2 (ja) 2009-11-04
CN1856036A (zh) 2006-11-01
US8254753B2 (en) 2012-08-28
US20060245727A1 (en) 2006-11-02

Similar Documents

Publication Publication Date Title
JP4356645B2 (ja) 字幕生成装置及び方法
US7227971B2 (en) Digital content reproduction, data acquisition, metadata management, and digital watermark embedding
AU2002348584B2 (en) Information storage medium including markup document and AV data, recording method, reproducing method, and reproducing apparatus therefor
US9235914B2 (en) Image editing apparatus
AU2002348584A1 (en) Information storage medium including markup document and AV data, recording method, reproducing method, and reproducing apparatus therefor
US7702996B2 (en) Apparatus and method for converting multimedia contents
EP1614108B1 (en) Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
JP5653494B2 (ja) クラウドにより支援されるレンダリング
US8699846B2 (en) Reproducing device, reproducing method, program, and data structure
US20060200744A1 (en) Distributing and displaying still photos in a multimedia distribution system
EP4050841A1 (en) File processing device and file processing method
JP7218105B2 (ja) ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
JP4218590B2 (ja) 画像処理システム、情報処理装置および方法、画像処理装置および方法、記録媒体、並びにプログラム
US20240095387A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20230104640A1 (en) File processing device, file processing method, and program
RU2276811C2 (ru) Носитель информации, включающий в себя размеченный документ и аудио-видеоданные, способ записи, способ воспроизведения и устройство воспроизведения
KR20080046918A (ko) 동영상 편집 처리 장치 및 방법
KR101512813B1 (ko) 비디오 영상의 입체 포맷을 인식하여 화면을 전환 및 재생하는 방법, 그리고 상기 방법을 수행하는 미디어 재생매체 및 프로그램을 기록한 컴퓨터 판독 가능 기록매체
TW200408972A (en) Apparatus and method for reproducing interactive contents by controlling font according to aspect ratio conversion
JPH04111140A (ja) マルチメディア文書ファイリング装置
JP2010050914A (ja) 動画像配信システム、方法及びプログラム
JP2006262232A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2005151129A (ja) データ処理方法および装置
JP2005045399A (ja) オブジェクト生成装置およびその方法
JP2005045401A (ja) オブジェクト生成装置およびその方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090727

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees