JP4935661B2 - 再生装置、再生方法および再生プログラム - Google Patents

再生装置、再生方法および再生プログラム Download PDF

Info

Publication number
JP4935661B2
JP4935661B2 JP2007323294A JP2007323294A JP4935661B2 JP 4935661 B2 JP4935661 B2 JP 4935661B2 JP 2007323294 A JP2007323294 A JP 2007323294A JP 2007323294 A JP2007323294 A JP 2007323294A JP 4935661 B2 JP4935661 B2 JP 4935661B2
Authority
JP
Japan
Prior art keywords
video signal
field
frame frequency
video data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007323294A
Other languages
English (en)
Other versions
JP2009147699A (ja
Inventor
公嘉 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007323294A priority Critical patent/JP4935661B2/ja
Priority to US12/269,316 priority patent/US8401360B2/en
Publication of JP2009147699A publication Critical patent/JP2009147699A/ja
Application granted granted Critical
Publication of JP4935661B2 publication Critical patent/JP4935661B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0112Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards corresponding to a cinematograph film standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

この発明は、複数の映像信号を同時に再生する際に用いて好適な再生装置、再生方法および再生プログラムに関する。
近年、ディジタルハイビジョン放送の実用化などに伴い、ビデオデータのフォーマットも、従来からのNTSC(National Television System Committee)におけるフレーム周波数が29.97Hz(30Hz)でインタレース走査のビデオデータに代えて、より高精細な映像を映出することができる、フレーム周波数が59.94Hz(60Hz)でプログレッシブ走査のビデオデータが多く用いられるようになってきている。
それに伴い、最近では、フレーム周波数が59.94Hz(60Hz)でプログレッシブ走査のビデオデータを表示可能な、液晶やPDP(Plasma Display Panel)を用いたフラットパネルディスプレイなどの表示装置が市場に投入され始めているが、現在、ユーザに用いられている表示装置としては、フレーム周波数が29.97Hz(30Hz)でインタレース走査のビデオデータを表示可能な表示装置が主流である。
一方、例えば映画映像は、従来からの光学フィルムを用いて制作されており、毎秒24コマ、すなわち、フレーム周波数が24Hzでプログレッシブ走査のビデオデータとなる。そのため、フレーム周波数が29.97Hz(30Hz)でインタレース走査のビデオデータを表示可能な表示装置を用いて、フレーム周波数が24Hzでプログレッシブ走査のビデオデータを表示させる場合には、再生装置側でフレーム周波数が24Hzでプログレッシブ走査のビデオデータをフレーム周波数が30Hz(フィールド周波数が60Hz)でインタレース走査のビデオデータに変換する必要がある。
フレーム周波数が24Hzでプログレッシブ走査(以下、24pと適宜称する)のビデオデータを、フレーム周波数が30Hz(フィールド周波数が60Hz)でインタレース走査(以下、60iと適宜称する)のビデオデータに変換する際には、24pのビデオデータを、所定の変換パターンで60iのビデオデータの3フレームおよび2フレームに交互に変換する処理が行われるため、3−2プルダウン(または2−3プルダウン)処理と称される。
ここで、24pのビデオデータを、3−2プルダウン処理により60iのビデオデータに変換する処理について考える。24pのビデオデータと60iのビデオデータとでは、フレーム周波数に2対5の関係がある。そこで、図26に示すように、例えば、24pのビデオデータのフレームを(図26A参照)、3−2プルダウン処理により3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、30Hzのフレーム周波数(60Hzのフィールド周波数)で出力することで(図26B参照)、24pのビデオデータが60iのビデオデータへ変換される。
特許文献1には、フィルム素材に基づく24pのビデオデータに対して3−2プルダウン処理を行うことにより、60iのビデオデータに変換する技術が記載されている。
国際公開第04/032494号パンフレット
ところで、最近の再生装置には、メイン映像である第1の映像を再生しているときに、任意のタイミングでサブ映像である第2の映像を再生し、2つの映像を重ねることによって同時に再生することができるピクチャインピクチャという機能を備えたものがある。
しかしながら、このような再生装置において、24pのビデオデータを3−2プルダウン処理によって60iのビデオデータに変換して再生する場合、ピクチャインピクチャ機能を用いて2つの映像を同時に再生すると、第2の映像を再生するタイミングによっては、映像が櫛状となる、所謂コーミングが発生してしまうという問題点があった。
したがって、この発明の目的は、ピクチャインピクチャ機能を用いた際に発生するコーミングを防止することができる再生装置、再生方法および再生プログラムを提供することにある。
上述した課題を解決するために、第1の発明は、第1のビデオ信号と、第1のビデオ信号に対して任意のタイミングで再生された第2のビデオ信号を同時に再生する再生装置において、
第1のフレーム周波数の第1のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、第1のフレーム周波数の第1のビデオ信号を、第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第1のビデオ信号に変換する第1の変換部と、
第1のフレーム周波数の第2のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、第1のフレーム周波数の第2のビデオ信号を、第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第2のビデオ信号に変換する第2の変換部と、
第2のフレーム周波数の第1のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群、および、3回繰り返し出力のフィールドに基づくフィールド群に連続する、2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングと、第2のフレーム周波数の第2のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群、および、3回繰り返し出力のフィールドに基づくフィールド群に連続する、2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングとを一致させるように制御する制御部と
を有することを特徴とする再生装置である。
また、第2の発明は、第1のビデオ信号と、第1のビデオ信号に対して任意のタイミングで再生された第2のビデオ信号を同時に再生する再生方法において、
第1のフレーム周波数の第1のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、第1のフレーム周波数の第1のビデオ信号を、第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第1のビデオ信号に変換する第1の変換ステップと、
第1のフレーム周波数の第2のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、第1のフレーム周波数の第2のビデオ信号を、第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第2のビデオ信号に変換する第2の変換ステップと、
第2のフレーム周波数の第1のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群、および、3回繰り返し出力のフィールドに基づくフィールド群に連続する、2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングと、第2のフレーム周波数の第2のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群、および、3回繰り返し出力のフィールドに基づくフィールド群に連続する、2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングとを一致させるように制御するステップと
を有することを特徴とする再生方法である。
また、第3の発明は、第1のビデオ信号と、第1のビデオ信号に対して任意のタイミングで再生された第2のビデオ信号を同時に再生する再生方法をコンピュータ装置に実行させる再生プログラムにおいて、
第1のフレーム周波数の第1のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、第1のフレーム周波数の第1のビデオ信号を、第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第1のビデオ信号に変換する第1の変換ステップと、
第1のフレーム周波数の第2のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、第1のフレーム周波数の第2のビデオ信号を、第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第2のビデオ信号に変換する第2の変換ステップと、
第2のフレーム周波数の第1のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群、および、3回繰り返し出力のフィールドに基づくフィールド群に連続する、2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングと、第2のフレーム周波数の第2のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群、および、3回繰り返し出力のフィールドに基づくフィールド群に連続する、2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングとを一致させるように制御するステップと
を有することを特徴とする再生プログラムである。
この発明は、第1のビデオ信号であるプライマリビデオデータと第2のビデオ信号であるセカンダリビデオデータのフィールド群の切り替わりを一致させるようにしているため、セカンダリビデオデータを再生する際に発生するコーミングを防止することができるという効果がある。
以下、この発明の実施の一形態について、図面を参照しながら説明する。この発明の実施の一形態では、BD−ROM(Blu-ray Disc Read Only Memory;Blu-rayは登録商標)などの記録媒体に記録されて提供されるAV(Audio/Video)データを再生装置で再生する場合において、ピクチャインピクチャ機能を用いて複数の映像データを同時に再生した際に発生するコーミングを防止するようにしている。以下では、BD−ROMに記録されたAVデータを再生する場合を例にとって説明する。
先ず、この発明の理解を容易とするために、Blu−ray Discに関し、"Blu-ray Disc Read-Only Format Ver1.0 part3 Audio Visual Specifications"で規定されている、読み出し専用タイプのBlu−ray DiscであるBD−ROMに記録されたAVデータの管理構造について、概略的に説明する。以下では、このBD−ROMにおける管理構造をBDMV(Blu-ray Disc Movie & Video)フォーマットと称する。
例えばMPEG(Moving Pictures Experts Group)ビデオやMPEGオーディオなどの符号化方式で符号化され、MPEG2システムに従い多重化されたビットストリームは、クリップAVストリーム(またはAVストリーム)と称される。クリップAVストリームは、Blu−ray Discに関する規格の一つである"Blu-ray Disc Read-Only Format part2"で定義されたファイルシステムにより、ファイルとしてディスクに記録される。このファイルを、クリップAVストリームファイル(またはAVストリームファイル)と称する。
クリップAVストリームファイルは、ファイルシステム上での管理単位であり、ユーザにとって必ずしも分かりやすい管理単位であるとは限らない。ユーザの利便性を考えた場合、複数のクリップAVストリームファイルに分割された映像コンテンツを一つにまとめて再生する仕組みや、クリップAVストリームファイルの一部だけを再生する仕組み、さらには、特殊再生や頭出し再生を滑らかに行うための情報などをデータベースとしてディスクに記録しておく必要がある。Blu−ray Discに関する規格の一つである"Blu-ray Disc Read-Only Format part3"で、このデータベースが規定される。
図1は、BD−ROMのデータモデルを概略的に示す。BD−ROMのデータ構造は、図1に示されるように4層のレイヤよりなる。最も最下層のレイヤは、クリップAVストリームが配置されるレイヤである(便宜上、クリップレイヤと呼ぶ)。その上のレイヤは、クリップAVストリームに対する再生箇所を指定するための、ムービープレイリスト(Movie PlayList)と、プレイアイテム(PlayItem)とが配置されるレイヤである(便宜上、プレイリストレイヤと呼ぶ)。さらにその上のレイヤは、ムービープレイリストに対して再生順などを指定するコマンドからなるムービーオブジェクト(Movie Object)などが配置されるレイヤである(便宜上、オブジェクトレイヤと呼ぶ)。最上層のレイヤは、このBD−ROMに格納されるタイトルなどを管理するインデックステーブルが配置される(便宜上、インデックスレイヤと呼ぶ)。
クリップレイヤについて説明する。クリップAVストリームは、ビデオデータやオーディオデータがMPEG2 TS(トランスポートストリーム)の形式などに多重化されたビットストリームである。このクリップAVストリームに関する情報がクリップ情報(Clip Information)としてファイルに記録される。
また、クリップAVストリームには、ビデオデータやオーディオデータによるコンテンツデータに対して付随して表示される字幕やメニュー表示を行うためのストリームも多重化される。字幕を表示するためのグラフィクスストリームは、プレゼンテーショングラフィクス(PG)ストリームと呼ばれる。また、メニュー表示などに用いられるデータをストリームにしたものは、インタラクティブグラフィクス(IG)ストリームと呼ばれる。インタラクティブグラフィクス(IG)ストリームにより再生されるインタラクティブグラフィクス(IG)メニューは、例えば、ユーザの操作入力を受けることが可能なボタンやアイコン、または、サムネイルなどのアイテムを含ませることができる。
クリップAVストリームファイルと、対応するクリップ情報が記録されたクリップ情報ファイルとをひとまとまりのオブジェクトと見なし、クリップ(Clip)と称する。すなわち、クリップは、クリップAVストリームとクリップ情報とから構成される、一つのオブジェクトである。
ファイルは、一般的に、バイト列として扱われる。クリップAVストリームファイルのコンテンツは、時間軸上に展開され、クリップ中のエントリポイントは、主に時間ベースで指定される。所定のクリップへのアクセスポイントのタイムスタンプが与えられた場合、クリップAVストリームファイルの中でデータの読み出しを開始すべきアドレス情報を見つけるために、クリップ情報ファイルを用いることができる。
プレイリストレイヤについて説明する。ムービープレイリストは、再生するAVストリームファイルの指定と、指定されたAVストリームファイルの再生箇所を指定する再生開始点(IN点)と再生終了点(OUT点)の集まりとから構成される。この再生開始点と再生終了点の情報を一組としたものは、プレイアイテム(PlayItem)と称される。ムービープレイリストは、プレイアイテムの集合で構成される。プレイアイテムを再生するということは、そのプレイアイテムに参照されるAVストリームファイルの一部分を再生するということになる。すなわち、プレイアイテム中のIN点およびOUT点情報に基づき、クリップ中の対応する区間が再生される。
オブジェクトレイヤについて説明する。ムービーオブジェクトは、HDMVナビゲーションコマンドプログラム(HDMVプログラム)と、ムービーオブジェクトとを連携するターミナルインフォメーションを含む。HDMVプログラムは、プレイリストの再生を制御するためのコマンドである。ターミナルインフォメーションは、ユーザのBD−ROMプレーヤに対するインタラクティブな操作を許可するための情報を含んでいる。このターミナルインフォメーションに基づき、メニュー画面の呼び出しや、タイトルサーチといったユーザオペレーションが制御される。
BD−Jオブジェクトは、Javaプログラム(Javaは登録商標)によるオブジェクトからなる。BD−Jオブジェクトは、この発明と関わりが薄いので、詳細な説明を省略する。
インデックスレイヤについて説明する。インデックスレイヤは、インデックステーブルからなる。インデックステーブルは、BD−ROMディスクのタイトルを定義する、トップレベルのテーブルである。インデックステーブルに格納されているタイトル情報に基づき、BD−ROM常駐システムソフトウェア中のモジュールマネージャによりBD−ROMディスクの再生が制御される。
すなわち、図2に概略的に示されるように、インデックステーブル中の任意のエントリは、タイトルと称され、インデックステーブルにエントリされるファーストプレイバック(First Playback)、トップメニュー(Top Menu)およびタイトル(Title)#1、#2、・・・は、全てタイトルである。各タイトルは、ムービーオブジェクトあるいはBD−Jオブジェクトに対するリンクを示し、各タイトルは、HDMVタイトルあるいはBD−Jタイトルの何れかを示す。
例えば、ファーストプレイバックは、当該BD−ROMに格納されるコンテンツが映画であれば、映画本編に先立って映出される映画会社の宣伝用映像(トレーラ)である。トップメニューは、例えばコンテンツが映画である場合、本編再生、チャプタサーチ、字幕や言語設定、特典映像再生などを選択するためのメニュー画面である。また、タイトルは、トップメニューから選択される各映像である。タイトルがさらにメニュー画面であるような構成も可能である。
図3は、上述のようなクリップAVストリーム、クリップ情報(Stream Attributes)、クリップ、プレイアイテムおよびプレイリストの関係を示すUML(Unified Modeling Language)図である。プレイリストは、1または複数のプレイアイテムに対応付けられ、プレイアイテムは、1のクリップに対応付けられる。1のクリップに対して、それぞれ開始点および/または終了点が異なる複数のプレイアイテムを対応付けることができる。1のクリップから1のクリップAVストリームファイルが参照される。同様に、1のクリップから1のクリップ情報ファイルが参照される。また、クリップAVストリームファイルとクリップ情報ファイルとは、1対1の対応関係を有する。このような構造を定義することにより、クリップAVストリームファイルを変更することなく、任意の部分だけを再生する、非破壊の再生順序指定を行うことが可能となる。
また、図4のように、複数のプレイリストから同一のクリップを参照することもできる。また、1のプレイリストから複数のクリップを指定することもできる。クリップは、プレイリスト中のプレイアイテムに示されるIN点およびOUT点により、参照される。図4の例では、クリップ300は、プレイリスト310のプレイアイテム320から参照されると共に、プレイリスト311を構成するプレイアイテム321および322のうちプレイアイテム321から、IN点およびOUT点で示される区間が参照される。また、クリップ301は、プレイリスト311のプレイアイテム322からIN点およびOUT点で示される区間が参照されると共に、プレイリスト312のプレイアイテム323および324のうち、プレイアイテム323のIN点およびOUT点で示される区間が参照される。
なお、プレイリストは、図5に一例が示されるように、主として再生されるプレイアイテム(メインプレイアイテム)に対応するメインパスに対して、サブプレイアイテムに対応するサブパスを持つことができる。サブプレイアイテムは、異なる複数のクリップと関連付けることができ、サブプレイアイテムは、サブプレイアイテムに関連付けられる複数のクリップのうち1を選択的に参照することができる。詳細は省略するが、プレイリストは、所定の条件を満たす場合にだけ、サブプレイアイテムを持つことができる。
メインパスを構成するメインプレイアイテムが参照するクリップに含まれるビデオストリーム(以下、プライマリビデオストリームと適宜称する)は、他のストリームと組み合わせて同時に再生することができる。プライマリビデオストリームと組み合わせられる他のストリームとしては、例えば、メインパスに対応するサブパスを構成するサブプレイアイテムが参照するクリップに含まれるビデオストリーム(以下、セカンダリビデオストリームと適宜称する)がある。サブパスは、例えば2枚の映像を合成する際に、メインプレイアイテムで指定されるプライマリビデオストリームと同期して再生するセカンダリビデオストリームを指定するといった目的で用いられる。
ところで、ピクチャインピクチャ機能では、プライマリビデオストリームに含まれるビデオデータ(以下、プライマリビデオデータと称する)を再生している場合に、ユーザの操作によってセカンダリビデオストリームに含まれるビデオデータ(以下、セカンダリビデオデータと適宜称する)を重ねて表示することによって同時に再生することができる。
上述したようなデータ構造を有するディスクから読み出したビデオストリームに含まれるビデオデータを、ピクチャインピクチャ機能を用いて再生する場合について、概略的に説明する。例えば、外部の表示装置などに設けられた表示部には、図6に示されるように、プライマリビデオデータの映像と、セカンダリビデオデータの映像とが表示されるとともに、ピクチャインピクチャ機能のSTART/STOPを切り替えるためのIGメニューボタン100が表示される。
このような場合において、図7のフローチャートに示されるように、ユーザがリモートコントロールコマンダーなどを操作することにより、セカンダリビデオデータの再生を示すIGメニューボタン100が選択されると(ステップS11参照)、選択されたIGメニューボタンに割り当てられたナビゲーションコマンドが解釈される(ステップS12参照)。そして、IGメニューボタンに割り当てられたナビゲーションコマンド、具体的には、セカンダリビデオストリームを選択するコマンドが実行され、対応するセカンダリビデオデータが選択されて再生処理が行われる(ステップS13参照)。なお、ナビゲーションコマンドを実行する際には、セカンダリビデオストリームの選択を再生開始時に最初に行うか否かを、セカンダリビデオストリームがプライマリビデオストリームに対して非同期であるか否かに応じて決定する。
また、図8のフローチャートに示されるように、セカンダリビデオデータに対応するプレイリストの再生が開始されると(ステップS21参照)、セカンダリビデオデータを選択するためのナビゲーションコマンドが割り当てられたIGメニューボタン100が表示される(ステップS22参照)。IGメニューボタン100に割り当てられたナビゲーションコマンドに基づき、セカンダリビデオデータが選択されたか否かが判断され(ステップS23参照)、セカンダリビデオデータが選択されたと判断した場合には、セカンダリビデオデータの再生が開始される(ステップS24参照)。一方、セカンダリビデオデータが選択されていないと判断した場合には、再度、セカンダリビデオデータが選択されたか否かの判断が行われる。
次に、この発明の実施の一形態による映像処理方法について、概略的に説明する。ここでは、例えば、フレーム周波数が24Hzでプログレッシブ走査(以下、24pと適宜称する)で記録されたプライマリビデオデータを再生しているときに、ピクチャインピクチャ機能を用いて、24pのセカンダリビデオデータを任意のタイミングで再生する場合について考える。また、この例では、オーディオデータなど、この発明の実施の一形態と直接関係のない部分については、説明を省略する。
図9Aに示されるように、24pのプライマリビデオデータに対して3−2プルダウン処理を行い、フレーム周波数が30Hz(フィールド周波数が60Hz)でインタレース走査(以下、60iと適宜称する)のプライマリビデオデータAt,Ab,At,Bb,Bt,Cb,Ct,Cb,・・・に変換する。また、セカンダリビデオデータの再生が指示された時点で、24pのセカンダリビデオデータに対して3−2プルダウン処理を行い、60iのセカンダリビデオデータXb,Xt,Xb,Yt,Yb,Zt,Zb,Zt,・・・に変換する。各フィールドにおけるデータの右下に付された「t」および「b」は、それぞれのフィールドがトップフィールドおよびボトムフィールドであることを示す。
3−2プルダウン処理は、24pのビデオデータのフレームの3回繰り返しと2回繰り返しとを、フレーム毎に順次、交互に行うため、3−2プルダウン処理で生成されたビデオデータは、5フィールドの周期を有する。以下、3−2プルダウン処理により24pのフレームがn回繰り返された隣接するフィールドからなる集合をグループと呼び、24pのフレームが3回繰り返された隣接する3フィールドからなるグループを3フィールドグループ、2回繰り返された隣接する2フィールドからなるグループを2フィールドグループとそれぞれ呼ぶことにする。
なお、図9Aにおいて、3フィールドグループのフレームに斜線を付し、2フィールドグループのフレームと区別している。この表現は、他の同様な図において、共通である。
このように、任意のタイミングでセカンダリビデオデータを再生する場合には、図9Aに示されるように、プライマリビデオデータのグループの切り替わり位置と、セカンダリビデオデータのグループの切り替わり位置とが異なってしまう場合がある。したがって、例えば区間aにおいて、プライマリビデオ領域にプライマリビデオデータBbおよびBtが再生されているときのセカンダリビデオ領域に再生されるセカンダリビデオデータは、トップフィールドがYt、ボトムフィールドがXbとなる。この場合、トップフィールドおよびボトムフィールドの映像が異なるため、再生されるセカンダリビデオデータには、図9Bに示されるように、櫛状、所謂コーミングが発生してしまう。
セカンダリビデオデータのコーミングを防止する方法としては、3つの方法が考えられる。コーミングを防止する第1の方法では、セカンダリビデオデータの再生開始タイミングを、再生開始が指示された時点から、プライマリビデオデータに対して3−2プルダウン処理を行うことによって生成された3フィールドグループの先頭フィールドのピクチャが次に出力されるタイミングに合わせる。
第2の方法では、セカンダリビデオデータの再生開始が指示された時点で再生されている、プライマリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャの残り表示数を取得し、取得した残り表示数をセカンダリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャの表示数に設定することにより、プライマリビデオデータのグループの先頭フィールドのピクチャが出力されるタイミングと、セカンダリビデオデータのグループの先頭フィールドのピクチャが出力されるタイミングとを合わせる。
第3の方法では、プライマリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャを表示している間は、セカンダリビデオデータの所定グループのピクチャを表示させ続け、プライマリビデオデータのグループの切り替わりタイミングでセカンダリビデオデータの表示ピクチャを切り替えることにより、プライマリビデオデータとセカンダリビデオデータとの切り替わりタイミングを合わせる。
この発明の実施の一形態では、セカンダリビデオデータを再生する際に発生するコーミングを防止するために、第1の方法を用いる。例えば、図10に示されるように、セカンダリビデオデータの再生が指示されたタイミングが、プライマリビデオデータの3フィールドグループの先頭フィールドのピクチャが出力されるタイミングでない場合に、セカンダリビデオデータを再生すると、プライマリビデオデータおよびセカンダリビデオデータのグループの切り替わりが異なってしまうため、セカンダリビデオデータのグループの切り替わりでコーミングが発生してしまう。
そこで、このような場合、第1の方法では、セカンダリビデオデータの再生開始を指示されたタイミングから所定値だけセカンダリビデオデータの再生開始タイミングずらし、プライマリビデオデータの次の3フィールドグループの先頭フィールドのピクチャが出力されるタイミングに合わせて、セカンダリビデオデータを再生する。
図11は、この発明の実施の一形態に適用可能な再生装置1の一例の構成を概略的に示す。この発明の実施の一形態に適用可能な再生装置としては、プライマリビデオストリームとセカンダリビデオストリームとが同一のトランスポートストリームに多重化され、それぞれのストリームが同期している「InMux」型と呼ばれる構成の再生装置と、プライマリビデオストリームとセカンダリビデオストリームとが異なるトランスポートストリームに含まれ、それぞれのストリームが同期または非同期である「OutMux」型と呼ばれる構成の再生装置とがある。ここでは、プライマリビデオストリームとセカンダリビデオストリームとが同一のトランスポートストリームに多重化され、それぞれが同期している「InMux」型の再生装置を例にとって説明する。また、以下では、例えば、フレーム周波数が24Hzのビデオデータを、フィールド周波数が59.94Hzのビデオデータに変換する必要がある場合など、ビデオデータのフレーム周波数の変更が必要な場合を例にとって説明する。
再生装置1は、ディスクドライブ11、バッファ12、デマルチプレクサ(DeMUX)13、プライマリビデオデコーダ14、プライマリビデオ変換部15、セカンダリビデオデコーダ16、セカンダリビデオ変換部17、制御部18、STC(System Time Clock)回路19、加算器20および21で構成されている。
ストリームデータは、着脱可能な記録媒体10に記録されて供給される。記録媒体10の例としては、再生専用または記録可能なディスク状記録媒体、フラッシュメモリといった半導体メモリ、着脱可能なハードディスクドライブなどが考えられる。ディスク状記録媒体としては、例えばBlu−ray Disc(登録商標)およびBlu−ray Discに基づく再生専用の規格であるBD−ROM(Blu-ray Disc-Read Only Memory)、さらにはDVD(Digital Versatile Disc)やCD(Compact Disc)などが考えられる。
ストリームデータの供給源としては、ディスク状記録媒体の他に、例えば、インターネットなどの通信ネットワークやディジタルテレビジョン放送が考えられる。以下では、ストリームデータの供給源として、ディスク状記録媒体などの着脱可能な記録媒体10を例にとって説明する。
ディスクドライブ11は、装填された記録媒体10に記録されたストリームデータを再生する。記録媒体10には、例えばMPEG2(Moving Picture Experts Group 2)システムズに規定されるトランスポートストリーム(TS)やプログラムストリーム(PS)の形式で、ビデオデータおよびオーディオデータが多重化されたストリームデータが記録されている。記録媒体10から再生されたトランスポートストリームまたはプログラムストリームは、バッファ12に供給される。バッファ12は、後述する制御部18の制御に基づき、供給されたストリームデータをデマルチプレクサ13に供給する。
デマルチプレクサ13は、供給されたストリームデータからプライマリビデオストリームおよびセカンダリビデオストリームを分離する。例えば、バッファ12からトランスポートストリームとしてストリームデータが供給された場合、デマルチプレクサ13は、トランスポートパケット毎にPID(Packet IDentification)を解析し、プライマリビデオデータが格納されたパケットを集める。集めたパケットのペイロードに格納されたデータからPES(Packetized Elementary Stream)パケットを再構築する。そして、PESパケットのヘッダに格納された情報などに基づき、PESパケット毎にプライマリビデオデータのエレメンタリストリームを取り出してプライマリビデオストリームを復元する。また、プライマリビデオストリームの復元と同様にして、デマルチプレクサ13は、トランスポートパケット毎のPIDに基づきセカンダリビデオデータが格納されたパケットを集め、セカンダリビデオストリームを復元する。
バッファ12からプログラムストリームとしてストリームデータが供給された場合、デマルチプレクサ13は、パックヘッダなどのヘッダ情報に基づきPESパケットを分離し、PESパケットのヘッダに格納された情報などに基づき、PESパケット毎にビデオデータのエレメンタリストリームを取り出してビデオストリームを復元する。また、ビデオストリームの復元と同様にして、デマルチプレクサ13は、パックヘッダなどのヘッダ情報に基づきPESパケットを分離し、オーディオストリームを復元する。
デマルチプレクサ13で分離されたプライマリビデオストリームは、プライマリビデオデコーダ14に供給され、セカンダリビデオストリームは、セカンダリビデオデコーダ16に供給される。プライマリビデオデコーダ14は、供給されたプライマリビデオストリームをデコードし、ベースバンドのビデオデータとして出力する。
ここで、例えばMPEG2システムズにより伝送されるビデオストリームの符号化方式は、MPEG2方式に限られない。例えば、ITU−T(International Telecommunication Union-Telecommunication Standardization Sector)勧告H.264あるいはISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)国際標準14496−10(MPEG−4パート10)Advanced Video Coding(以下、MPEG4 AVCと略称する)に規定される符号化方式や、VC−1(Video Codec 1)方式で符号化されたビデオストリームを、MPEG2システムズにより伝送することができる。
プライマリビデオデコーダ14は、これら複数の符号化フォーマットにそれぞれ対応してプライマリビデオストリームをデコードするようにできる。この場合、プライマリビデオデコーダ14は、例えばプライマリビデオストリームのヘッダ情報や、プライマリビデオストリームに所定に付加される属性情報に基づき符号化フォーマットを判別し、対応する復号方式でプライマリビデオストリームをデコードする。ユーザ操作などに基づく外部からの制御に応じて符号化フォーマットを設定することもできる。
勿論、プライマリビデオデコーダ14が単独の符号化フォーマットにのみ対応するようにもできる。この場合には、プライマリビデオデコーダ14が対応していない符号化フォーマットのビデオストリームが供給されると、例えばエラー処理がなされる。
また、プライマリビデオデコーダ14は、供給されたプライマリビデオストリームのフレームレートすなわちフレーム周波数を取得する。一例として、上述したMPEG2方式、MPEG4 AVC方式およびVC−1方式においては、ストリームのヘッダ部分にフレームレートに関する情報が格納される。プライマリビデオデコーダ14は、供給されたプライマリビデオストリームの例えばヘッダ部分からフレームレートに関する情報を抽出し、当該ビデオストリームのフレームレートを取得する。
より具体的には、MPEG2の場合、シーケンスヘッダ(Sequence Header)内のデータ項目frame_rate_codeにフレームレートframe_rate_valueが記述される。MPEG4 AVCの場合、シーケンスパラメータセット(Sequence Parameter Set)におけるシーケンスパラメータvui_parameters()内のパラメータnum_units_in_tickおよびパラメータtime_scaleを用いて(time_scale/num_units_in_tick)/2を計算することにより、フレームレートframe_rate_valueが求められる。また、VC−1の場合、シーケンスレイヤSEQUENCE LAYER()における項目FRAMERATENRおよび項目FRAMERATEDRでそれぞれ示される値value of Frame Rate Numeratorおよび値value of Frame Rate Denominatorを用いて(value of Frame Rate Numerator)/(value of Frame Rate Denominator)を計算することにより、フレームレートframe_rate_valueが求められる。
プライマリビデオデコーダ14から、プライマリビデオストリームがデコードされたプライマリビデオデータと、プライマリビデオストリームから所定に取得されたフレームレート情報とがプライマリビデオ変換部15に供給される。プライマリビデオデータは、例えばこのビデオデータのフレームレートに従いプライマリビデオ変換部15に供給される。
セカンダリビデオデコーダ16は、プライマリビデオデコーダ14と同様に、複数の符号化フォーマットにそれぞれ対応してプライマリビデオストリームをデコードするようにできる。また、セカンダリビデオデコーダ16は、供給されたセカンダリビデオストリームのヘッダ部分に格納されたフレームレートに関する情報を抽出し、当該ビデオストリームのフレームレートを取得する。
セカンダリビデオデコーダ16から、セカンダリビデオストリームがデコードされたセカンダリビデオデータと、セカンダリビデオストリームから所定に取得されたフレームレート情報とがセカンダリビデオ変換部17に供給される。セカンダリビデオデータは、例えばこのビデオデータのフレームレートに従いセカンダリビデオ変換部17に供給される。
STC回路19は、プライマリビデオデータとセカンダリビデオデータとを同期させるための同期基準信号であるSTCを発生させる。発生したSTCは、プライマリビデオ変換部15および加算器20を介してセカンダリビデオ変換部17に供給される。
制御部18は、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などからなる。ROMは、CPU上で動作されるプログラムや動作のために必要なデータが予め記憶される。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムやデータを必要に応じて読み出し、RAMをワークメモリとして用いながら、この再生装置1の各部を制御する。なお、ROMは、記憶されたプログラムやデータを書き換えて、更新可能としてもよい。
また、制御部18は、STC回路19からセカンダリビデオ変換部17に対して供給されるSTC値に対して、加算器20を介して所定値分だけ遅らせてセカンダリビデオデータを出力するように制御する。
プライマリビデオ変換部15は、プライマリビデオデコーダ14から供給されたフレームレート情報に基づき、このプライマリビデオデータのフレーム周波数の変換を行う。例えば、図12Aに例示されるように、プライマリビデオ変換部15は、フレームメモリ22およびプライマリビデオ制御部23からなり、プライマリビデオ制御部23は、制御部18の制御に基づき、フレームメモリ22からのプライマリビデオデータの読み出しを制御することで、3−2プルダウン処理などの処理を行う。
一例として、24pのプライマリビデオデータを60iのプライマリビデオデータに変換する3−2プルダウン処理は、例えば、24pすなわちフレーム周波数が24Hzで供給されたプライマリビデオデータをフレーム単位でフレームメモリ22に格納し、プライマリビデオ制御部23は、フレームメモリ22から3回若しくは2回繰り返して同一フレームを読み出すように制御する。
変換されたプライマリビデオデータは、STC回路19から供給される同期基準信号であるSTCの値に基づき、STC値とプライマリビデオデータのPTS(Presentation Time Stamp)で指定される時間とが一致した場合に出力される。PTSは、映像や音声の再生時刻を示すタイムスタンプであり、90kHzのクロック値を33ビットで表している。PTSは、アクセスユニットと呼ばれる再生単位毎に付加されており、例えば、アクセスユニットの先頭部分が格納されたパケットのヘッダ部分に付加されている。
セカンダリビデオ変換部17は、プライマリビデオ変換部15と同様に、セカンダリビデオデコーダ16から供給されたフレームレート情報に基づき、このセカンダリビデオデータのフレーム周波数の変換を行う。また、セカンダリビデオ変換部17は、セカンダリビデオデータのサイズ変換を行う。
例えば、図12Bに例示されるように、セカンダリビデオ変換部17は、フレームメモリ24、スケーリング部25およびセカンダリビデオ制御部26からなり、セカンダリビデオ制御部26は、制御部18の制御に基づき、フレームメモリ24からのセカンダリビデオデータの読み出しを制御することで、3−2プルダウン処理などの処理を行う。
フレームメモリ24から出力されたセカンダリビデオデータは、スケーリング部25に供給され、セカンダリビデオ制御部26の制御に基づき所定のサイズに変換されて出力される。具体的には、例えば、スケーリング部25は、供給されたセカンダリビデオデータを、元のセカンダリビデオデータに対して1倍、1.5倍、1/2倍、1/4倍となるようにサイズを変換する。また、スケーリング部25は、供給されたセカンダリビデオデータを全画面のサイズに変換することもできる。
説明は図11に戻り、加算器21は、プライマリビデオ変換部15から出力されたプライマリビデオデータおよびセカンダリビデオ変換部17から出力されたセカンダリビデオデータをフレーム毎に合成して出力する。
上述では、図11に示す再生装置1の各部がそれぞれハードウェアで構成されるように説明したが、これはこの例に限定されない。すなわち、再生装置1におけるデマルチプレクサ13、プライマリビデオデコーダ14、プライマリビデオ変換部15、セカンダリビデオデコーダ16、セカンダリビデオ変換部17、制御部18およびSTC回路19の全てまたは一部を、CPU上で所定のプログラムを実行させることで構成することも可能である。プログラムは、再生装置1が有する図示されないROMに予め記憶させておいてもよいし、DVD−ROMやCD−ROMといった記録媒体に記録された状態で提供されてもよい。インターネットなどの通信ネットワークを介してプログラムを提供することもできる。提供されたプログラムは、再生装置1が有する図示されないハードディスクドライブや不揮発性メモリなどに記憶され、CPUに読み込まれて実行される。
次に、ピクチャインピクチャ機能を用いた場合に合成されるプライマリビデオデータおよびセカンダリビデオデータの組み合わせについて説明する。上述したように、プライマリビデオスデータおよびセカンダリビデオデータの符号化フォーマットとしては、MPEG2方式、MPEG4 AVC方式およびVC−1方式を用いることができる。ピクチャインピクチャ機能を用いてプライマリビデオデータおよびセカンダリビデオデータを合成する場合には、合成可能なプライマリビデオデータおよびセカンダリビデオデータの符号化フォーマットの組み合わせが予め設定されている。
例えば、図13に示されるように、MPEG2方式で符号化されたプライマリビデオデータに対しては、MPEG2方式、MPEG4 AVC方式およびVC−1方式のうち、いずれの符号化方式で符号化されたセカンダリビデオデータを合成することができる。また、MPEG4 AVC方式で符号化されたプライマリビデオデータに対しては、MPEG4 AVC方式で符号化されたセカンダリビデオデータのみ合成することができる。VC−1方式で符号化されたプライマリビデオデータに対しては、VC−1方式で符号化されたセカンダリビデオデータのみ合成することができる。
また、プライマリビデオデータおよびセカンダリビデオデータのサイズやフレームレート、走査方式についても、合成可能な組み合わせが予め設定されている。例えば、図14に示されるように、プライマリビデオデータの画像サイズ(水平サイズ×垂直サイズ)が1920×1080[pixel]、フレームレートが29.97[Hz]であるインタレースの場合、画像サイズが720×480[pixel]/1920×1080[pixel]/1440×1080[pixel]、フレームレートが29.97[Hz]であるインタレースのセカンダリビデオデータのみが合成可能である。
次に、この発明の実施の一形態による再生方法について説明する。この発明の実施の一形態では、ピクチャインピクチャ機能を用いてセカンダリビデオデータを再生する場合に、セカンダリビデオデータの再生開始タイミングをプライマリビデオデータの3フィールドグループの先頭フィールドのピクチャが表示されるタイミングに一致するように制御する。
先ず、図15に示すフローチャートを参照して、セカンダリビデオデータの再生を開始するタイミングを算出する処理の流れについて説明する。この図15に例示する処理は、主に、上述した再生装置1の制御部18で行われる。
ステップS31において、ユーザがリモートコントロールコマンダなどを操作することにより、セカンダリビデオデータの再生開始が指示されると、ステップS32では、セカンダリビデオデータの再生開始の時点におけるSTC値を取得し、現在のSTC値を示す値cur_stcに格納する。
次のステップS33では、現在のSTC値cur_stcが示すプライマリビデオデータに対応するメインプレイアイテムのIN点を示す値in_ptsを取得し、値primary_video_datum_ptsに格納する。また、ステップS34では、セカンダリビデオデータに対応するサブプレイアイテムのIN点を示す値in_ptsを取得し、値async_pinp_in_ptsに格納する。
ステップS35において、現在時刻から所定時間経過後にセカンダリビデオデータの再生を開始するためのマージンを示す値start_marginに所定値、例えば300msec程度に対応する値"300×90"を格納する。この値は、300msecをSTCのクロックである90kHzに換算した値を示す。
ステップS36では、セカンダリビデオデータの再生を開始するためのマージンstart_marginに基づき、セカンダリビデオデータの一時的な再生開始位置を示すPTS値tmp_start_ptsを、数式(1)に基づいて算出する。
tmp_start_pts = cur_stc + start_margin ・・・(1)
次のステップS37では、プライマリビデオデータの再生開始位置を示すPTS値primary_video_datum_ptsと、セカンダリビデオデータの一時的な再生開始位置を示すPTS値tmp_start_ptsとに基づき、プライマリビデオデータおよびセカンダリビデオデータの再生開始位置を示すPTS値の差分diffを、数式(2)に基づいて算出する。
diff = tmp_start_pts - primary_video_datum_pts ・・・(2)
ステップS38において、プライマリビデオデータのフレームレートを取得し、値frame_durationに格納し、ステップS39では、ステップS37で算出されたプライマリビデオデータおよびセカンダリビデオデータの再生開始位置を示すPTS値の差分diffの間に含まれる、プライマリビデオデータのフレームレートframe_durationの2倍の長さを数式(3)に基づき算出し、算出結果の整数部分を値numに格納する。
num = diff / (frame_duration × 2) ・・・(3)
ステップS40では、プライマリビデオデータおよびセカンダリビデオデータの再生開始位置を示すPTS値の差分diffを、プライマリビデオデータのフレームレートframe_durationの2倍の値で正規化した差分diff_grid_x2を数式(4)に基づき算出する。この差分diff_grid_x2がSTC回路19から供給されるSTC値に対して、制御部18から加算器20を介して供給されるSTC値の遅延分となる。
diff_grid_x2 = num × (frame_duration × 2) ・・・(4)
そして、ステップS41において、セカンダリビデオデータの再生開始時刻を示すPTS値async_pinp_start_ptsを数式(5)に基づき算出する。すなわち、プライマリビデオデータに対して3−2プルダウン処理を行った際に生成される3フィールドグループおよび2フィールドグループで構成される組み合わせの先頭位置から、セカンダリビデオデータを再生するように設定する。
async_pinp_start_pts = primary_video_datum_pts + diff_grid_x2
・・・(5)
次に、図16に示すフローチャートを参照して、この発明の実施の一形態による再生処理の流れについて説明する。ステップS51において、対象となるビデオデータがセカンダリビデオデータであるか否かが判断される。セカンダリビデオデータであると判断された場合には、処理がステップS52に移行する。
ステップS52では、セカンダリビデオデータに対応するサブプレイアイテムのin_ptsが取得され、ステップS53において、セカンダリビデオデータのPTSから、ステップS52で取得したin_ptsを減じるとともに、async_pinp_start_ptsを加算することによってセカンダリビデオデータのPTSを修正し、処理がステップS54に移行する。
一方、ステップS51において、セカンダリビデオデータでない、すなわち、プライマリビデオデータである場合には、処理がステップS54に移行する。
ステップS54では、ビデオデータのPTSで指定される時間と、STC値との比較を行うことにより、ビデオデータの表示タイミングを設定する。また、対象となるビデオデータがセカンダリビデオデータである場合には、ステップS53で修正されたPTS値を用いる。そして、ステップS55において、ビデオデータのPTSで指定される時間がSTC値と一致した場合に、ピクチャが表示される。
次のステップS56では、表示されたピクチャに対するVsyncの数を示す値prsn_vsync_cntに基づき、Vsyncの数をカウントし、Vsyncの数だけピクチャが表示されたか否かが判断される。表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されたと判断した場合には、処理がステップS57に移行し、次のピクチャが表示される。なお、Vsyncの数prsn_vsync_cntの算出方法については後述する。
一方、表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されていないと判断した場合には、処理がステップS56に戻り、再度、表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されたか否かが判断される。
次に、上述のステップS56で用いられる表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntの算出方法について説明する。先ず、図17に示すフローチャートを参照して、表示ピクチャの元のVsyncの数を示す値native_vsync_countの算出処理の流れについて説明する。ステップS61では、表示ピクチャのPTS値とメインプレイアイテムのPTS値との差分を値pts_diffに格納する。
次のステップS62では、表示ピクチャのフレームレートが23.976Hzであるか否かが判断される。表示ピクチャのフレームレートが23.976Hzであると判断された場合には、処理がステップS63に移行し、59.94HzのVsync間隔を示す値をframe_rateに格納する。frame_rateに格納される値としては、STCのクロックである90kHzに換算した値を格納する。具体的には、frame_rateに"90kHz/59.94Hz=1501.5"を格納する。
ステップS64では、数式(6)に基づき値xが算出され、算出結果の整数部分を値xに格納する。また、ステップS65では、表示ピクチャの元のVsyncの数を示す値native_vsync_countが数式(7)に基づき算出され、算出結果の整数部分を値native_vsync_countに格納する。
x = (pts_diff × 2) / (frame_rate × 5) ・・・(6)
native_vsync_count = x × 5 / 2 ・・・(7)
ステップS66では、ステップS64で算出された値xが奇数であるか否かが判断される。値xが奇数であると判断された場合には、処理がステップS67に移行し、ステップS65で算出されたnative_vsync_countの値に対して"1"を加算して、一連の処理が終了する。また、値xが奇数でない、すなわち、偶数であると判断された場合には、一連の処理が終了する。
一方、ステップS62において、表示ピクチャのフレームレートが23.976Hzでないと判断された場合には、処理がステップS68に移行する。ステップS68では、表示ピクチャのフレームレートが24Hzであるか否かが判断される。表示ピクチャのフレームレートが24Hzであると判断された場合には、処理がステップS69に移行する。ステップS69では、60HzのVsync間隔を示す値をframe_rateに格納する。値frame_rateに格納される値としては、STCのクロックである90kHzに換算した値を格納する。具体的には、値frame_rateに"90kHz/60Hz=1500"を格納する。
また、ステップS68において、表示ピクチャのフレームレートが24Hzでないと判断された場合には、処理がステップS70に移行する。ステップS70では、表示ピクチャのフレームレートが29.97Hzまたは59.94Hzであるか否かが判断される。表示ピクチャのフレームレートが29.97Hzまたは59.94Hzであると判断された場合には、処理がステップS71に移行する。
ステップS71では、59.94HzのVsync間隔を示す値をframe_rateに格納する。値frame_rateに格納される値としては、STCのクロックである90kHzに換算した値を格納する。具体的には、値frame_rateに"90kHz/59.94Hz=1501.5"を格納する。
また、ステップS70において、表示ピクチャのフレームレートが29.97Hzまたは59.94Hzでないと判断された場合には、処理がステップS72に移行し、60HzのVsync間隔を示す値をframe_rateに格納する。frame_rateに格納される値としては、STCのクロックである90kHzに換算した値を格納する。具体的には、frame_rateに"90kHz/60Hz=1500"を格納する。
ステップS73では、表示ピクチャの元のVsyncの数を示す値native_vsync_countが数式(8)に基づき算出される。
native_vsync_count = pts_diff / frame_rate ・・・(8)
次に、図18に示すフローチャートを参照して、表示ピクチャのVsyncの数を示す値prsn_vsync_cntの算出処理の流れについて説明する。ステップS81において、表示ピクチャのフレームレートが23.976Hzであるか否かが判断される。表示ピクチャのフレームレートが23.976Hzであると判断された場合には、処理がステップS82に移行する。
ステップS82では、表示ピクチャの元のVsyncの数を示す値native_vsync_countに2/5を乗じた値が奇数であるか否かが判断される。表示ピクチャの元のVsyncの数を示す値native_vsync_countに2/5を乗じた値が奇数であると判断された場合には、処理がステップS83に移行する。ステップS83では、表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntが"2"とされるとともに、表示ピクチャのPTSに"1501.5/2"が加算され、値vsync_cntが"2"とされる。
一方、ステップS82において、表示ピクチャの元のVsyncの数を示す値native_vsync_countに2/5を乗じた値が奇数でないと判断された場合には、処理がステップS84に移行する。ステップS84では、表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntが"3"とされるとともに、値vsync_cntが"3"とされる。
ステップS81において、表示ピクチャのフレームレートが23.976Hzでないと判断された場合には、処理がステップS85に移行する。ステップS85では、表示ピクチャのフレームレートが24Hzであるか否かが判断される。表示ピクチャのフレームレートが24Hzであると判断された場合には、処理がステップS86に移行する。
ステップS86では、表示ピクチャの元のVsyncの数を示す値native_vsync_countに2/5を乗じた値が奇数であるか否かが判断される。表示ピクチャの元のVsyncの数を示す値native_vsync_countに2/5を乗じた値が奇数であると判断された場合には、処理がステップS87に移行する。ステップS87では、表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntが"2"とされるとともに、表示ピクチャのPTSに"1501.5/2"が加算され、値vsync_cntが"2"とされる。
一方、ステップS86において、表示ピクチャの元のVsyncの数を示す値native_vsync_countに2/5を乗じた値が奇数でないと判断された場合には、処理がステップS88に移行する。ステップS88では、値vsync_cntが"3"とされる。
ステップS89では、ステップS87およびS88で決定された値vsync_cntの値が表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntに格納され、一連の処理が終了する。
また、ステップS85において、表示ピクチャのフレームレートが4Hzでないと判断された場合には、処理がステップS90に移行する。ステップS90では、ビデオデコーダの規定に従い、表示ピクチャの元のVsyncの数が値vsync_cntに格納される。そして、ステップS91において、ステップS90で決定された値vsync_cntの値が表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntに格納される。
ステップS92では、表示ピクチャのフレームレートが29.97Hzまたは59.94Hzであるか否かが判断される。表示ピクチャのフレームレートが29.97Hzまたは59.94Hzである場合には、一連の処理が終了する。また、表示ピクチャのフレームレートが29.97Hzまたは59.94Hzである場合にも、一連の処理が終了する。
このように、この発明の実施の一形態では、セカンダリビデオデータの再生開始タイミングを算出し、プライマリビデオデータに対して3−2プルダウン処理を行うことによって生成された3フィールドグループの先頭フィールドが次に出力されるタイミングに、算出したセカンダリビデオデータの再生開始タイミングを合わせることにより、セカンダリビデオデータを再生する際に発生するコーミングの発生を防止することができる。
次に、この発明の実施の一形態の第1の変形例について説明する。この発明の実施の一形態の第1の変形例では、セカンダリビデオデータを再生する際に発生するコーミングを防止するために、第2の方法を用いる。
第2の方法では、セカンダリビデオデータの再生開始が指示された時点におけるプライマリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャの残り表示数を、セカンダリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャの表示数に設定し、プライマリビデオデータの各グループの先頭フィールドのピクチャが出力されるタイミングと、セカンダリビデオデータの各グループの先頭フィールドのピクチャが出力されるタイミングとを合わせる。
例えば、図19に示されるように、セカンダリビデオデータの再生開始が指示された時点のプライマリビデオデータにおけるグループのピクチャ残り表示数が"2"であるため、セカンダリビデオデータにおける最初のグループのピクチャ表示数を"2"に設定する。こうすることにより、プライマリビデオデータおよびセカンダリビデオデータの各グループの切り替わりタイミングが一致する。
この発明の実施の一形態の第1の変形例による再生方法について説明する。先ず、図20に示すフローチャートを参照して、セカンダリビデオデータの再生を開始するタイミングを算出する処理の流れについて説明する。この図20に例示する処理は、主に、上述した再生装置1の制御部18で行われる。
ステップS101において、ユーザがリモートコントロールコマンダなどを操作することにより、セカンダリビデオデータの再生開始が指示されると、ステップS102では、セカンダリビデオデータの再生開始の時点におけるSTC値を取得し、現在のSTC値を示す値cur_stcに格納する。
ステップS103において、現在時刻から所定時間経過後にセカンダリビデオデータの再生を開始するためのマージンを示す値start_marginに所定値、例えば300msec程度に対応する値"300×90"を格納する。この値は、300msecをSTCのクロックである90kHzに換算した値を示す。このマージンstart_marginがSTC回路19から供給されるSTC値に対して、制御部18から加算器20を介して供給されるSTC値の遅延分となる。
ステップS104では、セカンダリビデオデータの再生を開始するためのマージンstart_marginに基づき、セカンダリビデオデータの再生開始時刻を示すPTS値async_pinp_start_ptsを、数式(9)に基づいて算出する。
async_pinp_start_pts = cur_stc + start_margin ・・・(9)
そして、ステップS105において、セカンダリビデオデータの再生開始時刻を示すPTS値async_pinp_start_ptsをセカンダリビデオデータの再生開始時刻としてSTC回路19に設定する。
次に、図21に示すフローチャートを参照して、この発明の実施の一形態の第1の変形例による再生処理の流れについて説明する。ステップS111において、対象となるビデオデータがセカンダリビデオデータであるか否かが判断される。セカンダリビデオデータであると判断された場合には、処理がステップS112に移行する。
ステップS112では、セカンダリビデオデータに対応するサブプレイアイテムのin_ptsが取得され、ステップS113において、セカンダリビデオデータのPTSから、ステップS112で取得したin_ptsを減じるとともに、async_pinp_start_ptsを加算することによってセカンダリビデオデータのPTSを修正し、処理がステップS114に移行する。
一方、ステップS111において、セカンダリビデオデータでない、すなわち、プライマリビデオデータである場合には、処理がステップS114に移行する。
ステップS114では、ビデオデータのPTSで指定される時間と、STC値との比較を行うことにより、ビデオデータの表示タイミングを設定する。また、対象となるビデオデータがセカンダリビデオデータである場合には、ステップS113で修正されたPTS値を用いる。
ステップS115では、対象となるビデオデータがセカンダリビデオデータであるか否かが判断される。セカンダリビデオデータであると判断された場合には、処理がステップS116に移行する。
ステップS116では、プライマリビデオデータの表示ピクチャのVsyncの数を示す値prsn_vsync_cntとセカンダリビデオデータの表示ピクチャのVsyncの数を示す値prsn_vsync_cntとする。なお、表示ピクチャのVsyncの数を示す値prsn_vsync_cntの算出方法については、上述の実施の一形態における算出方法と同様に、図17および18に示されるフローチャートに基づき算出することができる。
一方、ステップS115において、対象となるビデオデータがセカンダリビデオデータでないと判断された場合には、処理がステップS117に移行する。ステップS117では、ビデオデータのPTSで指定される時間がSTC値と一致した場合に、ピクチャが表示される。
次のステップS118では、表示されたピクチャに対するVsyncの数を示す値prsn_vsync_cntに基づき、Vsyncの数をカウントし、Vsyncの数だけピクチャが表示されたか否かが判断される。表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されたと判断した場合には、処理がステップS119に移行し、次のピクチャが表示される。
一方、表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されていないと判断した場合には、処理がステップS118に戻り、再度、表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されたか否かが判断される。
このように、この発明の実施の一形態の第1の変形例では、セカンダリビデオデータの再生開始が指示された時点で再生されている、プライマリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャの残り表示数を取得し、取得した残り表示数を、セカンダリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャの表示数に設定する。こうすることにより、プライマリビデオデータの各グループの先頭フィールドのピクチャが出力されるタイミングと、セカンダリビデオデータの各グループの先頭フィールドのピクチャが出力されるタイミングとを合わせることができ、セカンダリビデオデータを再生する際に発生するコーミングを防止することができる。
次に、この発明の実施の一形態の第2の変形例について説明する。この発明の実施の一形態の第2の変形例では、セカンダリビデオデータを再生する際に発生するコーミングを防止するために、第3の方法を用いる。
第3の方法では、プライマリビデオデータに対して3−2プルダウン処理を行うことによって生成されたグループのピクチャを表示している間は、セカンダリビデオデータの所定グループのピクチャを表示させ続け、プライマリビデオデータのグループの切り替わりタイミングでセカンダリビデオデータの表示ピクチャを切り替えることにより、プライマリビデオデータとセカンダリビデオデータとの切り替わりタイミングを合わせる。
例えば、図22に示されるように、プライマリビデオデータに対する3−2プルダウン処理によって生成されるグループがグループAからグループBに切り替わった際に表示されているセカンダリビデオデータの表示ピクチャXが、プライマリビデオデータのグループBが表示されている間、保持される。同様にして、例えば、プライマリビデオデータのグループがグループBからグループCに切り替わった際に表示されているセカンダリビデオデータの表示ピクチャYが、プライマリビデオデータのグループCが表示されている間、保持される。
すなわち、プライマリビデオデータの所定のグループが再生されている間は、そのグループの先頭フィールドのピクチャが表示された時点で表示されているセカンダリビデオデータのピクチャが保持されて再生され続ける。そして、プライマリビデオデータのグループが切り替わった際に、セカンダリビデオデータの次のグループにおける先頭フィールドのピクチャが表示される。
この発明の実施の一形態の第2の変形例による再生方法について説明する。先ず、図23に示すフローチャートを参照して、セカンダリビデオデータの再生を開始するタイミングを算出する処理の流れについて説明する。この図23に例示する処理は、主に、上述した再生装置1の制御部18で行われる。
ステップS121において、ユーザがリモートコントロールコマンダなどを操作することにより、セカンダリビデオデータの再生開始が指示されると、ステップS122では、セカンダリビデオデータの再生開始の時点におけるSTC値を取得し、現在のSTC値を示す値cur_stcに格納する。
ステップS123において、現在時刻から所定時間経過後にセカンダリビデオデータの再生を開始するためのマージンを示す値start_marginに所定値、例えば300msec程度に対応する値"300×90"を格納する。この値は、300msecをSTCのクロックである90kHzに換算した値を示す。このマージンstart_marginがSTC回路19から供給されるSTC値に対して、制御部18から加算器20を介して供給されるSTC値の遅延分となる。
ステップS124では、セカンダリビデオデータの再生を開始するためのマージンstart_marginに基づき、セカンダリビデオデータの再生開始時刻を示すPTS値async_pinp_start_ptsを、数式(10)に基づいて算出する。
async_pinp_start_pts = cur_stc + start_margin ・・・(10)
そして、ステップS125において、セカンダリビデオデータの再生開始時刻を示すPTS値async_pinp_start_ptsをセカンダリビデオデータの再生開始時刻としてSTC回路19に設定する。
次に、図24に示すフローチャートを参照して、この発明の実施の一形態の第2の変形例による再生処理の流れについて説明する。ステップS131において、対象となるビデオデータがセカンダリビデオデータであるか否かが判断される。セカンダリビデオデータであると判断された場合には、処理がステップS132に移行する。
ステップS132では、セカンダリビデオデータに対応するサブプレイアイテムのin_ptsが取得され、ステップS133において、セカンダリビデオデータのPTSから、ステップS132で取得したin_ptsを減じるとともに、async_pinp_start_ptsを加算することによってセカンダリビデオデータのPTSを修正し、処理がステップS134に移行する。
一方、ステップS131において、セカンダリビデオデータでない、すなわち、プライマリビデオデータである場合には、処理がステップS134に移行する。
ステップS134では、ビデオデータのPTSで指定される時間と、STC値との比較を行うことにより、ビデオデータの表示タイミングを設定する。また、対象となるビデオデータがセカンダリビデオデータである場合には、ステップS133で修正されたPTS値を用いる。そして、ステップS135において、ビデオデータのピクチャを表示用のフレームメモリに出力する。
ステップS136では、対象となるビデオデータがプライマリビデオデータであるか否かが判断される。プライマリビデオデータであると判断された場合には、処理がステップS137に移行する。ステップS137では、セカンダリビデオデータの表示用のフレームメモリからピクチャを取得し、プライマリビデオデータの表示用のフレームメモリに重ねることにより、表示ピクチャを合成する。
一方、ステップS136において、対象となるビデオデータがプライマリビデオデータでないと判断された場合には、処理がステップS138に移行する。ステップS138では、表示されたピクチャに対するVsyncの数を示す値prsn_vsync_cntに基づき、Vsyncの数をカウントし、Vsyncの数だけピクチャが表示されたか否かが判断される。表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されたと判断した場合には、処理がステップS139に移行し、次のピクチャが表示される。
一方、表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されていないと判断した場合には、処理がステップS138に戻り、再度、表示ピクチャがVsyncの数prsn_vsync_cntだけ表示されたか否かが判断される。なお、表示ピクチャのVsyncの数を示す値prsn_vsync_cntの算出方法については、上述の実施の一形態における算出方法と同様に、図17および18に示されるフローチャートに基づき算出することができる。
このように、この発明の実施の一形態の第2の変形例では、プライマリビデオデータの所定のグループが再生されている間は、そのグループの先頭フィールドのピクチャが表示された時点で表示されているセカンダリビデオデータのピクチャが保持されて再生され続け、プライマリビデオデータのグループが切り替わった際に、セカンダリビデオデータの表示ピクチャが次のグループにおける先頭フィールドのピクチャに切り替わるようにしている。したがって、プライマリビデオデータの各グループの先頭フィールドのピクチャが出力されるタイミングと、セカンダリビデオデータの各グループの先頭フィールドのピクチャが出力されるタイミングとを合わせることができ、セカンダリビデオデータを再生する際に発生するコーミングを防止することができる。
以上、この発明の実施の一形態、実施の一形態の第1の変形例および第2の変形例について説明したが、この発明は、上述したこの発明の実施の一形態、実施の一形態の第1の変形例および第2の変形例に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、上述では、再生装置1としてプライマリビデオストリームとセカンダリビデオストリームとが同一の記録媒体から供給される場合を例にとって説明したが、これはこの例に限られず、例えば、プライマリビデオストリームとセカンダリビデオストリームとが異なる記録媒体から供給される場合にも適用可能である。
図25は、プライマリビデオストリームが含まれている第1のストリームデータとセカンダリビデオストリームが含まれている第2のストリームデータとが異なる記録媒体から供給される再生装置1’の一例の構成を示す。再生装置1’は、ディスクドライブ31、バッファ32、デマルチプレクサ(DeMUX)33、記録媒体41、バッファ42、デマルチプレクサ(DeMUX)43、プライマリビデオデコーダ14、プライマリビデオ変換部15、セカンダリビデオデコーダ16、セカンダリビデオ変換部17、制御部18、STC回路19、加算器20および21で構成されている。なお、再生装置1と同一の機能を有する部分には、同一の符号を付し、ここでは説明を省略する。
第1のストリームデータは、着脱可能な記録媒体30に記録されて供給される。記録媒体30の例としては、例えば、BD−ROMなどのディスク状記録媒体が考えられる。
ディスクドライブ31は、装填された記録媒体30に記録された第1のストリームデータを再生する。記録媒体30には、例えばMPEG2システムズに規定されるトランスポートストリーム(TS)やプログラムストリーム(PS)の形式で、ビデオデータおよびオーディオデータが多重化された第1のストリームデータが記録されている。記録媒体30から再生されたトランスポートストリームまたはプログラムストリームは、バッファ32に供給される。バッファ32は、制御部18の制御に基づき、供給された第1のストリームデータをデマルチプレクサ33に供給する。
デマルチプレクサ33は、供給された第1のストリームデータからプライマリビデオストリームを分離する。例えば、バッファ32からトランスポートストリームとして第1のストリームデータが供給された場合、デマルチプレクサ33は、トランスポートパケット毎にPIDを解析し、プライマリビデオデータが格納されたパケットを集め、プライマリビデオストリームを復元する。
第2のストリームデータは、例えば、インターネットなどの通信ネットワークを介してダウンロードされて記録媒体41に記録されている。記録媒体41の例としては、フラッシュメモリといった半導体メモリや、着脱可能なハードディスクドライブ(HDD)などが考えられる。
記録媒体41から出力されたトランスポートストリームまたはプログラムストリームは、バッファ42に供給される。バッファ42は、制御部18の制御に基づき、供給された第2のストリームデータをデマルチプレクサ43に供給する。
デマルチプレクサ43は、供給された第2のストリームデータからセカンダリビデオストリームを分離する。例えば、バッファ42からトランスポートストリームとして第2のストリームデータが供給された場合、デマルチプレクサ13は、トランスポートパケット毎にPIDを解析し、セカンダリビデオデータが格納されたパケットを集め、セカンダリビデオストリームを復元する。
BD−ROMのデータモデルを概略的に示す略線図である。 インデックステーブルを説明するための略線図である。 クリップAVストリーム、クリップ情報、クリップ、プレイアイテムおよびプレイリストの関係を示すUML図である。 複数のプレイリストから同一のクリップを参照する方法を説明するための略線図である。 サブパスについて説明するための略線図である。 ピクチャインピクチャ機能を用いた場合の再生について説明するための略線図である。 ピクチャインピクチャ機能を用いた場合の再生処理の流れを説明するためのフローチャートである。 ピクチャインピクチャ機能を用いた場合の再生処理の流れを説明するためのフローチャートである。 コーミングの発生について説明するための略線図である。 この発明の実施の一形態によるコーミングを防止する方法を説明するための略線図である。 この発明の実施の一形態による再生装置の一例の構成を示すブロック図である。 プライマリビデオ変換部およびセカンダリビデオ変換部の一例の構成を示すブロック図である。 プライマリビデオデータおよびセカンダリビデオデータの符号化フォーマットの組み合わせを説明するための略線図である。 プライマリビデオデータおよびセカンダリビデオデータの組み合わせを説明するための略線図である。 この発明の実施の一形態によるセカンダリビデオデータの再生開始タイミングを算出する処理の流れについて説明するためのフローチャートである。 この発明の実施の一形態による再生処理の流れについて説明するための略線図である。 表示ピクチャの元のVsyncの数を示す値native_vsync_countの算出処理の流れについて説明するためのフローチャートである。 表示ピクチャに対するVsyncの数を示す値prsn_vsync_cntの算出処理の流れについて説明するためのフローチャートである。 この発明の実施の一形態の第1の変形例による再生方法について説明するための略線図である。 この発明の実施の一形態の第1の変形例によるセカンダリビデオデータの再生開始タイミングを算出する処理の流れについて説明するためのフローチャートである。 この発明の実施の一形態の第1の変形例による再生処理の流れについて説明するための略線図である。 この発明の実施の一形態の第2の変形例による再生方法について説明するための略線図である。 この発明の実施の一形態の第2の変形例によるセカンダリビデオデータの再生開始タイミングを算出する処理の流れについて説明するためのフローチャートである。 この発明の実施の一形態の第2の変形例による再生処理の流れについて説明するための略線図である。 この発明の実施の一形態に適用可能な別の再生装置の一例の構成を示すブロック図である。 3−2プルダウン処理を説明するための略線図である。
符号の説明
1、1’ 再生装置
10、30、41 記録媒体
11、31 ディスクドライブ
12、32、42 バッファ
13、33、43 デマルチプレクサ
14 プライマリビデオデコーダ
15 プライマリビデオ変換部
16 セカンダリビデオデコーダ
17 セカンダリビデオ変換部
18 制御部
19 STC回路
20、21 加算器
22、24 フレームメモリ
23 プライマリビデオ制御部
25 スケーリング部
26 セカンダリビデオ制御部

Claims (10)

  1. 第1のビデオ信号と、該第1のビデオ信号に対して任意のタイミングで再生された第2のビデオ信号を同時に再生する再生装置において、
    第1のフレーム周波数の第1のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、上記第1のフレーム周波数の第1のビデオ信号を、上記第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第1のビデオ信号に変換する第1の変換部と、
    第1のフレーム周波数の第2のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、上記第1のフレーム周波数の第2のビデオ信号を、上記第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第2のビデオ信号に変換する第2の変換部と、
    上記第2のフレーム周波数の第1のビデオ信号における上記3回繰り返し出力のフィールドに基づくフィールド群、および、該3回繰り返し出力のフィールドに基づくフィールド群に連続する、上記2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングと、上記第2のフレーム周波数の第2のビデオ信号における上記3回繰り返し出力のフィールドに基づくフィールド群、および、該3回繰り返し出力のフィールドに基づくフィールド群に連続する、上記2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングとを一致させるように制御する制御部と
    を有することを特徴とする再生装置。
  2. 請求項1に記載の再生装置において、
    上記制御部は、
    上記第2のビデオ信号が任意のタイミングで再生された際に、上記第2のフレーム周波数の第1のビデオ信号における次の3回繰り返し出力のフィールドに基づくフィールド群の先頭フィールドの再生開始タイミングを算出し、
    上記算出した再生開始タイミングと、上記第2のフレーム周波数の第2のビデオ信号における3回繰り返し出力のフィールドに基づくフィールド群の先頭フィールドの再生開始タイミングとを一致させるようにした
    ことを特徴とする再生装置。
  3. 請求項1に記載の再生装置において、
    上記制御部は、
    上記第2のビデオ信号が任意のタイミングで再生された際に、上記第2のフレーム周波数の第1のビデオ信号における3回および2回繰り返し出力のフィールドに基づくフィールド群の残フィールド数を算出し、
    上記第2のフレーム周波数の第2のビデオ信号における最初の3回または2回繰り返し出力のフィールドに基づくフィールド群のフィールド数を上記残フィールド数と一致させるようにした
    ことを特徴とする再生装置。
  4. 請求項1に記載の再生装置において、
    上記制御部は、
    上記第2のビデオ信号が任意のタイミングで再生された際に、上記第2のフレーム周波数の第1のビデオ信号における3回および2回繰り返し出力のフィールドに基づくフィールド群の先頭フィールドが再生されたタイミングにおいて再生された、上記第2のフレーム周波数の第2のビデオ信号における3回および2回繰り返し出力のフィールドを、上記第2のフレーム周波数の第1のビデオ信号における3回および2回繰り返し出力のフィールドに基づくフィールド群が切り替わるまで保持して再生させるようにした
    ことを特徴とする再生装置。
  5. 請求項1に記載の再生装置において、
    上記第1のビデオ信号および上記第2のビデオ信号は、同一の記録媒体に記録されている
    ことを特徴とする再生装置。
  6. 請求項5に記載の再生装置において、
    上記第1のビデオ信号および上記第2のビデオ信号がBD−ROMに記録されている
    ことを特徴とする再生装置。
  7. 請求項1に記載の再生装置において、
    上記第1のビデオ信号および上記第2のビデオ信号が異なる記録媒体に記録されている
    ことを特徴とする再生装置。
  8. 請求項7に記載の再生装置において、
    上記第1のビデオ信号がBD−ROMに記録されている
    ことを特徴とする再生装置。
  9. 第1のビデオ信号と、該第1のビデオ信号に対して任意のタイミングで再生された第2のビデオ信号を同時に再生する再生方法において、
    第1のフレーム周波数の第1のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、上記第1のフレーム周波数の第1のビデオ信号を、上記第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第1のビデオ信号に変換する第1の変換ステップと、
    第1のフレーム周波数の第2のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、上記第1のフレーム周波数の第2のビデオ信号を、上記第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第2のビデオ信号に変換する第2の変換ステップと、
    上記第2のフレーム周波数の第1のビデオ信号における上記3回繰り返し出力のフィールドに基づくフィールド群、および、該3回繰り返し出力のフィールドに基づくフィールド群に連続する、上記2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングと、上記第2のフレーム周波数の第2のビデオ信号における上記3回繰り返し出力のフィールドに基づくフィールド群、および、該3回繰り返し出力のフィールドに基づくフィールド群に連続する、上記2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングとを一致させるように制御するステップと
    を有することを特徴とする再生方法。
  10. 第1のビデオ信号と、該第1のビデオ信号に対して任意のタイミングで再生された第2のビデオ信号を同時に再生する再生方法をコンピュータ装置に実行させる再生プログラムにおいて、
    第1のフレーム周波数の第1のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、上記第1のフレーム周波数の第1のビデオ信号を、上記第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第1のビデオ信号に変換する第1の変換ステップと、
    第1のフレーム周波数の第2のビデオ信号に対し、フレームの3回繰り返し出力と2回繰り返し出力とをフレーム毎に交互に行い、上記第1のフレーム周波数の第2のビデオ信号を、上記第1のフレーム周波数と2対5の関係になる第2のフレーム周波数の第2のビデオ信号に変換する第2の変換ステップと、
    上記第2のフレーム周波数の第1のビデオ信号における上記3回繰り返し出力のフィールドに基づくフィールド群、および、該3回繰り返し出力のフィールドに基づくフィールド群に連続する、上記2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングと、上記第2のフレーム周波数の第2のビデオ信号における上記3回繰り返し出力のフィールドに基づくフィールド群、および、該3回繰り返し出力のフィールドに基づくフィールド群に連続する、上記2回繰り返し出力のフィールドに基づくフィールド群の切り替わりタイミングとを一致させるように制御するステップと
    を有することを特徴とする再生プログラム。
JP2007323294A 2007-12-14 2007-12-14 再生装置、再生方法および再生プログラム Expired - Fee Related JP4935661B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007323294A JP4935661B2 (ja) 2007-12-14 2007-12-14 再生装置、再生方法および再生プログラム
US12/269,316 US8401360B2 (en) 2007-12-14 2008-11-12 Apparatus and associated methodology for generating a picture-in-picture display from two video screens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007323294A JP4935661B2 (ja) 2007-12-14 2007-12-14 再生装置、再生方法および再生プログラム

Publications (2)

Publication Number Publication Date
JP2009147699A JP2009147699A (ja) 2009-07-02
JP4935661B2 true JP4935661B2 (ja) 2012-05-23

Family

ID=40753412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007323294A Expired - Fee Related JP4935661B2 (ja) 2007-12-14 2007-12-14 再生装置、再生方法および再生プログラム

Country Status (2)

Country Link
US (1) US8401360B2 (ja)
JP (1) JP4935661B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102467738B1 (ko) * 2015-03-04 2022-11-17 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치, 및 수신 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092432A (ja) * 1999-09-17 2001-04-06 Sanyo Electric Co Ltd 表示装置
US7860375B2 (en) * 2000-03-17 2010-12-28 Thomson Licensing Method and apparatus for simultaneous recording and displaying two different video programs
JP2003274370A (ja) * 2002-03-19 2003-09-26 Matsushita Electric Ind Co Ltd タイムコード信号伝送方法およびタイムコード信号伝送装置
KR100504471B1 (ko) * 2002-08-08 2005-08-03 엘지전자 주식회사 비디오 디코딩 시스템
KR20070014945A (ko) * 2005-07-29 2007-02-01 엘지전자 주식회사 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
US8134644B2 (en) * 2005-10-15 2012-03-13 Cooper J Carl Audio synchronizer control and communications method and apparatus

Also Published As

Publication number Publication date
US8401360B2 (en) 2013-03-19
JP2009147699A (ja) 2009-07-02
US20090154897A1 (en) 2009-06-18

Similar Documents

Publication Publication Date Title
US7561779B2 (en) Video data processor having converting section for producing NTSC- or PAL-compliant synthetic video data
JP7139543B1 (ja) 再生装置、及び、再生方法
JP6291116B2 (ja) 再生装置および再生方法
JP6487588B2 (ja) 再生方法および再生装置
JP4775208B2 (ja) 再生方法、再生プログラムおよび再生装置
JP4935661B2 (ja) 再生装置、再生方法および再生プログラム
JP7163461B2 (ja) デコード方法およびデコーダシステム
JP2008301275A (ja) 映像出力装置及び映像出力方法
JP2012175214A (ja) 映像再生装置、映像再生方法及び映像再生プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees