JP2005123775A - 再生装置、再生方法、再生プログラムおよび記録媒体 - Google Patents

再生装置、再生方法、再生プログラムおよび記録媒体 Download PDF

Info

Publication number
JP2005123775A
JP2005123775A JP2003354741A JP2003354741A JP2005123775A JP 2005123775 A JP2005123775 A JP 2005123775A JP 2003354741 A JP2003354741 A JP 2003354741A JP 2003354741 A JP2003354741 A JP 2003354741A JP 2005123775 A JP2005123775 A JP 2005123775A
Authority
JP
Japan
Prior art keywords
image data
storage means
plane
recording medium
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003354741A
Other languages
English (en)
Inventor
Toshiya Hamada
俊也 浜田
Motoki Kato
元樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003354741A priority Critical patent/JP2005123775A/ja
Priority to US10/574,582 priority patent/US8204357B2/en
Priority to PCT/JP2004/013988 priority patent/WO2005039177A1/ja
Priority to MXPA06003719A priority patent/MXPA06003719A/es
Priority to EP04773378A priority patent/EP1675395A4/en
Priority to KR1020067007240A priority patent/KR101038631B1/ko
Priority to CNA2004800284718A priority patent/CN1860785A/zh
Publication of JP2005123775A publication Critical patent/JP2005123775A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 BD−ROMにおいて、ピクチャインピクチャ機能や壁紙表示機能を実現する。
【解決手段】 それぞれ動画、字幕およびグラフィクスを表示するプレーン10、11および12に対して、動画を表示する第2ビデオプレーン50を追加する。第2ビデオプレーン50およびビデオプレーン10の出力は、スイッチ51により画素単位で選択される。第2ビデオプレーン50に縮小動画データを格納し、スイッチ51を縮小動画データの表示位置に対応して画素単位で切り替え制御することで、ビデオプレーン10の動画データに対して第2ビデオプレーン50の縮小動画データが子画面表示される。ビデオプレーン10に、動画データの代わりに壁紙画像データを格納することで、恰も縮小動画データの背景に壁紙が表示されているかのような表示画面が得られる。
【選択図】 図8

Description

この発明は、ブルーレイディスク(Blu-ray Disc)といった大容量の記録媒体に記録されたプログラムに対してピクチャインピクチャを実現可能とする再生装置、再生方法、再生プログラムおよび記録媒体に関する。
近年、記録可能で記録再生装置から取り外し可能なディスク型記録媒体の規格として、Blu−ray Disc(ブルーレイディスク)規格が提案されている。Blu−ray Disc規格では、記録媒体として直径12cm、カバー層0.1mmのディスクを用い、光学系として波長405nmの青紫色レーザ、開口数0.85の対物レンズを用いて、最大で27GB(ギガバイト)の記録容量を実現している。これにより、日本のBSディジタルハイビジョン放送を、画質を劣化させることなく2時間以上記録することが可能である。
この記録可能光ディスクに記録するAV(Audio/Video)信号のソース(供給源)としては、従来からの、例えばアナログテレビジョン放送によるアナログ信号によるものと、例えばBSディジタル放送をはじめとするディジタルテレビジョン放送によるディジタル信号によるものとが想定されている。Blu−ray Disc規格では、これらの放送によるAV信号を記録する方法を定めた規格は、既に作られている。
一方で、現状のBlu−ray Discの派生規格として、映画や音楽などが予め記録された、再生専用の記録媒体を開発する動きが進んでいる。映画や音楽を記録するためのディスク状記録媒体としては、既にDVD(Digital Versatile Disc)が広く普及しているが、このBlu−ray Discの規格に基づいた再生専用光ディスクは、Blu−ray Discの大容量および高速な転送速度などを活かし、ハイビジョン映像を高画質なままで2時間以上収録できる点が、既存のDVDとは大きく異なり、優位である。以下では、Blu−ray Discの派生規格の再生専用の記録媒体をBD−ROM(Blu-ray Disc-Read Only Memory)と称し、記録可能なBlu−ray Discと区別する。
一方で、現状のBlu−ray Discの規格では、ディスクに記録されている映像コンテンツの一覧を画面表示する方法や、その一覧表上にカーソルを表示させ、再生したい映像コンテンツをユーザに選択させるなどといったユーザインターフェイスに関する機能が定められていない。これらの機能は、Blu−ray Discに対する記録再生を行う記録再生装置本体によって実現されている。そのため、同一の記録媒体を再生した場合でも、再生に用いた記録再生装置によってコンテンツ一覧画面のレイアウトが異なってしまい、ユーザインタフェースにも差が生じ、必ずしもユーザにとって使い易いものではない。再生専用ディスクとしては、再生機器によらず、ディスク(コンテンツ)制作者が意図した通りのメニュー画面などが表示され、意図通りのユーザインターフェイスが実現される必要がある。
また、映像コンテンツの再生中に選択画面が表示され、ユーザの選択によってストーリーが分岐していくマルチストーリーの機能は、一般にインタラクティブ機能とも呼ばれる。このインタラクティブ機能を実現するためには、ディスク制作者が再生順序や分岐を定めたシナリオを作り、そのシナリオをプログラム言語、スクリプト言語等を使って記述し、ディスクに記録しておく必要がある。再生装置側では、そのプログラムを読み込み、実行することで、制作者の意図に従った映像コンテンツの再生や、分岐のための選択画面提示を実現することになる。
このように、現状のBlu−ray Disc規格(Blu-ray Disc Rewritable Format Ver1.0)では、この制作者の意図通りのユーザインターフェイスを実現するための、メニュー画面や分岐選択画面の構成方法、ユーザ入力に対する処理を記述する方法が定められていない。そのため、現状では、Blu−ray Discを用いて、制作者が意図したシナリオ通りの再生を、再生装置の製造メーカや機種に左右されることなく互換性を持たせた形で実現することが難しい。
また、映画を収録した再生専用ディスクにおいては、字幕を表示する仕組みが不可欠である。しかしながら、この字幕表示についても、現状のBlu−ray Disc規格では、定められていない。
一方、従来から、例えばDVD(Digital Versatile Disc)の規格においては、上述のようなインタラクティブな機能が既に実現されていた。例えば、DVDビデオにより動画を再生中に、リモートコントロールコマンダなどを用いてメニュー画面を呼び出し、例えばメニュー画面上に配置されたボタンを選択するなどして、再生場面を変更するなどの処理が可能であった。また、字幕を表示する仕組みも規定されていた。字幕表示については、例えば、予め用意されている日本語字幕と英語字幕とを切り換えて表示させることができた。
DVDの場合、メニュー画面を固定的なサブピクチャデータにより構成し、メニュー画面が呼び出された際に、動画データにこのサブピクチャデータを合成して表示する。特許文献1に、このように動画データにサブピクチャデータを合成して記録可能なDVDに記録する構成が記載されている。
特開平10−308924号公報
上述したBD−ROMにおいても、動画、サブピクチャ(字幕)およびメニューを表示するプレーンをそれぞれ設け、これら3枚のプレーンの画像を1枚の画像に合成して出力することで、字幕表示およびインタラクティブな表示を実現できるようにすることが提案されている。
これによれば、各プレーンは、奥から、動画を表示する動画プレーン、字幕を表示する字幕プレーン、メニュー画面やボタンなどを表示するグラフィクスプレーンの順に配置される。そして、動画プレーンに対して字幕プレーンが合成され、その合成画像に対してグラフィクスプレーンが合成される。字幕プレーンおよびグラフィクスプレーンは、それぞれ、合成時に不透明度を画素毎に設定することができ、不透明度が0に設定された画素は、その画素のプレーンより奥のプレーンの対応する位置の画素が透過されて表示される。
ところで、再生専用のBD−ROMにおいては、ビデオ映像中の小領域に他のビデオ映像を表示させるような、所謂ピクチャインピクチャの機能が求められている。
ピクチャインピクチャの機能では、例えば、再生時の時系列が同一とされた複数の異なる映像からなるマルチアングルの映像において、メインのアングルを親画面に表示させながら、第2のアングルを親画面の中の小領域である子画面に並列的に表示させるようなことが可能とされる。
ピクチャインピクチャを実現する場合、2本のビデオ信号を並列的に扱い、これらのビデオ信号による映像を合成して1画面に表示する方法を提供する必要がある。
また、ピクチャインピクチャの場合、親画面のサイズの画像を縮小して子画面に表示させる画像を作成し、親画面と合成して表示させることが多く行われる。そのため、動画プレーンに縮小画像を供給して合成する方法を提供する必要がある。
さらに、縮小表示された動画データ表示の背景として、特定パターンの繰り返し画像などによる、壁紙と称される表示を可能とすることが求められている。
したがって、この発明の目的は、BD−ROMにおいてピクチャインピクチャの機能を実現可能な再生装置、再生方法、再生プログラムおよび記録媒体を提供することにある。
また、この発明の別の目的は、BD−ROMにおいて動画データの背景に表示される壁紙の表示を可能とした再生装置、再生方法、再生プログラムおよび記録媒体を提供することにある。
この発明は、上述した課題を解決するために、円盤状記録媒体に記録されたコンテンツデータを再生する再生装置において、記録媒体から再生された第1の動画データを格納する第1の記憶手段と、記録媒体から再生された第2の動画データを格納する第2の記憶手段と、第1の記憶手段および第2の記憶手段の出力を所定領域単位で選択する選択手段とを有し、選択手段の出力に基づき表示信号を生成するようにしたことを特徴とする再生装置である。
また、この発明は、円盤状記録媒体に記録されたコンテンツデータを再生する再生方法において、記録媒体から再生された第1の動画データを第1の記憶手段に格納するステップと、記録媒体から再生された第2の動画データを第2の記憶手段に格納するステップと、第1の記憶手段および第2の記憶手段の出力を所定領域単位で選択する選択のステップとを有し、選択のステップによる出力に基づき表示信号を生成するようにしたことを特徴とする再生方法である。
また、この発明は、円盤状記録媒体に記録されたコンテンツデータを再生する再生方法をコンピュータ装置に実行させる再生プログラムにおいて、再生方法は、記録媒体から再生された第1の動画データを第1の記憶手段に格納するステップと、記録媒体から再生された第2の動画データを第2の記憶手段に格納するステップと、第1の記憶手段および第2の記憶手段の出力を所定領域単位で選択する選択のステップとを有し、選択のステップによる出力に基づき表示信号を生成するようにしたことを特徴とする再生プログラムである。
また、この発明は、円盤状記録媒体に記録されたコンテンツデータを再生する再生方法をコンピュータ装置に実行させる再生プログラムが記録されたコンピュータ装置が読み取り可能な記録媒体において、再生方法は、記録媒体から再生された第1の動画データを第1の記憶手段に格納するステップと、記録媒体から再生された第2の動画データを第2の記憶手段に格納するステップと、第1の記憶手段および第2の記憶手段の出力を所定領域単位で選択する選択のステップとを有し、選択のステップによる出力に基づき表示信号を生成するようにしたことを特徴とする記録媒体である。
上述したように、この発明は、記録媒体から再生された第1の動画データが格納された第1の記憶手段と、記録媒体から再生された第2の動画データが格納された第2の記憶手段の出力とを所定領域単位で選択して表示信号を生成するようにしているため、第1の動画データと第2の動画データとを排他的に合成して表示させることができる。
この発明は、記録媒体から再生された2本の動画データをそれぞれメモリに格納し、メモリに格納された2本の動画データを所定領域単位で選択して出力し、表示するようにしている。そのため、2本の動画データのうち一方が縮小動画データであったときに、縮小されていない動画データと縮小動画データとを1画面上に排他的に表示することができ、これによりピクチャインピクチャ機能が実現できる効果がある。
また、縮小されていない動画データの代わりに壁紙画像データを用いることで、縮小動画データの背景に壁紙画像を表示させることができる効果がある。
また、メモリに格納された2本の動画データの選択を所定領域単位で行っているため、縮小動画データのサイズの変更に、表示が追随できるという効果がある。
また、この発明の実施の第1の形態では、BD−ROMのHDムービーモードのプレーン構成に対して第2ビデオプレーンをさらに設け、ビデオプレーンおよび第2ビデオプレーンの出力を、所定領域単位で選択して出力するようにしている。そのため、例えば第2ビデオプレーンに縮小動画データを格納し、縮小動画データの表示位置に対応してビデオプレーンおよび第2ビデオプレーンの出力を選択することで、ピクチャインピクチャ機能が実現できる効果がある。
またこのとき、ビデオプレーンに壁紙画像データを格納することで、縮小動画データの背景に壁紙画像を表示させることができる効果がある。
また、ビデオプレーンおよび第2ビデオプレーンの出力の選択を所定領域単位で行っているため、例えば第2ビデオプレーンに格納されている縮小動画データのサイズの変更に、表示が追随できるという効果がある。
さらに、この発明の実施の第2の形態では、BD−ROMのHDムービーモードのプレーン構成はそのままとし、ビデオプレーンの前に2つのフレームバッファを設け、この2つのフレームバッファの出力を所定領域単位で選択して出力し、ビデオプレーンに供給するようにしている。そのため、例えば、一方のフレームバッファから読み出された動画データを縮小して縮小動画データとし、この縮小動画データの表示位置に対応して、縮小画像データと他方のフレームバッファの出力とを選択することで、1枚のビデオプレーンを用いてピクチャインピクチャを実現できる効果がある。
また、2つのフレームバッファの出力の選択を所定領域単位で行っているため、例えば一方のフレームバッファから読み出され縮小された縮小動画データのサイズの変更に、表示が追随できるという効果がある。
さらにまた、この発明の実施の第2の形態では、上述した、縮小動画データが組み込まれた動画データが格納されるビデオプレーンの出力と字幕データが格納されるプレゼンテーショングラフィクスプレーンの出力とを合成し、その合成出力に対してGUIの部品などの画像データが格納されるインタラクティブグラフィクスプレーンの出力を合成する。ビデオプレーンおよびプレゼンテーショングラフィクスプレーンの合成結果に対してインタラクティブグラフィクスプレーンの出力を合成する際に、インタラクティブグラフィクスプレーンにおけるビデオプレーン上の縮小画像データの表示位置に対応する領域を透明領域とし、その他の領域に壁紙画像を表示させることで、BD−ROMのHDムービーモードのプレーン構成に対してプレーンを追加しなくても、縮小動画データの背景に壁紙画像を表示させることができる効果がある。
また、ビデオプレーンおよびプレゼンテーショングラフィクスプレーンの合成結果に対してインタラクティブグラフィクスプレーンの出力を合成する際に、インタラクティブグラフィクスプレーンにおけるビデオプレーン上の縮小画像データの表示位置に対応する領域を透明領域とすると共に、インタラクティブグラフィクスプレーン上にGUIの部品などの画像データを所定に配置し、透明領域および部品画像データ領域以外の領域に壁紙画像を表示させることで、BD−ROMのHDムービーモードのプレーン構成に対してプレーンを追加しなくても、恰もGUI部品画像データや縮小動画データの背景に壁紙画像が表示されているかのような表示が可能となる効果がある。
以下、この発明の実施の形態について説明する。先ず、理解を容易とするために、この発明の実施の形態の説明に先んじて、画像データを表示するための概略的な構成と、BD−ROMのHD(High Definition)ムービーモード規格として提案されている動画プレーン、字幕プレーンおよびグラフィクスプレーンの合成方法について説明する。なお、BD−ROMのHDムービーモードは、BD−ROMにおいてDVDビデオと同等のインタラクティブ機能を用意するために提案されている。
図1は、画像データを表示するための典型的な構成例を概略的に示す。なお、図1では、説明に必要な構成だけを抜き出して示している。バス300に対してCPU(Central Processing Unit)301およびグラフィクス部303が接続される。CPU301に対して、ワークメモリとしてDRAM(Dynamic Random Access Memory)302が接続される。グラフィクス部303に対してVRAM(Video RAM)304が接続される。グラフィクス部303の出力がディスプレイ310に供給される。
CPU301は、DRAM302をフレームバッファとして用いて、画像データに対して縮小処理など所定の処理を施す。処理された画像データは、CPU301によりDRAM302から読み出され、バス300を介してグラフィクス部303に供給される。
グラフィクス部303は、ディスプレイ310に送る水平および垂直走査周波数を設定して表示解像度を決めると共に、CPU301からの描画命令を実行するグラフィクス制御チップを有する。グラフィクス部303に供給された画像データは、VRAM304に書き込まれる。VRAM304に書き込まれた画像データは、グラフィクス部303によって所定の水平および垂直走査周波数に対応して読み出され、ディジタルビデオ信号としてディスプレイ310に供給される。すなわち、VRAM304がプレーンに相当し、VRAM304の記憶内容がディスプレイ310の表示に直接的に反映される。
次に、BD−ROMのHDムービーモードにおけるプレーン構成および各プレーンの合成方法について説明する。なお、以下では、背景技術で説明した動画プレーン、字幕プレーンおよびグラフィクスプレーンを、それぞれビデオプレーン、プレゼンテーショングラフィクスプレーンおよびインタラクティブグラフィクスプレーンと称する。
図2は、ビデオプレーン10、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12の一例の構成を示す。ビデオプレーン10は、最も後ろ側(ボトム)に表示され、プレイリストで指定された画像(主に動画データ)が扱われる。プレゼンテーショングラフィクスプレーン11は、ビデオプレーン10の上に表示され、動画再生中に表示される字幕データが扱われる。インタラクティブグラフィクスプレーン12は、最も前面に表示され、GUI(Graphical User Interface)に用いられる部品、例えばメニュー画面を表示するための文字データやボタンを表すビットマップデータといったグラフィクスデータが扱われる。1つの表示画面は、これら3つのプレーンが合成されて表示される。
ビデオプレーン10、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12は、それぞれ独立して表示が可能とされ、例えば、図3に一例が示されるような解像度および表示可能色を有する。ビデオプレーン10は、解像度が1920画素×1080ラインで1画素当たりに換算したデータ長が16ビットであって、輝度信号Y、色差信号Cb、Crが4:2:2のシステム(以下、YCbCr(4:2:2))とされる。なお、YCbCr(4:2:2)は、各画素当たり輝度信号Yが8ビット、色差信号Cb、Crがそれぞれ8ビットで、色差信号Cb、Crが水平2画素で一つの色データを構成すると見なすカラーシステムである。
プレゼンテーショングラフィクスプレーン11は、1920画素×1080ラインで各画素のサンプリング深さが8ビットとされ、カラーシステムは、256色のパレットを用いた8ビットカラーマップアドレスとされる。
インタラクティブグラフィクスプレーン12は、解像度が1920画素×1080ラインで各画素のサンプリング深さが8ビットとされ、カラーシステムは、256色のパレットを用いた8ビットカラーマップアドレスとされる。
なお、ビデオプレーン10は、上述以外にも、1280画素×720ライン、720画素×480ラインおよび720画素×576ラインの解像度にもなり得る。その場合には、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12は、ビデオプレーン10と同じ解像度とされる。
また、上述では、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12のカラーシステムを、256色のパレットを用いた8ビットカラーマップアドレスとしたが、これはこの例に限定されない。色数については、サンプリング深さを変えてパレットの色数を増やせばよい。例えばサンプリング深さを12ビットとすれば、パレットで使用可能な色数を4096色とすることができる。また、サンプリング深さを24ビットとして、パレットを持たずに各画素が色情報を持つようにしたYCbCr(4:4:4)およびRGB(4:4:4)も、同様の仕組みで可能である。
インタラクティブグラフィクスプレーン12およびプレゼンテーショングラフィクスプレーン11は、256段階のアルファブレンディングが可能とされており、他のプレーンとの合成の際に、不透明度を256段階で設定することが可能とされている。不透明度の設定は、画素毎に行うことができる。以下では、不透明度αが(0≦α≦1)の範囲で表され、不透明度α=0で完全に透明、不透明度α=1で完全に不透明であるものとする。
プレゼンテーショングラフィクスプレーン11では、例えばPNG(Portable Network Graphics)形式の画像データが扱われる。また、インタラクティブグラフィクスプレーン12でも、PNG形式の画像データを扱うことができる。PNG形式は、1画素のサンプリング深さが1ビット〜16ビットとされ、サンプリング深さが8ビットまたは16ビットの場合に、アルファチャンネル、すなわち、それぞれの画素成分の不透明度情報(アルファデータと称する)を付加することができる。サンプリング深さが8ビットの場合には、256段階で不透明度を指定することができる。このアルファチャンネルによる不透明度情報を用いてアルファブレンディングが行われる。また、256色までのパレットイメージを用いることができ、予め用意されたパレットの何番目の要素(インデックス)であるかがインデックス番号により表現される。
なお、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12で扱われる画像データは、PNG形式に限定されない。JPEG方式など他の圧縮符号化方式で圧縮符号化された画像データや、ランレングス圧縮された画像データ、圧縮符号化がなされていないビットマップデータなどを扱うようにしてもよい。
図4は、上述の図2および図3に従い3つのプレーンを合成する一例の構成を示す。ビデオプレーン10の動画データが422/444変換回路20に供給される。動画データは、422/444変換回路20でカラーシステムがYCbCr(4:2:2)からYCbCr(4:4:4)に変換され、乗算器21に入力される。なお、422/444変換回路20と乗算器21との間に解像度変換回路を挿入し、動画データの解像度を変換するようにしてもよい。
プレゼンテーショングラフィクスプレーン11の画像データがパレット22に入力され、RGB(4:4:4)の画像データとして出力される。この画像データに対してアルファブレンディングによる不透明度が指定されている場合には、指定された不透明度α1(0≦α1≦1)がパレット22から出力される。
図5は、パレット22の入出力データの一例を示す。パレット22は、例えばPNG形式のファイルに対応したパレット情報がテーブルとして格納される。パレット22は、入力された8ビットの画素データをアドレスとして、インデックス番号が参照される。このインデックス番号に基づき、それぞれ8ビットのデータからなるRGB(4:4:4)のデータが出力される。それと共に、パレット22では、不透明度を表すアルファチャンネルのデータが取り出される。
図6は、パレット22に格納される一例のパレットテーブルを示す。256個のカラーインデックス値〔0x00〕〜〔0xFF〕(〔0x〕は16進表記であることを示す)のそれぞれに対して、各々8ビットで表現される三原色の値R、GおよびBと、不透明度αとが割り当てられる。パレット22は、入力されたPNG形式の画像データに基づきパレットテーブルが参照され、画像データにより指定されたインデックス値に対応する、それぞれ8ビットのデータからなるR、GおよびB各色のデータ(RGBデータ)と、不透明度αとを画素毎に出力する。後述するパレット26にも、同様のパレットテーブルが格納される。
パレット22から出力されたRGBデータは、RGB/YCbCr変換回路30に供給され、各データ長が8ビットの輝度信号Yと色信号Cb、Crのデータに変換される(以下、まとめてYCbCrデータと称する)。これは、以降のプレーン間合成を共通のデータ形式で行う必要があるためで、動画データのデータ形式であるYCbCrデータに統一している。
RGB/YCbCr変換回路30から出力されたYCbCrデータおよび不透明度データα1とがそれぞれ乗算器23に入力される。なお、RGB/YCbCr変換回路30と乗算器23との間に解像度変換回路を挿入し、YCbCrデータの解像度を変換するようにしてもよい。乗算器23では、入力されたYCbCrデータに不透明度データα1が乗ぜられる。乗算結果は、加算器24の一方の入力端に入力される。なお、乗算器23では、YCbCrデータにおける輝度信号Y、色差信号Cb、Crのそれぞれについて、不透明度データα1との乗算が行われる。また、不透明度データα1の補数(1−α1)が乗算器21に供給される。
乗算器21では、422/444変換回路20から入力された動画データに不透明度データα1の補数(1−α1)が乗ぜられる。乗算結果は、加算器24の他方の入力端に入力される。加算器24において、乗算器21および23の乗算結果が加算される。これにより、ビデオプレーン10とプレゼンテーショングラフィクスプレーン11とが合成される。加算器24の加算結果が乗算器25に入力される。
インタラクティブグラフィクスプレーン12の画像データもプレゼンテーショングラフィクスプレーン11と同様に、パレット26によりRGB(4:4:4)のデータが出力され、RGB/YCbCr変換回路27に入力される。グラフィクスプレーン12の画像データのカラーシステムがRGB(4:4:4)である場合には、カラーシステムがYCbCr(4:4:4)に変換されてRGB/YCbCr変換回路27から出力される。RGB/YCbCr変換回路27から出力されたYCbCrデータが乗算器28に入力される。なお、RGB/YCbCr変換回路27と乗算器28との間に解像度変換回路を挿入し、YCbCrデータの解像度を変換するようにしてもよい。
パレット26において、インデックス値に対してアルファブレンディングによる不透明度が指定されている場合には、指定された不透明度α2(0≦α2≦1)がパレット26から出力される。不透明度データα2は、乗算器28に供給される。乗算器28では、RGB/YCbCr変換回路27から入力されたYCbCrデータに対し、輝度信号Y、色差信号Cb、Crのそれぞれについて、不透明度データα2との乗算が行われる。乗算器28による乗算結果が加算器29の一方の入力端に入力される。また、不透明度データα2の補数(1−α2)が乗算器25に供給される。
乗算器25では、加算器24の加算結果に対して不透明度データα2の補数(1−α2)が乗ぜられる。乗算器25の乗算結果は、加算器29の他方の入力端に入力され、上述した乗算器28による乗算結果と加算される。これにより、ビデオプレーン10とプレゼンテーショングラフィクスプレーン11との合成結果に対して、さらに、インタラクティブグラフィクスプレーン12が合成される。
プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12において、例えば、表示すべき画像の無い領域の不透明度α=0と設定することで、そのプレーンの下に表示されるプレーンを透過表示させることができ、例えばビデオプレーン10に表示されている動画データを、プレゼンテーショングラフィクスプレーン11やインタラクティブグラフィクスプレーン12の背景として表示することができる。
なお、パレット22とRGB/YCbCr変換回路30とをパレット22’として一つにまとめ、パレット22’から直接的にYCbCrデータが出力されるようにしてもよい。
この図4に示される構成は、ハードウェアおよびソフトウェアの何れでも実現可能なものである。
以上のような構成をとることで、再生専用の規格に必要な、メニュー画面とボタンの表示を可能としている。メニュー画面上のボタンを選択することで、そのボタンに対応付けられたプレイリストを再生させるようにできる。また、再生専用規格で必要な、動画の上に字幕を重ねて表示する機能が実現される。
上述したプレーン合成の構成は、ビデオプレーン10が1枚しかないので、ピクチャインピクチャのような、2本の動画データを並列的に扱い、2本のビデオ信号による2つの画面を合成して同時に表示することが想定されておらず、このままの構成でこれを実現することが困難である。
次に、この発明の実施の第1および第2の形態について説明する。この発明は、上述したBD−ROMのHDムービーモードを拡張し、より高機能なグラフィクス描画と、ユーザとの双方向性実現とに適したフォーマットを提供することを最終的な目的とする。
なお、BD−ROMのHDムービーモードを拡張した規格を、フルプロファイルと称する。フルプロファイルは、更なるBD−ROMの高機能化を目指して、より複雑な双方向性や、ネットワーク通信への対応の実現を図るものである。
フルプロファイルにおいて必要とされ、BD−ROMのHDムービーモードで実現されていない機能のうち、プレーン構成に関するものは、次の3つが挙げられる。
(1)ピクチャインピクチャ機能。
(2)動画データを縮小し、表示領域中の任意の位置へ表示させる。
(3)(2)の縮小表示の際の縮小表示された動画データ以外の部分(背景)に対して壁紙を表示させる。
なお、「壁紙」とは、ディスプレイ上に表示されるオブジェクトの背景に、例えばディスプレイの表示可能領域を埋め尽くすように画像を表示することを指し、比較的小さな画像をタイル状に繰り返し表示させて構成することが多い。勿論、これに限らず、表示可能領域に対応するサイズの画像を1枚だけ表示して壁紙とすることもできるし、単色やグラデーションを壁紙として表示させることもできる。また、壁紙は、必ずしも表示可能領域を埋め尽くしていなくてもよい。
ここで、(1)の、ピクチャインピクチャについて、図7を用いて説明する。ピクチャインピクチャは、映像を再生中に、再生映像画面内に小さな表示領域を設けるなどして、他の映像を並列的に表示する機能である。このとき、大きく表示された一方の映像の上に重なるように、もう一方の映像が表示されることが多い。大きく表示された映像画面を親画面と称し、親画面中に重ねて表示される小領域の画面を子画面と称する。図7Aでは、親画面250中に子画面251が表示されている。なお、図7中、子画面251の周囲の白枠は、図を見易くするためのものであって、実際に表示するか否か、また枠を表示する際にどのような枠にするかは、任意である。
子画面251は、親画面250の上に乗っているように重ねられて表示され、子画面251の領域では、親画面250が見えなくなっている。このとき、子画面251に対してアルファブレンディング処理を行わなくても、ピクチャインピクチャの機能上、問題はない。また、ピクチャインピクチャ機能では、親画面250および子画面251の表示内容は、図7Aおよび図7Bにそれぞれ示されるように、互いに切り替えられることが求められる。さらに、子画面251は、位置およびサイズを変更できるようにすると、ユーザにとって利便性が高くなり、より好ましい。
先ず、この発明の実施の第1の形態について説明する。この発明の実施の第1の形態では、上述した(1)のピクチャインピクチャ、(2)の縮小画像表示、(3)の壁紙画像表示を実現するために、図2を用いて説明したBD−ROMのHDムービーモードにおけるプレーン構成に対して、さらに1枚、プレーンを追加する。以下、追加するプレーンを、第2ビデオプレーンと称する。第2ビデオプレーンは、ビデオプレーンよりさらに奥に配置される。すなわち、この実施の第1の形態では、プレーンは、奥から、第2ビデオプレーン、ビデオプレーン、プレゼンテーショングラフィクスプレーン、インタラクティブグラフィクスプレーンの順に配置される。ビデオプレーンおよび第2ビデオプレーンを用いて親画面250および子画面251の表示を実現する。
図8は、第2ビデオプレーン50、ビデオプレーン10、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12を合成するための一例の構成を示す。なお、この図8において、上述した図4と共通する部分には同一の符号を付し、詳細な説明を省略する。
上述したように、親画面250および子画面251の間では、アルファ合成が不要であるので、親画面250および子画面251は、各画素について何れかが表示されればよいことになる。したがって、親画面250および子画面251を表示するビデオプレーン10および第2ビデオプレーン50の間では、何方のプレーンを表示するかを画素単位に切り替えることができればよい。
そこで、図8に示されるように、ビデオプレーン10と第2ビデオプレーン50の出力を切り替えるスイッチ51を設ける。このスイッチ51は、画素単位で入力端51Aおよび51Bを切り替えることができるように制御される。例えば、上述の図1におけるグラフィック部303のタイミング信号により、スイッチ51の切り替えタイミングが制御される。タイミング信号は、CPU301により制御することができる。CPU301がタイミング制御を行うようにもできる。スイッチ51の出力は、422/444変換回路20に供給される。
ピクチャインピクチャ機能を実行する際には、子画面251を表示するための動画データは、予め縮小処理を施してからビデオプレーン10または第2ビデオプレーン50に格納する。親画面250の内容と子画面251の内容とを入れ替える際には、ビデオプレーン10および第2ビデオプレーン50の内容を一旦クリアして、新たな動画データを再描画する。
なお、第2ビデオプレーン50の解像度や表示可能色数などは、ビデオプレーン10と同一とするとよい。これに限らず、ピクチャインピクチャの機能に制限がある場合、例えば、第2ビデオプレーン50を子画面251の表示に限定して使用するような場合、第2ビデオプレーン50の解像度は、子画面251の解像度を満たしていれば十分である。
この発明の実施の第1の形態によれば、第2ビデオプレーン50を利用することで、壁紙表示を実現することができる。図9は、第2ビデオプレーン50を利用して壁紙画像200の表示を実現した例を示す。図9の例では、動画201、ならびに、GUIの部品202Aおよび202Bが壁紙画像200を背景として表示される様子が示される。
壁紙画像200は、少なくとも下記の3条件を満たしている必要がある。
(1)各プレーンの表示に対して最も奥に表示される。
(2)ビデオプレーン10上に表示される動画201のサイズ変更に応じて、背景を隙間無く埋め尽くして表示される。
(3)インタラクティブグラフィクスプレーン12に表示されるGUIの部品の背景として表示される。
第2ビデオプレーン50を利用して壁紙画像200を表示させることで、これら3条件を満たすことができる。
図8を用いて説明したように、ビデオプレーン10または第2ビデオプレーン50に対してプレゼンテーショングラフィクスプレーン11が合成され、その合成画像に対してインタラクティブグラフィクスプレーン12がさらに合成される。そのため、プレゼンテーショングラフィクスプレーン11やインタラクティブグラフィクスプレーン12に対して所定に不透明度を設定することで、図8において当該プレーンより後ろに配置されたプレーンの表示を隠したり、透過させたりすることができる。これにより、インタラクティブグラフィクスプレーン12に表示される部品202Aおよび202Bの背景に壁紙画像200を表示させることができる。換言すれば、壁紙画像200を、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12に対して奥に表示させることができる。
ビデオプレーン10および第2ビデオプレーン50は、スイッチ51により画素単位で切り替えられるため、ビデオプレーン10の表示領域と第2ビデオプレーン50の表示領域とは、排他的な関係にある。そのため、ビデオプレーン10に表示される動画201のサイズの変更に応じて、第2ビデオプレーン50上の壁紙画像200を隙間無く表示させることが可能である。また、これにより、ビデオプレーン10上の動画201が、第2ビデオプレーン50に表示される壁紙画像200を背景として表示されているように見せることができる。したがって、プレーン全体として、第2ビデオプレーン50上の壁紙画像200が最も奥に表示されているようにできる。
なお、上述では、スイッチ50を画素単位で切り替えるようにしているが、これは、1画素単位に限られず、2画素単位、4画素単位など、複数画素単位でスイッチ50を切り替えるようにしてもよい。
次に、この発明の実施の第2の形態について説明する。この実施の第2の形態では、上述した図4の構成に対して新たにプレーンを追加することなく、ピクチャインピクチャや背景の壁紙画像の表示を実現するものである。
先ず、壁紙画像の表示の実現方法について説明する。なお、この実施の第2の形態では、プレーン構成は、図2を用いて説明したBD−ROMのHDムービーモードの場合と同様に、奥からビデオプレーン10、プレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12の順となっており、各プレーンを合成するための構成は、図4と同一の構成を用いるものとする。
図10を用いて説明する。この図10の例では、壁紙画像210を背景として、インタラクティブグラフィクスプレーン12上の複数のボタン画像、すなわちGUIに用いられる部品211A、211B、211Cおよび211Dが表示されると共に、ビデオプレーン10上の動画が領域212に、プレゼンテーショングラフィクスプレーン11上の例えば字幕データが領域213にそれぞれ表示される。また、部品211A、211B、211Cおよび211D、領域212、ならびに、領域213以外の部分には、壁紙画像210が表示されている。
このような表示を実現する場合、最前面のインタラクティブグラフィクスプレーン12において、領域212および213の不透明度α2を0として、インタラクティブグラフィクスプレーン12の奥にある2枚のプレーンが完全に見えるようにする。領域212および213以外の領域は、不透明度α2を例えば1として、壁紙画像210を表示すると共に、部品211A、211B、211Cおよび211Dをそれぞれ表示する。なお、壁紙画像210は、領域212および213、ならびに、部品211A、211B、211Cおよび211Dを除いた領域に描画される。
プレゼンテーショングラフィクスプレーン11では、領域212の不透明度α1を0として、プレゼンテーショングラフィクスプレーン11の奥にあるビデオプレーン10が完全に見えるようにする。領域212以外の領域は、不透明度α1を例えば1とする。これに限らず、プレゼンテーショングラフィクスプレーン11において、字幕データが表示される領域213の不透明度α1を1とし、その他の領域の不透明度α1を0としてもよい。
ビデオプレーン10では、図11に一例が示されるように、領域212に収まるように動画のサイズを縮小した縮小画像データ216を作成し、且つ、縮小画像データ216を領域212の位置に表示されるように配置する。こうすることによって、図2および図4に示される構成に対して、新たなプレーンを追加することなく、壁紙画像210の表示を実現することができる。
なお、壁紙画像210を描画する領域を求めるアルゴリズムやプログラムについては、プログラミング言語のライブラリとして提供されている場合が多く、通常は、制作者側で特に意識する必要は無い。
また、この実施の第2の形態では、上述のように、壁紙画像210を描画する際には、領域212および213、ならびに、部品211A、211B、211Cおよび211Dを除いた領域を求める必要があり、壁紙画像210の描画に際して、計算量の多い処理が必要とされる。そのため、特に時間の経過に伴ってインタラクティブグラフィクスプレーン12上を移動したり、変形したりするGUI部品などがある場合、計算量の増加に伴う動作速度の低下が発生する可能性があるため、このようなGUI部品を用いる場合、この点を考慮するのが好ましい。
次に、この実施の第2の形態によるピクチャインピクチャの実現方法について説明する。図12は、1枚のビデオプレーン10を用いてピクチャインピクチャを実現するための一例の構成を概略的に示す。図12に示されるように、この実施の第2の形態では、画像出力部220とビデオプレーン10との間に2つのフレームバッファ221Aおよび221Bを設ける。
フレームバッファ221Aの出力は、ダウンコンバータ222Aを介してスイッチ223の入力端223Aに供給される。フレームバッファ221Bの出力は、ダウンコンバータ222Bを介してスイッチ223の入力端223Bに供給される。スイッチ233は、画素単位で入力端223Aおよび223Bを切り替えることができるようにされている。スイッチ223の出力は、ビデオプレーン10に供給される。
なお、フレームバッファ221Aおよび221Bは、ディスプレイに表示される画像と1対1に対応する画像データを保持するプレーンメモリ(例えばVRAM304)ではなく、CPUが有するメインメモリの一部や、ビデオデコーダの後段に設けられるフレームバッファである。上述の図1においては、例えばDRAM302に対応するものである。
画像出力部220は、異なる2本のビデオストリーム(ビデオストリームA、ビデオストリームBとする)を処理可能とされており、画像データ出力部220から出力されたビデオストリームAおよびビデオストリームBは、フレームバッファ221Aおよび221Bにそれぞれ供給される。以下では、ビデオストリームAを親画面とし、ビデオストリームBをビデオストリームAの子画面230として表示させるものとする。
フレームバッファ221Bから読み出された画像データは、ダウンコンバータ222Bに供給され、サイズの変更がなされる。ダウンコンバータ222Bでは、例えば画素の間引き処理や補間処理を行うことにより、画像データのサイズを縮小する。ダウンコンバータ222Bでサイズが縮小された縮小画像データは、スイッチ223の入力端223Bに供給される。
一方、フレームバッファ221Aから読み出された画像データは、ダウンコンバータ222Aを素通りしてスイッチ223の入力端223Aに供給される。なお、ダウンコンバータ222Aも、ダウンコンバータ222Bと同様、入力された画像データのサイズを縮小する。
スイッチ223では、例えばビデオプレーン10に対して、表示領域の上端から順に、ライン毎に左から右へと走査しながら表示領域の下端まで、画素単位で行われる画像データの転送に連動して、入力端223Aと223Bとが所定にタイミング制御されて切り替えられる。図12の例の場合、子画面230を表示させたい位置の画素を書き込む際に、スイッチ223において入力端223Bを選択するように切り替えることで、ビデオプレーン10の一部に、フレームバッファ221Bから読み出された動画データが子画面230として描画される。
スイッチ223の切り替えタイミングの例について、図13を用いて説明する。なお、図13では、繁雑さを避けるために、図13Bに示されるように、画面(1フレーム)の解像度を20画素×10ラインと簡略化している。図13Aに示されるような位置に子画面230が表示される例を考える。図13Cは、このときのスイッチ223の一例の切り替えタイミングを示す。図13Cにおいて、バッファA側がフレームバッファ221Aすなわち入力端223A側を示し、バッファB側がフレームバッファ221Bすなわち入力端223B側を示す。このように、子画面230が掛からないラインでは、入力端223A側が選択され、子画面230が掛かるラインでは、ライン内で子画面230が掛からない画素のタイミングでは入力端223Aが選択され、子画面230が掛かる画素のタイミングにおいて入力端223B側が選択される。このようにスイッチ223の切り替えタイミングを画素単位で制御することで、1枚のビデオプレーン10を用いて親画面と子画面230とを並列的に表示させることが可能とされる。
なお、このスイッチの切り替えタイミング制御は、上述したこの発明の実施の第1の形態における、ビデオプレーン10および第2ビデオプレーン50による子画面表示制御の際にも適用できる。
また、ここでは子画面230の形状を長方形としたが、上述のような画素単位でのスイッチ223の切り替え制御によれば、子画面230の形状を長方形以外の任意の形状とすることができる。
子画面230の表示内容と親画面の表示内容とを入れ替える際の処理について、概略的に説明する。この場合、フレームバッファ221Bから読み出された画像データは、ダウンコンバータ222Bを素通りしてスイッチ223の入力端223Bに供給される。一方、フレームバッファ221Aから読み出された画像データは、ダウンコンバータ222Aで縮小処理され、スイッチ223の入力端223Aに供給される。図13Dに一例が示されるように、子画面230の内容と親画面の内容とを入れ替える指示がタイミングTでなされた場合、タイミングTにおいて、スイッチ223による選択方向が入力端223Aと入力端223Bとで入れ替えられる。
図13Dのようにスイッチ223の切り替え制御を行うと、タイミングTに対応する画素から以降で、子画面230の内容と親画面の内容とが入れ替えられる。切り替えタイミングは、これに限らず、例えば、タイミングTで子画面および親画面の入れ替え指示があった場合に、当該フレームの終端または次フレームの先頭、あるいは、フレーム終端および次フレームの先端の間まで、スイッチ223の選択タイミングの入れ替えを待つようにしてもよい。この場合には、子画面および親画面の入れ替え指示があった次のフレームから、子画面230の内容と親画面の内容とが入れ替わった表示がなされる。
なお、上述では、子画面230の内容と親画面の内容との入れ替えを、スイッチ223の切り替え制御によって行っていたが、これはこの例に限定されない。例えば、フレームバッファ221Aおよび221Bのうち一方を子画面230専用とし、画像出力部220からの出力先をフレームバッファ221Aおよび221Bとで切り替えるようにしてもよい。この場合には、親画面と子画面との入れ替えの際に、スイッチ223の選択タイミングを入れ替える必要が無い。
また、上述では、スイッチ223の切り替えタイミングを画素単位で制御しているが、これは、1画素単位に限られず、2画素単位、4画素単位など、複数画素単位でスイッチ223を切り替えるようにしてもよい。
さらに、上述では、フレームバッファ221Aおよび221Bからビデオプレーン10に対して、ライン毎に走査して画像データを転送しているが、これはこの例に限定されない。例えば、フレームバッファ221Aおよび221Bから、所定の領域からなるブロック単位で画像データを読み出し、ビデオプレーン10に転送することも可能である。この場合、スイッチ223も、ブロック単位で切り替えタイミングが制御される。
この発明の実施の第1の形態のように、プレーンを増やすことは、プレーン専用のメモリ(VRAM304など)およびプレーンメモリにアクセスするためのハードウェアが必要となる。そのため、プレーンを増やす方法は、CPUの処理速度は高速ではないが、ハードウェアの拡張性の点で制限が緩いシステムに適しているといえる。例えば、BD−ROMの再生専用機がこれに相当する。
一方、CPUの処理速度が非常に高速で、さらにグラフィクスの高速描画を専用的に行うLSI(Large-Scale Integration)を搭載しているようなシステムの場合、ハードウェア(特にグラフィクス描画に関連したハードウェア)がカスタム化されている傾向が強く、ハードウェアの拡張が難しい。このようなシステムの場合、プレーンを増やすよりも、この発明の実施の第2の形態のように、GUIで用いられる各部品の位置、サイズ、合成の順序を計算した後、全てを1つのプレーンに描画する方法が適しているといえる。例えば、汎用のコンピュータ装置などでBD−ROMを再生するような場合がこれに相当する。
次に、上述の実施の第1の形態および第2の形態にそれぞれ適用可能なプレーヤデコーダ100について説明する。図14は、この発明の実施の第1の形態に適用可能なプレーヤデコーダ100の一例の構成を示す機能ブロック図である。なお、このプレーヤデコーダ100は、この発明の実施の第2の形態にも略同様の構成で適用可能である。プレーヤデコーダ100を実施の第2の形態に適用する場合の構成については、適宜、説明する。
このプレーヤデコーダ100は、図示されないドライブ装置に装填されたディスクから再生されたデータを解釈し、AV(Audio/Video)ストリームを出力すると共に、出力されたAVストリームに対するユーザによるインタラクティブな操作を可能とする。
なお、プレーヤデコーダ100は、図示されないCPUにより全体の動作が制御される。例えば、プレーヤデコーダ100の各部におけるストリームやデータの流れは、CPUにより監視され、制御される。
図示されないドライブ装置にディスクが装填されると、BD−ROMのHDムービーモードにおいては、先ず、プレイリストの再生順序を指定したファイル(例えばファイル名を「scenario.hdmv」とする)と、メニューやタイトルを構成するプレイリスト群の先頭プレイリストを指すファイル(例えばファイル名を「entrylist.data」とする)とが再生され、このファイル「scenario.hdmv」およびファイル「entrylist.data」の記述に基づき、必要な他のファイルが読み出され、ディスクに記録されたコンテンツが再生される。
例えば、ファイル「scenario.hdmv」およびファイル「entrylist.data」の記述に基づき、ビデオプレーン10や第2ビデオプレーン50に表示するための動画データ、プレゼンテーショングラフィクスプレーン11やインタラクティブグラフィクスプレーン12、第2ビデオプレーン50に表示するための画像データ、プレイリストファイルなどがディスクから読み出される。フルプロファイルにおいては、プログラムを格納したファイルが読み出され、実行される。
以下では、ディスクから読み出されるこれらのデータのうち、動画データ、サブピクチャ(字幕データ)や音声データといった、連続的に処理する必要があるストリームをリアルタイムストリームと称する。また、シナリオファイル、プレイリストファイル、スクリプトファイルおよびプログラムファイル、ならびに、一部の動画、静止画およびサウンドデータといった、連続的な処理を要求されない非リアルタイムなデータを、ストアオブジェクトと称する。ストアオブジェクトは、メモリ上などに蓄積、展開され、必要に応じて処理される。
プレーヤデコーダ100は、チャンネル(1)および(2)の2系統の入力チャンネルを有し、入力チャンネル(1)の入力端101に、ストアオブジェクトが入力される。入力チャンネル(2)の入力端202に、リアルタイムストリームが入力される。入力端202に、ストアオブジェクトを入力することも可能である。この実施の第1および第2の形態では、入力端202に入力されるリアルタイムストリームおよび一部のストアオブジェクトは、例えばMPEG2 TS(Moving Pictures Experts Group 2 Transport Stream)である。
なお、入力端202に入力されるリアルタイムストリームは、MPEG2 TSに限られない。パケット単位で伝送され、ビデオデータ、オーディオデータ、静止画像データなどを多重化可能であれば、他の形式のストリームを入力するようにしてもよい。このときには、後述するPIDフィルタ110は、そのストリーム形式に適合したデマルチプレクサとして用いられ、ビデオデータ、オーディオデータ、静止画像データなどを分離する。
また、例えば、ドライブ装置においてディスクの回転速度を2倍速などの高速回転としてディスクからの読み出し転送レートを上げ、時分割で動作させることにより、ディスクからの、チャンネル(1)および(2)の2系統の読み出しが実現可能である。
先ず、入力チャンネル(1)の系統について説明する。入力端101に入力されたストアオブジェクトは、スイッチ回路102に入力される。ストアオブジェクトとしてECMA(European Computer Manufacturers Association)スクリプトやHTML(Hyper Text Markup Language)ファイル(またはXHTMLファイル)、Javaファイルなどによるプログラムコードが入力された場合、スイッチ回路102において出力端102Aが選択され、入力されたプログラムコードがコードバッファ104に蓄えられる。
一方、ストアオブジェクトとして画像データが入力された場合、スイッチ回路102において出力端102Bが選択され、入力された画像データがスイッチ回路103に入力される。入力端202に入力されたリアルタイムストリームに、プレゼンテーショングラフィクスプレーン11やインタラクティブグラフィクスプレーン12に表示するための画像データが含まれていない場合には、スイッチ回路103で入力端103Aが選択され、スイッチ回路102から入力された画像データがコンテンツバッファ105に蓄えられる。
同様にして、入力端202に入力されたリアルタイムストリームに、プレゼンテーショングラフィクスプレーン11やインタラクティブグラフィクスプレーン12に表示するための画像データが含まれている場合には、スイッチ回路103において入力端103Bが選択され、当該画像データがコンテンツバッファ105に蓄えられる。コードバッファ104およびコンテンツバッファ105に蓄えられたストアオブジェクトは、必要に応じて読み出され、マルチメディアエンジン106に供給される。
コンテンツバッファ105に蓄えられたストアオブジェクトのうち画像データは、スイッチ回路107および108をそれぞれ介して、グラフィクスデコーダA116およびグラフィクスデコーダB117にも供給される。
マルチメディアエンジン106は、XMLパーサ106A、プログラム/スクリプトインタプリタ106Bおよびグラフィクスレンダラ106Cを含む。マルチメディアエンジン106は、さらに、サウンドプレーヤ106Dを有し、オーディオデータの扱いを可能としている。マルチメディアエンジン106は、独立的なハードウェアで構成してもよいし、上述した図示されないCPUの、所定のプログラムに基づく処理で実現することも可能である。
XMLパーサ106Aは、XML(Extensible Markup Language)文書を解析する機能を有し、HTML文書やXHTML文書の解析も可能である。XMLパーサ106Aで解釈されたHTML文書やXHTML文書は、このプレーヤデコーダ100で実行可能な形式に変換される。プログラム/スクリプトインタプリタ106Bは、Java(登録商標)プログラムやECMAスクリプト等を解析し、このプレーヤデコーダ100で実行可能な形式に変換される。また、グラフィクスレンダラ106Cは、画像データを字幕プレーン11およびグラフィクスプレーン12に展開可能な形式にデコードする。
マルチメディアエンジン106において、バッファ109をワークメモリとして、これらXMLパーサ106A、プログラム/スクリプトインタプリタ106Bおよびグラフィクスレンダラ106Cの処理が行われる。例えば、XMLパーサ106Aおよびプログラム/スクリプトインタプリタ106Bにより、バッファ109のうちコードバッファ109Aが用いられる。また、グラフィクスレンダラ106Cにより、バッファ109のうちグラフィクスバッファ109Dが用いられる。バッファ109は、上述のコードバッファ109Aおよびグラフィクスバッファ109Dの他に、文字列の表示に用いるフォントデータが格納されるフォントバッファ109B、XMLパーサ106AでHTML文書を解析した結果を階層化された木構造で保持するためのツリーバッファ109C、サウンドプレーヤ106Dで用いるオーディオデータが格納されるサウンドバッファ109Eなどが含まれる。
マルチメディアエンジン106では、例えば、コードバッファ104に蓄えられたECMAスクリプトを読み出し、読み出されたECMAスクリプトの記述に基づき、必要に応じて、コードバッファ104からの他のECMAスクリプトやHTML文書(またはXHTML文書)の読み出し、コンテンツバッファ105からの画像データの読み出しなどを行う。コードバッファ104およびコンテンツバッファ105に格納されたデータは、当該データが不要になるまで、コードバッファ104やコンテンツバッファ105に保持しておくことができる。したがって、これらコードバッファ104やコンテンツバッファ105に格納されたデータは、必要に応じて何度でも読み出して使うことができる。
マルチメディアエンジン106では、上述の他にも、入力された複数種類のデータのデマルチプレクス処理、JavaVM(Java仮想マシン)機能などが行われる。さらに、マルチメディアエンジン106により、ユーザからの、リモートコントロールコマンダやポインティングデバイスなどによる入力が受け取られ、所定に処理される。ユーザ入力は、さらに、後述するグラフィクスデコーダA116、グラフィクスデコーダB117、オーディオデコーダ118、MPEGビデオデコーダ120およびシステムデコーダ121にも供給される。
グラフィクスレンダラ106Cで処理された画像データは、スイッチ回路130および131をそれぞれ介してグラフィクスプレーンA132およびグラフィクスプレーンB133に供給される。なお、この例では、グラフィクスプレーンA132およびグラフィクスプレーンB133に供給される画像データとして、PNG形式、ランレングス形式、JPEG形式などが挙げられるが特に規定しない。これらの各プレーン132、133に画像データが供給されるタイミングは、マルチメディアエンジン106により制御される。
ここで、グラフィクスプレーンA132およびグラフィクスプレーンB133は、それぞれ上述したプレゼンテーショングラフィクスプレーン11およびインタラクティブグラフィクスプレーン12に対応する。ビデオプレーン134は、上述したビデオプレーン10に対応する。第2ビデオプレーン160は、上述した第2ビデオプレーン50に対応する。なお、グラフィクスプレーンA132、グラフィクスプレーンB133およびビデオプレーン134、第2ビデオプレーン160は、例えばフレームメモリであって、図1で説明したVRAM304を用いることができる。
マルチメディアエンジン106は、さらに、後述するプレゼンテーションプロセッサ155に対して、ビデオプレーン134、第2ビデオプレーン160、グラフィクスプレーンA132およびグラフィクスプレーンB133の切り換え、アルファ合成などを指示する制御信号を供給する。同様に、マルチメディアエンジン106は、後述するプレゼンテーションプロセッサ157に対して、オーディオストリーム出力を制御するような制御信号を供給する。
次に、入力チャンネル(2)の系統について説明する。入力端202にMPEG2 TSで入力されたリアルタイムストリームは、PIDフィルタ110に供給され、MPEG2 TSのトランスポートパケットに格納されるPID(Packet Identification)が抽出され、当該トランスポートパケットに格納されるストリームの属性が検出される。PIDフィルタ110では、このストリーム属性に基づき、入力されたリアルタイムストリームが、トランスポートパケット毎に対応する系統に振り分けられる。
PIDに基づき、トランスポートパケットがストアオブジェクトに属する画像データが格納されているパケットであるとされれば、当該トランスポートパケットは、バッファTBn111Aに一旦溜め込まれ、所定のタイミングで読み出されて入力端103Bが選択されたスイッチ回路103に入力され、スイッチ回路103を介してコンテンツバッファ105に格納される。
PIDフィルタ110において、PIDに基づき、トランスポートパケットが字幕データが格納されているパケットであるとされれば、当該トランスポートパケットは、バッファTBn111BおよびバッファBn112Bに一旦溜め込まれ、所定のタイミングで読み出されて入力端107Bが選択されたスイッチ回路107に入力され、スイッチ回路107を介してグラフィクスデコーダA116に供給される。
グラフィクスデコーダA116では、供給されたトランスポートパケットのヘッダ情報を除去すると共に、当該トランスポートパケットに格納された字幕データがデコードされて字幕などを表示するための画像データとされる。この画像データは、所定のタイミングでスイッチ回路130の入力端130Bに入力され、スイッチ回路130を介してグラフィクスプレーンA132に展開される。また、スイッチ回路131を介してグラフィクスプレーンB133にも展開させることが可能である。
PIDフィルタ110において、PIDに基づき、トランスポートパケットがグラフィクスデータが格納されているパケットであるとされれば、当該トランスポートパケットは、バッファTBn111CおよびバッファBn112Cに一旦溜め込まれ、所定のタイミングで読み出されて入力端108Bが選択されたスイッチ回路108に入力され、スイッチ回路108を介してグラフィクスデコーダB117に供給される。
グラフィクスデコーダB117では、供給されたトランスポートパケットのヘッダ情報を除去すると共に、当該トランスポートパケットに格納されたグラフィクスデータがデコードされ、グラフィクスデータとされる。この画像データは、所定のタイミングでスイッチ回路131の入力端131Bに入力され、スイッチ回路131を介してグラフィクスプレーンB133に展開される。また、スイッチ回路130を介してグラフィクスプレーンA132にも展開させることが可能である。
なお、グラフィクスデコーダA116とグラフィクスデコーダB117には、機能的な違いはない。つまり、モデル上、独立して動作するグラフィクスデコーダが2系統あることを表している。すなわち、字幕データとグラフィクスデータとをそれぞれ独立にデコードできることを想定している。実装においては、1系統の高速なグラフィクスデコーダを時分割で使用し、仮想的に2系統のグラフィクスデコーダが存在しているとみなす方法もある。
PIDフィルタ110において、PIDに基づき、トランスポートパケットがオーディオデータが格納されているパケットであるとされれば、当該トランスポートパケットは、バッファTBn111DおよびバッファBn112Dに一旦溜め込まれ、所定のタイミングで読み出されてオーディオデコーダ118に供給される。このトランスポートパケットに格納されるオーディオデータは、例えばMPEGに準拠した方式で圧縮符号化されている。
オーディオデコーダ118は、例えばリニアPCM(Pulse Code Modulation)オーディオデコーダ119も有する。オーディオデコーダ118は、入力されたトランスポートストリームのヘッダ情報を除去すると共に、当該トランスポートパケットに格納された圧縮符号化されたオーディオデータをリニアPCMオーディオデータにデコードする。
オーディオデコーダ118から出力されたリニアPCMオーディオデータは、オーディオ用のプレゼンテーションプロセッサ157に入力され、マルチメディアエンジン106の制御に基づき所定の音響効果などが付加されて、出力端158に導出される。
PIDフィルタ110において、PIDに基づき、トランスポートパケットが動画データが格納されているパケットであるとされれば、当該トランスポートパケットは、バッファTBn111E、バッファMBn113およびバッファEBn114に一旦溜め込まれ、所定のタイミングで読み出されてMPEGビデオデコーダ120に供給される。このトランスポートパケットに格納される動画データは、MPEG2方式により圧縮符号化されている。
MPEGビデオデコーダ120では、供給されたトランスポートパケットのヘッダ情報を除去すると共に、当該トランスポートパケットに格納された、MPEG2方式で圧縮符号化された動画データをベースバンドの動画データにデコードする。
MPEGデコーダ120から出力された動画データは、スイッチ回路124の入力端124Aに入力される。スイッチ回路124において、MPEGビデオデコーダ120からの動画データとマルチメディアエンジン106から出力された動画データが選択される。所定のタイミングで選択された動画データは、スイッチ123に入力される。スイッチ123では展開先のビデオプレーンが選択され、動画データは、ビデオプレーン134あるいは第2ビデオプレーン160に展開される。
なお、この発明の実施の第1および第2の形態では、ピクチャインピクチャ機能が実現可能とされている。ピクチャインピクチャ機能を実施するためには、2本の動画データを供給する必要がある。例えば、入力端202から2本の動画データを含むMPEG2 TSが供給され、PIDフィルタ110、バッファTBn111E、バッファMBn113およびバッファEBn114を介してMPEGビデオデコーダ120に供給される。MPEGビデオデコーダ120は、2本の動画データをデコードしてそれぞれ出力する。
MPEGビデオデコーダ120から出力された2本の動画データは、直接的にスイッチ124に供給してもよいし、図14中に点線のブロックで示されるように、MPEGビデオデコーダ120とスイッチ124との間に、少なくとも2フレーム分の動画データを格納可能な容量を有するフレームバッファ400を設け、MPEGビデオデコーダ120から出力された2本の動画データをこのフレームバッファ400に一旦溜め込むようにしてもよい。フレームバッファ400を設けることで、2本の動画データをそれぞれ例えばフレーム単位で独立的に出力することができ、スイッチ123の負荷を軽減することができる。
なお、2本の動画データの供給は、この例に限らず、例えば1本の動画データをリアルタイムストリームとして入力端202から供給し、もう1本の動画データをストアオブジェクトとして入力端101から供給するようにしてもよい。さらに、ピクチャインピクチャで用いられる2種類の画像は、両方共が動画データである必要はなく、一方を静止画像データとしてもよい。2本とも静止画像データとすることも考えられる。
この発明の実施の第1の形態が適用されたプレーヤデコーダ100において、ピクチャインピクチャ機能により、ビデオプレーン134または第2ビデオプレーン160何れかの動画データを子画面として用いる場合には、子画面として用いる動画データを予め縮小して対応するビデオプレーン134または第2ビデオプレーン160に展開するとよい。縮小画像の作成は、MPEGビデオデコーダ120にその機能を持たせることで可能である。勿論、縮小画像を作成するための縮小画像作成部を、MPEGビデオデコーダ120とビデオプレーン134および第2ビデオプレーン160との間に別途、設けてもよい。
また、この発明の実施の第2の形態にこのプレーヤデコーダ100を適用する場合には、第2ビデオプレーン160およびスイッチ回路123が省略されると共に、MPEGビデオデコーダ120と例えばスイッチ回路124との間に、図14に点線のブロックで示されるように、フレームバッファ400が設けられる。フレームバッファ400は、少なくとも2フレーム分の動画データを格納可能な容量を有する。
上述した図12を参照しながら、この発明の実施の第2の形態における一例の処理を説明すると、フレームバッファ400内の異なる領域に、フレームバッファ221Aおよび221Bがそれぞれ形成される(ここでは、それぞれフレームメモリ領域221A、フレームメモリ領域221Bと称する)。勿論、フレームバッファ221Aおよび221Bにそれぞれ対応したフレームバッファ400Aおよび400B(図示しない)を設けてもよい。
一方、MPEGビデオデコーダ120から出力された2本の動画データは、フレームバッファ400に供給され、フレームバッファ400内に形成されたフレームメモリ領域221Aおよび221Bにそれぞれ格納される。
子画面としてフレームメモリ領域221Bに格納された動画データが用いられるとすると、フレームメモリ領域221Bに格納された動画データが図示されないダウンコンバータ222Bにより縮小処理される。この縮小処理は、例えば、フレームメモリ領域221Bから動画データを読み出す際に、所定に画素を間引きすることによって可能である。そして、フレームバッファ400に対して、上述したスイッチ223においてなされる切り替え制御に基づきフレームメモリ領域221Aおよび221Bに格納された動画データの読み出し制御が画素単位で行われ、フレームバッファ400から読み出された動画データがビデオプレーン134に供給される。このようにすることで、プレーヤデコーダ100において、実施の第2の形態による、1枚のビデオプレーン134を用いたピクチャインピクチャ機能が実現される。
PIDフィルタ110において、PIDに基づき、トランスポートパケットがシステム情報が格納されているパケットであるとされれば、当該トランスポートパケットは、バッファTBn111FおよびBsys115を介してシステムデコーダ121に供給される。システムデコーダ121では、供給されたトランスポートパケットのヘッド情報が除去され、格納されているシステム情報が取り出される。システム情報は、例えば図示されないCPUに渡される。
グラフィクスプレーンA132上の画像データは、上述のパレット22に対応するパレット150に供給され、256色からなるパレットに対してインデックスによる参照がなされ、RGBデータが出力されると共に、不透明度データα1が抜き出される。RGBデータは上述のRGB/YCbCr変換回路29に対応するRGB/YCbCr変換回路151によりYCbCrデータに変換され、YCbCrデータおよび不透明度データα1は、プレゼンテーションプロセッサ155に供給される。
グラフィクスプレーンB133上の画像データは、上述のパレット26に対応するパレット152に供給され、256色からなるパレットに対してインデックスによる参照がなされ、RGBデータが出力されると共に、不透明度データα2が抜き出される。RGBデータは上述のRGB/YCbCr変換回路27に対応するRGB/YCbCr変換回路153によりYCbCrデータに変換され、YCbCrデータおよび不透明度データα2は、プレゼンテーションプロセッサ155に供給される。
ビデオプレーン134の出力は、アップ/ダウンコンバータ154を介してプレゼンテーションプロセッサ155に供給される。同様に、第2ビデオプレーン160の出力は、アップ/ダウンコンバータ161を介してプレゼンテーションプロセッサ155に供給される。
なお、アップ/ダウンコンバータ154は、画像の解像度を変換する回路であって、例えば高解像度のHD(High Definition)画像から通常の解像度を有するSD(Standard Definition)画像への変換を行う。
プレゼンテーションプロセッサ155は、図4または図8を用いて説明した、プレゼンテーショングラフィクスプレーン11(グラフィクスプレーンA132)の画像データによる不透明度α1と、インタラクティブグラフィクスプレーン12(グラフィクスプレーンB133)による不透明度α2とを用いたアルファブレンディング処理を行う。また、この発明の実施の第1の形態にこのプレーヤデコーダ100が適用される場合において、ピクチャインピクチャ機能や壁紙表示機能を利用する際には、ビデオプレーン10および第2ビデオプレーン50の出力の画素単位での切り替え処理も、プレゼンテーションプロセッサ155で行われる。
すなわち、プレゼンテーションプロセッサ155では、ビデオプレーン134と第2ビデオプレーン160の画像データをスイッチ51(図示しない)で切り替えて一つの画像データを構成し、その画像データに対し、グラフィクスプレーンA132の画像データに設定された不透明度α1に基づき、グラフィクスプレーンA132の画像データが合成される。さらに、ビデオプレーンとグラフィクスプレーンA132が合成された画像データに対して、グラフィクスプレーンB133の画像データに設定された不透明度α2に基づき、グラフィクスプレーンB133の画像データが合成される。この、グラフィクスプレーンB133の画像データ、グラフィクスプレーンA132の画像データ(字幕データ)、ならびに、ビデオプレーン134、第2ビデオプレーン160の画像データが合成された画像データが出力端156に導出される。
なお、プレゼンテーションプロセッサ155は、画像データに対してリアルタイムでエフェクト処理を行うこともできる。
上述では、プレーヤデコーダ100の各部がハードウェアで構成されるように説明したが、これはこの例に限られない。例えば、プレーヤデコーダ100をソフトウェア上の処理として実現することも可能である。この場合、プレーヤデコーダ100をコンピュータ装置上で動作させることができる。また、プレーヤデコーダ100をハードウェアおよびソフトウェアが混合された構成で実現することもできる。例えば、オーディオデコーダ118やMPEGビデオデコーダ120をハードウェアで構成し、その他をソフトウェアで構成することが考えられる。
プレーヤデコーダ100をソフトウェアのみ、または、ハードウェアおよびソフトウェアの混合により構成し、コンピュータ装置で実行させるためのプログラムは、例えばCD−ROM(Compact Disc-Read Only Memory)といった記録媒体に記録されて提供される。このCD−ROMをコンピュータ装置のCD−ROMドライブに装填し、CD−ROMに記録されたプログラムを所定にコンピュータ装置にインストールすることで、上述の処理をコンピュータ装置上で実行可能な状態とすることができる。なお、コンピュータ装置の構成は、極めて周知であるため、説明は省略する。
画像データを表示するための典型的な構成例を概略的に示すブロック図である。 ビデオプレーン、プレゼンテーショングラフィクスプレーンおよびインタラクティブグラフィクスプレーンの一例の構成を示す略線図である。 各プレーンの解像度および表示可能色について説明するための図である。 3つのプレーンを合成する一例の構成を示す機能ブロック図である。 パレットの入出力データの一例を示す略線図である。 パレットに格納される一例のパレットテーブルを示す略線図である。 ピクチャインピクチャについて説明するための図である。 第2ビデオプレーン、ビデオプレーン、プレゼンテーショングラフィクスプレーンおよびインタラクティブグラフィクスプレーンを合成するための一例の構成を示す機能ブロック図である。 第2ビデオプレーンを利用して壁紙画像の表示を実現した例を示す略線図である。 この発明の実施の第2の形態による壁紙画像の表示の実現方法について説明するための図である。 この発明の実施の第2の形態による壁紙画像の表示の実現方法について説明するための図である。 1枚のビデオプレーンを用いてピクチャインピクチャを実現するための一例の構成を概略的に示す機能ブロック図である。 スイッチの切り替えタイミングを説明するための図である。 この発明の実施の第1の形態に適用可能なプレーヤデコーダの一例の構成を示す機能ブロック図である。
符号の説明
10 ビデオプレーン
11 プレゼンテーショングラフィクスプレーン
12 インタラクティブグラフィクスプレーン
21,23,25,28 乗算器
24,29 加算器
50 第2ビデオプレーン
51 スイッチ
100 プレーヤデコーダ
106 マルチメディアエンジン
116 グラフィクスデコーダA
117 グラフィクスデコーダB
120 MPEGビデオデコーダ
132 グラフィクスプレーンA
133 グラフィクスプレーンB
134 ビデオプレーン
160 第2ビデオプレーン
200 壁紙画像
201 動画
202A,202B 部品
210 壁紙画像
211A,211B,211C,211D 部品
220 画像出力部
221A,221B フレームバッファ
222A,222B ダウンコンバータ
223 スイッチ
230 子画面
301 CPU
302 DRAM
303 グラフィクス部
304 VRAM

Claims (19)

  1. 円盤状記録媒体に記録されたコンテンツデータを再生する再生装置において、
    記録媒体から再生された第1の動画データを格納する第1の記憶手段と、
    記録媒体から再生された第2の動画データを格納する第2の記憶手段と、
    上記第1の記憶手段および上記第2の記憶手段の出力を所定領域単位で選択する選択手段と
    を有し、
    上記選択手段の出力に基づき表示信号を生成するようにしたことを特徴とする再生装置。
  2. 請求項1に記載の再生装置において、
    上記所定領域は、画素であることを特徴とする再生装置。
  3. 請求項1に記載の再生装置において、
    上記第1の記憶手段および上記第2の記憶手段は、プレーンメモリであることを特徴とする再生装置。
  4. 請求項3に記載の再生装置において、
    上記第1の記憶手段および上記第2の記憶手段のうち一方に、対応する上記動画データが縮小された縮小動画データが表示位置に対応して格納され、上記選択手段は、上記縮小動画データの上記表示位置に対応して上記選択を行うようにしたことを特徴とする再生装置。
  5. 請求項4に記載の再生装置において、
    上記第1の記憶手段および上記第2の記憶手段のうち他方は、上記動画データの代わりに壁紙画像データが格納されるようにしたことを特徴とする再生装置。
  6. 請求項3に記載の再生装置において、
    上記選択手段の出力と上記記録媒体から再生された字幕データとを合成する第1の合成手段と、
    上記第1の合成手段の出力と上記記録媒体から再生された画像データとを合成する第2の合成手段と
    をさらに有することを特徴とする再生装置。
  7. 請求項6に記載の再生装置において、
    上記第1の合成手段による上記合成の度合いは、上記字幕データに応じて制御されることを特徴とする再生装置。
  8. 請求項6に記載の再生装置において、
    上記第2の合成手段による上記合成の度合いは、上記画像データに応じて制御されることを特徴とする再生装置。
  9. 請求項1に記載の再生装置において、
    上記第1の記憶手段および上記第2の記憶手段は、フレームメモリであって、上記選択手段の出力がプレーンメモリに供給されるようにしたことを特徴とする再生装置。
  10. 請求項9に記載の再生装置において、
    上記第1の記憶手段または上記第2の記憶手段から出力された動画データを縮小した縮小動画データを、上記選択手段により該縮小動画データの表示位置に対応して上記選択し、上記プレーンメモリに供給するようにしたことを特徴とする再生装置。
  11. 請求項10に記載の再生装置において、
    上記プレーンメモリの出力と上記記録媒体から再生された字幕データとを合成する第1の合成手段と、
    上記第1の合成手段の出力と上記記録媒体から再生された画像データとを合成する第2の合成手段と
    をさらに有することを特徴とする再生装置。
  12. 請求項11に記載の再生装置において、
    上記第1の合成手段による上記合成の度合いは、上記字幕データに応じて制御されることを特徴とする再生装置。
  13. 請求項11に記載の再生装置において、
    上記第2の合成手段による上記合成の度合いは、上記画像データに応じて制御されることを特徴とする再生装置。
  14. 請求項11に記載の再生装置において、
    上記第2の合成手段で上記第1の合成手段の出力が合成される上記画像データに対して、上記第1の合成手段の出力を透過表示させる透明領域を上記縮小動画データの上記表示位置に対応して設けるようにしたことを特徴とする再生装置。
  15. 請求項14に記載の再生装置において、
    上記画像データの上記透明領域以外の領域に壁紙画像を表示するようにしたことを特徴とする再生装置。
  16. 請求項15に記載の再生装置において、
    上記第2の合成手段の出力に対して、さらに部品画像が表示され、上記壁紙画像は、上記透明領域および上記部品画像の表示領域以外の領域に表示されるようにしたことを特徴とする再生装置。
  17. 円盤状記録媒体に記録されたコンテンツデータを再生する再生方法において、
    記録媒体から再生された第1の動画データを第1の記憶手段に格納するステップと、
    記録媒体から再生された第2の動画データを第2の記憶手段に格納するステップと、
    上記第1の記憶手段および上記第2の記憶手段の出力を所定領域単位で選択する選択のステップと
    を有し、
    上記選択のステップによる出力に基づき表示信号を生成するようにしたことを特徴とする再生方法。
  18. 円盤状記録媒体に記録されたコンテンツデータを再生する再生方法をコンピュータ装置に実行させる再生プログラムにおいて、
    上記再生方法は、
    記録媒体から再生された第1の動画データを第1の記憶手段に格納するステップと、
    記録媒体から再生された第2の動画データを第2の記憶手段に格納するステップと、
    上記第1の記憶手段および上記第2の記憶手段の出力を所定領域単位で選択する選択のステップと
    を有し、
    上記選択のステップによる出力に基づき表示信号を生成するようにしたことを特徴とする再生プログラム。
  19. 円盤状記録媒体に記録されたコンテンツデータを再生する再生方法をコンピュータ装置に実行させる再生プログラムが記録されたコンピュータ装置が読み取り可能な記録媒体において、
    上記再生方法は、
    記録媒体から再生された第1の動画データを第1の記憶手段に格納するステップと、
    記録媒体から再生された第2の動画データを第2の記憶手段に格納するステップと、
    上記第1の記憶手段および上記第2の記憶手段の出力を所定領域単位で選択する選択のステップと
    を有し、
    上記選択のステップによる出力に基づき表示信号を生成するようにしたことを特徴とする記録媒体。
JP2003354741A 2003-10-15 2003-10-15 再生装置、再生方法、再生プログラムおよび記録媒体 Pending JP2005123775A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2003354741A JP2005123775A (ja) 2003-10-15 2003-10-15 再生装置、再生方法、再生プログラムおよび記録媒体
US10/574,582 US8204357B2 (en) 2003-10-15 2004-09-16 Reproducing device, reproducing method, reproducing program and recording medium
PCT/JP2004/013988 WO2005039177A1 (ja) 2003-10-15 2004-09-16 再生装置、再生方法、再生プログラムおよび記録媒体
MXPA06003719A MXPA06003719A (es) 2003-10-15 2004-09-16 Aparato y reproduccion, metodo de reproduccion, programa de reproduccion, y medio de registro.
EP04773378A EP1675395A4 (en) 2003-10-15 2004-09-16 PLAYING DEVICE, PLAYING PROCESS, PLAY PROGRAM AND RECORDING MEDIUM
KR1020067007240A KR101038631B1 (ko) 2003-10-15 2004-09-16 재생 장치, 재생 방법 및 기록 매체
CNA2004800284718A CN1860785A (zh) 2003-10-15 2004-09-16 再现设备、再现方法、再现程序、以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003354741A JP2005123775A (ja) 2003-10-15 2003-10-15 再生装置、再生方法、再生プログラムおよび記録媒体

Publications (1)

Publication Number Publication Date
JP2005123775A true JP2005123775A (ja) 2005-05-12

Family

ID=34463148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003354741A Pending JP2005123775A (ja) 2003-10-15 2003-10-15 再生装置、再生方法、再生プログラムおよび記録媒体

Country Status (7)

Country Link
US (1) US8204357B2 (ja)
EP (1) EP1675395A4 (ja)
JP (1) JP2005123775A (ja)
KR (1) KR101038631B1 (ja)
CN (1) CN1860785A (ja)
MX (1) MXPA06003719A (ja)
WO (1) WO2005039177A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074476A (ja) * 2005-09-08 2007-03-22 Sanyo Electric Co Ltd 携帯電話機
JP2007325242A (ja) * 2005-08-09 2007-12-13 Matsushita Electric Ind Co Ltd 記録媒体、再生装置、方法、プログラム
JP2009140603A (ja) * 2007-12-11 2009-06-25 Hitachi Ltd 記録装置及び再生装置及び記録媒体
WO2009081650A1 (ja) * 2007-12-26 2009-07-02 Nec Corporation 画像表示システム、画像表示方法及び記録媒体
WO2009081682A1 (ja) * 2007-12-26 2009-07-02 Nec Corporation 画像表示システム、画像表示方法及び記録媒体
WO2009098895A1 (ja) * 2008-02-07 2009-08-13 Panasonic Corporation 映像信号処理方法、集積回路および映像再生装置
US7630018B2 (en) 2005-04-15 2009-12-08 Sony Corporation On-screen display apparatus and on-screen display generation method
JP2010063131A (ja) * 2005-08-09 2010-03-18 Panasonic Corp 記録媒体、再生装置
JP2010512564A (ja) * 2006-11-30 2010-04-22 ソニー エリクソン モバイル コミュニケーションズ, エービー マルチメディアコンテンツとデコーディング手段とのバンドル
EP2200287A2 (en) 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2011097612A (ja) * 2006-12-14 2011-05-12 Panasonic Corp 動画像符号化方法、動画像符号化装置、動画像記録方法、動画像再生方法および動画像再生装置
JP2012213197A (ja) * 2004-04-22 2012-11-01 Technicolor Inc ディジタル多用途ディスクのためのコンテキスト依存のマルチアングル・ナビゲーション技術
US8401368B2 (en) 2005-06-20 2013-03-19 Sharp Kabushiki Kaisha Video data reproducing apparatus, video data generating apparatus and recording medium

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048348A (ja) * 2005-08-08 2007-02-22 Toshiba Corp 情報記憶媒体、情報再生装置、情報再生方法、及び情報再生プログラム
WO2007017986A1 (ja) 2005-08-10 2007-02-15 Mitsubishi Electric Corporation 記録媒体、再生装置および再生方法
WO2008047643A1 (fr) 2006-10-10 2008-04-24 Nikon Corporation Programme de traitement d'image, dispositif de traitement d'image et procédé de traitement d'image
JP2009027552A (ja) * 2007-07-20 2009-02-05 Funai Electric Co Ltd 光ディスク再生装置
US8169449B2 (en) * 2007-10-19 2012-05-01 Qnx Software Systems Limited System compositing images from multiple applications
KR101315415B1 (ko) * 2007-12-06 2013-10-07 삼성전자주식회사 영상처리장치 및 그 제어방법
JP2010028456A (ja) * 2008-07-18 2010-02-04 Sony Corp データ構造、再生装置および方法、並びにプログラム
CN101800042A (zh) * 2009-02-06 2010-08-11 中兴通讯股份有限公司 使多媒体应用与其他应用在并发时同时显示的方法及装置
US20100201879A1 (en) * 2009-02-12 2010-08-12 Echostar Technologies L.L.C. Customizable Picture-in-Picture
RU2538335C2 (ru) 2009-02-17 2015-01-10 Конинклейке Филипс Электроникс Н.В. Объединение данных 3d изображения и графических данных
US8976187B2 (en) * 2009-04-01 2015-03-10 2236008 Ontario, Inc. System for accelerating composite graphics rendering
WO2010134316A1 (ja) 2009-05-19 2010-11-25 パナソニック株式会社 記録媒体、再生装置、符号化装置、集積回路、及び再生出力装置
US8290338B2 (en) * 2009-05-27 2012-10-16 Panasonic Corporation Recording medium, playback device, encoding device, integrated circuit, and playback output device
RU2520325C2 (ru) * 2009-06-17 2014-06-20 Панасоник Корпорэйшн Носитель записи информации и устройство воспроизведения для воспроизведения 3d изображений
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
EP2442550B1 (en) * 2010-10-14 2015-06-17 Sony Corporation Image capturing device, system and method
EP2676105A4 (en) 2011-02-17 2018-01-03 Saab AB Flight data display
US8724029B2 (en) * 2011-05-26 2014-05-13 Adobe Systems Incorporated Accelerating video from an arbitrary graphical layer
KR20130094044A (ko) * 2012-02-15 2013-08-23 삼성전자주식회사 영상 표시 장치에서 자막 속성을 변경하기 위한 장치 및 방법
BR112015008334A2 (pt) 2012-10-15 2017-07-04 Saab Ab sistema de exibição e método para um sistema de exibição
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
KR102035405B1 (ko) 2015-03-18 2019-10-22 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
JP6657652B2 (ja) * 2015-08-12 2020-03-04 富士ゼロックス株式会社 駆動力伝達装置及び画像形成装置
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
CN105635772A (zh) * 2015-12-30 2016-06-01 北京奇艺世纪科技有限公司 画中画视频播放方法和支持画中画视频播放的移动终端
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
CN109272565A (zh) * 2017-07-18 2019-01-25 腾讯科技(深圳)有限公司 动画播放方法、装置、存储介质以及终端
KR102580344B1 (ko) 2019-01-02 2023-09-19 삼성전자주식회사 여러 타입의 컨텐츠를 출력하기 위한 디스플레이 장치
US12177509B2 (en) * 2023-05-07 2024-12-24 Yahoo Ad Tech Llc System and method for labeling and presenting content

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4218710A (en) * 1978-05-15 1980-08-19 Nippon Electric Company, Ltd. Digital video effect system comprising only one memory of a conventional capacity
GB2063616B (en) * 1979-11-16 1984-06-20 Quantel Ltd Multiple picture image manipulation
JPS59114581A (ja) 1982-12-21 1984-07-02 三菱電機株式会社 デイスプレイ装置
JPS6159481A (ja) 1984-08-31 1986-03-26 株式会社東芝 表示画面切換え制御方式
US4961153A (en) * 1987-08-18 1990-10-02 Hewlett Packard Company Graphics frame buffer with strip Z buffering and programmable Z buffer location
JPH03251893A (ja) 1990-03-01 1991-11-11 Toshiba Corp 画像表示制御装置
JPH04220693A (ja) * 1990-03-14 1992-08-11 Hewlett Packard Co <Hp> 画素単位のディジタル画像混合装置
JPH04248591A (ja) 1991-02-04 1992-09-04 Nippon Telegr & Teleph Corp <Ntt> 動画ウィンドウ表示装置
JPH0614300A (ja) 1991-03-18 1994-01-21 Dainippon Printing Co Ltd 電子出版システムにおける補助パターン表示方式
DE4114440A1 (de) * 1991-05-03 1992-11-05 Broadcast Television Syst Einrichtung zum mischen von videosignalen
US5530797A (en) * 1992-04-09 1996-06-25 Matsushita Electric Industrial Co., Ltd. Workstation for simultaneously displaying overlapped windows using a priority control register
US5315390A (en) * 1993-04-02 1994-05-24 The Grass Valley Group, Inc. Simple compositing system which processes one frame of each sequence of frames in turn and combines them in parallel to create the final composite sequence
JP3543978B2 (ja) 1993-07-23 2004-07-21 ソニー株式会社 デジタル画像信号の伝送装置、受信装置およびデジタル画像信号の記録装置、再生装置
JP3289449B2 (ja) 1993-12-10 2002-06-04 松下電器産業株式会社 放送受信装置
JPH09284692A (ja) 1996-04-10 1997-10-31 Olympus Optical Co Ltd 画像再生装置
US6558049B1 (en) * 1996-06-13 2003-05-06 Texas Instruments Incorporated System for processing video in computing devices that multiplexes multiple video streams into a single video stream which is input to a graphics controller
KR100225063B1 (ko) * 1996-10-17 1999-10-15 윤종용 다중비디오출력장치(Multiple Video Displayer)
JPH10145735A (ja) 1996-11-05 1998-05-29 Toshiba Corp 復号装置および画像/音声再生方法
JP3742167B2 (ja) * 1996-12-18 2006-02-01 株式会社東芝 画像表示制御装置
JP3791114B2 (ja) * 1997-04-30 2006-06-28 ソニー株式会社 信号再生装置及び方法
JPH11355714A (ja) 1998-06-11 1999-12-24 Toshiba Corp 映像再生装置と映像データ記録方式
ID26157A (id) * 1998-10-12 2000-11-30 Matsushita Electric Industrial Co Ltd Media perekam informasi, aparatus dan metoda untuk merekam atau merekam atau mereproduksi data
US6414996B1 (en) * 1998-12-08 2002-07-02 Stmicroelectronics, Inc. System, method and apparatus for an instruction driven digital video processor
KR100306977B1 (ko) * 1998-12-15 2001-11-30 김용두 영상음향복합재생시스템
JP3382170B2 (ja) * 1998-12-25 2003-03-04 株式会社東芝 マルチウインドウ画像表示装置
US6741794B1 (en) * 1999-01-29 2004-05-25 Sony Corporation System and method for flexibly blending multiple image planes in a video device
US6359631B2 (en) * 1999-02-16 2002-03-19 Intel Corporation Method of enabling display transparency for application programs without native transparency support
US7623140B1 (en) * 1999-03-05 2009-11-24 Zoran Corporation Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
EP1133869A1 (en) * 1999-09-25 2001-09-19 Koninklijke Philips Electronics N.V. User interface generation
JP2001189703A (ja) 1999-10-22 2001-07-10 Hitachi Ltd 衛星データ放送システム、衛星データ放送方法、衛星データ放送装置、衛星データ放送受信装置
US6493036B1 (en) * 1999-11-17 2002-12-10 Teralogic, Inc. System and method for scaling real time video
US6888577B2 (en) * 2000-01-24 2005-05-03 Matsushita Electric Industrial Co., Ltd. Image compositing device, recording medium, and program
US7054539B2 (en) * 2000-02-09 2006-05-30 Canon Kabushiki Kaisha Image processing method and apparatus
JP2001238094A (ja) 2000-02-25 2001-08-31 Canon Inc 画像処理装置および画像再生装置
JP2003101957A (ja) 2001-09-19 2003-04-04 Matsushita Electric Ind Co Ltd マルチアングル再生装置
JP3826039B2 (ja) 2002-01-22 2006-09-27 キヤノン株式会社 信号処理装置
JP3874730B2 (ja) 2002-01-24 2007-01-31 シャープ株式会社 動画像再生装置
JP2003234974A (ja) 2002-02-08 2003-08-22 Mitsubishi Electric Corp 表示制御装置および表示制御方法
US20030156824A1 (en) * 2002-02-21 2003-08-21 Koninklijke Philips Electronics N.V. Simultaneous viewing of time divided segments of a tv program
JP4573491B2 (ja) 2002-02-28 2010-11-04 三洋電機株式会社 画像処理装置および画像処理方法
JP2003283925A (ja) * 2002-03-20 2003-10-03 Sony Corp 画像合成装置及び方法
US7676142B1 (en) * 2002-06-07 2010-03-09 Corel Inc. Systems and methods for multimedia time stretching
US7463311B2 (en) * 2002-09-09 2008-12-09 General Instrument Corporation Method and system for including non-graphic data in an analog video output signal of a set-top box
US8112711B2 (en) * 2003-10-06 2012-02-07 Disney Enterprises, Inc. System and method of playback and feature control for video players

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012213197A (ja) * 2004-04-22 2012-11-01 Technicolor Inc ディジタル多用途ディスクのためのコンテキスト依存のマルチアングル・ナビゲーション技術
US7630018B2 (en) 2005-04-15 2009-12-08 Sony Corporation On-screen display apparatus and on-screen display generation method
US8401368B2 (en) 2005-06-20 2013-03-19 Sharp Kabushiki Kaisha Video data reproducing apparatus, video data generating apparatus and recording medium
US8836804B2 (en) 2005-07-27 2014-09-16 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
US8743228B2 (en) 2005-07-27 2014-06-03 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
US8736698B2 (en) 2005-07-27 2014-05-27 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
US8687121B2 (en) 2005-07-27 2014-04-01 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
EP2200289A2 (en) 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
US8836803B2 (en) 2005-07-27 2014-09-16 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
US9100619B2 (en) 2005-07-27 2015-08-04 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
EP2200290A2 (en) 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
EP2200287A2 (en) 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
EP2200288A2 (en) 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
US8335424B2 (en) 2005-08-09 2012-12-18 Panasonic Corporation Recording medium, playback apparatus, method and program
US8301017B2 (en) 2005-08-09 2012-10-30 Panasonic Corporation Recording medium, playback apparatus, method and program
JP2007325242A (ja) * 2005-08-09 2007-12-13 Matsushita Electric Ind Co Ltd 記録媒体、再生装置、方法、プログラム
KR101375067B1 (ko) 2005-08-09 2014-03-17 파나소닉 주식회사 기록매체, 재생장치, 재생방법, 프로그램
US8452165B2 (en) 2005-08-09 2013-05-28 Panasonic Corporation Recording medium, playback apparatus, method and program
US8331773B2 (en) 2005-08-09 2012-12-11 Panasonic Corporation Recording medium, playback apparatus, method and program
JP2010063131A (ja) * 2005-08-09 2010-03-18 Panasonic Corp 記録媒体、再生装置
US8275234B2 (en) 2005-08-09 2012-09-25 Panasonic Corporation Recording medium, playback apparatus, method and program
US8280232B2 (en) 2005-08-09 2012-10-02 Panasonic Corporation Recording medium, playback apparatus, method and program
JP2007074476A (ja) * 2005-09-08 2007-03-22 Sanyo Electric Co Ltd 携帯電話機
JP2010512564A (ja) * 2006-11-30 2010-04-22 ソニー エリクソン モバイル コミュニケーションズ, エービー マルチメディアコンテンツとデコーディング手段とのバンドル
JP4718616B2 (ja) * 2006-12-14 2011-07-06 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像記録方法、動画像再生方法および動画像再生装置
JP2011097612A (ja) * 2006-12-14 2011-05-12 Panasonic Corp 動画像符号化方法、動画像符号化装置、動画像記録方法、動画像再生方法および動画像再生装置
US7974521B2 (en) 2006-12-14 2011-07-05 Panasonic Corporation Moving image coding method, moving image coding device, moving image recording method, recording medium, moving image playback method, moving image playback device, and moving image playback system
US8023804B2 (en) 2006-12-14 2011-09-20 Panasonic Corporation Moving image coding method, moving image coding device, moving image recording method, recording medium, moving image playback method, moving image playback device, and moving image playback system
JP2011103669A (ja) * 2006-12-14 2011-05-26 Panasonic Corp 動画像符号化方法、動画像符号化装置、動画像記録方法、動画像再生方法および動画像再生装置
US8526797B2 (en) 2006-12-14 2013-09-03 Panasonic Corporation Moving image coding method, moving image coding device, moving image recording method, recording medium, moving image playback method, moving image playback device, and moving image playback system
JP2009140603A (ja) * 2007-12-11 2009-06-25 Hitachi Ltd 記録装置及び再生装置及び記録媒体
WO2009081682A1 (ja) * 2007-12-26 2009-07-02 Nec Corporation 画像表示システム、画像表示方法及び記録媒体
JP2009157635A (ja) * 2007-12-26 2009-07-16 Nec Corp 画像表示装置、表示制御方法及びプログラム
JP2009157077A (ja) * 2007-12-26 2009-07-16 Nec Corp 画像表示装置、表示制御方法及びプログラム
WO2009081650A1 (ja) * 2007-12-26 2009-07-02 Nec Corporation 画像表示システム、画像表示方法及び記録媒体
WO2009098895A1 (ja) * 2008-02-07 2009-08-13 Panasonic Corporation 映像信号処理方法、集積回路および映像再生装置
JPWO2009098895A1 (ja) * 2008-02-07 2011-05-26 パナソニック株式会社 映像信号処理方法、集積回路および映像再生装置
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
MXPA06003719A (es) 2006-06-23
US8204357B2 (en) 2012-06-19
KR20070020378A (ko) 2007-02-21
EP1675395A4 (en) 2009-11-25
US20070003221A1 (en) 2007-01-04
CN1860785A (zh) 2006-11-08
WO2005039177A1 (ja) 2005-04-28
EP1675395A1 (en) 2006-06-28
KR101038631B1 (ko) 2011-06-03

Similar Documents

Publication Publication Date Title
KR101038631B1 (ko) 재생 장치, 재생 방법 및 기록 매체
JP4715094B2 (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
JP4442564B2 (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
KR101089974B1 (ko) 재생 장치, 재생 방법, 및 기록 매체
US8483544B2 (en) Reproducing apparatus, reproducing method, reproducing program, and recording medium
US20090162036A1 (en) Playback apparatus and playback method
JP2002091409A (ja) 副映像処理機能付き再生装置
US20080126993A1 (en) Reproduction apparatus, display control method and display control program
JP2006230001A (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
JP4534975B2 (ja) 再生装置、再生方法、記録方法、映像表示装置及び記録媒体
JP5209516B2 (ja) 記録媒体
JP5209513B2 (ja) 記録媒体
JP2009135946A (ja) 記録媒体
JP4277863B2 (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
JP2011097614A (ja) 再生装置、再生方法、記録装置、記録方法および記録媒体
JP4277862B2 (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
JP4277865B2 (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
JP4534974B2 (ja) 再生装置、再生方法、記録方法、映像表示装置及び記録媒体
JP4277864B2 (ja) 再生装置、再生方法、再生プログラムおよび記録媒体
JP3840894B2 (ja) 画像情報処理方法
JP5209514B2 (ja) 記録媒体
JP5494780B2 (ja) データ構造
WO2006018786A1 (en) Method of storing and transferring image signals
JP2013051723A (ja) データ格納方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090522

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090605