JP5957769B2 - 映像処理装置及び映像処理方法 - Google Patents

映像処理装置及び映像処理方法 Download PDF

Info

Publication number
JP5957769B2
JP5957769B2 JP2013511938A JP2013511938A JP5957769B2 JP 5957769 B2 JP5957769 B2 JP 5957769B2 JP 2013511938 A JP2013511938 A JP 2013511938A JP 2013511938 A JP2013511938 A JP 2013511938A JP 5957769 B2 JP5957769 B2 JP 5957769B2
Authority
JP
Japan
Prior art keywords
video
data
eye
caption
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013511938A
Other languages
English (en)
Other versions
JPWO2012147354A1 (ja
Inventor
上坂 靖
靖 上坂
洋 矢羽田
洋 矢羽田
航 池田
航 池田
智輝 小川
智輝 小川
由佳 小澤
由佳 小澤
川口 透
透 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2012147354A1 publication Critical patent/JPWO2012147354A1/ja
Application granted granted Critical
Publication of JP5957769B2 publication Critical patent/JP5957769B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、3D映像とともに表示すべき表示データと、当該3D映像とを重畳する技術に関するものである。
近年、立体表示を行うことができ3D映像を楽しめる映画館が増加し、また家庭でも2D映像のみならず、3D映像の視聴を実現する3D対応テレビや3D対応プレーヤが普及している。
2D映像とは、表示装置の表示画面をX−Y平面として捉え、このX−Y平面上の画素にて表現される画像であり、平面視画像とも呼ばれる。
一方、3D映像とは、表示装置の表示画面をX−Y平面上の画素に、Z軸方向の奥行きを加えた画像である。3D映像は、左目で試聴すべき左目用映像と、右目で試聴すべき右目用映像とをともに再生して、これら左目用映像、右目用映像での立体視効果を発揮することにより、ユーザによる視聴に供される。
3D映像における画素のうち、正のZ軸座標を持つものをユーザは、表示装置の画面より手前にあると感じ、負のZ軸座標を持つものを、画面より奥に存在すると感じる。
ここで3D映画作品など、3D映像とともに表示するデータ、例えば字幕は、3D動画像の飛び出し具合にあわせて、表示位置の奥行きを調整しないと、動画像に字幕がつき刺さるように見えたり、動画像と字幕の奥行きが離れ過ぎて見えたりするといった弊害が出てくる。
そのため、字幕毎、フレーム毎に字幕の奥行き/飛び出し具合を、表示位置の映像の奥行き/飛び出し具合の少し手前になるなど、最適に調整することが望ましい。
このような、3D映像上の字幕を最適に調整し、品位が高い立体視映像を再生する技術の先行技術としては、以下の特許文献1、2に記載されたものがある。
特許4588120号 特開2010−246157号公報
上記の特許文献1、2では、記録媒体に記録された映像及び字幕文を3D表示する技術が開示されている。具体的には、字幕表示用の字幕プレーンを、立体視映像用の視差画像とするため、オフセット値を与え左右へプレーンをシフトさせる3D映像の再生装置の内容が記載されている。この特許文献では、字幕プレーンのサイズ(解像度)と、映像用の動画プレーンのサイズとは同じものであるとして、重畳の処理がなされている。
一方、現状の放送では、動画プレーンのサイズと字幕プレーンのサイズは、異なった仕様となっている。
そのため、放送において3D映像と字幕とを重畳させようとすると、仕様が異なる上記特許文献1、2の技術をそのまま適用することはできない。
そこで、本発明は、3D映像を表示するための表示領域のサイズと、当該3D映像とともに表示される表示データを表示する表示領域のサイズとが異なる場合であっても、映像に適切な表示データを重畳できる映像処理装置及び映像処理方法を提供することを目的とする。
上記目的を達成するために、映像処理装置は、3D映像に係る映像ストリームと、当該映像ストリームから得られる映像に重畳して表示され、且つ表示領域のサイズが前記映像の表示領域のサイズとは異なる表示データに係るデータストリームとを受信する受信手段と、前記映像ストリームから左目用の映像と右目用の映像とを生成する映像生成手段と、前記データストリームから得られた前記表示データを、当該表示データの表示領域のサイズが前記映像生成手段で生成された各映像の表示領域のサイズと一致するよう所定の倍率で拡大する拡大手段と、表示領域のサイズが拡大された前記表示データと、当該表示データについて視差を生じさせるためのオフセット値とを用いて、左目用の表示データと右目用の表示データとを生成するデータ生成手段と、前記左目用の映像と前記左目用の表示データとを、前記右目用の映像と前記右目用の表示データとをそれぞれ重畳して、表示する表示処理手段とを備えることを特徴とする。
上記構成によると、映像処理装置は、オフセット値を用いて左目用の表示データと右目用の表示データとを生成する前に、表示データの表示領域のサイズが各映像の表示領域のサイズと一致するように当該表示データを拡大している。そのため、オフセット値によって生成される左目用の表示データと右目用の表示データとは、本来意図した視差を生じさせるものとなっているので、適切な表示データとして映像に重畳させることができる。
トランスポートストリームの概要を説明する図である。 トランスポートストリームのデータ構造を模式的に示す図である。 ビデオストリームからPESパケット列への変換を示す図である。 トランスポートストリームに含まれるTSパケットを説明する図である。 PMTのデータ構造を説明する図である。 字幕データ構造を説明する図である。 字幕管理データのデータ構造を説明する図である。 字幕文データのデータ構造を説明する図である。 2D映像に字幕を重畳する映像処理装置10の構成を示すブロック図である。 ディスプレイで立体視を行う原理を説明する図である。 映像処理システム1100の構成を示す図である。 映像処理装置1200の構成を示すブロック図である。 ビデオオフセット情報を格納する場所を説明する図である。 ビデオオフセット情報のデータ構造を示す図である。 字幕文データにオフセット参照情報を格納した場合のデータ構造を説明する図である。 (a)はオフセット参照情報のデータユニットの定義を説明する図であり、(b)はオフセット参照情報のデータ構造を説明する図である。 (a)オフセット値を適用した場合の字幕の視差を説明する図であり、(b)はオフセット値を適用した場合における字幕の3D表示を説明する図である。 映像と字幕文との重畳を説明する図である。 送信装置1300の構成を示す図である。 映像処理装置1200の全体処理を示す流れ図である。 左目用字幕文及び右目用字幕文の生成処理を示す流れ図である。 送信装置1300の処理を示す流れ図である。 字幕管理データにオフセット参照情報を格納した場合のデータ構造を説明する図である。 字幕データ構造としてオフセット管理データを定義した場合のデータ構造を説明する図である。 字幕文字列にオフセット参照情報を含める場合について説明する図である。 PMTにビデオオフセット情報を格納する場合について説明する図である。 映像処理装置2200の構成を示すブロック図である。 左目用字幕と右目用字幕の双方を1つのESに含める場合について説明する図である。 右目用の字幕に対するデータグループ識別を新たに割り当てたことを説明する図である。 左目用字幕と右目用字幕それぞれを個別のESに含める場合について説明する図である。 オフセット値を再生時間に対応付けた場合を説明する図である。 1つの画面を複数領域に分割して、各領域にビデオオフセット情報を割り当てる場合について説明する図である。 字幕の表示位置と適用するビデオオフセット情報との関係を示す図である。 1つの画面を複数領域に分割して、各領域に奥行き情報を割り当てる場合について説明する図である。
1.本発明の基礎となった知見
上記特許文献1、2で開示された技術は、上述したように、字幕プレーンのサイズと、動画プレーンのサイズとは同じものであるとして、映像と字幕とを重畳している。
一方で、放送の仕様では、字幕プレーンのサイズと、動画プレーンのサイズとは異なるものとして処理がされている。通常、放送における動画プレーンのサイズは、1920×1080であり、字幕プレーンのサイズは、960×540である。このため、映像に字幕を重畳させる際に、字幕プレーンに格納されている字幕を水平方向及び垂直方向それぞれに対して2倍する。具体的には、ある1画素を、水平方向及び垂直方向それぞれに対して1画素ずらして、2回ずつ表示する(2度振り)。この結果、1画素は、水平方向及び垂直方向それぞれに対して2倍、つまり1画素を縦横2倍した4画素領域で表示するよう拡大される。このとき、単純に2回ずつ表示するのではなく、周囲の色情報を用いて補完、拡大してもよい。このように、重畳時に字幕プレーンを拡大することで、動画プレーンのサイズと字幕プレーンのサイズとが同一になり、適切に重畳できる。
特許文献1、2は、3D映像に字幕を重畳させる技術である。このとき、字幕についても3D表示させるため、字幕プレーンについて、所定の値(オフセット値)をx軸に対して加算して左目用の字幕と、当該オフセット値をx軸に対して減算して右目用の字幕とをそれぞれ生成する。そして、生成した左目用の字幕と左目の映像とが重畳され、右目用の字幕と右目用の映像とが重畳される。ここで、オフセット値とは、左目用と、右目用との視差画像を生成するためのものであり、画素数で示される。
ここで、特許文献1、2の技術と、現在放送における重畳手法とを組み合わせた場合を考える。この場合、先ず、字幕プレーンについて、オフセット値を用いて左目用の字幕と右目用の字幕とが生成される。そして、左目映像と左目用の字幕とを重畳する際、及び右目映像と右目用の字幕とを重畳する際、それぞれにおいて拡大が行われる。このとき、オフセット値が適切に与えられていたにも関わらず、拡大により水平方向にさらにずれており、本来意図した視差画像ではないため、字幕について正しく3D表示ができない。拡大を考慮してオフセット値を与えることも考えられるが、この場合、画素数を奇数個分ずらした視差画像が生成できない。なぜなら拡大により得られるずれ量は偶数となるからである。
そのため、現状の放送の仕様に、特許文献1、2の技術を適用しても、1画素単位の精度で適切なオフセット値を与えることができないことを、発明者は知見した。そこで、発明者が鋭意検討し、処理順序を工夫することで、従来の放送の仕様でも、映像と字幕とを重畳させ、本来意図する3D表示を実現できることを見出し、本発明に至った。
本発明の一態様によれば、3D映像に係る映像ストリームと、当該映像ストリームから得られる映像に重畳して表示され、且つ表示領域のサイズが前記映像の表示領域のサイズとは異なる表示データに係るデータストリームとを受信する受信手段と、前記映像ストリームから左目用の映像と右目用の映像とを生成する映像生成手段と、前記データストリームから得られた前記表示データを、当該表示データの表示領域のサイズが前記映像生成手段で生成された各映像の表示領域のサイズと一致するよう所定の倍率で拡大する拡大手段と、表示領域のサイズが拡大された前記表示データと、当該表示データについて視差を生じさせるためのオフセット値とを用いて、左目用の表示データと右目用の表示データとを生成するデータ生成手段と、前記左目用の映像と前記左目用の表示データとを、前記右目用の映像と前記右目用の表示データとをそれぞれ重畳して、表示する表示処理手段とを備えることを特徴とする映像処理装置を提供する。
2.第1の実施の形態
以下、図面を参照しながら、本実施の形態について詳細に説明する。
先ず、本実施の形態を説明する上で基礎となる技術であるデジタル放送方式のストリーム構成及び従来の2Dテレビ(映像処理装置)について説明する。
2.1 ストリーム構成について
デジタル放送において、放送波を伝送するための規格としてMPEG−2トランスポートストリーム形式のデジタルストリーム(以下、単に「トランスポートストリーム」という。)がある。
トランスポートストリームは、図1に示すように、ビデオストリーム、オーディオストリーム、字幕ストリーム、文字スーパーストリームなどのうち、2つ以上を多重化することで得られる。 ビデオストリームは放送番組の映像から構成され、オーディオストリームは放送番組の音声データから構成されている。また、字幕ストリームは、映像と重畳されて表示される字幕を含むデータであり、文字スーパーストリームは、速報ニュースなど非同期に映像と重畳される字幕を含むデータである。ビデオストリーム及び字幕ストリームに含まれるデータは、MPEG−1、MPEG−2などの方式を使って符号化され、オーディオストリームに含まれるデータは、リニアPCMなどの方式で圧縮・符号化されている。文字スーパーストリームに含まれるデータは、ランレングス符号化により符号化されている。なお、オーディオストリームや字幕ストリームは、1つのトランスポートストリーム内に1つ、又は2つ以上存在してもよい。例えば、日本語の音声と英語の音声とは別々のオーディオストリームとして存在し、日本語の字幕と英語の字幕とは別々の字幕ストリームとして存在する。
図2は、トランスポートストリームのデータ構造を模式的に示す図である。まず、複数のビデオフレームからなるビデオストリーム201、及び複数のオーディオフレームからなるオーディオストリーム204それぞれを、それぞれPES(Packetized Elementarty Stream)パケット列202及びPESパケット列205に変換し、さらに、TS(Transport Stream)パケット203及びTSパケット206に変換する。同様に、字幕ストリーム207及び文字スーパーストリーム210のデータをそれぞれPESパケット列208及びPESパケット列211に変換し、更にTSパケット209及びTSパケット212に変換する。トランスポートストリーム213はこれらのTSパケットを1本のストリームに多重化することで構成される。
ここで、ビデオストリームの構成について説明する。MPEG−2などの動画圧縮符号化においては、動画像の空間方向、及び時間方向の冗長性を利用してデータ量の圧縮が行われる。時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャ(符号化対象ピクチャ)を符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとして参照して、参照ピクチャからの動き量を検出する。そして、動き補償を行ったピクチャと符号化対照のピクチャとの差分値に対して空間方向の冗長度を取り除くことによりデータ量の圧縮を行う。なお、ピクチャとは、フレーム及びフィールドの両者を包含する1つの符号化の単位である。
以降の説明において、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。また、既に処理済の(過去の)ピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと呼び、過去、未来両方のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと呼ぶ。特に、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャと呼ぶ。また、フレーム構造の場合のフレーム、フィールド構造のフィールドを、ここではビデオアクセスユニットと呼ぶ。
次に、各ストリームからPESパケット列への変換について説明する。図3は、ビデオストリームからPESパケット列への変換を示す図である。図3における第1段目はビデオストリームのビデオフレーム列の、第2段目はPESパケット列の一例をそれぞれ示している。ビデオフレーム列は、複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャから構成され、PESパケット列は、複数のPESパケットから構成されている。PESパケットは、PESヘッダとPESペイロードから構成されている。図3の矢印yy1、yy2、yy3、yy4に示すように、ビデオストリームは、ピクチャ毎に分割され、分割されたピクチャそれぞれは、PESパケットのPESペイロード毎に格納される。PESヘッダには、PESペイロードに格納されているピクチャの表示時刻であるPTS(Presentation Time−Stamp)や当該ピクチャの復号時刻であるDTS(Decoding Time−Stamp)が格納される。
PESパケットから変換され、トランスポートストリームに含まれるTSパケットは、図4に示すように、4バイトからなるTSヘッダと、184バイトからなるTSペイロードとから構成される188バイト長のデータである。トランスポートストリームは、このTSパケットが複数個並んだものである。PESパケットは184バイト長毎に分割され、分割された各データはTSペイロードに格納される。TSヘッダにはTSペイロードの格納されたデータに対応付けられたPID(パケット識別子)などが格納されている。また、TSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)などが含まれる。PMTには、1つの番組を構成する複数のストリームの各PIDが各ストリームの属性情報を対応付けられて記憶されており、さらに番組に関する各種ディスクリプタを持つ。例えば、ディスクリプタには番組のコピーを許可・不許可を指示するコピーコントロール情報などが格納される。PMTのデータ構造の詳細については後述する。PATには、番組を示す識別子(番組番号)と、PMT内のPIDとが対応付けて格納されている。なお、PATのPIDは0で登録される。
図5は、PMTのデータ構造を示すものである。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置されている。その後続には、番組に関するディスクリプタが複数配置されており、前述のコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後続には、番組を構成する各ストリームに関するストリーム情報が複数配置されている。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。ストリームディスクリプタは番組を構成するストリームの数だけ存在する。
字幕ストリームには、図6の上段に示すように、字幕管理データと字幕文データとが混在している。受信側では、ある字幕管理データ(第1字幕管理データ)を受信すると、次の字幕管理データ(第2字幕管理データ)を受信するまでに存在する字幕文データが示す字幕文は、第1字幕管理データで定義された情報を基づいて表示される。
字幕管理データと字幕文データとは、共通のデータ構造で定義されており、図6の下段にそのデータ構造(以下、「字幕データ構造」という。)を模式的に示す。また、図7、8は、字幕管理データ及び字幕文データそれぞれの詳細なデータ構造を示している。字幕データ構造は、図6の下段に示すように、識別子、・・・、データグループサイズ、データから構成されている。
識別子は、当該字幕データ構造が字幕管理データを示すものであるか字幕文を示すものであるかを識別するためのものであり、図7、8に示すように、“data_group_id”で定義される。
データグループサイズは、後続するデータ(字幕管理データ、または字幕文)のバイト長を示すものであり、図7、8に示すように、“data_group_size”で定義される。
データには、識別子が字幕管理データを示す場合には字幕管理データが、識別子が字幕文データを示す場合には字幕文が、それぞれ含まれる。
データにおいて定義される字幕管理データのデータ構造について、図7を用いて説明する。字幕管理データには、図7に示すように、時刻制御モード、言語情報及びデータユニットが含まれている。
時刻制御モードは、受信再生時における時刻の制御モードを示すものであり、図7に示すように“TMD”で定義される。具体的には、TMDでは、“フリー”、“リアルタイム”及び“オフセットタイム”の何れかが設定される。
言語情報は、字幕の言語の数、及び表示言語が日本語や英語であるなどといった情報が含まれており、図7に示すように“num_languages”、“ISO_639_language_code”、“Format”などで定義される。“num_languages”は、言語数を示す。“ISO_639_language_code”は言語に対応する言語コードを、“Format”は字幕表示画面の表示書式の初期状態を示す。なお、“ISO_639_language_code”、“Format”は、“num_languages”で定義された言語数分、記述される。
データユニットには、図7に示す可変個数の“data_unit”と呼ばれるデータ構造が含まれ、“data_unit”に同一ESで送られる字幕番組全体で有効となるデータが格納される。
次に字幕文データのデータ構造について、図8を用いて説明する。字幕文データには、図8に示すように、時刻制御モード、データサイズ及び字幕文字列が含まれており、図6に示すように、字幕文字列には字幕の表示領域のサイズや表示位置などを決定する特殊符合シーケンスを含むことができる。表示領域のサイズは、例えば表示する文字数であり、表示位置は、表示領域のサイズを長方形とした場合のその始点である。
時刻制御モードは、図7で示す字幕管理データの時刻制御モードと同様である。
データサイズは、後続の字幕文字列の全バイト長を示すものであり、図8に示す“data_unit_loop_length”で定義される。
字幕文字列は、 図8に示す可変個数の“data_unit”と呼ばれるデータ構造で定義され、“data_unit”に字幕文を構成するデータが格納される。
2.2 2D映像について映像処理装置10について
次に、2D映像に字幕を重畳する映像処理装置10の構成について説明する。
映像処理装置10は、図9に示すように、受信部21、多重化分離部22、ビデオデコーダ23、字幕用デコーダ24、オーディオデコーダ25、動画プレーン26、字幕プレーン27及び重畳部28から構成されている。
受信部21は、放送局から送信されたトランスポートストリームを受信し、受信したトランスポートストルームを多重化分離部へ出力する。本実施形態では、トランスポートストリームは、ビデオストリーム、オーディオストリーム及び字幕ストリームが多重化されている。
多重化分離部22は、受信したトランスポートストリームを、ビデオストリームと、字幕ストリームと、オーディオストリームとに分離し、ビデオストリームをビデオデコーダ23へ、字幕ストリームを字幕用デコーダ24へ、オーディオストリームをオーディオデコーダ25へ出力する。
ビデオデコーダ23は、ビデオストリームをデコードしてビデオフレーム(2D映像)を取得し、取得したビデオフレームを動画プレーン26へ出力する。具体的には、ビデオデコーダ23は、ビデオストリームに含まれる個々のビデオアクセスユニットを、対応するPESヘッダに格納された所定の復号時刻(DTS)に基づいてデコードしてフレーム/フィールド画像を作成する。なお、ビデオデコーダ23は、ビデオストリームの圧縮符号化形式に応じて、デコード方法を切り替える。ビデオデコーダ23は、デコードされたフレーム/フィールド画像を、対応するPESヘッダに格納された表示時刻(PTS)のタイミングで対応するフレーム/フィールド画像を動画プレーン26に格納する。
字幕用デコーダ24は、ビデオストリームをデコードして字幕文を取得し、取得した字幕文を字幕プレーン27へ出力する。具体的には、字幕用デコーダ24は、字幕ストリームに含まれる符号化された字幕データを、対応するPESヘッダに格納された所定の復号時刻(DTS)に基づいてデコードして字幕文を作成する。字幕用デコーダ24は、デコードされた字幕文を、対応するPESヘッダに格納された表示時刻(PTS)のタイミングで対応する字幕文を字幕プレーン27に格納する。このとき、字幕用デコーダ24は、字幕文字列に含まれる情報(特殊符号シーケンス)に応じて字幕プレーン27の表示領域中の表示位置に、表示対象の字幕文を描画する。
オーディオデコーダ25は、オーディオストリームをデコードして音声を取得し、取得した音声を出力する。
動画プレーン26は、ビデオデコーダ23で得られたビデオフレームを格納するプレーンメモリであり、その解像度は1920×1080である。
字幕プレーン27は、字幕用デコーダ24で得られた字幕文を格納するプレーンメモリであり、その解像度は960×540である。
重畳部28は、動画プレーン26に格納されているビデオフレームを映像出力する際に、当該ビデオフレームに字幕プレーン27で格納されている字幕文を重畳する。このとき、ビデオフレームのサイズと字幕文のサイズとが異なるため、重畳部28では、字幕プレーン27のデータピクセルに対して水平垂直に2倍拡大を行うことで、動画プレーン26の解像度と同一にし、水平垂直に2倍拡大した後の字幕文を動画プレーン26のビデオフレームに重畳して、映像出力を行う。
以上が、2D映像に字幕を重畳する映像処理装置10の構成であり、この構成により、解像度の異なる動画プレーン26と字幕プレーン27において、字幕を映像に重畳する際には同一の解像度とし、重畳することができる。
2.3 3D再生の原理
ここでは、図10を用いて家庭用ディスプレイで立体視を行う原理を説明する。
立体視を実現する手法としては、ホログラフィ技術を用いる方法と、視差画像を用いる方式の大きく2つあるが、ここでは視差画像を用いる方式を説明する。
視差画像を用いた方式では、右目に入る映像と、左目に入る映像を各々用意し、それぞれの目に対応したピクチャだけが入るようにして立体視を行う方法である。図10(a)は、ユーザが顔の中央の延長線上にある、比較的小さな立方体を見ている様子を上から見た図である。図10(b)は、当該立方体を左目で見た場合の例を示しており、図10(c)は、同じ立方体を右目で見た場合の例を示している。
家庭用ディスプレイで立体表示を実現するために、当該ディスプレイは、左右のそれぞれの目に対応した映像を交互に表示するとともに、シャッター式めがねや偏光眼鏡を用いて、対応した目にだけ見せるようにしている。視差画像を用いた立体視のための方法はさまざまな技術が提案されており、本実施の形態では、シャッター式メガネ方式を例として用いて説明するが、視差画像を用いる限りこの方式に限定するものではない。
ここでは、左目用の映像を「左目映像」、右目用の映像を「右目映像」、両方の映像から得られる映像を「3D映像」と呼ぶ。
以上が本実施の形態を理解する上で基礎となる技術である。
2.4 本実施の形態の概要
本実施の形態の概要について説明する。
本実施の形態に係る映像処理システム1100は、図11に示すように、3Dデジタルテレビ(映像処理装置)1200と送信装置1300とから構成される。
送信装置1300は、図1に示すビデオストリーム、オーディオストリーム、字幕ストリーム、文字スーパーストリームなどのうち、ビデオストリーム、オーディオストリーム、字幕ストリームが多重化されたトランスポートストリームを送信する。ここで、ビデオストリームは、複数視点の映像(例えば、3D映像)が符号化され、TS化されたものである。また、3D映像に係る映像の表示サイズ(解像度)は1920×1080であり、字幕ストリームから得られる表示サイズ(解像度)は960×540である。
映像処理装置1200は、送信装置1300から送信されたトランスポートストリームを受信し、トランスポートストリームに含まれるビデオストリームから3D映像(左目映像と、右目映像)を、字幕ストリームから左目用の字幕文と右目用の字幕文とを生成し、3D映像として表示する際に、左目映像と左目用の字幕とを、右目映像と右目用の字幕文とをそれぞれ重畳して出力する。
2.5 映像処理装置1200の構成
ここでは、映像処理装置1200の構成について説明する。
映像処理装置1200は、図12に示すように、受信部1201、多重化分離部1202、3D映像ビデオデコーダ1203、字幕用デコーダ1204、オーディオデコーダ1205、左目映像プレーン1206、右目映像プレーン1207、字幕バッファ1208、サイズ変換部1209、字幕プレーン1210、字幕生成処理部1211、出力処理部1212から構成されている。
(1)受信部1201
受信部1201は、送信装置1300から送信されたトランスポートストリームを受信し、受信したトランスポートストリームを多重化分離部1202へ出力する。
(2)多重化分離部1202
多重化分離部1202は、例えばデマルチプレクサ(分配回路)であり、受信部1201から受け取ったトランスポートストリームからビデオストリーム、オーディオストリーム及び字幕ストリームを分離し、ビデオストリームを3D映像ビデオデコーダ1203へ、字幕ストリームを字幕用デコーダ1204へ、オーディオストリームをオーディオデコーダ1205へ、それぞれ出力する。
(3)3D映像ビデオデコーダ1203
3D映像ビデオデコーダ1203は、多重化分離部1202から受け取ったビデオストリームを復号して、左目映像と右目映像とを生成する。そして、3D映像ビデオデコーダ1203は、左目映像を左目映像プレーン1206へ、右目映像を右目映像プレーン1207へ書き込む。
具体的は、3D映像ビデオデコーダ1203は、複数視点のビデオストリームを復号して、左目映像と右目映像とを生成する。
また、ビデオストリームから得られるビデオアクセスユニットには、図13に示すように、補足データとしてビデオオフセット情報が格納されている。このビデオオフセット情報は、図14に示すデータ構造において、オフセット値(offset_value)とそれを識別するためのオフセットシーケンスID(offset_sequence_id)とが対応付けられた複数個の組からなる。
3D映像ビデオデコーダ1203は、ビデオストリームを復号した際に得られるビデオオフセット情報を、字幕生成処理部1211へ出力する。
(4)字幕用デコーダ1204
字幕用デコーダ1204は、多重化分離部1202から受け取った字幕ストリームを復号して、字幕文データを生成し、字幕文データに含まれる字幕文を字幕バッファ1208に書き込む。具体的には、字幕用デコーダ1204は、字幕文データの時刻制御モード、データサイズで示されるデータ長に基づいて、字幕文字列で示される字幕文を字幕バッファに書き込む。
また、字幕ストリームから得られる字幕文データは、図15に示すように、図8で示すデータ構造において字幕文に後続するデータユニットとしてオフセット参照情報D100が付加されている。オフセット参照情報D100は、オフセット値として固定値を用いるか参照値を用いるかを識別する情報(Type情報)D101と、Type情報D101に応じた参照情報D102とから構成されている。Type情報D101が固定値を用いることを示す場合には、参照情報D102にはその値が格納され、参照値を用いることを示す場合には参照先を示す情報としてオフセットシーケンスIDが格納されている。
字幕用デコーダ1204は、字幕文字列で示される字幕文の書き込み後、字幕文字列に後続するオフセット参照情報を読み出し、読みだしたオフセット参照情報を字幕生成処理部1211へ出力する。
(オフセット参照情報について)
ここで、オフセット参照情報のデータ構造について、図16を用いて説明する。
オフセット参照情報は、上述したように、字幕文データのデータユニットとして定義される。そのため、オフセット参照情報として定義されていることを識別するために、図16(a)に示すように、データユニットの種類を示すデータユニットパラメータ(data_unit_parameter)に値“0x38”を割り当てる。これにより、装置側は、データユニットパラメータの値が“0x38”である場合には当該データユニットはオフセット参照情報であると判別することができる。
図19(b)は、オフセット参照情報のデータ構造を示すものであり、記述子“offset_type”により、上述したType情報D101が定義される。ここでは、値“00”が固定値を用いることを、値“01”が参照値を用いることを示している。そして、記述子“offset_type”の後に存在するif文により、Type情報D101に応じた情報が記述されている。例えば、記述子“offset_type”の値が“00”である場合には、記述子“fixed_offset_value”に固定値が記述される。記述子“offset_type”の値が“01”である場合には、記述子“offset_sequence_id_ref”にオフセットシーケンスIDが記述される。
(5)オーディオデコーダ1205
オーディオデコーダ1205は、多重化分離部1202から受け取ったオーディオストリームを復号して、音声データを生成する。そして、オーディオデコーダ1205は、生成した音声データを音声として出力する。
(6)左目映像プレーン1206
左目映像プレーン1206は、3D映像ビデオデコーダ1203で生成された一画面分の左目映像の画素データをライン単位で格納し、水平同期信号、垂直同期信号に沿ってこれらの画素データを出力するためのメモリである。ここでは、左目映像プレーン1206のサイズ、つまり一画像のサイズは、1920×1080である。
(7)右目映像プレーン1207
右目映像プレーン1207は、3D映像ビデオデコーダ1203で生成された一画面分の右目映像の画素データをライン単位で格納し、水平同期信号、垂直同期信号に沿ってこれらの画素データを出力するためのメモリである。ここでは、右目映像プレーン1207のサイズは、左目映像プレーン1206のサイズと同じである。
(8)字幕バッファ1208
字幕バッファ1208は、字幕用デコーダ1204で生成された一画面分の字幕文を格納するためのバッファであり、そのサイズは、960×540である。つまり、バッファのサイズとは、実際に字幕が表示される、画面上の部分的な領域を示すのではなく、字幕が実際に表示される領域を含む最大の領域(画面全体)を示すものである。
(9)サイズ変換部1209
サイズ変換部1209は、字幕バッファ1208に格納されている一画面分の字幕文に対して、その画像サイズ(960×540)を、左目映像及び右目映像それぞれのサイズ(1920×1080)となるよう所定の倍率(縦横2倍)で拡大する。具体的には、1画素を縦横2倍の領域、つまり4画素領域に割り当てる。
(10)字幕プレーン1210
字幕プレーン1210は、サイズ変換部1209で画像サイズが1920×1080に変換された一画面分の字幕文の映像の画素データをライン単位で格納し、水平同期信号、垂直同期信号に沿ってこれらの画素データを出力するためのメモリである。
(11)字幕生成処理部1211
字幕生成処理部1211は、字幕プレーン1210に格納されている字幕文の映像から、映像の送信元からの指示に応じたオフセット値を用いて左目用の字幕文の映像と、右目用の字幕文の映像とを生成するものである。
字幕生成処理部1211は、図12に示すように、判定部1221、オフセット値特定部1222、左目用字幕生成部1223及び右目用字幕生成部1224から構成されている。
(11−1)判定部1221
判定部1221は、左目用の字幕文の映像と、右目用の字幕文の映像とを生成する際に用いるオフセット値が固定値であるか参照値であるかを判定するものである。
具体的には、判定部1221は、字幕用デコーダ1204から出力されたオフセット参照情報D100を受け取る。判定部1221は、受け取ったオフセット参照情報D100のType情報D101に格納されている値が“00”であるか“01”であるかを判別し、値が“00”であれば固定値を用いる、値が“01”であれば参照値を用いると判定する。判定部1221は、判定結果と、受け取ったオフセット参照情報D100の参照情報D102とをオフセット値特定部1222へ出力する。
(11−2)オフセット値特定部1222
オフセット値特定部1222は、判定部1221の判定結果に応じて、左目用の字幕文の映像と、右目用の字幕文の映像との生成に用いるオフセット値を特定するものである。
具体的には、オフセット値特定部1222は、判定部1221から受け取った判定結果が固定値を用いることを示す場合には、判定部1221から受け取った参照情報に格納された固定値を取得し、取得した固定値を左目用字幕生成部1223及び右目用字幕生成部1224へ出力する。オフセット値特定部1222は、判定部1221から受け取った判定結果が参照値を用いることを示す場合には、3D映像ビデオデコーダ1203から受け取ったビデオオフセット情報から、判定部1221から受け取った参照情報に格納された参照値が示すオフセットシーケンスIDに対応する値を取得し、取得した値を左目用字幕生成部1223及び右目用字幕生成部1224へ出力する。
(11−3)左目用字幕生成部1223、右目用字幕生成部1224
左目用字幕生成部1223は字幕プレーン1210に格納された字幕文の映像から左目用字幕文の映像を生成し、右目用字幕生成部1224は字幕プレーン1210に格納された字幕文の映像から右目用字幕文の映像を生成するものである。
具体的には、左目用字幕生成部1223は、オフセット値特定部1222から受け取った値をオフセット値として、字幕プレーン1210に対して水平座標にオフセット値を加算して左目用字幕文の映像を生成し、出力処理部1212へ出力する。また、右目用字幕生成部1224は、オフセット値特定部1222から受け取った値をオフセット値として、字幕プレーン1210に対して水平座標にオフセット値を減算して右目用字幕文の映像を生成し、出力処理部1212へ出力する。
例えば、オフセット値として正の値が設定されている場合、図17(a)に示すように、字幕プレーン1210に格納されている字幕の水平座標にオフセット値を加算することで生成される左目用字幕文は右方向(正方向)にずれ、字幕プレーン1210に格納されている字幕の水平座標にオフセット値を減算することで生成される右目用字幕文は左方向(負方向)にずれ、それぞれを視差画像として表示することができる。左目用字幕文と右目用字幕文とを視差画像として交互に表示することで、図17(b)に示すように、平面の字幕グラフィクス(字幕文)が、映像より前に浮き出て見える。このように、左右用の2本の映像データ(字幕文データ)を用意しなくても、正面のグラフィクスデータ(平面の字幕文)とともに左右にずらすオフセットの値を用意することで、3D表示が可能となる。
(12)出力処理部1212
出力処理部1212は、左目映像及び右目映像それぞれに対応する字幕文を重畳し、字幕が重畳された3D映像が表示されるよう各映像を出力するものである。
出力処理部1212は、図12に示すように、切替部1231及び重畳部1232、1233から構成されている。
(12−1)切替部1231
切替部1231は、3D表示を行うために左目映像と右目映像との出力を所定の時間間隔で切り替えるものである。例えば、2D映像の出力が1/60秒ごとに行われる場合、3D表示を行うためには、左目映像及び右目映像を交互に出力し、1/60秒ごとに3D映像が表示されるためには、左目映像及び右目映像を、1/120秒ごとに交互に出力する必要がある。
具体的には、切替部1231は、所定の時間間隔(例えば1/120秒ごと)に、左目映像プレーン1206と重畳部1232との接続、及び右目映像プレーン1207と重畳部1233との接続を切り替える。例えば、切替部1231は、ある時間では左目映像プレーン1206と重畳部1232とを接続し、右目映像プレーン1207と重畳部1233とを非接続とし、1/120秒後には左目映像プレーン1206と重畳部1232とを非接続とし、右目映像プレーン1207と重畳部1233とを接続するよう制御する。これにより、出力処理部1212は、左目映像と右目映像とを所定の時間間隔で交互に出力するので、3D表示することができる。
(12−2)重畳部1232、1233
重畳部1232は、左目映像と、左目用字幕生成部1223で生成された左目用字幕文の映像とを重畳し、出力するものである。
重畳部1233は、右目映像と、右目用字幕生成部1224で生成された右目用字幕文の映像とを重畳し、出力するものである。
左目用字幕文の映像は、例えばオフセット値が正整数である場合には、図18に示すように、左目用字幕生成部1223において字幕プレーン1210をオフセット値分、右へシフトしているため、左目映像と重畳する際には左目映像プレーン1206からはみ出す部分はクロッピングされる。同様に、右目用字幕は、図18に示すように、右目用字幕分の映像は右目用字幕生成部1224において字幕プレーン1210をオフセット値分、左へシフトしているため、右目映像と重畳する際には右目映像プレーン1207からはみ出す部分はクロッピングされる。
2.6 送信装置1300の構成
送信装置1300は、図19に示すように、ビデオエンコーダ1301、字幕用エンコーダ1302、オーディオエンコーダ1303、ビデオストリーム格納部1304、字幕ストリーム格納部1305、オーディオストリーム格納部1306、多重化部1307及び送信部1308から構成されている。
(1)ビデオエンコーダ1301
ビデオエンコーダ1301は、多視点の、複数のビデオアクセスユニット(ピクチャ)について、MPEG−2、MPEG−4などの方式を使って符号化して、ビデオストリームを生成し、ビデオストリーム格納部1304へ書き込む。
(2)字幕用エンコーダ1302
字幕用エンコーダ1302は、1つ以上の字幕管理データ及び1つ以上の字幕文データをMPEG−1、MPEG−2などの方式を使ってエンコードして、字幕ストリームを生成し、字幕ストリーム格納部1305へ書き込む。
ここで、字幕用エンコーダ1302がエンコードする字幕文データは、図15に示すデータ構造からなる、つまり、字幕文の後続するデータとしてオフセット参照情報が含まれるデータ構造である。
(3)オーディオエンコーダ1303
オーディオエンコーダ1303は、音声データを、リニアPCMなどの方式で圧縮・符号化して、オーディオストリームを生成し、オーディオストリーム格納部1306へ書き込む。
(4)ビデオストリーム格納部1304
ビデオストリーム格納部1304は、ビデオエンコーダ1301で生成されたビデオストリームを格納するための記憶領域である。
(5)字幕ストリーム格納部1305
字幕ストリーム格納部1305は、字幕用エンコーダ1302で生成された字幕ストリームを格納するための記憶領域である。
(6)オーディオストリーム格納部1306
オーディオストリーム格納部1306は、オーディオエンコーダ1303で生成されたオーディオストリームを格納するための記憶領域である。
(7)多重化部1307
多重化部1307は、ビデオストリーム格納部1304に格納されているビデオストリーム、字幕ストリーム格納部1305に格納されている字幕ストリーム、オーディオストリーム格納部1306に格納されているオーディオストリーム、SIなどを多重化して、MPEG2−TS形式のトランスポートストリームを生成し、送信部1308を介して送信する。
(8)送信部1308
送信部1308は、多重化部1307で生成されたMPEG2−TS形式のトランスポートストリームを送信する。
2.7 動作
(1)映像処理装置1200の全体動作
ここでは、映像処理装置1200がトランスポートストリームを受信してから3D表示を行うまでの全体の動作について、図20に示す流れ図を用いて説明する。
映像処理装置1200の受信部1201は、トランスポートストリームを受信する(ステップS5)。
多重化分離部1202は、受信部1201で受信したトランスポートストリームをビデオストリーム、オーディオストリーム及び字幕ストリームに分離する(ステップS10)。
3D映像ビデオデコーダ1203は、ビデオストリームから左目映像及び右目映像を生成し、生成した左目映像を左目映像プレーン1206へ、生成した右目映像を右目映像プレーン1207へそれぞれ書き込む(ステップS15)。例えば、3D映像ビデオデコーダ1203は、ビデオストリームを復号して左目映像と右目映像とを生成する。
オーディオデコーダ1205は、オーディオストリームから音声を生成し、出力する(ステップS20)。
字幕用デコーダ1204は、字幕ストリームから字幕文を生成し、字幕バッファ1208へ書き込む(ステップS25)。
サイズ変換部1209は、字幕バッファ1208に格納されている一画像分の字幕文の画像サイズ(960×540)を、左目映像及び右目映像それぞれのサイズ(1920×1080)となるよう所定の倍率(縦横2倍)で拡大し、字幕プレーン1210へ書き込む(ステップS30)。
字幕生成処理部1211は、左目用字幕文及び右目用字幕文を生成する生成処理を行う(ステップS35)。
出力処理部1212は、重畳部1232及び1233を用いて、左目映像プレーン1206に格納された左目映像と、字幕生成処理部1211で生成された左目用字幕との重畳、及び右目映像プレーン1207に格納された右目映像と、字幕生成処理部1211で生成された右目用字幕との重畳を、各映像を出力するタイミングで行い(ステップS40)、字幕文が重畳された各映像を出力して3D表示を行う(ステップS45)。
(2)左目用字幕文及び右目用字幕文の生成処理
ここでは、図20のステップS35に示す左目用字幕文及び右目用字幕文の生成処理の詳細について、図21に示す流れ図を用いて説明する。
字幕生成処理部1211の判定部1221は、字幕用デコーダ1204から受け取ったオフセット参照情報D100のType情報D101に格納された値に基づいて、左目用字幕文及び右目用字幕文の生成に用いるオフセット値は固定値であるか否かを判断する(ステップS100)。具体的には、判定部1221は、Type情報D101に格納された値が“00”であれば固定値を用いると、“01”であれば参照値を用いると判断する。
判定部1221が固定値を用いると判断する場合(ステップS100における「Yes」)、オフセット値特定部1222は、オフセット参照情報D100に含まれる参照情報D102から固定値を取得する(ステップS105)。
判定部1221が固定値を用いない、つまり参照値を用いると判断する場合(ステップS100における「No」)、オフセット値特定部1222は、オフセット参照情報D100に含まれる参照情報D102から参照値を取得し(ステップS110)、取得した参照値にて示されるオフセットシーケンスIDに対応する値を取得する(ステップS115)。
左目用字幕生成部1223は、ステップS105又はステップS115で取得された値をオフセット値として、字幕プレーン1210に格納されている字幕文の映像から左目用字幕文を生成する(ステップS120)。
右目用字幕生成部1224は、ステップS105又はステップS115で取得された値をオフセット値として、字幕プレーン1210に格納されている字幕文の映像から右目用字幕文を生成する(ステップS125)。
(3)送信装置1300の動作
ここでは、送信装置1300の動作について図22に示す流れ図を用いて説明する。
ビデオエンコーダ1301は、多視点の、複数のビデオアクセスユニット(ピクチャ)それぞれを符号化して、ビデオストリームを生成し、ビデオストリーム格納部1304へ書き込む(ステップS200)。
字幕用エンコーダ1302は、1つ以上の字幕管理データ及び1つ以上の字幕文データを符号化して、字幕ストリームを生成し、字幕ストリーム格納部1305へ書き込む(ステップS205)。ここで、字幕用エンコーダ1302がエンコードする字幕文データは、図15に示すように、字幕文の後続するデータとしてオフセット参照情報が含まれるデータ構造である。
オーディオエンコーダ1303は、音声データを圧縮・符号化して、オーディオストリームを生成し、オーディオストリーム格納部1306へ書き込む(ステップS210)。
多重化部1307は、ビデオストリーム、字幕ストリーム、オーディオストリーム、及びSIなどを多重化して、MPEG2−TS形式のトランスポートストリームを生成し、送信部1308を介して送信する(ステップS215)。
2.8 変形例
以上、第1の実施の形態に基づいて説明したが、本発明は上記の実施の形態に限られない。例えば、以下のような変形例が考えられる。
(1)オフセット参照情報は、字幕文データのデータ構造内で定義するとしたが、これに限定されない。
オフセット参照情報は、図23に示すように、字幕管理データのデータ構造内に定義されてもよい。
または、図24に示すように、字幕データ構造として、字幕文データや字幕管理データとは別のデータ(オフセット管理データ)に定義してもよい。このとき、字幕データの種別を示す識別子である“data_group_id”には、新たにオフセット管理データを識別する識別子が割り当てられる。さらに、オフセット管理データには、字幕参照情報及びオフセット参照情報が含まれており、字幕参照情報には、後続のオフセット参照情報が適用される字幕データを識別する識別子が格納される。オフセット参照情報は既出であるため、ここでの説明は省略する。
または、図25に示すように、字幕文データに含まれる字幕文字列を定義する特殊符号シーケンス内に、Type情報及び参照情報を含めてもよい。
または、Type情報のみを、PMTのディスクリプタやストリーム情報のデータとして新規に格納してもよいし、EITに格納してもよい。つまり、Type情報は、SIの中に含めてもよい。このとき、参照情報は、上記と同様に、字幕文データ、字幕管理データ、オフセット管理データ及び字幕文字列を定義する特殊符号シーケンス内の何れかに格納してもよい。このとき、Type情報が固定値を使用することを示す場合には、固定値をType情報とともに、PMTに格納してもよい。
(2)上記実施の形態において、ビデオオフセット情報は、ビデオアクセスユニットごとに、当該ビデオアクセスユニットに含まれる補足データ内に定義されるとしたが、これに限定されない。
PMTのデータ構造内にビデオオフセット情報を定義してもよい。例えば、図26に示すように、ディスクリプタ#Nに、オフセット値(Offset_1、Offset_2、・・・、Offset_n)それぞれに、当該オフセット値を識別するための識別子(ID1、ID2、・・・、IDn)を対応付けたテーブルを定義してもよい。
つまり、ビデオオフセット情報は、ピクチャ毎、又は複数のピクチャのグループからなる単位に対応付けられてもよい。
(3)上記実施の形態及び変形例を組み合わせるとしてもよい。
3.第2の実施の形態
ここでは、第2の実施の形態に係る映像処理装置2200について説明する。
第1の実施の形態に係る映像処理装置1200は、1つの字幕文の映像から左目用字幕及び右目用字幕を生成したが、本実施の形態に係る映像処理装置2200は、左目用字幕の映像と、右目用字幕の映像とを個別に送信装置1300から受信し、字幕の3D表示を行う装置である。
なお、本実施の形態では、第1の実施の形態と異なる点を中心に説明する。
3.1 映像処理装置2200の構成
ここでは、映像処理装置2200の構成について説明する。
映像処理装置2200は、図27に示すように、受信部1201、多重化分離部2202、3D映像ビデオデコーダ1203、字幕用デコーダ2204a、2204b、オーディオデコーダ1205、左目映像プレーン1206、右目映像プレーン1207、左目用字幕バッファ2208a、右目用字幕バッファ2208b、サイズ変換部2209a、2209b、左目用字幕プレーン2210a、右目用字幕プレーン2210b、字幕生成処理部2211、出力処理部1212から構成されている。
受信部1201、3D映像ビデオデコーダ1203、オーディオデコーダ1205、左目映像プレーン1206、右目映像プレーン1207、出力処理部1212については、第1の実施の形態で説明しているため、ここでの説明は省略する。
(1)多重化分離部2202
多重化分離部2202は、例えばデマルチプレクサ(分配回路)であり、受信部1201から受け取ったトランスポートストリームからビデオストリーム、オーディオストリーム及び字幕ストリームを分離し、分離した各ストリームを対応するデコーダへ出力するものである。ここでは、分離した字幕ストリームの構成が第1の実施の形態と異なる。
本実施の形態における字幕ストリームに対するエレメンタリストリーム(ES)の模式的な構成を、図28に示す。左目用の字幕文データと、右目用の字幕文データとは、1つのESに格納されている。そして、図29に示すように、データグループ識別子(data_group_id)に、右目用の本文データ(右目用の字幕文データ)であることを識別するための値(0x41から0x48及び0x61から0x68)を新たに追加する。なお、左目用の本文データ(左目用の字幕文データ)であることを識別するための値は、従来から割り当てられている値(0x1から0x8及び0x21から0x28)を利用する。ES内においては、組Aとして割り当てられた値と、組Bとして割り当てられた値とを交互に使用する。また、左目用の字幕文データには、図15に示すように、字幕文字列とオフセット参照情報とを含んでいる。右目用の字幕文データにはオフセット参照情報は含まれない、つまり右目用の字幕文データは図8に示すようなデータ構造である。
また、本実施の形態においては、第1実施の形態と同様に、ビデオオフセット情報は、ビデオアクセスユニットごとに、当該ビデオアクセスユニットに含まれる補足データ内に定義されている。
多重化分離部2202は、分離した字幕ストリームのうち、左目用の字幕管理データ及び字幕文データを形成するデータを字幕用デコーダ2204aへ出力し、右目用の字幕管理データ及び字幕文データを形成するデータを字幕用デコーダ2204bへ出力する。
(2)字幕用デコーダ2204a
字幕用デコーダ2204aは、多重化分離部2202から受け取った左目用のデータを復号して、左目用の字幕文データを生成し、左目用の字幕文データに含まれる字幕文(左目用字幕文)を左目用字幕バッファ2208aに書き込む。
字幕用デコーダ2204aは、オフセット参照情報を字幕生成処理部2211へ出力する。
(3)字幕用デコーダ2204b
字幕用デコーダ2204bは、多重化分離部2202から受け取った右目用のデータを復号して、右目用の字幕文データを生成し、右目用の字幕文データに含まれる字幕文(右目用字幕文)を右目用字幕バッファ2208bに書き込む。
(4)左目用字幕バッファ2208a
左目用字幕バッファ2208aは、字幕用デコーダ2204aで生成された一画像分の左目用字幕文を格納するためのバッファであり、そのサイズは、960×540である。
(5)右目用字幕バッファ2208b
右目用字幕バッファ2208bは、字幕用デコーダ2204bで生成された一画像分の右目用字幕文を格納するためのバッファであり、そのサイズは、960×540である。
(6)サイズ変換部2209a
サイズ変換部2209aは、左目用字幕バッファ2208aに格納されている一画像分の左目用字幕文に対して、その画像サイズ(960×540)を、左目映像のサイズ(1920×1080)となるよう所定の倍率(縦横2倍)で拡大する。具体的な拡大方法は第1の実施の形態と同様である。
(7)サイズ変換部2209b
サイズ変換部2209bは、右目用字幕バッファ2208bに格納されている一画像分の右目用字幕文に対して、その画像サイズ(960×540)を、右目映像のサイズ(1920×1080)となるよう所定の倍率(縦横2倍)で拡大する。具体的な拡大方法は第1の実施の形態と同様である。
(8)左目用字幕プレーン2210a、右目用字幕プレーン2210b
左目用字幕プレーン2210aは、サイズ変換部2209aで画像サイズが1920×1080に変換された一画像分の左目用字幕文の映像の画素データをライン単位で格納し、水平同期信号、垂直同期信号に沿ってこれらの画素データを出力するためのメモリである。
また、右目用字幕プレーン2210bは、サイズ変換部2209bで画像サイズが1920×1080に変換された一画像分の右目用字幕文の映像の画素データをライン単位で格納し、水平同期信号、垂直同期信号に沿ってこれらの画素データを出力するためのメモリである。
(9)字幕生成処理部2211
字幕生成処理部2211は、左目用字幕プレーン2210a及び右目用字幕プレーン2210bそれぞれに格納されている左目用字幕文の映像及び右目用字幕文の映像それぞれに、映像の送信元からの指示に応じたオフセット値を適用して視差画像を生成するものである。
字幕生成処理部2211は、図27に示すように、判定部1221、オフセット値特定部1222、左目用字幕生成部2223及び右目用字幕生成部2224から構成されている。
判定部1221、オフセット値特定部1222は、第1の実施の形態で説明しているので、ここでの説明は省略する。
(9−1)左目用字幕生成部2223、右目用字幕生成部2224
左目用字幕生成部2223は左目用字幕プレーン2210aに格納された左目用字幕文の映像からオフセット値適用後の左目用字幕文の映像を生成し、右目用字幕生成部2224は右目用字幕プレーン2210bに格納された字幕文の映像からオフセット値適用後の右目用字幕文の映像を生成するものである。
具体的には、左目用字幕生成部2223は、オフセット値特定部1222から受け取った値をオフセット値として、左目用字幕プレーン2210aに対して水平座標にオフセット値を加算してオフセット値適用後の左目用字幕文の映像を生成し、出力処理部1212へ出力する。また、右目用字幕生成部2224は、オフセット値特定部1222から受け取った値をオフセット値として、右目用字幕プレーン2210bに対して水平座標にオフセット値を減算してオフセット値適用後の右目用字幕文の映像を生成し、出力処理部1212へ出力する。
3.2 送信装置の構成について
送信装置の構成は、第1の実施の形態で示す送信装置1300と同様であるが、字幕用エンコーダが、1つのESを生成する際に、左目用の字幕文データと右目用の字幕文データとの双方が含まれるように生成する。
その他の機能については、第1の実施の形態と変更はないため、ここでの説明は省略する。
3.3 動作
(1)映像処理装置2200の全体動作
映像処理装置2200の全体動作は、図20に示すステップS25が字幕用デコーダ2204a、2204bそれぞれで行われる点、ステップS30がサイズ変換部2209a、2209bそれぞれで行われる点が、第1の実施の形態とは異なる。しかしながら、処理の概念は同様であるので、ここでの説明は省略する。
(2)左目用字幕文及び右目用字幕文の生成処理
第2の実施の形態における左目用字幕文及び右目用字幕文の生成処理は、図21に示すステップS220において左目用字幕生成部2223が左目用字幕プレーン2210aを用いる点が、ステップS125において右目用字幕生成部2224が右目用字幕プレーン2210bを用いる点が、第1の実施の形態とは異なる。しかしながら、処理の概念は同様であるので、ここでの説明は省略する。
(3)送信装置の動作
第2の実施の形態における送信装置の動作は、図22に示すステップS205において、左目用の字幕文データと右目用の字幕文データとの双方を含むESを符号化する点が、第1の実施の形態と異なる。しかしながら、処理の概念は同様であるので、ここでの説明は省略する。
3.4 変形例
以上、第2の実施の形態に基づいて説明したが、本発明は上記の実施の形態に限られない。例えば、以下のような変形例が考えられる。
(1)オフセット参照情報は、左目用の字幕文データのデータ構造内で定義するとしたが、これに限定されない。
右目用の字幕文データのデータ構造内で定義してもよい。
または、オフセット参照情報は、左目用字幕管理データ及び右目用字幕管理データの何れかのデータ構造内に定義してもよいし、新たなデータ(オフセット管理データ)を用意し、オフセット管理データ内で定義してもよい。オフセット管理データのデータ構造については、第1の実施の形態で説明しているので、ここでの説明は省略する。
または、左名用字幕文データ及び右目用字幕文データの何れかに含まれる字幕文字列を定義する特殊符号シーケンス内に、Type情報及び参照情報を含めてもよい。
または、Type情報のみを、PMTのディスクリプタやストリーム情報のデータとして新規に格納してもよいし、EITに格納してもよい。つまり、Type情報は、SIの中に含めてもよい。このとき、参照情報は、上記と同様に、左目用字幕文データ、右目用字幕文データ、左目用字幕管理データ、右目用字幕管理データ、オフセット管理データ及び字幕文字列を定義する特殊符号シーケンス内の何れかに格納してもよい。このとき、Type情報が固定値を使用することを示す場合には、固定値をType情報とともに、PMTに格納してもよい。
(2)上記第2実施の形態において、ビデオオフセット情報は、ビデオアクセスユニットごとに、当該ビデオアクセスユニットに含まれる補足データ内に定義されるとしたが、これに限定されない。第1の実施の形態と同様に、PMTのデータ構造内にビデオオフセット情報を定義してもよい。
(3)上記第2の実施の形態において、左目用字幕文データ及び右目用字幕文データは同一のESに含まれるとしたが、これに限定されない。
図30に示すように、左目用字幕文データ、右目用字幕文データを、それぞれ独立した異なるエレメンタリストリームES1、ES2に格納してもよい。
(4)上記第2の実施の形態では2つの字幕用デコーダ2204a、2204bそれぞれを用いて左目用字幕文と、右目用字幕文を生成したが、これに限定されない。
1つの共通する字幕用デコーダを用いて、字幕データの入力、描画画像の出力を切り替え、左目用、及び右目用それぞれの字幕文を対応する字幕プレーンに描画するようにしてもよい。
(5)上記第2の実施の形態では、左目用字幕文及び右目用字幕文に対して、オフセット値を適用して、3D表示の際に、さらなる奥行感を示すようにしたが、これに限定されない。
左目用字幕文及び右目用字幕文に対して、オフセット値を適用することなく、そのまま左目映像、及び右目映像に重畳してもよい。左目用字幕文及び右目用字幕文それぞれの字幕プレーンでの表示位置を調整することにより、3D表示は可能である。
(6)上記第2の実施の形態において、図29に示すように、左目用の字幕文データのデータグループ識別子を従来の2D映像に対する字幕文データのものと共用するとしたが、これに限定されない。
左目用字幕文データに新たなデータグループ識別子を割り当て、右目用字幕文データについて従来の2D映像に対する字幕文データのものと共用するとしてもよい。
または、左目用字幕文、右目用字幕文それぞれについて、データグループ識別子を新たに割り当ててもよい。
(7)上記実施の形態及び変形例を組み合わせるとしてもよい。
4.その他の変形例
また、上記各実施の形態などに限らず、例えば、以下のような変形例が考えられる。
(1)上記各実施の形態では、オフセット値として参照値が参照される場合には、オフセット参照情報D100の参照情報D102が示すオフセットシーケンスIDにより参照すべき値との対応付けを行ったが、これに限定されない。
参照値(オフセット値)と、再生時間とを対応付けてもよい。この場合のビデオオフセット情報のデータ構造の一例を、図31(a)に示す。
図31(a)に示すように、ビデオオフセット情報は、日本語字幕用オフセット情報、英語字幕用オフセット情報、・・・と言語ごとに上記の対応付けが行われたテーブル情報が存在する。
テーブル情報は、映像の表示時刻を示すPTSと、オフセット値とからなる組を複数記憶している。ここでは、PTSと、オフセット値とからなる組をオフセットエントリと呼ぶ。オフセットエントリの適用区間は、図31(b)に示すように、当該オフセットエントリのPTSから次のオフセットエントリのPTSまでである。例えば、オフセットエントリ#1のオフセット値(+5)の適用区間は、オフセットエントリ#1のPTS(180000)からオフセットエントリ#2のPTS(270000)までとなる。
例えば、オフセット値として参照値を用いると判断された場合には、オフセット値特定部1222は、映像の再生時刻(PTS)と、このテーブル情報に基づいて、用いるべきオフセット値を特定する。なお、オフセット値として参照値を用いる場合にはオフセット参照情報D100の参照情報D102は参照されない。そのため、この場合の参照情報D102は空白であってもよいし、何らかの値が格納されていてもよい。
(2)上記各実施の形態では、ビデオオフセット情報をビデオアクセスユニット(ピクチャ)ごとに格納したが、これに限定されない。
BD−ROMのオフセット情報と同様に、当該ビデオオフセット情報をGOP(Group Of Pictures)内のデータ分まとめて記録してもよい。例えば、GOPの先頭に存在するビデオアクセスユニットに記録することで、当該GOP内に存在する他のビデオアクセスユニットにも適用される。
(3)ライブ放送などで、固定値の利用の可否判断、参照値を用いる場合における適切な参照値(オフセット情報)の計算及びオフセット参照情報の生成のために送出データの準備に数フレーム分の遅れが生じると困るような場合には、ピクチャ単位でオフセット値そのものを格納するようにしてもよい。
(4)上記各実施の形態では、1画面に対して1つのビデオオフセット情報が対応付けられたが、これに限定されない。
図32に示すように、1つの画面を複数の領域(ここでは、9つの領域)に分割し、領域ごとにビデオオフセット情報を対応付けてもよい。例えば、オフセット値として参照値を用いると判断された場合には、オフセット値特定部1222は、字幕文の表示位置に応じた領域を特定し、特定した領域に割り当てられたビデオオフセット情報から、オフセット参照情報D100の参照情報D102が示すオフセットシーケンスIDに応じた値(オフセット値)を取得する。具体的には、図33のように、字幕の表示位置が、9の領域のうち最下段3つの領域と重なる場合、オフセット値特定部1222は、3つの領域のうち1つの領域を選択し、その領域に応じたビデオオフセット情報(ここでは、ビデオオフセット情報#6)から適切なオフセット値を取得する。
または、表示する字幕の用途ごとに、ビデオオフセット値を設定してもよい。例えば、日本語字幕用にビデオオフセット情報#1を、日本語吹き替え音声用字幕にビデオオフセット#2、英語字幕用にビデオオフセット#3を、それぞれ割り当てる。
(5)また、劇場中継などでカメラ位置、構図、奥行き情報変化しないような内容の放送番組であって、参照値を参照する場合には、1つの画面を複数の領域(ここでは、9つの領域)に分割し、領域ごとにビデオオフセット情報ではなく、奥行き情報を対応付けてもよい。
各領域の奥行き情報は、DepthMapにて管理される。DepthMapは、ビデオのエンコード時の動き予測処理を利用して、ビデオアクセスユニット(ピクチャ)毎に、右目と左目画像の差をマクロブロック単位で解析し、両眼視差として数値化したデータあり、このデータは上記の領域ごとに算出される。
参照値を用いると判断される場合、オフセット値特定部1222は、数式“Offset = MaxVideoOffset(DepthMap,inTC,outTC,X1,Y1,X2,Y2)+Offset Padding”を用いて、オフセット値を算出する。ここで、MaxVideoOffsetは、DepthMapから指定領域の字幕表示期間の奥行き情報を取得する関数である。inTC,outTCは、字幕の表示期間タイムコードを示す。X1,X2,Y1,Y2は、座標(X1,Y1)と(X2,Y2)とから定まる線分を対角線とする矩形領域に表示される字幕の座標点である。Offset Paddingは、映像に重なる字幕の奥行きをどれくらい映像から手前に離すかを決める値で、字幕全体に適用される。
(6)上記各実施の形態では、判定部1221は、Type情報D101を参照して固定値を用いるか、参照値を用いるかを判断したが、これに限定されない。
判定部1221は、表示対象のビデオアクセスユニットにビデオオフセット情報が設定されているか否かを判断し、設定されていれば参照値を用いると、設定されていなければ固定値を用いると判断するとしてもよい。
(7)上記実施の形態では、映像処理装置の一例として3Dデジタルテレビであるとしたが、これに限定されない。映像処理装置を、DVDレコーダ、BD(Blu−ray Disc)レコーダやセットトップボックスに適用してもよい。
(8)上記各実施の形態では、映像と重畳されるのは字幕文としたが、これに限定されない。
映像との重畳対象は、字幕スーパーといったグラフィックスデータであってもよい。
(9)映像プレーンと字幕プレーンの解像度が等しい場合には、サイズ変更の必要はない。この場合、トランスポートストリーム中にType情報を持たせることは、字幕文等の3D表示に対しては有効である。
(10)上記実施の形態において、図15に示すType情報D101は、複数の映像により1つに構成された3D番組の全体に対して固定値を用いるか、前記3D番組を構成する映像それぞれに応じた変動値のどちらかを用いるかの指示を保持しているとしたが、これに限定されない。
前記3D番組の一部分については固定値を、他の部分については変動値を用いるというように混在させてもよい。
これにより、3D番組の本編(例えば、映画番組での本編)に関しては変動値を用い、コマーシャルなどの前記3D番組の本編以外の特定の部分に関しては固定値を用いることができる。
(11)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(12)上記の各装置を構成する構成要素の一部または全部は、1個の集積回路から構成されているとしてもよい。
(13)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(14)本発明の一態様として、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよい。
また、前記コンピュータプログラムをコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなどに記録したものとしてもよい。
また、前記コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムを前記記録媒体に記録して移送することにより、または前記プログラムを前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(15)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
5.まとめ
上記実施の形態では、字幕文データに字幕本文とそれに対応するオフセット参照情報との双方を格納しているので、字幕管理データ内でオフセット参照情報を格納する場合に比べて、映像処理装置は、字幕文データが正しく対応するオフセット情報により即座に処理される。なぜなら、映像処理装置の受信開始のタイミングでは、字幕文データから開始する場合があり、字幕管理データに格納しておくと、受信開始のタイミングから次の字幕管理データを受信するまでの間に受信した字幕文データに対するオフセット参照情報が取得されていないため、字幕文を適切に表示するができない。しかしながら、字幕文データにオフセット参照情報を格納しておくと、映像処理装置の受信開始のタイミングで字幕文データを最初に受信した場合であっても、適切なオフセット値を取得することができるので、字幕文を適切に表示することができる。
また、字幕文データにおいて、データユニット(字幕文字列、オフセット参照情報)の格納順を、字幕文字列を格納するデータユニット、オフセット参照情報を格納するデータユニットの順にすると、オフセット情報データユニットを扱うことができない従来の映像処理装置、つまり2D映像を受信し表示する装置においても、正しく字幕文字列を処理できるという互換性を提供することができる。
また、図23に示すように、字幕管理データにオフセット参照情報を格納した場合には、字幕単位に参照するビデオオフセット情報が変化しない状況では、個々の字幕文データではなく字幕管理データで指定することで、字幕文ごとに不用意に参照する値が変化するということを避けることができる。
6.補足
(1)本発明の一態様は、映像処理装置であって、3D映像に係る映像ストリームと、当該映像ストリームから得られる映像に重畳して表示され、且つ表示領域のサイズが前記映像の表示領域のサイズとは異なる表示データに係るデータストリームとを受信する受信手段と、前記映像ストリームから左目用の映像と右目用の映像とを生成する映像生成手段と、前記データストリームから得られた前記表示データを、当該表示データの表示領域のサイズが前記映像生成手段で生成された各映像の表示領域のサイズと一致するよう所定の倍率で拡大する拡大手段と、表示領域のサイズが拡大された前記表示データと、当該表示データについて視差を生じさせるためのオフセット値とを用いて、左目用の表示データと右目用の表示データとを生成するデータ生成手段と、前記左目用の映像と前記左目用の表示データとを、前記右目用の映像と前記右目用の表示データとをそれぞれ重畳して、表示する表示処理手段とを備えることを特徴とする。
この構成によると、映像処理装置は、オフセット値を用いて左目用の表示データと右目用の表示データとを生成する前に、表示データの表示領域のサイズが各映像の表示領域のサイズと一致するように当該表示データを拡大している。そのため、オフセット値によって生成される左目用の表示データと右目用の表示データとは、本来意図した視差を生じさせるものとなっているので、適切な表示データとして映像に重畳させることができる。
(2)ここで、前記映像ストリームから得られる複数の映像により一の3D番組が構成され、前記データ生成手段は、前記オフセット値として、前記一の3D番組に対して割り当てられた固定値を用いるか、前記3D番組を構成する映像それぞれに応じた変動値を用いるかを示す指示を取得し、取得した前記指示に基づいて前記オフセット値を決定し、決定した前記オフセット値を用いて前記左目用の表示データと前記右目用の表示データとを生成するとしてもよい。
この構成によると、映像処理装置は、指示に応じて固定値及び変動値の何れかをオフセット値として用いることができる。
(3)ここで、前記3D番組を構成する映像ごとに、1つ以上の変動値と、各変動値に対応する変動値特定情報とからなるテーブル情報が、前記映像ストリームに含まれており、前記データストリームは、字幕に係る字幕ストリームであり、当該字幕ストリームを構成する1つ以上の字幕文データそれぞれには、表示すべき字幕文と、前記指示に応じて前記固定値及び前記変動値を特定する変動値特定情報の何れかからなる付随情報とが含まれており、前記データ生成手段は、前記指示が前記一の3D番組に対して割り当てられた固定値を用いることを示す場合には前記付随情報から前記固定値を前記オフセット値として取得し、前記指示が前記3D番組を構成する映像それぞれに応じた変動値を用いることを示す場合には前記テーブル情報から前記付随情報に含まれる前記変動値特定情報が示す変動値を前記オフセット値として取得するとしてもよい。
この構成によると、映像処理装置は、指示に応じて固定値及び変動値特定情報の何れかが字幕文データに含まれているので、各ストリームの受信開始の際に最初に字幕文データを最初に取得した時点で、使用すべきオフセット値を特定することができる。
(4)ここで、前記付随情報は、前記字幕文データにおいて前記字幕文に後続して配置されており、前記映像処理装置は、さらに、前記字幕ストリームから前記字幕文データを取得し、取得した字幕文データに含まれる前記字幕文を読み出し、所定のバッファに書き込む字幕文データ生成手段を備え、前記データ生成手段は、前記字幕文データ生成手段が前記字幕文を読み出し、前記所定のバッファに書き込みを行った後、前記字幕文に後続する前記付随情報を取得するとしてもよい。
この構成によると、付随情報は、字幕文に後続して字幕文データ内に配置されるので、字幕文を2D表示する装置においても、付随情報は解析できなくても字幕文の解析は解析できる。そのため、付随情報が、字幕文に後続して字幕文データ内に配置されることで、映像処理装置と従来の2D表示を行う装置との互換性を保つことができる。
(5)ここで、前記受信手段は、前記映像ストリーム及び前記データストリームを受信する際に、SI(Service Information)を受信し、前記指示は、前記データストリームを構成するデータ、及び前記SIを構成するデータの何れかに含まれているとしてもよい。
この構成によると、映像処理装置は、指示がデータストリームに含まれる場合には、データストリームの解析時に指示内容を知ることができ、指示がSIに含まれる場合には、受信した各ストリームを開始する前に事前に指示内容を知ることができる。
本発明は、3D番組の映像とともに字幕文や文字スーパーなどのデータを3D表示する装置に適用することが可能である。
1100 映像処理システム
1200、2200 映像処理装置
1201 受信部
1202、2202 多重化分離部
1203 3D映像ビデオデコーダ
1204、2204a、2204b 字幕用デコーダ
1205 オーディオデコーダ
1206 左目映像プレーン
1207 右目映像プレーン
1208 字幕バッファ
1209、2209a、2209b サイズ変換部
1210 字幕プレーン
1211、2211 字幕生成処理部
1212 出力処理部
1221 判定部
1222 オフセット値特定部
1223、2223 左目用字幕生成部
1224、2224 右目用字幕生成部
1231 切替部
1232、1233 重畳部
1300 送信装置
1301 ビデオエンコーダ
1302 字幕用エンコーダ
1303 オーディオエンコーダ
1304 ビデオストリーム格納部
1305 字幕ストリーム格納部
1306 オーディオストリーム格納部
1307 多重化部
1308 送信部
2208a 左目用字幕バッファ
2208b 右目用字幕バッファ
2210a 左目用字幕プレーン
2210b 右目用字幕プレーン

Claims (5)

  1. 3D映像に係る映像ストリームと、当該映像ストリームから得られる映像に重畳して表示され、且つ表示領域のサイズが前記映像の表示領域のサイズとは異なる表示データに係るデータストリームとを受信する受信手段と、
    前記映像ストリームから左目用の映像と右目用の映像とを生成する映像生成手段と、
    前記データストリームから得られた前記表示データを、当該表示データの表示領域のサイズが前記映像生成手段で生成された各映像の表示領域のサイズと一致するよう所定の倍率で拡大する拡大手段と、
    表示領域のサイズが拡大された前記表示データと、当該表示データについて視差を生じさせるためのオフセット値とを用いて、左目用の表示データと右目用の表示データとを生成するデータ生成手段と、
    前記左目用の映像と前記左目用の表示データとを、前記右目用の映像と前記右目用の表示データとをそれぞれ重畳して、表示する表示処理手段とを備え、
    前記映像ストリームから得られる複数の映像により一の3D番組が構成され、
    前記データ生成手段は、
    前記オフセット値として、前記一の3D番組に対して割り当てられた固定値を用いるか、前記3D番組を構成する映像それぞれに応じた変動値を用いるかを示す指示を取得し、取得した前記指示に基づいて前記オフセット値を決定し、決定した前記オフセット値を用いて前記左目用の表示データと前記右目用の表示データとを生成する
    ことを特徴とする映像処理装置。
  2. 前記3D番組を構成する映像ごとに、1つ以上の変動値と、各変動値に対応する変動値特定情報とからなるテーブル情報が、前記映像ストリームに含まれており、
    前記データストリームは、字幕に係る字幕ストリームであり、
    当該字幕ストリームを構成する1つ以上の字幕文データそれぞれには、表示すべき字幕文と、前記指示に応じて前記固定値及び前記変動値を特定する変動値特定情報の何れかからなる付随情報とが含まれており、
    前記データ生成手段は、前記指示が前記一の3D番組に対して割り当てられた固定値を用いることを示す場合には前記付随情報から前記固定値を前記オフセット値として取得し、前記指示が前記3D番組を構成する映像それぞれに応じた変動値を用いることを示す場合には前記テーブル情報から前記付随情報に含まれる前記変動値特定情報が示す変動値を前記オフセット値として取得する
    ことを特徴とする請求項1に記載の映像処理装置。
  3. 前記付随情報は、前記字幕文データにおいて前記字幕文に後続して配置されており、
    前記映像処理装置は、さらに、
    前記字幕ストリームから前記字幕文データを取得し、取得した字幕文データに含まれる前記字幕文を読み出し、所定のバッファに書き込む字幕文データ生成手段を備え、
    前記データ生成手段は、前記字幕文データ生成手段が前記字幕文を読み出し、前記所定のバッファに書き込みを行った後、前記字幕文に後続する前記付随情報を取得する
    ことを特徴とする請求項2に記載の映像処理装置。
  4. 前記受信手段は、
    前記映像ストリーム及び前記データストリームを受信する際に、SI(Service Information)を受信し、
    前記指示は、
    前記データストリームを構成するデータ、及び前記SIを構成するデータの何れかに含まれている
    ことを特徴とする請求項1に記載の映像処理装置。
  5. 3D映像を表示する映像処理装置で用いられる映像処理方法であって、
    3D映像に係る映像ストリームと、当該映像ストリームから得られる映像に重畳して表示され、且つ表示領域のサイズが前記映像の表示領域のサイズとは異なる表示データに係るデータストリームとを受信する受信ステップと、
    前記映像ストリームから左目用の映像と右目用の映像とを生成する映像生成ステップと、
    前記データストリームから得られた前記表示データを、当該表示データの表示領域のサイズが前記映像生成ステップで生成された各映像の表示領域のサイズと一致するよう所定の倍率で拡大する拡大ステップと、
    表示領域のサイズが拡大された前記表示データと、当該表示データについて視差を生じさせるためのオフセット値とを用いて、左目用の表示データと右目用の表示データとを生成するデータ生成ステップと、
    前記左目用の映像と前記左目用の表示データとを、前記右目用の映像と前記右目用の表示データとをそれぞれ重畳して、表示する表示処理ステップとを含み、
    前記映像ストリームから得られる複数の映像により一の3D番組が構成され、
    前記データ生成ステップにおいて、
    前記オフセット値として、前記一の3D番組に対して割り当てられた固定値を用いるか、前記3D番組を構成する映像それぞれに応じた変動値を用いるかを示す指示を取得し、取得した前記指示に基づいて前記オフセット値を決定し、決定した前記オフセット値を用いて前記左目用の表示データと前記右目用の表示データとを生成する
    ことを特徴とする映像処理方法。
JP2013511938A 2011-04-28 2012-04-26 映像処理装置及び映像処理方法 Expired - Fee Related JP5957769B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161479949P 2011-04-28 2011-04-28
US61/479,949 2011-04-28
US201161497579P 2011-06-16 2011-06-16
US61/497,579 2011-06-16
PCT/JP2012/002873 WO2012147354A1 (ja) 2011-04-28 2012-04-26 映像処理装置及び映像処理方法

Publications (2)

Publication Number Publication Date
JPWO2012147354A1 JPWO2012147354A1 (ja) 2014-07-28
JP5957769B2 true JP5957769B2 (ja) 2016-07-27

Family

ID=47071884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013511938A Expired - Fee Related JP5957769B2 (ja) 2011-04-28 2012-04-26 映像処理装置及び映像処理方法

Country Status (6)

Country Link
US (1) US9357200B2 (ja)
JP (1) JP5957769B2 (ja)
KR (1) KR20140007928A (ja)
CN (1) CN103503449B (ja)
BR (1) BR112013027226A2 (ja)
WO (1) WO2012147354A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US9860515B2 (en) * 2012-12-11 2018-01-02 Electronics And Telecommunications Research Institute Apparatus and method for 3D content broadcasting with boundary information
DE202015006141U1 (de) 2014-09-02 2015-12-14 Apple Inc. Elektronische Touch-Kommunikation
WO2016036427A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
WO2016204481A1 (ko) * 2015-06-16 2016-12-22 엘지전자 주식회사 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
US10531063B2 (en) 2015-12-25 2020-01-07 Samsung Electronics Co., Ltd. Method and apparatus for processing stereoscopic video
WO2018004967A1 (en) * 2016-06-12 2018-01-04 Apple Inc. Digital touch on live video
KR102526754B1 (ko) 2016-07-13 2023-04-27 삼성전자주식회사 3차원 영상 처리 방법 및 장치
CN113438514B (zh) * 2021-04-26 2022-07-08 深圳Tcl新技术有限公司 字幕处理方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273333A (ja) * 2009-04-21 2010-12-02 Panasonic Corp 立体映像合成装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697815B2 (en) 2001-02-28 2010-04-13 Kddi Corporation Video playback unit, video delivery unit and recording medium
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
KR100812905B1 (ko) 2002-03-27 2008-03-11 산요덴키가부시키가이샤 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체
JPWO2004080071A1 (ja) 2003-03-06 2006-06-08 松下電器産業株式会社 データ処理装置
CN100536554C (zh) * 2003-03-06 2009-09-02 松下电器产业株式会社 数据处理装置及方法
JP4618384B2 (ja) 2008-06-09 2011-01-26 ソニー株式会社 情報提示装置および情報提示方法
EP2521366B1 (en) 2009-02-19 2014-09-17 Panasonic Corporation Playback device
WO2010099495A2 (en) * 2009-02-27 2010-09-02 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
JP2011035858A (ja) * 2009-08-06 2011-02-17 Panasonic Corp 映像処理装置
JP5442373B2 (ja) * 2009-09-25 2014-03-12 シャープ株式会社 表示制御装置、表示制御装置の制御方法、制御プログラムおよび記録媒体
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101759943B1 (ko) * 2010-01-11 2017-07-20 엘지전자 주식회사 방송 수신기 및 3d 이미지 디스플레이 방법
KR101789636B1 (ko) * 2010-04-30 2017-10-25 엘지전자 주식회사 이미지 처리 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273333A (ja) * 2009-04-21 2010-12-02 Panasonic Corp 立体映像合成装置

Also Published As

Publication number Publication date
CN103503449A (zh) 2014-01-08
JPWO2012147354A1 (ja) 2014-07-28
BR112013027226A2 (pt) 2016-12-27
US9357200B2 (en) 2016-05-31
CN103503449B (zh) 2016-06-15
WO2012147354A1 (ja) 2012-11-01
KR20140007928A (ko) 2014-01-20
US20140002621A1 (en) 2014-01-02

Similar Documents

Publication Publication Date Title
JP5957769B2 (ja) 映像処理装置及び映像処理方法
JP5336666B2 (ja) 符号化方法、表示装置、復号方法
US9661320B2 (en) Encoding device, decoding device, playback device, encoding method, and decoding method
US20120033039A1 (en) Encoding method, display device, and decoding method
US20120050476A1 (en) Video processing device
JPWO2012111325A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
JPWO2012111320A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
US20140089962A1 (en) Image playback device, image playback method, image playback program, image transmission device, image transmission method and image transmission program
US20140078256A1 (en) Playback device, transmission device, playback method and transmission method
JPWO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
JP6008292B2 (ja) ビデオストリームの映像のデータ作成装置及び再生装置
US8934757B2 (en) Content distribution system, playback device, distribution server, playback method, and distribution method
JP2012120142A (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
US20120188340A1 (en) Content distribution system, playback apparatus, distribution server, playback method, and distribution method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140606

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160602

R151 Written notification of patent or utility model registration

Ref document number: 5957769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees