JP2011228950A - データ構造、画像処理装置、画像処理方法、およびプログラム - Google Patents

データ構造、画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2011228950A
JP2011228950A JP2010097213A JP2010097213A JP2011228950A JP 2011228950 A JP2011228950 A JP 2011228950A JP 2010097213 A JP2010097213 A JP 2010097213A JP 2010097213 A JP2010097213 A JP 2010097213A JP 2011228950 A JP2011228950 A JP 2011228950A
Authority
JP
Japan
Prior art keywords
image
eye image
parallax
information
superimposition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010097213A
Other languages
English (en)
Inventor
Suguru Ushiki
卓 牛木
Takafumi Morifuji
孝文 森藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010097213A priority Critical patent/JP2011228950A/ja
Priority to CN2011100976015A priority patent/CN102238404A/zh
Priority to US13/085,680 priority patent/US9549167B2/en
Publication of JP2011228950A publication Critical patent/JP2011228950A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】重畳情報を有する3D画像に対して、視差検出および視差制御の精度を向上させることができるようにする。
【解決手段】3D画像処理部54は、左目用画像と右目用画像からなる3D画像の画像データと、左目用画像と右目用画像の重畳領域の情報である重畳領域情報を取得する。視差検出部71は、左目用画像と右目用画像の重畳領域情報で特定される重畳領域を除いた領域の視差量を検出する。制御パラメータ算出部72は、検出された視差量に基づいて制御パラメータを算出する。視差制御部73は、制御パラメータに基づいて、左目用画像と右目用画像の視差を制御する。本発明は、例えば、取得された3D画像の画像データを処理する画像処理装置に適用できる。
【選択図】図8

Description

本発明は、データ構造、画像処理装置、画像処理方法、およびプログラムに関し、特に、重畳情報を有する3D画像に対して、視差検出および視差制御の精度を向上させることができるようにするデータ構造、画像処理装置、画像処理方法、およびプログラムに関する。
映画等の映像コンテンツとしては2D画像が主流であるが、最近では、3D画像が注目を集めており、3D画像の表示装置や、3D画像の符号化と復号の方法について様々な技術が提案されている(例えば、特許文献1,2参照)。
3D画像は、左目で視認する左目用画像と右目で視認する右目用画像により構成され、左目用画像と右目用画像に所定の視差が設定されていることにより、視聴者は画像を立体的に知覚することができる。
特開平10−327430号公報 特開2008−182669号公報
ところで、3D画像においても、2D画像と同様、字幕などの重畳情報が含まれる場合がある。このような重畳情報が含まれる3D画像に対して、視差検出等の処理を行った場合には、重畳情報があるために正確な視差検出を行うことができないことがある。
本発明は、このような状況に鑑みてなされたものであり、重畳情報を有する3D画像に対して、視差検出および視差制御の精度を向上させることができるようにするものである。
本発明の第1の側面の画像処理装置は、左目用画像と右目用画像からなる3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報を取得する取得手段と、前記左目用画像と右目用画像の前記重畳領域情報で特定される重畳領域を除いた領域の視差量を検出する視差検出手段とを備える。
本発明の第1の側面の画像処理方法は、左目用画像と右目用画像からなる3D画像の画像処理を行う画像処理装置が、前記3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報を取得し、前記左目用画像と右目用画像の前記重畳領域情報で特定される重畳領域を除いた領域の視差量を検出するステップを含む。
本発明の第1の側面のプログラムは、コンピュータに、左目用画像と右目用画像からなる3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報を取得し、前記左目用画像と右目用画像の前記重畳領域情報で特定される重畳領域を除いた領域の視差量を検出するステップを含む処理を実行させるためのものである。
本発明の第1の側面においては、左目用画像と右目用画像からなる3D画像の画像データと、左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報が取得され、左目用画像と右目用画像の重畳領域情報で特定される重畳領域を除いた領域の視差量が検出される。
本発明の第2の側面のデータ構造は、3Dコンテンツのコンテンツデータとして、左目用画像と右目用画像からなる3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報とを含む。
本発明の第2の側面においては、3Dコンテンツのコンテンツデータとして、左目用画像と右目用画像からなる3D画像の画像データと、左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報とが含まれている。
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本発明の第1および第2の側面によれば、重畳情報を有する3D画像に対して、視差検出および視差制御の精度を向上させることができるようにする。
本発明のデータ構造を有する3Dコンテンツのデータを記録媒体に記録する記録装置の構成例を示すブロック図である。 図1の記録装置による記録処理を説明するフローチャートである 記録媒体に記録されるデータの階層構造を示す図である。 MPEG4のボックスの拡張領域の例を示す図である。 MPEG4のボックスの拡張領域の他の例を示す図である。 MPEG4のボックスの拡張領域のさらに他の例を示す図である。 本発明を適用した再生装置の一実施の形態の構成例を示すブロック図である。 3D画像処理部の詳細構成例を示すブロック図である。 3D画像処理部の効果を説明する図である。 3D画像処理部の効果を説明する図である。 図7の再生装置による再生処理を説明するフローチャートである。 3D画像処理部のその他の詳細構成例を示すブロック図である。 図12の3D画像処理部による視差制御処理を説明するフローチャートである。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<記録装置の構成例>
[記録装置の構成ブロック図]
図1は、本発明のデータ構造を有する3Dコンテンツのデータを記録媒体に記録する記録装置の構成例を示すブロック図である。
図1の記録装置10は、ビデオエンコーダ11、オーディオエンコーダ12、多重化部13、および記録制御部14により構成される。
記録装置10は、3Dコンテンツのコンテンツデータを符号化して、BDROM(Blu-Ray(登録商標) Disc Read Only Memory)等の記録媒体20に記録させる。コンテンツデータは、3D画像の画像データ(以下、3Dビデオデータともいう。)、その画像データに対応する音声データを含み、3Dビデオデータは左目用画像の画像データと右目用画像の画像データとからなる。
また、コンテンツデータにはメタデータも含まれ、記録装置10は、3D画像に対し、重畳情報が貼り付けられている領域である重畳領域を示す重畳領域情報をメタデータ(付加情報)として記録媒体20に記録させる。ここで、重畳情報とは、字幕、OSD(On Screen Display)、メニュー画面(メニュー画像)、レターボックスの黒帯画像などの情報である。また、重畳領域情報は、例えば、矩形の重畳領域の左上隅の座標(画素位置)と縦方向および横方向の長さ、などの形式で表される。なお、重畳領域の特定の仕方は、これに限定されず、任意の方法を採用することができる。
記録装置10のビデオエンコーダ11は、外部から入力された3Dビデオデータを、MPEG2(Moving Picture Experts Group phase 2),MPEG4,AVC(Advanced Video Coding)等の符号化方式で符号化する。ビデオエンコーダ11は、符号化の結果得られるES(Elementary Stream)であるビデオストリームを多重化部13に供給する。
オーディオエンコーダ12は、外部から入力された3Dビデオデータに対応するオーディオデータをMPEG等の符号化方式で符号化し、その結果得られるESであるオーディオストリームを多重化部13に供給する。
多重化部13は、ビデオエンコーダ11から供給されるビデオストリームと、オーディオエンコーダ12から供給されるオーディオストリームを多重化し、その結果得られる多重化ストリームを記録制御部14に供給する。
記録制御部14は、多重化部13から供給される多重化ストリームを記録媒体20に記録させる。また、記録制御部14は、図示せぬ操作入力部等から入力される重畳領域情報を定義ファイルとして記録媒体20に記録させる。
以上のように構成される記録装置10では、3Dコンテンツのメタデータとして、重畳情報が貼り付けられている領域である重畳領域を示す重畳領域情報が記録媒体20に記録される。これにより、再生時に重畳領域情報に基づいた適切な3D画像処理を行わせることができる。
[記録装置の記録処理の説明]
図2は、図1の記録装置10による記録処理を説明するフローチャートである。この記録処理は、例えば、付加情報、3Dビデオデータ、およびオーディオデータが入力されたとき、開始される。
初めに、ステップS10において、記録制御部14は、操作入力部等で入力された重畳領域情報を定義ファイルとして記録媒体20に記録させる。
ステップS11において、ビデオエンコーダ11は、外部から入力された3Dビデオデータを、MPEG2,MPEG4,AVC等の符号化方式で符号化する。そして、ビデオエンコーダ11は、符号化の結果得られるビデオストリームを多重化部13に供給する。
ステップS12において、オーディオエンコーダ12は、外部から入力された3Dビデオデータに対応するオーディオデータをMPEG等の符号化方式で符号化し、その結果得られるオーディオストリームを多重化部13に供給する。
ステップS13において、多重化部13は、ビデオエンコーダ11からのビデオストリームとオーディオエンコーダ12からのオーディオストリームを多重化し、その結果得られる多重化ストリームを記録制御部14に供給する。
ステップS14において、記録制御部14は、多重化部13から供給される多重化ストリームを記録媒体20に記録媒体に記録させ、処理を終了する。
[付加情報のデータ構造]
図3は、記録媒体20に記録されるデータの階層構造を示す図である。
図3に示すように、記録媒体20に記録されるデータの階層は、オーディオストリームやビデオストリーム等のESのレイヤC、多重化ストリームのシステムレイヤであるレイヤB、記録媒体20に唯一の情報のレイヤA等により構成される。
上述した例では、付加情報としての重畳領域情報が記録媒体20に唯一の定義ファイルとして、即ち、レイヤAに記録されるように説明した。しかしながら、付加情報としての重畳領域情報は、レイヤBやレイヤCに記録されるようにすることもできる。
例えば、レイヤCにおいて付加情報が記録される場合、符号化方式がAVCであれば、付加情報は、SEI(Supplemental Enhancement Information)として、または、SPS(Sequence Parameter Set)やPPS(Picture Parameter Set)の一部として記録される。また、符号化方式がMPEG2であれば、ビデオシーケンス(Video Sequence)やエクステンションアンドユーザデータ(extension_and_user_data)として記録される。
この場合、1つのビデオストリーム内で重畳領域情報を可変にすることができる。また、1つの記録媒体20に異なる重畳領域情報が設定されている3D画像のビデオストリームが複数記録されている場合であっても、各重畳領域情報を再生装置に提供することができる。
一方、レイヤBにおいて付加情報が記録される場合、付加情報は、TS(Transport Stream)のプライベートパケット、PS(Program Stream)のプライベートパック、MPEG4のコンフィグレーション(Config)情報に含まれるボックス(Box)の拡張領域等に記録される。
付加情報が記録されるMPEG4のボックスの拡張領域は、例えば、図4に示すように、ファイルの先頭に位置するftypボックスの直後のPrivate Extension ボックス(図4中uuid)に設けられる。この場合、記録媒体20に記録された3Dビデオデータを再生する再生装置は、復号処理の前に重畳領域情報を取得することができるが、重畳領域情報はファイル内で不変となる。
なお、Private Extension ボックスには、重畳領域情報のほか、コーデックの種類、ビットレート、フレームサイズ、アスペクト比、画像が2D画像であるか3D画像であるかを示す情報等が記述される。
また、付加情報が記録されるMPEG4のボックスの拡張領域は、図5に示すように、moovボックス内のトラック情報(trak)の領域(図5中stsd)に設けられるようにしてもよい。この場合、ビデオストリームに参照先の付加情報の領域を表す情報が含まれており、再生装置は、その情報に基づいて、重畳領域情報を取得する。従って、この場合、ビデオストリーム内で重畳領域情報を可変にすることができる。但し、図4の場合に比べてアクセス性は悪い。
さらに、付加情報が記録されるMPEG4のボックスの拡張領域は、図6に示すように、mdatボックス内に設けられるようにしてもよい。即ち、付加情報が1つのメディアストリーム(side info.stream)として記録されるようにしてもよい。この場合、ビデオストリームと付加情報は時間情報で同期するため、重畳領域情報を時々刻々と変化させることができる。
なお、図4乃至図6の例では、ftypボックスの後に、moov ボックス、mdat ボックスが順に配置されているが、moov ボックスとmdat ボックスの配置はこれに限定されない。
<本発明を適用した再生装置の実施の形態>
[再生装置の構成ブロック図]
図7は、本発明を適用した再生装置の一実施の形態の構成例を示すブロック図である。
図7の再生装置50は、読出部51、分離部52、ビデオデコーダ53、3D画像処理部54、およびオーディオデコーダ55により構成される。再生装置50は、記録媒体20に記録されている3Dビデオデータとそれに対応する音声データを再生する。再生の際、再生装置50は、記録媒体20から読み出した付加情報である重畳領域情報に基づいて、適切に3D画像を画像処理し、処理後の画像データを出力する。
具体的には、再生装置50の読出部51は、記録媒体20に記録されている重畳領域情報を読み出し、3D画像処理部54に供給する。また、読出部51は、記録媒体20に記録されている多重化ストリームを読み出し、分離部52に供給する。
分離部52は、読出部51から供給される多重化ストリームをビデオストリームとオーディオストリームに分離する。そして、分離部52は、ビデオストリームをビデオデコーダ53に供給し、オーディオストリームをオーディオデコーダ55に供給する。
ビデオデコーダ53は、分離部52から供給されるビデオストリームを、図1のビデオエンコーダ11における符号化方式に対応する方式で復号し、その結果得られる3Dビデオデータを3D画像処理部54に供給する。
3D画像処理部54は、ビデオデコーダ53から供給される3Dビデオデータに対し、重畳領域情報を用いた所定の画像処理(後処理)を行う。本実施の形態では、3D画像処理部54は、3D画像の重畳領域情報で特定される領域以外の領域に対して、左目用画像と右目用画像の視差を変更した3D画像を生成する処理を実行する。そして、3D画像処理部54は、処理後の3Dビデオデータを表示部61に出力する。
オーディオデコーダ55は、分離部52から供給されるオーディオストリームを、図1のオーディオエンコーダ12における符号化方式に対応する方式で復号し、その結果得られるオーディオデータをスピーカ62に供給する。
表示部61は、3D画像処理部54から供給される3Dビデオデータに対応する左目用画像と右目用画像を、例えば時分割で表示する。このとき、視聴者は、例えば、左目用画像と右目用画像の切り替えに同期したシャッタ付き眼鏡を装着し、左目用画像を左目だけで見て、右目用画像を右目だけで見る。これにより、視聴者は、3D画像を立体的に知覚することができる。
スピーカ62は、オーディオデコーダ55から供給されるオーディオデータに対応する音声を出力する。
[3D画像処理部54の詳細構成例]
図8は、図7の3D画像処理部54の詳細構成例を示すブロック図である。
3D画像処理部54は、視差検出部71、制御パラメータ算出部72、および視差制御部73により構成される。
読出部51から供給される重畳領域情報は、視差検出部71と視差制御部73によって取得される。また、ビデオデコーダ53から供給される3Dビデオデータは、視差検出部71によって取得される。
視差検出部71は、ビデオデコーダ53から供給される3Dビデオデータを、そのまま視差制御部73に供給する。また、視差検出部71は、3Dビデオデータの左目用画像と右目用画像の、重畳領域情報で特定される重畳領域を除いた領域に対し、例えば、ブロックマッチングの手法等を用いて、左目用画像と右目用画像の各画素の視差量を検出する。視差検出部71は、検出された左目用画像と右目用画像の各画素の視差量を、例えば、視差量の大きさを輝度値で表現した視差マップとして、制御パラメータ算出部72に供給する。なお、制御パラメータ算出部72では、検出された各画素の視差量が分かればよいので、視差マップに限らず、どのような形式で供給されても構わない。
制御パラメータ算出部72は、視差検出部71から供給される左目用画像と右目用画像の各画素の視差量に基づいて、視差制御部73が行う視差制御のための制御パラメータを算出する。具体的には、視差制御部73では、左目用画像と右目用画像を、視差の生じている方向(横方向)に画像をシフトする画像シフト処理が行われ、制御パラメータ算出部72は、その画像シフト処理における画像シフト量を制御パラメータとして算出する。
例えば、制御パラメータ算出部72は、視差検出部71から供給される視差マップから、各画素の視差量の平均値を計算して、平均値が0になるような画像シフト量を算出する。各画素の視差量の平均値が50ピクセルである場合には、画像シフト量として25ピクセルが制御パラメータ算出部72から視差制御部73に供給される。このとき、視差制御部73では、25ピクセルの画像シフト量に基づいて、右目用画像を左に25ピクセル、左目用画像を左に25ピクセル、それぞれシフトすることで、視差量の平均値を0にすることができる。
また例えば、制御パラメータ算出部72は、視差検出部71から供給される視差マップから、各画素の視差量の最小値を計算して、その最小値が両眼間隔を超えないようにするために必要な画像シフト量を算出し、視差制御部73に供給する。例えば、両眼間隔を65mmとし、ディスプレイサイズが42インチであれば、制御パラメータ算出部72は、視差量の最小値が122ピクセルを超えないような画像シフト量を算出する。
なお、本実施の形態において、視差量は、正が飛び出し方向(手前方向)を表し、負が引っ込み方向を表すものとする。
視差制御部73は、制御パラメータ算出部72から供給される制御パラメータに基づいて、3Dビデオデータの左目用画像と右目用画像の視差を制御する。即ち、視差制御部73は、左目用画像と右目用画像の、重畳領域情報で特定される重畳領域を除いた領域に対し、制御パラメータ算出部72から供給される画像シフト量に基づく画像シフト処理を実行する。視差制御部73は、画像シフト処理後の左目用画像と右目用画像の画像データを、視差制御後の3Dビデオデータとして表示部61(図7)に出力する。
[3D画像処理部54の処理例]
図9は、3D画像処理部54の処理例を示している。
ビデオデコーダ53から供給される3Dビデオデータの左目用画像と右目用画像には、図9左側に示されるように、メニュー画面が貼り付けられている。即ち、この場合の重畳情報はメニュー画面であり、記録媒体20から取得された重畳領域情報は、メニュー画面の領域(以下、メニュー領域という。)を特定する情報となっている。
視差検出部71は、左目用画像と右目用画像の、重畳領域であるメニュー領域以外の領域の画像に対して、視差量を検出し、検出結果としての視差マップを制御パラメータ算出部72に供給する。
制御パラメータ算出部72は、視差検出部71から供給された視差マップに基づいて、各画素の視差量の平均値を計算し、平均値が0になるような画像シフト量を算出する。図9の例では、りんごの視差量が0になるような画像シフト量が算出される。
視差制御部73は、図9右側に示されるように、左目用画像と右目用画像の、重畳領域であるメニュー領域以外の領域の画像を、制御パラメータ算出部72から供給された画像シフト量だけシフトする。このように、各画素の視差量の平均値が0になるような左目用画像と右目用画像とすることで、視聴するユーザの疲労感が少ない、見やすい画像にすることができる。
一方、図10は、重畳領域情報が提供されず、視差制御部73が左目用画像と右目用画像の全体を、制御パラメータ算出部72から供給された画像シフト量だけシフトした結果を示している。
重畳領域を考慮しないと、図10に示されるように、メニュー画面の一部が見えなくなってしまったり、メニュー画面に視差が発生して、メニュー画面の奥行きが変換することになり、見にくくなってしまう。
以上のように、重畳領域情報を用いて視差検出することで、視差検出の精度が向上するとともに、ユーザの視聴に適切な視差制御を実現することができる。その結果、ユーザに見やすい3D画像を提供することができる。
[再生装置の再生処理の説明]
図11は、再生装置50による再生処理を説明するフローチャートである。この再生処理は、例えば、記録媒体20に記録されている3Dコンテンツの再生がユーザにより指示されたとき開始される。
初めに、ステップS31において、読出部51は、記録媒体20に付加情報として記録されている重畳領域情報を読み出し、3D画像処理部54の視差検出部71と視差制御部73に供給する。
ステップS32において、再生装置50は、記録媒体20に記録されている3Dコンテンツの多重化ストリームを読み出し、復号する。即ち、読出部51が、記録媒体20から3Dコンテンツの多重化ストリームを読み出し、分離部52に供給し、分離部52は、多重化ストリームをビデオストリームとオーディオストリームに分離する。ビデオデコーダ53は、ビデオストリームを、記録装置10の符号化方式に対応する方式で復号し、その結果得られる3Dビデオデータを3D画像処理部54に供給する。オーディオデコーダ55は、オーディオストリームを、記録装置10の符号化方式に対応する方式で復号し、その結果得られるオーディオデータをスピーカ62に供給する。
ステップS33において、3D画像処理部54の視差検出部71は、3Dビデオデータの左目用画像と右目用画像の、重畳領域情報で特定される重畳領域を除いた領域に対し、左目用画像と右目用画像の各画素の視差量を検出する。検出された各画素の視差量は、例えば、視差量の大きさを輝度値で表現した視差マップとして、制御パラメータ算出部72に供給される。
ステップS34において、制御パラメータ算出部72は、視差検出部71で検出された各画素の視差量に基づいて、視差制御部73が行う視差制御のための制御パラメータを算出する。例えば、制御パラメータ算出部72は、視差検出部71から供給される視差マップから、各画素の視差量の平均値を計算して、平均値が0になるような画像シフト量を算出する。算出結果の画像シフト量は、視差制御部73に供給される。
ステップS35において、視差制御部73は、制御パラメータ算出部72で算出された制御パラメータに基づいて、3Dビデオデータの左目用画像と右目用画像の視差を制御する。具体的には、視差制御部73は、3Dビデオデータの左目用画像と右目用画像の、重畳領域情報で特定される重畳領域を除いた領域に対し、制御パラメータ算出部72から供給された画像シフト量による画像シフト処理を実行する。また、ステップS35では、オーディオデコーダ55が3Dビデオデータに対応するオーディオデータを出力し、処理は終了する。
以上のように、記録媒体20には、3Dコンテンツの多重化ストリームに加えて、その3D画像の重畳領域情報が付加情報として記録されている。再生装置50は、重畳領域情報を読み出し、復号により得られた3Dビデオデータの左目用画像と右目用画像に対して、重畳領域情報で特定される領域以外の領域に対して、左目用画像と右目用画像の視差検出および視差制御の処理を実行する。付加情報として提供される重畳領域情報を利用することで、重畳領域を有する3D画像に対して、視差検出および視差制御の精度を向上させることができる。
[3D画像処理部54のその他の構成例]
図12は、3D画像処理部54のその他の詳細構成例を示すブロック図である。
図12の3D画像処理部54は、図8の3D画像処理部54と同様の、視差検出部71、制御パラメータ算出部72、および視差制御部73に加え、重畳領域情報検出部81と重畳領域検出部82を備える。
図12の3D画像処理部54は、記録媒体20に付加情報としての重畳領域情報が記録されていない場合にも対応可能な構成となっている。即ち、図12の3D画像処理部54は、記録媒体20に重畳領域情報が記録されているかを判定する。記録媒体20に重畳領域情報が記録されていない場合、図12の3D画像処理部54は、3Dビデオデータの左目用画像と右目用画像から、自ら重畳領域を検出して、重畳領域情報を視差検出部71および視差制御部73に供給する。
記録媒体20に重畳領域情報が記録されている場合、その重畳領域情報は読出部51によって読み出され、重畳領域情報検出部81に供給される。従って、重畳領域情報検出部81は、読出部51から重畳領域情報が供給されたか否かにより、記録媒体20に付加情報として重畳領域情報が含まれているかを判定する。
読出部51から重畳領域情報が供給された場合、重畳領域情報検出部81は、取得した重畳領域情報をそのまま視差検出部71と視差制御部73に供給する。一方、読出部51から重畳領域情報が供給されない場合、重畳領域情報検出部81は、重畳領域を検出させる検出指令を重畳領域検出部82に供給する。
重畳領域検出部82には、ビデオデコーダ53から3Dビデオデータが供給される。重畳領域検出部82は、重畳領域情報検出部81から検出指令が供給された場合、3Dビデオデータの左目用画像と右目用画像それぞれの重畳領域を検出する。重畳領域検出部82は、検出の結果得られた重畳領域を、重畳領域情報検出部81が出力する重畳領域情報と同一形式の重畳領域情報にして、視差検出部71と視差制御部73に供給する。
なお、重畳領域検出部82が行う重畳領域の検出方法は特に限定されず、任意の検出方法を採用することができる。例えば、本出願人による特開2008−166988号公報において開示されている、所定時間変化しない領域をテロップ領域として検出する処理などを採用することができる。
以上のように構成される3D画像処理部54では、コンテンツデータに重畳領域情報が含まれている場合には、その重畳領域情報を用いて、視差検出および視差制御が行われる。一方、コンテンツデータに重畳領域情報が含まれていない場合には、3Dビデオデータの左目用画像と右目用画像から、重畳領域が検出され、検出された重畳領域の重畳領域情報を用いて、視差検出および視差制御が行われる。
[3D画像処理部54の視差制御処理]
図13は、図12の3D画像処理部54による視差制御処理のフローチャートである。
この視差制御処理では、初めに、ステップS51として、重畳領域情報検出部81が、読出部51から重畳領域情報が供給されたかを判定する。
ステップS51で、重畳領域情報が供給されたと判定された場合、処理はステップS52に進み、重畳領域情報検出部81は、読出部51から供給された重畳領域情報を視差検出部71と視差制御部73に供給する。
一方、ステップS51で、重畳領域情報が供給されないと判定された場合、処理はステップS53に進み、重畳領域情報検出部81は、重畳領域を検出させる検出指令を重畳領域検出部82に供給する。そして、ステップS54において、検出指令が供給された重畳領域検出部82は、3Dビデオデータの左目用画像と右目用画像それぞれの重畳領域を検出し、その重畳領域情報を視差検出部71と視差制御部73に供給する。
ステップS52またはS54の処理の後に実行されるステップS55乃至S57の処理は、図11のステップS33乃至S35の処理と同様であるので、その説明は省略する。
以上の視差制御処理によれば、図12の3D画像処理部54は、コンテンツデータに重畳領域情報が含まれていない場合には、3Dビデオデータの左目用画像と右目用画像の重畳領域を自ら検出する。そして、図12の3D画像処理部54は、3Dビデオデータの左目用画像と右目用画像の、検出された重畳領域を除く領域に対して、視差検出および視差制御の処理を実行する。これにより、重畳領域を有する3D画像に対して、視差検出および視差制御の精度を向上させることができる。
なお、上述した例では、本発明を再生装置に適用した例について説明したが、本発明は再生装置以外の装置にも適用することができる。例えば、3Dコンテンツのコンテンツデータは、衛星放送、ケーブルTV、インターネットなどのネットワークを介した伝送により提供されてもよい。従って、本発明はネットワークを介した伝送により送信されてくる3Dコンテンツのコンテンツデータに含まれる重畳領域情報を受信して、重畳領域情報で特定される領域以外の領域に対して所定の視差検出および視差制御の処理を行う表示装置や記録再生装置にも適用できる。また、3Dコンテンツのメタデータとしての重畳領域情報を取得するとともに、左目用画像と右目用画像の重畳領域情報で特定される領域以外の領域に対して所定の視差検出および視差制御の処理を行って出力する画像処理装置単体として構成してもよい。
[本発明を適用したコンピュータの説明]
上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図14は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部108やROM(Read Only Memory)102に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア111に格納(記録)しておくことができる。このようなリムーバブルメディア111は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア111としては、例えば、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア111からドライブ110を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部108にインストールすることができる。すなわち、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。
コンピュータは、CPU(Central Processing Unit)101を内蔵しており、CPU101には、バス104を介して、入出力インタフェース105が接続されている。
CPU101は、入出力インタフェース105を介して、ユーザによって、入力部106が操作等されることにより指令が入力されると、それに従って、ROM102に格納されているプログラムを実行する。あるいは、CPU101は、記憶部108に格納されたプログラムを、RAM(Random Access Memory)103にロードして実行する。
これにより、CPU101は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU101は、その処理結果を、必要に応じて、例えば、入出力インタフェース105を介して、出力部107から出力、あるいは、通信部109から送信、さらには、記憶部108に記録等させる。
なお、入力部106は、キーボードや、マウス、マイク等で構成される。また、出力部107は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
上述した実施の形態は、3D画像として、視点の数が2個である2視点の3D画像について説明したが、視点の数が3以上の多視点の3D画像についても同様に適用できる。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
20 記録媒体, 50 再生装置, 51 読出部, 54 3D画像処理部, 71 視差検出部, 72 制御パラメータ算出部, 73 視差制御部, 81 重畳領域情報検出部, 82 重畳領域検出部

Claims (7)

  1. 左目用画像と右目用画像からなる3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報を取得する取得手段と、
    前記左目用画像と右目用画像の前記重畳領域情報で特定される重畳領域を除いた領域の視差量を検出する視差検出手段と
    を備える画像処理装置。
  2. 前記左目用画像と右目用画像の視差を制御する視差制御手段と、
    前記視差検出手段で検出された前記視差量に基づいて、前記視差制御手段の視差制御のための制御パラメータを算出する制御パラメータ算出手段と
    をさらに備える
    請求項1に記載の画像処理装置。
  3. 前記視差制御手段は、前記左目用画像と右目用画像の画像シフト処理を行い、
    前記制御パラメータ算出手段は、前記視差検出手段で検出された前記視差量に基づいて、前記画像シフト処理における画像シフト量を、前記制御パラメータとして算出する
    請求項2に記載の画像処理装置。
  4. 前記3D画像の画像データの付加情報として、前記重畳領域情報が含まれているかを判定する重畳領域情報検出手段と、
    前記付加情報として前記重畳領域情報が含まれていない場合に、前記左目用画像と右目用画像それぞれの重畳領域を検出する重畳領域検出手段と
    をさらに備え、
    前記取得手段は、前記付加情報として前記重畳領域情報が含まれていない場合、前記重畳領域検出手段により検出された前記重畳領域の情報である重畳領域情報を取得する
    請求項1に記載の画像処理装置。
  5. 左目用画像と右目用画像からなる3D画像の画像処理を行う画像処理装置が、
    前記3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報を取得し、
    前記左目用画像と右目用画像の前記重畳領域情報で特定される重畳領域を除いた領域の視差量を検出する
    ステップを含む画像処理方法。
  6. コンピュータに、
    左目用画像と右目用画像からなる3D画像の画像データと、前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報を取得し、
    前記左目用画像と右目用画像の前記重畳領域情報で特定される重畳領域を除いた領域の視差量を検出する
    ステップを含む処理を実行させるためのプログラム。
  7. 3Dコンテンツのコンテンツデータとして、
    左目用画像と右目用画像からなる3D画像の画像データと、
    前記左目用画像と右目用画像に含まれる重畳領域の情報である重畳領域情報と
    を含むデータ構造。
JP2010097213A 2010-04-20 2010-04-20 データ構造、画像処理装置、画像処理方法、およびプログラム Withdrawn JP2011228950A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010097213A JP2011228950A (ja) 2010-04-20 2010-04-20 データ構造、画像処理装置、画像処理方法、およびプログラム
CN2011100976015A CN102238404A (zh) 2010-04-20 2011-04-13 数据结构、图像处理装置和方法以及程序
US13/085,680 US9549167B2 (en) 2010-04-20 2011-04-13 Data structure, image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010097213A JP2011228950A (ja) 2010-04-20 2010-04-20 データ構造、画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2011228950A true JP2011228950A (ja) 2011-11-10

Family

ID=44787922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010097213A Withdrawn JP2011228950A (ja) 2010-04-20 2010-04-20 データ構造、画像処理装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US9549167B2 (ja)
JP (1) JP2011228950A (ja)
CN (1) CN102238404A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015516751A (ja) * 2012-04-13 2015-06-11 コーニンクレッカ フィリップス エヌ ヴェ 奥行きシグナリングデータ

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011228862A (ja) * 2010-04-16 2011-11-10 Sony Corp データ構造、画像処理装置、画像処理方法、およびプログラム
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
JP2013051660A (ja) * 2011-08-04 2013-03-14 Sony Corp 送信装置、送信方法および受信装置
GB2500712A (en) * 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
US9736467B2 (en) * 2013-08-05 2017-08-15 Samsung Display Co., Ltd. Apparatus and method for adjusting stereoscopic images in response to head roll

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3423189B2 (ja) 1997-05-27 2003-07-07 三洋電機株式会社 ディジタル立体放送によるテロップ表示装置
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
JP4793366B2 (ja) 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
JP5567578B2 (ja) * 2008-10-21 2014-08-06 コーニンクレッカ フィリップス エヌ ヴェ 入力された三次元ビデオ信号を処理するための方法及びシステム
EP2356820B1 (en) * 2008-12-02 2017-07-19 LG Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015516751A (ja) * 2012-04-13 2015-06-11 コーニンクレッカ フィリップス エヌ ヴェ 奥行きシグナリングデータ

Also Published As

Publication number Publication date
CN102238404A (zh) 2011-11-09
US20110254919A1 (en) 2011-10-20
US9549167B2 (en) 2017-01-17

Similar Documents

Publication Publication Date Title
US8259162B2 (en) Method and apparatus for generating stereoscopic image data stream for temporally partial three-dimensional (3D) data, and method and apparatus for displaying temporally partial 3D data of stereoscopic image
US9219911B2 (en) Image processing apparatus, image processing method, and program
US8780173B2 (en) Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
TWI542191B (zh) 一種於一三維[3d]來源裝置提供一個3d視訊信號以傳送至一3d目的地裝置之方法、用於該方法之3d來源裝置、用於接收一個3d視訊信號之3d目的地裝置、記錄載體、及電腦程式產品
JP5960133B2 (ja) 3dビデオ放送における補助データ
CA2747106C (en) Method and device for overlaying 3d graphics over 3d video
US20120033039A1 (en) Encoding method, display device, and decoding method
US9118895B2 (en) Data structure, image processing apparatus, image processing method, and program
US9007434B2 (en) Entry points for 3D trickplay
JP2012186781A (ja) 画像処理装置および画像処理方法
JP2011228950A (ja) データ構造、画像処理装置、画像処理方法、およびプログラム
JP2011511593A (ja) メディアファイルを生成してディスプレイする装置及び方法
WO2011129242A1 (ja) データ構造、画像処理装置、画像処理方法、およびプログラム
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
CN102144395A (zh) 高速搜索模式中的立体图像再现方法和使用该方法的立体图像再现装置
WO2014109321A1 (ja) 送信装置、送信方法、受信装置および受信方法
US8675050B2 (en) Data structure, recording apparatus and method, playback apparatus and method, and program
US20130127992A1 (en) Method of converting video images to three-dimensional video stream
JP2011199388A (ja) 再生装置、再生制御方法、およびプログラム
JP2014150397A (ja) 受信装置、映像装置、及びプログラム
JP2012028891A (ja) 三次元ビデオストリームへの映像変換方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130702