JP5356342B2 - 動画像処理装置および動画像処理方法 - Google Patents

動画像処理装置および動画像処理方法 Download PDF

Info

Publication number
JP5356342B2
JP5356342B2 JP2010207971A JP2010207971A JP5356342B2 JP 5356342 B2 JP5356342 B2 JP 5356342B2 JP 2010207971 A JP2010207971 A JP 2010207971A JP 2010207971 A JP2010207971 A JP 2010207971A JP 5356342 B2 JP5356342 B2 JP 5356342B2
Authority
JP
Japan
Prior art keywords
active space
frame data
image processing
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010207971A
Other languages
English (en)
Other versions
JP2012065160A (ja
Inventor
明浩 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2010207971A priority Critical patent/JP5356342B2/ja
Priority to US13/154,718 priority patent/US9172941B2/en
Publication of JP2012065160A publication Critical patent/JP2012065160A/ja
Application granted granted Critical
Publication of JP5356342B2 publication Critical patent/JP5356342B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information

Description

この発明は、動画像処理装置および動画像処理方法に関し、特に立体映像における動画像処理装置および方法に関する。
近年、映像を立体的に提示できる3D(three Dimensional)テレビ等の3次元表示デバイスや、Blu−ray(登録商標)プレイヤ等の立体映像を再生するための3次元映像再生デバイスが一般のユーザにも普及してきている。3次元表示デバイスや3次元映像再生デバイスの中では、例えば、映像の符号化や復号、画像のサイズ変更、ディザ処理、フォーマット変換等、多くの信号処理や画像処理が実行される。
一方、表示デバイスと映像再生デバイスとの間を接続するための標準規格として、3次元映像を接続するための標準規格も策定されつつある(HDMI1.4a規格、http://www.hdmi.org/press/press_release.aspx?prid=120参照)。このような規格では、3次元画像を配信したり、格納したりするためのフォーマットが定められている。
3次元映像に画像処理を施した結果その映像が標準規格を満たさなくなると、映像が正しく配信されなかったり、表示されなかったりといった問題が起こりうる。あるいは、標準規格を満たさない映像は将来的に互換性が崩れるといった問題も起こり得る。このため、画像処理の施された後の3次元映像が、標準規格を満たすようにすることの技術が求められている。
本発明はこうした課題に鑑みてなされたものであり、その目的は、画像処理の施された後の3次元映像が標準規格を満たすようにする技術を提供することにある。
上記課題を解決するために、本発明のある態様の装置は動画像処理装置である。この装置は、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータを取得するフレームデータ取得部と、前記フレームデータに画像処理を実行する画像処理部と、前記画像処理部が処理した前記フレームデータにおける前記アクティブスペースの位置を特定し、前記アクティブスペースの各画素値を固定値に設定するアクティブスペース定数化部とを含む。
本発明の別の態様は、動画像処理方法である。この方法は、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータを取得するステップと、前記フレームデータに画像処理を実行するステップと、画像処理された前記フレームデータにおける前記アクティブスペースの位置を特定し、前記アクティブスペースの各画素値を固定値に設定するステップとをプロセッサに実行させる。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、画像処理の施された後の3次元映像が標準規格を満たすようにする技術を提供することができる。
実施の形態1に係る動画像再生システムの概略を模式的に示す図である。 実施の形態1に係る動画像処理装置の機能構成を模式的に示す図である。 実施の形態1に係る画像前処理部の機能構成の一例を模式的に示す図である。 実施の形態1に係る画像後処理部の機能構成の一例を模式的に示す図である。 実施の形態1に係るアクティブスペースの位置を特定する原理を説明する図である。 アクティブスペースが複数存在する場合の例を示す図である。 実施の形態1に係る動画像処理装置の処理の流れを説明するフローチャートである。 実施の形態1に係る画像前処理部の処理の流れを説明するフローチャートである。 実施の形態1に係る画像後処理部の処理の流れを説明するフローチャートである。 実施の形態2に係るアクティブスペースの位置を特定する原理を説明する図である。 実施の形態3に係るアクティブスペースの位置を特定するためのデータベースを示す図である。
(実施の形態1)
実施の形態1の概要を述べる。実施の形態1に係る動画像処理装置100は、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータ取得し、そのフレームデータ内のアクティブスペースの位置を特定してアクティブスペースの画素値を所定の固定値に設定する。アクティブスペースの位置の特定に際し、垂直同期信号と水平同期信号とを基準とした座標系を利用する。
図1は、実施の形態1に係る動画像再生システム500の概略を模式的に示す図である。動画像再生システム500は、動画像処理装置100と表示デバイス300とを含む。
動画像処理装置100は、例えばBlu-ray Disc(登録商標)400等の記録メディアに格納された動画像を処理する。動画像処理装置100は、例えばBlu-rayプレイヤや据置型のゲーム機等である。以下本明細書において、動画像処理装置100が処理をする動画像は、左目用の視差画像と右目用の視差画像とを含む立体映像であることを前提とする。表示デバイス300は、例えばHDMI(High-Definition Multimedia Interface)ケーブル200を介して動画像処理装置100と接続し、動画像処理装置100から出力される立体映像を表示する。表示デバイス300は、例えば3次元テレビ等である。
図2は、実施の形態1に係る動画像処理装置100の機能構成を模式的に示す図である。動画像処理装置100は、フレームデータ取得部2、画像前処理部4、ディザ実行部6、アクティブスペース定数化部8、および画像後処理部10を含む。
フレームデータ取得部2は、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータを、例えばBlu-ray Disc400から読み出して取得する。ここで「アクティブスペース」とは、複数の画像データを連結してひとつの画像データとする際に、画像データ間に設けられる領域をいう。例えばHDMI1.4a規格内において、3次元動画の記録および配信用の規格である3Dフレームパッキング(3 Dimensional Frame Packing)では、左目用の視差画像と右目用の視差画像との間に設けられる。HDMI1.4a規格におけるアクティブスペースは、3次元テレビ等の表示デバイス300において左目用の視差画像と右目用の視差画像との切り替えの際の時間を稼ぐために利用される、いわば「のりしろ」のようなものである。
画像前処理部4は、フレームデータ取得部2が取得したフレームデータに対して色空間変換等の様々な前処理を施す。画像前処理部4の詳細については後述する。ディザ実行部6は、画像前処理部4が出力した、前処理の施されたフレームデータに対してディザ(Dither)処理を実行する。ディザ実行部6は、時系列的に順次入力される各フレームデータにおいて加算するディザを固定することもできるし、各フレームデータでディザを変更することもできる。画像前処理部4とディザ実行部6とはともに、フレームデータ取得部2が取得したフレームデータに対して画像処理を行う画像処理部として動作する。
ここで画像前処理部4やディザ実行部6は、フレームデータを画素単位で処理するものである。前述したとおり、フレームデータには左目用の視差画像と右目用の視差画像、およびアクティブスペースが含まれるが、画像前処理部4やディザ実行部6は、処理に際してこれらの区別をせず、フレームデータ全体に対して処理を実行する。この結果、アクティブスペースにおける画素値にばらつきが生じる場合がある。ここでいう「アクティブスペースにおける画素値にばらつき」とは、あるひとつのフレームデータにおけるアクティブスペースの画素値がばらつくことのみならず、時系列的に順次入力される各フレームデータにおけるアクティブスペースの画素値もばらつくことを含む。換言すると、アクティスペースの画素値が空間的にも時間的にもばらつくことをいう。
例えばHDMI1.4a規格においては、3Dフレームパッキングにおけるアクティブスペースの画素値は、空間的および時間的に固定値とすべき旨が規定されている。そのため、動画像処理装置100が出力するフレームデータにおけるアクティブスペースの画素値にばらつきが存在すると、意図する表示ができなかったり、将来的に互換性が失われたりすることが起こりうる。
そこでアクティブスペース定数化部8は、画像前処理部4およびディザ実行部6が処理したフレームデータにおけるアクティブスペースの位置を特定し、アクティブスペースの各画素値を固定値に設定する。アクティブスペース定数化部8において、アクティブスペースの位置を特定することについての詳細は後述する。アクティブスペース定数化部8が各フレームデータにおける画素値を固定値に設定することにより、3次元映像であるフレームデータが画像処理を施された後も、HDMI1.4aにおけるアクティブスペースの規格を満たすことができる。
画像後処理部10は、アクティブスペース定数化部8が出力したフレームデータに対し、暗号化等の後処理を施す。画像後処理部10の詳細については後述する。
図3は、実施の形態1に係る画像前処理部4の機能構成の一例を模式的に示す図である。画像前処理部4は、422/444変換部12、色空間変換部14、拡縮部16、およびレンジ制御部18を含む。
左目用の視差画像や右目用の視差画像等のディジタル映像信号は、3原色信号R(赤)、G(緑)、B(青)や、これらの信号をカラースペース変換して得られる輝度信号Yおよび色差信号Cb、Crのコンポーネント信号等を含む。色差信号Cb、Crの変化は、輝度信号Yと比較して、人間の目に対して鈍感であることが知られている。そのため、色差信号Cb、Crのデータを間引いて情報量を減らしても、視覚上は問題が少ない。そこで、これらの色差信号Cb、Crを間引くことにより、データ量を減らすことが行われている。
ここで輝度信号Yに対して色差信号Cb、Crのデータを半分に間引いた場合のフォーマットをYCbCr422フォーマットと呼び、色差信号Cb、Crのデータを間引かない場合のフォーマットをYCbCr444フォーマットと呼ぶこととする。422/444変換部12は、フレームデータ取得部2が取得した422フォーマットのフレームデータに対して線型補間等の既知の補間処理をすることにより、444フォーマットのフレームデータを生成する。
色空間変換部14は、422/444変換部12が出力した444フォーマットのフレームデータを、RGBの3原色信号に変換する。詳細は省略するが、これは既知の3×3の大きさの行列演算および定数の加減算により実現できる。
拡縮部16は、例えば解像度の低い表示デバイス300に映像を表示する場合等、色空間変換部14が出力した3原色信号であるフレームデータのサイズを必要に応じて変更する。レンジ制御部18は、拡縮部16が出力したフレームデータのダイナミックレンジを設定する。具体的には、例えば拡縮部16が出力した0〜255の範囲の値を持つ信号を、16〜235の範囲の値を持つ信号に変換する。
図4は、実施の形態1に係る画像後処理部10の機能構成の一例を模式的に示す図である。画像後処理部10は、クリッピング部20、パッキング部22、暗号化部24、およびTMDS(Transition Minimized Differential Signaling)符号化部26を含む。
前述したとおり、フレームデータにはディザ実行部6によって、ノイズの一種であるディザが加算されている。このため、レンジ制御部18が設定したダイナミックレンジの範囲外の画素値が生成される可能性がある。そこでクリッピング部20は、アクティブスペース定数化部8が出力したフレームデータの各画素値をクリッピングして、フレームデータの画素値が所定のダイナミックレンジの範囲内となるようにする。
具体的には、例えばフレームデータのダイナミックレンジが8bitの場合、クリッピング部20は、フレームデータの各画素値が16〜235に収まるようにする。クリッピング部20をディザ実行部6およびアクティブスペース定数化部8の後段に配置することにより、フレームデータの画素値が所定のダイナミックレンジの範囲内に確実に納めることが可能となる。
前述したとおり、上記の各部は画素単位で処理を行う。そこでパッキング部22は、クリッピング部20から順次取得する画素値を並べて、HDMI1.4a規格で定められるフォーマットのひとつである3原色信号のフォーマットのデータを生成する。
暗号化部24は、パッキング部22が生成したデータを暗号化する。例えばフレームデータがHDMI1.4a規格に則る場合、HDCP(High-bandwidth Digital Content Protection)で用いられる暗号化を施したデータを出力する。TMDS符号化部26は、暗号化部24が出力したデータをTMDSによる信号伝送方式に符号化する。
図2、図3、および図4は、実施の形態1に係る動画像処理装置100を実現するための機能構成を示しており、その他の構成は省略している。図2、図3、および図4において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU(Central Processing Unit)、メインメモリ、その他のLSI(Large Scale Integration)で構成することができ、ソフトウェア的には、メインメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
図5は、実施の形態1に係るアクティブスペースの位置を特定する原理を説明する図である。
一般に、映像信号における位置座標は、垂直同期信号(以下、「Vsync」という。)28と水平同期信号(以下、「Hsync」という。)30とを基準として定められる。実施の形態1においては、このVsync28とHsync30とを基準にアクティブスペースの位置を特定する。
図5に示すように、アクティブスペースの幅がx2[ピクセル]、高さがy2[ライン]、アクティブスペースの開始点Aの座標が(x1,y1)とする。このときアクティブスペース定数化部8は、第y1ラインのx1番目の画素が入力された後、x2×y2個分の画素をアクティブスペースにおける画素として特定し、その画素の画素値を所定の固定値に設定する。したがって、実施の形態1に係るアクティブスペースの位置特定に要するパラメータは、Hsync=0からフレームデータの開始位置であるx1[ピクセル]、Vsync=0からアクティブスペースの開始ラインであるy1[ライン]、アクティブスペースの幅であるx2[ピクセル]、およびアクティブスペースの高さであるy2[ライン]である。その他、アクティブスペースに設定する画素値の固定値もパラメータとして必要である。
図6は、アクティブスペースが複数存在する場合の例を示す図であり、インタレース表示の際に用いる3Dフレームパッキングの例を示す図である。図6において、「L odd」、「R odd」、「L even」、「R even」はそれぞれ、「左目用視差画像の奇数ライン」、「右目用視差画像の奇数ライン」、「左目用視差画像の偶数ライン」、「右目用視差画像の偶数ライン」を表す。
アクティブスペースが複数ある場合もアクティブスペースがひとつの場合と同様に、アクティブスペース定数化部8は、Vsync28とHsync30とを基準に各アクティブスペースの位置を特定する。各アクティブスペースの幅は通常同一であるため、アクティブスペースが複数ある場合、アクティブスペースの数だけアクティブスペースの開始ライン、および各アクティブスペースの高さを示すパラメータが増加する。
図7は、実施の形態1に係る動画像処理装置100の処理の流れを説明するフローチャートである。以下、図に示すフローチャートにおいては、各部の処理手順を、ステップを意味するS(Stepの頭文字)と数字との組み合わせによって表示する。本フローチャートにおける処理は、動画像処理装置100が起動したときに開始する。
フレームデータ取得部2は、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置された立体映像のフレームデータを取得する(S10)。画像前処理部4は、フレームデータ取得部2が取得した立体映像のフレームデータに対し、422/444変換等の前処理を行う(S12)。
ディザ実行部6は、画像前処理部4が出力した、前処理の施されたフレームデータに対してディザ処理を実行する(S14)。アクティブスペース定数化部8は、画像前処理部4およびディザ実行部6が処理したフレームデータにおけるアクティブスペースの位置を特定し、アクティブスペースの各画素値を固定値に設定する(S16)。画像後処理部10は、アクティブスペース定数化部8が出力したフレームデータに対し、暗号化等の後処理を施す(S18)。
図8は、実施の形態1に係る画像前処理部4の処理の流れを説明するフローチャートであり、図7におけるステップS12の詳細を示す図である。
422/444変換部12は、フレームデータ取得部2が取得した422フォーマットのフレームデータに対して補間処理をすることにより、444フォーマットのフレームデータを生成する(S20)。色空間変換部14は、422/444変換部12が出力した444フォーマットのフレームデータを、RGBの3原色信号に変換する(S22)。
拡縮部16は、色空間変換部14が出力した、3原色信号であるフレームデータのサイズを、必要に応じて変更する(S24)。レンジ制御部18は、拡縮部16が出力したフレームデータのダイナミックレンジを設定する(S26)。
図9は、実施の形態1に係る画像後処理部10の処理の流れを説明するフローチャートであり、図7におけるステップS18の詳細を示す図である。
クリッピング部20は、フレームデータの画素値が所定のダイナミックレンジの範囲内となるように、アクティブスペース定数化部8が出力したフレームデータの各画素値をクリッピングする(S28)。パッキング部22は、クリッピング部20から順次取得する画素値を並べて、3原色信号のフォーマットのデータを生成する(S30)。
暗号化部24は、パッキング部22が生成したデータに対してHDCPで用いられる暗号化処理を施す(S32)。TMDS符号化部26は、暗号化部24が出力したデータをTMDSによる信号伝送方式の符号化を行う(S34)。
以上の構成による動作は以下のとおりである。ユーザが実施の形態に係る動画像処理装置100を用いて立体映像を再生すると、アクティブスペース定数化部8は立体映像の各フレームデータにおけるアクティブスペースの位置を特定し、アクティブスペースの画素値を所定の固定値とする。
以上説明したとおり、実施の形態1に係る動画像処理装置100によれば画像処理の施された後の3次元映像がHDMI1.4aの規格を満たすようにする技術を提供できる。また、アクティブスペースの位置や大きさを、座標を利用して特定することにより、アクティブスペースや視差画像のサイズの変化や、およびそれに付随して生じるアクティブスペースの位置座標の変化に柔軟に対応することができる。
(実施の形態2)
実施の形態2の概要を述べる。実施の形態2に係る動画像処理装置100は、実施の形態1に係る動画像処理装置100と同様に、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータ取得し、そのフレームデータ内のアクティブスペースの位置を特定してアクティブスペースの画素値を所定の固定値に設定する。実施の形態2においては、アクティブスペースの位置の特定に際し、フレームデータの画素が入力されていることを示すデータイネーブル信号(Data Enable Signal、以下「DE」という。)を利用する点で、実施の形態1と相違する。以下、実施の形態1と重複する説明は適宜省略または簡略化して記載する。
図10は、実施の形態2に係るアクティブスペースの位置を特定する原理を説明する図である。
図10に示すように、アクティブスペースは、左目用の視差画像と右目用の視差画像とのそれぞれと一辺を共有する矩形領域である。図10において符号32が付された信号はDEである。HDMI1.4a規格に則ったデータはDEを保有している。DE32は、VsyncやHsyncと異なり、垂直ブランク期間や水平ブランク期間を除いた領域であるフレームデータを示す信号である。すなわち、DE32の原点はフレームデータの開始点と一致する。
そこでアクティブスペース定数化部8は、フレームデータを画素単位で順次処理する際に、フレームデータの画素が入力されていることを示すDE32の原点を基準としてアクティブスペースの位置を特定する。具体的には、図10において、アクティブスペースの幅がx2[ピクセル]、高さがy2[ライン]とする。DE32の原点を基準とすると、アクティブスペースの開始点Aの座標は、左目用および右目用の視差画像の高さであるy3[ライン]を用いてA(0,y3)で表せる。アクティブスペース定数化部8は、点(0,y3)と点(x2,y3+y2)とを対角線の両端とする矩形領域をアクティブスペースとして特定し、その画素の画素値を所定の固定値に設定する。ここで、アクティブスペースの幅がx2[ピクセル]は、視差画像の幅x3[ピクセル]と一致する。
したがって、実施の形態2に係るアクティブスペースの位置を特定に要するパラメータは、視差画像の幅であるx3(=x2)[ピクセル]、視差画像の高さであるy3[ライン]、およびアクティブスペースの高さであるy2[ライン]である。このようにDEを利用することにより、VsyncやHsyncを基準とする実施の形態1と比較して、アクティブスペースの位置を特定するためのパラメータを少なくすることができる。
図6に示すようにアクティブスペースが複数存在する場合でも同様に、実施の形態2に係るアクティブスペース定数化部8は、DE32の原点を基準として各アクティブスペースの位置を特定する。各アクティブスペースの幅は通常同一であるため、アクティブスペースが複数ある場合、アクティブスペースの数だけアクティブスペースの開始ライン、および各アクティブスペースの高さを示すパラメータが増加する。
(実施の形態3)
実施の形態3の概要を述べる。実施の形態3に係る動画像処理装置100は、実施の形態1および実施の形態2に係る動画像処理装置100と同様に、アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータ取得し、そのフレームデータ内のアクティブスペースの位置を特定してアクティブスペースの画素値を所定の固定値に設定する。実施の形態3においては、アクティブスペースの位置の特定に際し、視差画像の大きさに応じて定められている映像識別信号であるVIC(Video format Identification Code、以下「VIC」という。)と、フレームデータ内におけるアクティブスペースの位置とが紐づけられて格納されているデータベースを参照する点で、実施の形態1または実施の形態2と相違する。以下、実施の形態1または実施の形態2と重複する説明は、適宜省略または簡略化して記載する。
図11は、実施の形態3に係るアクティブスペースの位置を特定するためのデータベースを示す図である。図11において「pix」および「line」は、それぞれ「ピクセル」および「ライン」を表す。HDMI1.4a規格に則ったデータには、例えば720pや1080pなど、映像の解像度を識別する固有のVICが付されている。また、HDMI1.4a規格では、アクティブスペースのサイズや位置が、映像の解像度毎に定められている。VICは複数種類存在するが、図11では一例として、VIC=4の場合を記載している。なお、図11における数字は、原点をVsyncおよびHsyncの開始点とした場合の座標である。
アクティブスペース定数化部8は、VICと、フレームデータ内におけるアクティブスペースの位置とが紐づけられて格納されているデータベース34を参照することにより、アクティブスペースの位置を特定する。実施の形態3においては、アクティブスペース定数化部8は、アクティブスペースの位置を特定するために必要なパラメータはVICのみであり、実施の形態1および実施の形態2と比較して少ないパラメータで足りる。
データベース34は動画像処理装置100の図示しない記憶領域に格納されており、アップデートによって更新することができる。これにより、例えば規格が更新されたとき等、VICの種類が増加したり、アクティブスペースの位置が変化したりしたときに対応することができる。
図6に示すようにアクティブスペースが複数存在する場合、データベース34は、各アクティブスペースの位置をVICと紐づけて格納する。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
2 フレームデータ取得部、 4 画像前処理部、 6 ディザ実行部、 8 アクティブスペース定数化部、 10 画像後処理部、 12 変換部、 14 色空間変換部、 16 拡縮部、 18 レンジ制御部、 20 クリッピング部、 22 パッキング部、 24 暗号化部、 26 TMDS符号化部、 34 データベース、 100 動画像処理装置、 200 ケーブル、 300 表示デバイス、 400 Blu-ray Disc、 500 動画像再生システム。

Claims (5)

  1. アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータを取得するフレームデータ取得部と、
    前記アクティブスペースを含む前記フレームデータに、少なくとも前記アクティブスペースの画素値にばらつきが生じる画像処理を実行する画像処理部と、
    前記画像処理部が処理した前記アクティブスペースの各画素値を固定値に設定するアクティブスペース定数化部とを含むことを特徴とする動画像処理装置。
  2. 前記アクティブスペースは、前記左目用の視差画像と右目用の視差画像とのそれぞれと一辺を共有する矩形領域であって、前記フレームデータの周囲は水平ブランクと垂直ブランクが配置されており、
    前記アクティブスペース定数化部は、前記フレームデータを画素単位で順次処理するものであり、前記フレームデータの画素が入力されていることを示すデータイネーブル信号、前記視差画像の辺の長さ、および前記アクティブスペースの辺の長さをもとに、前記アクティブスペースの位置を特定することを特徴とする請求項1に記載の動画像処理装置。
  3. 前記左目用の視差画像と前記右目用の視差画像との大きさに応じて定められている映像識別信号と、前記フレームデータ内における前記アクティブスペースの位置とが紐づけられて格納されているデータベースをさらに含み、
    前記アクティブスペース定数化部は、前記映像識別信号を取得して前記データベースを参照することにより前記アクティブスペースの位置を特定することを特徴とする請求項1に記載の動画像処理装置。
  4. アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータを取得するステップと、
    前記アクティブスペースを含む前記フレームデータに、少なくとも前記アクティブスペースの画素値にばらつきが生じる画像処理を実行するステップと、
    画像処理された前記アクティブスペースの各画素値を固定値に設定するステップとをプロセッサに実行させることを特徴とする動画像処理方法。
  5. アクティブスペースを挟んで左目用の視差画像と右目用の視差画像とが配置されたフレームデータを取得する機能と、
    前記アクティブスペースを含む前記フレームデータに、少なくとも前記アクティブスペースの画素値にばらつきが生じる画像処理を実行する機能と、
    画像処理された前記アクティブスペースの各画素値を固定値に設定する機能とをコンピュータに実現させることを特徴とするプログラム。
JP2010207971A 2010-09-16 2010-09-16 動画像処理装置および動画像処理方法 Active JP5356342B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010207971A JP5356342B2 (ja) 2010-09-16 2010-09-16 動画像処理装置および動画像処理方法
US13/154,718 US9172941B2 (en) 2010-09-16 2011-06-07 Moving image processing device and moving image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010207971A JP5356342B2 (ja) 2010-09-16 2010-09-16 動画像処理装置および動画像処理方法

Publications (2)

Publication Number Publication Date
JP2012065160A JP2012065160A (ja) 2012-03-29
JP5356342B2 true JP5356342B2 (ja) 2013-12-04

Family

ID=45817401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010207971A Active JP5356342B2 (ja) 2010-09-16 2010-09-16 動画像処理装置および動画像処理方法

Country Status (2)

Country Link
US (1) US9172941B2 (ja)
JP (1) JP5356342B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101852349B1 (ko) * 2011-06-23 2018-04-27 삼성디스플레이 주식회사 입체 영상 표시 방법 및 입체 영상 표시 장치
JP5232319B2 (ja) 2011-10-20 2013-07-10 株式会社東芝 通信装置及び通信方法
JP5390667B2 (ja) 2012-06-11 2014-01-15 株式会社東芝 映像送信機器及び映像受信機器
JP6415442B2 (ja) * 2013-10-28 2018-10-31 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117095A (ja) * 1990-05-29 1992-04-17 Mitsubishi Electric Corp ブランキングレベル設定回路
JP5367814B2 (ja) * 2009-05-14 2013-12-11 パナソニック株式会社 映像データの伝送方法
US8953017B2 (en) * 2009-05-14 2015-02-10 Panasonic Intellectual Property Management Co., Ltd. Source device, sink device, communication system and method for wirelessly transmitting three-dimensional video data using packets
RU2533300C2 (ru) * 2009-05-19 2014-11-20 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения, устройство кодирования, интегральная схема и устройство вывода для воспроизведения
JP5372687B2 (ja) * 2009-09-30 2013-12-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US20110149032A1 (en) * 2009-12-17 2011-06-23 Silicon Image, Inc. Transmission and handling of three-dimensional video content
US8325757B2 (en) * 2009-12-17 2012-12-04 Silicon Image, Inc. De-encapsulation of data streams into multiple links
EP2337362A3 (en) * 2009-12-21 2013-07-17 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2011166757A (ja) * 2010-01-15 2011-08-25 Sony Corp 送信装置、送信方法および受信装置
US9055281B2 (en) * 2010-05-20 2015-06-09 Samsung Electronics Co., Ltd. Source device and sink device and method of transmitting and receiving multimedia service and related data
JP2011250329A (ja) * 2010-05-31 2011-12-08 Sharp Corp 信号変換装置及び信号変換方法
US9143767B2 (en) * 2010-06-01 2015-09-22 Intel Corporation Method and apparatus for adaptive stable image timing in stereoscopic 3D systems
JP5608475B2 (ja) * 2010-08-30 2014-10-15 日立コンシューマエレクトロニクス株式会社 伝送システム及びSource機器

Also Published As

Publication number Publication date
US20120069145A1 (en) 2012-03-22
JP2012065160A (ja) 2012-03-29
US9172941B2 (en) 2015-10-27

Similar Documents

Publication Publication Date Title
JP5469911B2 (ja) 送信装置および立体画像データの送信方法
US9124870B2 (en) Three-dimensional video apparatus and method providing on screen display applied thereto
JP5448558B2 (ja) 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法
JP4392060B2 (ja) 視差深度依存画素シフト
RU2536388C2 (ru) Передача данных 3d изображения
US20100045779A1 (en) Three-dimensional video apparatus and method of providing on screen display applied thereto
JP2011166761A (ja) 画像処理装置、画像処理方法、およびプログラム
US20120281069A1 (en) Digital Video Signal Output Device and Display Device, and Digital Video Signal Output Method and Reception Method
JP2011082675A (ja) 画像信号処理装置、画像信号処理方法、画像表示装置、画像表示方法、プログラム、および画像表示システム
JP5356342B2 (ja) 動画像処理装置および動画像処理方法
JP2011139261A (ja) 画像処理装置、画像処理方法、およびプログラム
US20120120190A1 (en) Display device for use in a frame sequential 3d display system and related 3d display system
US20120120056A1 (en) Computer, monitor, recording medium, and method for providing 3d image thereof
TWI674556B (zh) 用於在平板面板輸入立體圖像的硬體系統
US20110018979A1 (en) Display controller, display control method, program, output device, and transmitter
JP2012049813A (ja) 画像出力装置及び画像出力方法
US20110310222A1 (en) Image distributing apparatus, display apparatus, and image distributing method thereof
WO2011083538A1 (ja) 画像処理装置
JP2014216668A (ja) 撮像装置
KR101232870B1 (ko) 입체영상 처리장치 및 그 방법
JP5583297B2 (ja) 立体画像データ受信方法および立体画像データ受信装置
JP5538604B2 (ja) 立体画像データ送信方法および立体画像データ送信装置
JP5577476B1 (ja) 立体画像データ送信方法および立体画像データ送信装置
JP5577477B1 (ja) 立体画像データ受信方法および立体画像データ受信装置
JP6001154B2 (ja) 画像処理システム及びその制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130828

R150 Certificate of patent or registration of utility model

Ref document number: 5356342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250