JP2008103820A - 立体画像処理装置 - Google Patents

立体画像処理装置 Download PDF

Info

Publication number
JP2008103820A
JP2008103820A JP2006282543A JP2006282543A JP2008103820A JP 2008103820 A JP2008103820 A JP 2008103820A JP 2006282543 A JP2006282543 A JP 2006282543A JP 2006282543 A JP2006282543 A JP 2006282543A JP 2008103820 A JP2008103820 A JP 2008103820A
Authority
JP
Japan
Prior art keywords
parallax
image
image data
information
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006282543A
Other languages
English (en)
Other versions
JP4755565B2 (ja
Inventor
Yasutaka Wakabayashi
保孝 若林
Ryuji Kitaura
竜二 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006282543A priority Critical patent/JP4755565B2/ja
Publication of JP2008103820A publication Critical patent/JP2008103820A/ja
Application granted granted Critical
Publication of JP4755565B2 publication Critical patent/JP4755565B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】立体画像データを含む動画像データを再生する際に、視差の分布を一目で判断可能とする。
【解決手段】立体画像処理装置200は、データ解析手段201により入力された動画像データを逆多重化し、3D表示制御情報解析手段203により3D表示を行う為に必要となる3D情報を解析するとともに、符号化された画像データを復号手段204で復号化する。表示制御手段205は視差情報提示手段207を制御し、視差情報提示画像の表示を判断し、画像生成手段208により立体表示方式に応じた画像を生成し、視差情報提示画像を表示する際には立体画像に重畳して動画像データの視差を示すグラフィカルユーザーインターフェース(GUI)として視差情報提示画像を画像表示手段208に表示する。
【選択図】図2

Description

本発明は、立体画像処理装置に関し、特に、少なくとも3次元画像データを含む動画像データを再生する際に、3次元画像データ部の視差を視認可能とする立体画像処理装置に関する。
人間が立体感を得るための技術の1つとして、両眼視差を用いる技術が知られている。両眼視差とは、異なる2つの視点から対象物を見ることにより得られる映像のずれであり、これを元に奥行き方向の距離を知覚する。この両眼視差を利用して立体映像を表示する研究が従来から行われてきている。
近年では、様々な方式の立体視可能な表示装置が提案されており、2視点の画像を利用して立体視する2眼式、それ以上の視点数の画像を利用して複数の位置からより自然な立体視を可能とする多眼式、さらに視点数を増やし瞳に2つ以上の視点画像が入射するようにした超多眼式、などが提案されているが、いずれの方式においても各視点画像間の視差を利用して立体感を得ている。
このような表示装置における立体視を実現するための画像データとしては、複数視点に対応した画像を持たせる方法や、1つの視点からの画像である基準画像と、基準画像と別視点の画像における対応点までの距離、すなわち視差をあらわす情報を持った視差マップを備え、視差マップと基準画像を元に他の視点の画像を作り出す方法など様々な形式がある。
立体表示用の画像データの一例として、下記特許文献1に記載の「立体動画像圧縮符号化装置及び立体動画像復号再生装置」がある。この技術によれば、符号化装置ではカメラ等により入力された左眼用画像データと右眼用画像データから基準画像を生成し、次に基準画像と左眼用画像、右眼用画像との差分を求め、それぞれ左眼用差分データ、右眼用差分データとする。そして、基準画像と左眼用差分データ、右眼用差分データを圧縮符号化し、多重化することで、3次元画像符号化データを作成している。復号再生装置側では、符号化データを復号後に、基準画像と各差分データから左眼用画像、右眼用画像データを作成し立体画像を表示する。
このような立体視において、様々な要因により生体に影響を与えることが知られている。例えば、各視点画像間において、視差が大きいほど奥行き方向の距離が増大し、表示画面上に対して大きく飛び出す、あるいは、奥に引っ込んで見えることになる。ところが、視差が大きすぎると輻輳と調節との矛盾などに起因し、立体映像の観察者に疲労感を与えたり、気分が悪くなったりなどの生理的な影響を与える可能性がある。ここで、輻輳とは眼球運動の一種であり、観察する対象に視線を交差しようとする動きであり、調節とはピントを合わせることであり、眼の水晶体の厚みを変え屈折率を変える動きのことである。図14に示すように、眼1407、1409と表示画面1403との距離を調節距離Aとし、眼1407、1409と合焦位置1401との間の距離を輻輳距離Bとすると、輻輳距離Bは立体映像に合うのに対し、調節距離Aは表示画面上に合うため、矛盾が生じる。突然視差の大きい画像が表示されたりした場合にも、眼がすぐに対応できずに立体視がうまく出来なかったり、疲労や不快感を感じる場合がある。
また、左右画像間の「歪み」や「ずれ」によっても疲労を生じる他、観察位置も疲労などの生理的影響を与える可能性がある。表示装置との距離が同じであっても、画面サイズが大きいほど視差が大きくなり影響が大きくなる他、距離が近くなると立体像の結像位置が自分に近い位置になるが、近くなりすぎると画像がうまく融像せずに立体像として認識できなくなり、疲労を感じる原因となる。このような生体への影響を軽減するための方法が提案されている。
下記特許文献2に記載の「立体画像処理方法および装置」によれば、複数の視点画像から立体画像を表示する時に生じる視差量を検出し、ユーザーの許容視差量の範囲内に入るように画像間の視差量を変化させる方法が記載されている。これにより、上記のような生理的な影響を抑制するとともに、表示装置が変わっても適切な立体画像を観察できるよう立体感の調整を行っている。
また、下記特許文献3に記載の「立体画像処理方法および装置」によれば、立体表示画像の立体感を調整するためのグラフィカルユーザーインターフェース(GUI)を提供し、ユーザーの指示に基づいて画像の視差量を変化させることを可能とする技術が記載されている。
特開平7−327242号公報 特開2003−284093号公報 特開2003−284095号公報
上記のように、立体画像は視差の大きさなどによって生体に影響を与える可能性がある。しかしながら、従来の立体動画像の再生技術においては、一連の動画像データにおいていずれのシーンの視差が大きいか、すなわち飛び出しや奥行き感が強いかを判別する方法がなかった。そのため、立体動画像を途中から再生する場合などにおいて、いきなり立体感の高い画像が表示され、生体に強い影響を与える可能性があるという問題があった。
また、従来から、ユーザーの許容範囲内の視差に立体画像の視差を調整する方法は提案されている。しかしながら、この方法は画像自体を編集する方法であるため、動画像を途中から再生する際に、急に視差が強い画像から再生されることを防ぐ、という用途には向いていない上に、製作者の意図通りの飛び出し量で再生することができなくなるという問題がある。
本発明は、以上のような問題点を解決するためになされたものであって、少なくとも立体画像データを含む動画像データを再生する際に、一連の動画像の中でいずれのシーンの立体感が強いかを観察者に提示し、生体への影響を低減することを目的とする。また、ユーザーが立体感の強いシーンだけを視聴するとなどの様々な視聴方法を可能とする立体画像処理装置を提供することを目的とする。
本発明の一観点によれば、3次元画像データを含む動画像データを再生するための立体画像処理装置であって、前記3次元画像データの視差情報に基づいて、前記動画像データの各位置における視差の大きさを視認可能とする視差情報提示画像を生成する視差情報提示手段を有することを特徴とする立体画像処理装置が提供される。
前記視差情報提示画像と前記画像データとを同期させて、表示する画像を生成する画像生成手段を有することが好ましい。前記視差情報提示画像は、前記動画像データの各位置における視差の大きさに応じて視覚的に識別可能な画像として表示することにより、前記視差の大きさを視認可能とすることが好ましい。視覚的に識別可能な画像とは、例えば、色、又は、明るさなどである。
前記動画像データは、動画像データ内に含まれる3次元画像データに関する視差情報をメタデータとして保持していることを特徴とする。メタデータに視差情報を含む形式の立体動画像データにおいて、メタデータの視差情報を分析することにより視差情報提示画像を変化させ視差情報を提示することができる。
前記3次元画像データは2次元画像データと視差マップとを含んで構成されており、前記3次元画像データの視差情報は前記視差マップから検出することにより得ることが好ましい。前記3次元画像データは複数視点に対応した複数の画像からなり、前記3次元データの視差情報は前記複数視点に対応した複数画像間の視差を検出することにより得ることが好ましい。
前記3次元画像データは2次元画像データと3次元空間上での距離情報を保持するデプスマップとからなり、前記距離情報を前記視差情報として用いることもできる。前記3次元画像データの視差情報として、3次元画像内における最大視差を用いても良い。前記3次元画像内における最大視差を、視差の大きさに基づいて複数の区分に分割し、各区分に応じて前記視差情報提示画像を視覚的に識別可能な画像として表示することもできる。
前記3次元画像内における最大視差は、前記動画像データを一定単位に分割し、前記単位毎に最大視差を検出して前記視差情報提示画像に表すこともできる。前記視差情報提示画像は、表示される動画像に重畳して表示される再生位置指示ポインタを含み、該再生位置指示ポインタにより現在の動画像の再生位置を視認可能とするようにしても良い。
ユーザーの許容視差を保持する許容視差記憶手段を更に備え、前記動画像データを途中から再生する際に、再生位置の視差が前記許容視差より大きい場合には、前記動画像データの前後から視差が前記許容視差内に収まる位置を検索し、前記検索した位置から再生するように制御することが好ましい。
本発明の他の観点によれば、入力された動画像データを逆多重化するステップと、3D表示を行うために必要となる3D情報を解析して視差情報を取得するとともに、符号化された動画像データを復号するステップと、前記視差情報に基づいて、前記動画像データの各位置における視差の大きさを視認可能とする視差情報提示画像を生成するステップと、
視差情報提示画像の表示を判断し、立体表示方式に応じた画像を生成し、視差情報提示画像を表示する際には立体画像に重畳して動画像データの表示するステップと、を有することを特徴とする立体画像処理方法が提供される。本発明は、上記の各ステップをコンピュータに実行させるためのプログラムであっても良い。
本発明の立体画像処理装置によれば、一連の動画像の中でどの部分が3次元画像で構成されるか、また視差の大きいシーンがどこかを簡単に判断することができるという利点がある。
以下、本発明の実施の形態による立体画像処理装置について図面を参照しながら説明を行う。まず、本発明の第1の実施の形態による立体画像処理装置について説明する。本明細書において、以下、「3D」を3次元または立体、「2D」を2次元を意味する用語として用いる。また、立体画像からなる動画像データを「3D画像データ」、通常の2次元画像からなる動画像データを「2D画像データ」、立体画像と2次元画像の混在している動画像データを「2D3D混在画像データ」と称する。
まず、本発明の第1の実施の形態による立体画像処理装置について説明する。図1は、本実施の形態による立体画像処理装置に入力される動画像データの一構成例を示す図である。動画像データは、3D画像データか、2D3D混在画像データであるとする。以下では3D画像データである場合の例について説明する。
図1(a)に示すように、3D画像データ100は、ヘッダ制御情報101と、3D識別情報102と、3D表示制御情報103と、画像データ104と、の少なくとも4つの構成要素を含んでいる。ここで、3D画像データ100には音声データを一緒に記録してもよいが、簡単のためここでは省略する。また、これ以外の付加情報を含んでもよい。
各構成要素はオブジェクトと呼ばれ、図1(b)に示す形式を有する。すなわち、1つのオブジェクト105は、それぞれを識別する為のオブジェクトID106とオブジェクトサイズ107とが記録され、その後オブジェクトサイズ107によって規定されるサイズのオブジェクトデータ108が続く。オブジェクトID106とオブジェクトサイズ107とを合わせてオブジェクトヘッダとする。このオブジェクトは階層構造をとることが可能である。
ヘッダ制御情報101は、例えば画像のサイズなど画像データ104を再生するために必要な制御情報である。3D識別情報102は、3D画像であるかどうか、あるいは、3D画像を含むかどうかを識別するための情報である。3D表示制御情報103は、得られた3D画像に関する情報であり、視差情報や所望の立体形式に変換するために必要な制御情報を含む。また、画像データ104は、画像データそのものである。画像データ104は圧縮されたものであっても、非圧縮であってもよい。
図2は、本実施の形態による立体画像処理装置の一構成例を示す機能ブロック図である。立体画像処理装置200は、入力された動画像データを逆多重化するデータ解析手段201と、3D識別情報を解析する3D識別情報解析手段202と、3D表示を行うために必要となる3D情報を解析する3D表示制御情報解析手段203と、符号化された画像データを復号する復号手段204と、3D画像の表示方法や視差情報提示手段を制御する表示制御手段205と、表示制御手段205からの表示方法に関する情報に従い画像を生成する画像生成手段206と、動画像データの視差を示すグラフィカルユーザーインターフェース(GUI)として視差情報提示画像を表示する視差情報提示手段207と、3D画像を表示する液晶パネルなどの画像表示手段208と、を含んで構成される。
データ解析手段201には、SDメモリカード(商標名)などに代表される半導体メディアや、CD,DVDに代表されるディスクメディア、ハードディスクドライブなどの磁気メディア、あるいは、DVカセットテープに代表されるテープメディア等に記録された動画像データが入力される。データ解析手段201では、各オブジェクトが分離される。まず、動画像データのヘッダ制御情報101を解析し、ヘッダ制御情報101に続くオブジェクト種別を判定する。次に、各オブジェクトのIDを参照することによってオブジェクトを識別し、図2中の各手段へと送る。
図3は、各オブジェクトの詳細を例示した図である。図3(a)は、3D識別情報102の詳細な構成例を示しており、3D識別情報に関するオブジェクトであることを示すオブジェクト固有のID、オブジェクト全体のサイズ(Size)、および3D識別情報(Data)が格納されている。
図3(b)は、3D表示制御情報103の詳細な構成例を示しており、3D表示制御情報であることを示すオブジェクト固有のID、オブジェクト全体のサイズ(Size)、および画像配置情報や視点数、視差情報といった3D表示に関連した様々な情報(Data)が格納されている。
図3(c)は、画像データの詳細な構成例を示しており、画像データ部であることを示すオブジェクト固有のID,オブジェクト全体のサイズ(Size),及び符号化データ(Data)が格納されている。
ここで、3D識別情報の固有IDを0x11とし、3D表示制御情報の固有IDを0x12とし、画像データの固有IDを0x13とすると、解析データ手段201は、これらの固有IDに従い、固有IDが0x11であれば3D識別情報解析手段202に、0x12であれば3D表示制御情報解析手段203に、0x13であれば画像データであると判断して復号手段204へと、オブジェクトをそれぞれ分離して送る。
3D識別情報解析手段202は、データ解析手段201から送られてきた3D識別情報102を解析して表示制御手段205へと送る。3D識別情報は、動画データが3D画像データであるときは1と、2D画像データであるときは0と、2D3D混在データである時は3と、いうように定義される。
3D表示制御情報解析手段203は、データ解析手段201から送られてきた3D表示制御情報103を解析して表示制御手段205へと送る。ここで、図3(b)に示す3D表示制御情報103に記述される情報の詳細を示す。なお、ここで挙げる以外にも、撮影時のカメラに関する情報や、撮影時に想定した表示装置の画面サイズなど様々な情報を含んでよい。
画像配置情報とは、3D画像データが含む、異なる視点の画像をどのような配置で格納されているかを示す、いわゆる配置フォーマットの情報である。図4にこの時の例を示す。図4(a)は、左眼の視点から見た左眼用画像Lと右眼の視点から見た右眼画像Rとを左右に並置した例である。また、図4の(b)は、左眼用画像Lを上に、右眼用画像Rを下側に配置したフォーマットの例である。このような、3D画像の配置を画像配置情報によって示し、例えば図4(a)の配置を“1”、図4(b)の配置を“2”というように規定しておくことで、この情報により画像データのフォーマットが識別可能となる。ここで示した以外にも、図4(a)で左右配置を逆にした配置など、図4(b)で上下を逆にした配置など様々な形式が存在する。また、この様な、左右をまとめた形ではなく、それぞれ独立したストリームであってもよい。なお、図4(a)、図4(b)では視点数は2となる。ここでは、入力される3D画像は図4(a)に示す形式をしているとして以下の説明を行う。
視差情報は、例えば、ある一定時間単位ごとの最大視差である。最大視差とは、2つの視点画像があった場合に、その画像内で最も視差のある部分の視差を示す。最大視差を説明するための例を図5に示す。図5(a)は左眼用画像、図5(b)は右眼用画像である。点ALと点AR点、BLと点BRとは、それぞれ左右画像の対応する点であり、AL、ARは立体視したときに画像上で最も飛び出して見える点であり、BL、BRは最も奥に離れて見える点を示している。視差は、左右画像の対応点同士において、各画像において左端から対応点までの距離(画素数)を算出し、その差分によって算出される。
左眼用画像の左端から点ALまでの距離(画素数)dL1と、右眼用画像の左端から点ARまでの距離dR1とを比較すると、dL1>dR1であり、dL1−dR1は正の値となり表示画面より飛び出して見える。AL、ARは、立体視した際に最も飛び出して見える点であるため、表示画面から飛び出す方向への最大視差をd1とすると、d1=|dL1−dR1|となる。また、距離dL2とdR2とを比較すると、dL2<dR2であり、dL2−dR2は負の値となり表示画面より奥行き方向に離れて見える。表示画面から奥行き方向への最大視差をd2とすると、d2=|dL2−dR2|となる。
視差の算出は、画像作成時に予め行われており、3D表示制御情報に視差情報として格納されているものとする。この視差情報の詳細な一例を図6に示す。ここでは、3D画像データが全体で30分のストリームであるとし、図6における左端の1から6の区分は、3D画像データにおける5分間を表す。区分1は0〜5分、区分2は5分から10分、というように順に5分おきの間隔における3D画像データの最大視差を示している。区分1である0から5分までのデータでは、飛び出し方向の最大視差d1は128、表示画面より奥行きへの方向の最大視差d2は40であり、飛び出し感の強い画像であることを示す。
復号手段204は、データ解析手段201から送られてきた画像データ104が符号化されていた場合に、この符号化された画像データを復号し、画像生成手段206へと送る。
表示制御手段205は、入力された動画像データが3D画像データか2D画像データかなどの形式を3D識別情報解析手段202からの情報により認識する。そして、3D表示制御情報解析手段203からの情報に従い、視点数や配置位置情報などの情報を得る。また、表示制御手段205には、ユーザーからの指示情報が入力される。指示情報としては、画像を表示する画像表示手段208の立体表示方式、画像の再生モードがある。以下、ユーザーからの指示情報について説明する。
立体表示方式には様々なものがあるが、ここでは画像表示手段208がパララクスバリア方式の液晶ディスプレイであるとして説明する。バリアは液晶によって実現され、2Dと3Dとの切り替えが可能であるとする。
図7は、パララクスバリア方式を説明するための概念図である。図7(a)は、立体視に関する原理を示す図である。一方、図7(b)は、パララクスバリア方式で表示される画面を示す図である。図7(a)に示すように、図7(b)に示すような左眼画像と右眼画像が水平方向1画素おきに交互にならんだ形に配置された画像を、画像表示パネル701に表示し、同一視点の画素の間隔よりも狭い間隔のスリットを持つパララクスバリア702を画像表示パネル701の前面に配置する。この時、図7(a)における画像表示パネル701に表示された画像は、バリア702に遮られ、左眼703からは左眼画像部分だけを、右眼704からは右眼画像の部分だけを観察することとなり、立体視が可能となる。
このため、表示制御手段205は画像表示手段208の立体表示方式にあわせ、立体表示する場合には本実施の形態における入力画像である図4(a)の画像を、3D表示制御情報を参照して立体画像の視点数や形式を参照して、左眼画像と右眼画像がそれぞれ水平方向に1画素列おきに並ぶよう、変換した画像を生成するよう画像生成情報を画像生成手段206へ通知する。
次に、再生モードについて説明する。図8は、ユーザーからの指示情報である再生モードと表示方法との関係の一覧を示した図であり、再生モードは”通常再生”、”逆転再生”、”早見再生”、”早送り再生”、”早戻し再生”、”スロー再生”、”コマ送り再生”のうちのいずれかが選択される。再生モードがいずれであるかに応じて、表示方法を切り替える。尚、早送り再生、早戻し再生時には高速で画面が切り替わる。この際、シーンに応じて視差が異なることから、高速で大きく視差が異なる画像が3D表示されると、ユーザーに大きな負担を与えるうえ、高速であることから正確な立体視が行えずどのようなシーンかを判断することも困難になるため、早送り再生、早戻し再生時には2D表示するようにする。2D表示の方法としては様々な方法がある。一例としては、左右の眼に同じ画像が入るように、左眼用画像、右眼用画像のうちのいずれか一方を選択し、選択した画像を左右両方の眼に提示することで、視差がなくなり2D表示することが可能となる。また、左眼の画像だけ提示し、右眼の画像を提示しないという方法でもよい。
以上により、表示制御手段205はユーザーからの指示情報と3D識別情報、3D表示制御情報に従い、画像生成手段206に3D表示する為に必要となる画像生成情報を送る。
また、表示制御手段205は3D表示制御情報のうち視差情報を視差情報提示手段207へと送る。また、ユーザーからの指示情報についても入力がある度に視差情報提示手段207へと送る。ユーザーからの指示情報において再生モードが早送り、もしくは早戻しだった場合、視差情報提示手段207は視差情報提示画像を視差情報に基づいて生成し、画像生成手段206に送る。
画像生成手段206は、復号手段204から送られてきた3D画像データと、表示制御手段205より送られてきた画像生成情報を元に、画像表示手段208に表示する為の画像を生成する。さらに、視差情報提示手段207から視差情報提示画像が送られてきた場合には、生成した画像上に視差情報提示画像を重畳した画像を生成し、画像表示手段208に送り、画像表示手段208は画像を表示する。この際、復号後の画像データと視差情報提示画像とを同期させることで、表示される画像におけるリアルタイムの視差情報をユーザに提示することができる。
視差情報提示画像の例を図9に示す。図9(a)は画像表示手段208に、画像生成手段206からの3D画像と、視差情報提示手段207から送られてきた視差情報提示画像としての視差情報提示バー900とを表示した時の図であり、図9(b)は図9(a)に示された視差情報提示バー900の詳細図である。再生モードは早送り、もしくは早戻しのため、3D画像は2D表示されている。同様に、視差情報提示バー900も2D表示、すなわち視差が0となるように提示されている。視差情報提示バー900は、水平方向の位置が動画像データの位置を示している。視差情報提示バー900において、左端の901の部分は図6の区分1に対応しており、動画像データの最初の0〜5分までの区間を示しており、順に、次の902の部分は、区分2の5〜10分を、その右の902の部分は区分3の10〜15分を、という対応になっている。視差情報提示バー900は視差の大きさに応じて表示する色を変えるのが好ましい。
ここでは、視差0の時はその位置の視差情報提示バーの信号値を赤色R=255、緑色G=255、青色B=255で白色表示に、視差が1以上25未満のときはR=255、G=200、B=255で、25以上50未満の時はR=255、G=100、B=255で、50以上から75未満のときはR=255、G=0、B=200で、75以上100未満の時はR=255、G=0、B=200で、100以上のときにはR=255、G=0、B=0で赤色表示とすることとする。視差情報提示バー900は飛び出し方向の最大視差d1を示すとすると、図6で示した視差情報を参照して、視差情報提示バー900は区分1と区分5では視差100以上であるためR=255、G=0、B=0となり、区分2は視差80よりR=255、G=0、B=200、区分3と4とは視差が64と50であるためR=255、G=0、B=200、区分6は視差が40であるためR=255、G=100、B=255の色で表示する。
図9(b)はこの時の視差情報提示バー900の詳細図であり、符号901の領域がR=255、G=0、B=0、符号902がR=255、G=0、B=200、符号903がR=255、G=0、B=200、符号904がR=255、G=100、B=255の色を示している。このような視差情報提示バー900を表示することにより、3D画像データにおいてどの辺りの映像の飛び出し量が多いかを、一目で確認することができる。
画像データを構成する全てのフレームにおいて最大視差を保持してもよいが、この場合視差が頻繁に変化するようなシーンでは、細かく色が変化するため、色が混ざって見えて実際の視差がどのくらいなのか判断しづらくなったり、操作を誤り視差の小さい部分を選択する際に大きい部分を選択してしまうなどということがありうるが、一定単位ごとに扱うことによりユーザーが視差の大小を判断しやすくなり、誤った選択により飛び出し量の多い部分から表示し生体に悪影響を与えることを防止できるという利点がある。
また、全てのフレームについて情報を保持すると情報量が多くなるのに対して、ここに示すように、ある一定の時間単位で最大視差を保持することにより、視差情報のデータ量を削減することが可能となる。特に、放送や、ストリーミングなどの、いわゆる伝送路が伝送できる情報量に限りがある場合には、この視差情報を減らし、減らした分だけ伝送する画像データの量を増やすことにより、画質を向上させたり、フレーム数を上げたりすることができるという利点がある。
また、上記のように視差情報を減らすことができた分だけ、受信装置側では、1フレームに割り当てる受信バッファの容量を少なくすることができ、また、1フレームを再生する際の処理量を削減することも可能である。
また、上記動画像データは、視差情報が伝送されることを意識していない従来の受信装置を用いた場合でも、視差情報を無効なデータとして無視することにより、受信及び再生が可能であるという利点がある。従来の方法では、伝送する視差情報が多すぎると、従来の受信装置の受信バッファを使い切ってしまう可能性があり、その結果、データの欠落や、それによる表示の遅延などが生じてしまう。これに対して、上述のように、動画像データの一定の区間における視差情報を求め、それを伝送することにより、このような問題の発生を抑制することが可能である。
視差の大きさに関しても、一定の範囲ごとに色を変えるようにすることにより、細かく色を変える場合よりも一目でおおよその視差の大きさがわかるようになる。
図9(b)において、符号905は、再生位置指示ポインタである。この再生位置指示ポインタ905により、現在の再生位置を表示することができる。早送り再生や巻戻し再生で2D表示をしている際に、再生位置指示ポインタ905と視差情報提示バー900とを参照することにより、現在の位置がどの程度の視差があるかを確認することができるとともに、3D表示になった場合にどの程度の飛び出し量になるかを確認することができる。視差が大きい部分から通常再生を開始した場合に、鑑賞位置や画面サイズなどにも依存するが、飛び出し量が強すぎ、眼など生体に悪影響を与える可能性があるが、このようにすることにより再生しようとする位置の視差を一目で確認可能であることから、ユーザーがあらかじめ表示手段から距離を置くなどの対応や、視差の小さい位置から表示を始めるなどの対応をとることが可能となり、3D表示による生体への悪影響を防止することが出来るという利点がある。また、飛び出し量の大きいシーンだけを視聴したいといった場合には、どのシーンにおける視差が大きいかを一目で判断することができるため、ユーザーは所望のシーンを即座に選択し、好みの飛び出し量のシーンを選択的に視聴することも可能となる。
尚、本実施の形態では、3D識別情報と3D表示制御情報とを別々に持つデータを用いることを例にして説明したが、3D識別情報と3D表示制御情報とを一つにまとめて保持してもよく、またヘッダ情報内に階層構造として保持していてもよい。各オブジェクトの固有ID等の値もここで挙げたものに限定されることはない。また、複数のオブジェクトが1つのまとまったデータとして記録されている場合でなくとも、各オブジェクトが別々のデータに記録されていてもよく、複数のオブジェクトが画像データ領域に一括して記録されていてもよい。また、オブジェクトの格納方法として、3D識別情報オブジェクトや3D表示制御情報オブジェクト等の情報量の少ないデータは、画像データ領域の拡張領域や、サブコード領域等の画像データ領域とは別の記憶領域に記録されていてもよい。
画像表示手段208の立体表示方式はパララックスバリア方式を例にして説明したが、時分割方式や偏光方式など他の立体表示方式であってもよく、表示デバイスも液晶素子を用いたデバイスに限定されるものではなく、時分割方式のプロジェクタ等であっても良い。
また、図6で示した視差の値自体も例示であるためこれに限られるものではなく、画像に応じて様々な値をとる。
また、ここでは簡単のため1区分を5分間とし、その中での最大視差を使用したが、1区分をより短い時間にしても長い時間にしてもよく、短い時間であればユーザーはより正確に動画像データにおける視差の分布を把握することが可能となる。DVDの再生画像データなどであれば、時間ではなくDVDに付与されているチャプターごとに最大視差を保持する形式を用いてもよい。また、ここで示したように一定の区分ではなく、最大視差の変化がある一定量変化するまでを1区分として保持しているものとしてもよい。例えば、最初のフレームの最大視差が50であった場合に、閾値を±10と決めるとすると、最大視差が40より小さくなるか、あるいは、60より大きくなるまでを一区分として最大視差の値を保持するという形になる。
また、最大視差として利用するのは飛び出し方向、奥行き方向のどちらでもよく、奥行き感の強い画像や飛び出し感の強い画像など、動画像に応じて切り替えたり、ユーザーが切り替えを行えるようにしてもよい。ここでは奥行き方向の視差が負の値になるようにしたが、逆の計算方法としてもよく、視差の算出で負の値に対して絶対値をとって正の値にしたが、負の値のまま保持して符号により飛び出し方向か奥行き方向かを区別するようにしてもよい。
また、ここでは図9に示したような視差情報提示バーとして、動画像データ全体の位置と再生位置を示すものを復号後の画像データと同期して表示しているが、現在の再生位置の視差だけを示す画像を表示するものとしてもよい。この場合、図2に示した表示制御手段205は、3D表示制御情報解析手段203からの3D表示制御情報のうち提示する画像データと同期した視差情報を視差情報提示手段207へと送り、視差情報提示手段207は提示する画像データに応じた区分の最大視差が大きい場合には赤く、小さい場合には青い円形の画像を視差情報提示画像として生成し、画像生成手段206が視差情報提示画像を画像データに重畳して画面右端に表示するよう視差情報提示画像を生成することとなる。もちろん、視差情報提示画像の位置や形、色などはここに例示したものに限定されるものではない。
また、図9に示した視差情報提示バーは、早送り再生、早戻し再生のときに提示するものとして説明したが、ユーザーからの指示に応じて通常再生時や、画像を再生しない通常の早送りや早戻し中など、ここで示した以外のモードの時にも表示するようにしてもよい。図8における各再生モードにおける表示方法は、表示設定としてユーザーが任意に設定できるようにしてもよい。
また、視差情報提示バーの色を変える際、視差を25ずつに区切って色を変えたが、この値に限定されるものではなく、視差に応じて1ずつ細かく色を変えるようにしてもよく、より大きい視差で区切ってもよい。視差情報提示バーの色に関しても、赤を基調とした色ではなく、青系統の色でも他の色でもよく、透明度を設定して透明度を変え明るさを変えるようにしてもよい。ここでは最大視差として飛び出し方向の視差に応じて表示するようにしたが、奥行き方向の視差d2を表示してもよく、両方を同時に表示できるようにしてもよい。
また、動画像データは3D画像データ、2D画像データ、2D3D混在データのどれでもよいと前述したが、2Dあるいは2D3D混在時の2D部分においては、視差0に対応する色で表示するか、2Dであることを示す色別途を設定し表示する。2Dの色を別途設定した場合、2D部分だけ、3D部分だけを視聴することも可能となる。
次に、本発明の第2の実施の形態による立体画像処理技術について図面を参照しながら説明を行う。図10は、本実施の形態による立体画像処理装置の一構成例を示す機能ブロック図である。尚、図10において、図2と同様の機能ブロックに対しては同じ符号を付している。
図10に示すように、立体画像処理装置1000は、視差マップと画像データによって構成される動画像データを逆多重化するデータ解析手段1001と、視差マップ解析手段1002と、符号化された画像データを復号する復号手段204と、3D画像の表示方法や視差情報提示手段を制御する表示制御手段1003と、表示制御手段1003からの表示方法に関する情報に従い画像を生成する画像生成手段206と、動画像データの視差を示すグラフィカルユーザーインターフェース(GUI)として視差情報提示画像を表示する視差情報提示手段207と、立体画像を表示する画像表示手段1004と、を含んで構成される。
入力される3D画像データは、2D画像と視差マップとによって構成される。ここでは、多視点画像であり視点数を4とすると、基準画像である2D画像のほか、基準画像に対する各視点画像への視差の情報を保持する視差マップが3つ存在することとなる。視差マップとは、別視点の画像を、基準画像から別視点画像への対応点までの視差で表したものである。視差マップの作成方法としては、複数の視点画像からステレオマッチングにより検出する方法など様々なものがある。ここではステレオマッチングによる視差情報を検出する方法の一つを例としてあげる。
視差は、左眼用画像と右眼用画像とを比較し、被写体の対応点を求めることにより算出する。しかしながら、入力画像をそれぞれの画素値を値にもつ2次元の配列と見て、同じ行における点の対応関係を求めるときに、その点の画素の比較だけでは結果が非常に不安定になってしまう。そこで、面積相関法を使用し、注目している画素の周りの面で比較し、その面中の点それぞれについて左右の画像中で差をとり、その合計がもっとも小さいものを対応点とする。
図11に示すように、ある一定のサイズのブロック単位で対応点を探す。それぞれの画素のRGB(赤、緑、青)成分の差を元に比較を行う。図11(a)は左眼用画像、図11(b)は右眼用画像であり、それぞれの画像において左上から横方向にx番目、縦方向にy番目の画素を、L(x、y)、R(x、y)と表すものとする。縦方向には一致しているので、横方向のみで比較し視差を算出する。視差をdで表し、L(x、y)とR(x−d、y)の画素値についてRGB成分の差を比較する。これをブロック毎に行い、例えばブロックを4×4の画素構成とすると、左右それぞれ16個の画素値を比較し、それらの差分およびその総和を求め、この差分の総和によって各ブロックの類似度を見る。この差分の総和が最も小さくなる時、それぞれのブロックは対応していることとなり、そのときのdが視差となる。
図11では図11(a)の1101と図11(b)の1102L、1102m、1102nのブロックを、それぞれ上記のようにRGB成分の差として算出すると、1102mで最も差が小さくなり、このブロックが対応するブロックであることが分かり、視差dを算出することができる。画像全体をブロックに分け、それぞれ対応点を見つけ出すことにより、画像全体の視差をブロック単位で算出することが出来る。
データ解析手段1001では、視差マップと2D画像を分離する。視差マップは視差マップ解析手段1002へと送られ、2D画像は復号手段204へと送られる。
視差マップ解析手段1002は、視差マップから最大視差を求める。動画像データを構成する画像ごとに視差マップがあるため、これを解析し各フレームにおける最大視差を求めて、視差マップとこの最大視差とを表示制御手段1003に送る。ここでは、各フレームにおける最大視差は、基準画像と代表となる別の視点の画像とを1つ決めておき、その2つの画像における最大視差をそのフレームの最大視差として算出する。
表示制御手段1003は、送られてきた視差情報を視差情報提示手段207へと送り、視差マップを元に、画像表示手段1004の立体方式に応じた表示画像を生成するための画像生成情報を画像生成手段206へと送る。ここで、画像表示手段1004の立体方式はレンティキュラ方式であるとして説明を行う。レンティキュラ方式について図を用いて説明する。
図12は、レンティキュラ方式の原理を示す図である。ここでは、多眼式であるとし、視点数は4であるとする。図12は、表示装置を真上から見た図であり、図の矢印の方向が表示装置を正面から見た場合の水平方向となる。表示装置の画像表示パネル1201に4つの視点1205−1〜1205−4までから見た画像を水平方向に順に並べる配置にする。図12の画像表示パネル1201に付されている1から4までの各数値は、1の部分には視点1(1205−1)の画像が、2の部分には視点2(1205−2)の画像がといったように、視点1から視点4の各視点に対応した画像が表示されていることを示している。そして、その前にレンティキュラレンズ1202を配置し、図のようにレンティキュラレンズ1202の一つの凸部に複数の画素からの光が入るようにする。これにより、各視点画像からの光が各視点画像に対応した位置に集まり、複数の位置から見ても立体視することが可能となる。
画像表示手段1004は、レンティキュラ方式で4視点を持つとすると、表示制御手段1003は視差マップの情報を画像生成手段206へと送り、復号手段204から送られてきた1つの視点の2D画像と視差マップの情報とから、複数視点の画像を画像生成手段206で生成させる。更に、それをレンティキュラ方式に合わせ、水平方向に各視点画像が並ぶようにした画像を生成させる。
視差情報提示手段207は、表示制御手段1003から送られてきた視差情報を元に、第1の実施の形態と同様に、視差情報提示画像である視差情報提示バーを生成し、画像生成手段206へと送る。尚、第1の実施形態においては、視差情報提示バーは視差0としたが、視差を持たせて3D表示してもよく、ここでは視差を各視点間共通で飛び出し方向に20持たせ、3D表示するとする。
画像生成手段206は、表示制御手段1003からの画像生成情報に従い、上述のように立体画像を生成し、視差情報提示手段207より視差情報提示バーが送られてきたときには、これを重畳した画像を生成し、画像表示手段1004に送り、画像表示手段1004は画像を表示する。
この時、前述のように視差情報提示バーは再生モードが「早送り再生」等の際に表示されることとなるが、ユーザーが視差情報提示バーを確認しながら再度通常再生を開始する位置を決定するとしても、場合によっては操作の誤りなどから視差の大きい部分から再生を始めてしまうことがある。それを防止するためには、予めある一定以上の視差を許容視差として設定しておき、設定した許容視差よりも視差の大きな位置から再生を始めることが選択された場合、その前後の視差情報を検索し、最も近い許容視差内の位置を探してその位置から再生を行う。例えば、図13に示すように10秒ごとの飛び出し方向への最大視差d1が視差情報として保持されているものとする。
図13において、0:03:10の欄は動画の開始から3分の位置から3分10秒までの位置の最大視差d1を示している。あらかじめ許容視差は100と設定されており、早送りによって開始から3分45秒の位置からの再生がユーザーから指示されていたとすると、この時、図13より0:03:50の部分を参照して、視差は122となり許容視差を超える。この前後で、許容視差内の部分を検索すると、最も近いのは3分50秒以降の0:04:00の部分となり、この部分から再生すれば、ユーザーがいきなり視差の大きい画像からの再生を始めることを防ぐことが可能となり、ユーザーに悪影響を与え気分の不良などを引き起こすのを防ぐことが出来る。
また、上記の手法を用いると画像編集を行う必要がないため、編集によって画像の製作者の意図と異なる表示になることもなく、手順が簡単である。以上に説明したように、表示制御手段1003はユーザーからの指示情報を受け取り、再生を行う際に、上記のように視差情報に応じて再生位置を決定し、再生する画像を生成するよう画像生成手段206に画像生成情報を送る。
尚、ここで許容視差が予め与えられている場合を例に説明したが、ユーザーが各自の判断により自由に設定できるようにしてもよい。これにより、表示装置の画面サイズなど各自の環境に応じて設定できるようになる他、子供などが見る際には予め小さい許容視差としておくなど、状況に応じた対応が可能となる。また、ユーザーが立体画像を見る際の視差情報を記憶装置に保存しておき、その視差情報を解析しユーザーがどのくらいの視差のある映像をよく見るかを調べ、その頻度に応じて、頻度の高い許容視差を判断するなど、自動で設定すべき視差を判定する機能を設けてもよい。
また、図11におけるステレオマッチングにおいては、RGB成分の差を比較したが、R、G、Bそれぞれの差分に対して異なる重み付けをするようにしても良い。さらにまた、RGB成分をYUV成分などに変換し、Y、U、Vそれぞれの差分に対して異なる重み付けをしても良い。例えば、輝度成分だけを用いて差分の総和を求めてもよい。またここでは、ブロックを4×4の画素構成としたが、水平・垂直とも少なくとも一つ以上の画素から構成されていれば、ブロックの画素構成がいくつであってもかまわない。尚、ここで挙げたステレオマッチングの方法はその一例であり、他の手段を用いてもよい。
また、上記においては、多視点に対応して複数の視差マップを保持するものとしたが、視差マップの代わりに3次元空間上での距離を保持するデプスマップを保持し、空間上の距離と視点位置とから中間画像を生成するようにしてもよい。デプスマップの生成方法としては、赤外線カメラと赤外線LEDとを使用して、LEDからの光が帰ってくるまでの時間と光速とから距離を求める方法がある。デプスマップを使用する場合、表示画面に対して垂直な方向、すなわち飛び出し方向、奥行き方向に対応する距離が分かっており、視差の大きさと距離は対応するため、距離を視差情報として用いてもよい。撮影位置とデプスマップの情報から、表示画面に対して垂直な方向で距離が撮影位置から近いほど飛び出しが強く、遠いほど奥行き方向へ離れることとなる。そのため、最大視差として撮影位置から最も近い最近点、あるいは、最も遠い最遠点を用いることにより、視差を用いる場合と同様に扱うことが可能となる。
また、多視点の時の最大視差は、ここで挙げたように、代表となる2つの視点の画像の視差として算出してもよいし、隣り合う視点の画像ごとに視差を算出し、その最大のものを最大視差としてもよい。
また、ここでは視差情報提示画像である視差情報提示バーにおいて、基準画像と代表となる別の1つの視点の画像との最大視差を用いて表示したが、隣り合う視点画像ごとに視差を算出した場合、視差情報提示バーに関しても各視点に対応した視差情報提示バーを複数用意しておき、それぞれの視点位置に対応して、その視点位置から観察する2つの視差画像間の最大視差を視差情報提示バーで表示するようにしてもよい。多視点の場合には、観察する位置に応じて視認する視点画像が異なることから、最大視差も観察位置によって異なるが、隣り合う視点画像毎に全て視差を算出して各視差情報提示バーに表示することにより、観察位置に応じた適切な視差分布を確認することができる。
また、ここでは、3D画像は2D画像と視差マップとで構成され、このようなフォーマットの3D画像を作成する時点の視差マップの作成方法として、ステレオマッチングを挙げたが、視差マップではなく多視点の複数の画像をそのまま保持する形式の3D画像であった場合に、ここで挙げたようなステレオマッチングにより立体画像処理装置側で視差情報を検出することにより、多視点画像を保持する形式の動画像データにも対応することが可能である。
また、ここでは、第1の実施の形態と同様に、単純に最大視差の大小だけを判断して視差情報提示バーを変化させる例を示したが、急激に最大視差が変化するシーンを多く含む場合は、注意を喚起するように異なる色としてもよい。具体的には、各フレーム毎に視差マップから最大視差を検出することとする。まず、変化が大きいと判断する閾値となる視差量を定義する。この視差量をdsとし、今、ds=100とする。あるフレームにおける飛び出し方向の最大視差d1(t)と奥行き方向の最大視差d2(t)とを比較し、値の大きい方を保持する。次に、次のフレームにおけるd1(t+1)とd2(t+1)とを比較し、同様に値の大きい方を保持する。今、最初のフレームではd1(t)=60、次のフレームではd2(t+1)=100が保持されるとする。2つのフレーム間で保持した値を比較し、2つの値が飛び出し方向と奥行き方向というように方向が異なり、かつ、それぞれの値の和が定義した視差量dsを超える場合には、視差が急激に変化すると判断する。ここでは、d1(t)+d2(t)=160>ds=100より、急激に変化すると判断される。ここで、d1とd2の和としたのは、それぞれの値を正の値になるように定義しているためである。
このように急激に視差が変化するシーンが多いかどうかを、このようなシーンが例えば1分あたりで何回あるかを判断し、予め決められた回数の閾値、例えば3回であれば3回を越えるような場合には、その区間は視差の変化が大きいシーンであると判断する。視差の変化が大きい場合、ユーザーへの生理的な負担が大きいため、これによりユーザー側の注意を促すことが出来る。
また、ここでは、立体画像処理装置に表示手段を含めており、一体化している表現となっているが、表示装置と一体化は必須の要件ではなく、外部機器として実現してもよいことは言うまでもない。
以上、本発明の実施の形態による立体画像処理装置によれば、3次元画像データの視差情報を示す視差情報提示画像を表示するための視差情報提示手段を備え、上記視差情報提示画像により前記動画像データの各位置における視差の大きさを視認可能とすることを特徴とし、一連の動画像の中でどの部分が3次元画像で構成されるか、また視差の大きいシーンがどこであるかを簡単に判断することができる。
また、上記視差情報提示画像は、長さ方向の位置が動画像データの各位置を示すとともに、3次元画像データによって構成される位置では色又は明るさを2次元画像データによって構成される位置に対して異なるようにすることにより、色または明るさの違いによって、明示的に視差の変化を提示することができる。
また、上記動画像データは、動画像データ内に含まれる3次元画像データに関する視差情報をメタデータとして保持しており、メタデータに視差情報を含む形式の立体動画像データにおいて、メタデータの視差情報を分析することにより視差情報提示画像を変化させ視差情報を提示することができる。
また、上記3次元画像データは、2次元画像データと視差マップとからなり、上記3次元データの視差情報は視差マップから検出することにより、視差マップを保持する形式の立体動画像データにおいて、視差マップから各動画像の位置における視差を解析し、視差情報提示画像を変化させることで動画像データの時間的な視差の分布を視認可能とすることが出来る。
また、上記3次元画像データは、2次元画像データとデプスマップとからなり、上記デプスマップの距離情報を上記視差情報として用いることにより、デプスマップを保持する形式の立体動画像データにおいて、デプスマップの距離情報を視差情報として扱い、視差情報提示画像を変化させることで動画像データの時間的な視差の分布を視認することができる。
また、上記3次元画像データは複数視点に対応した複数の画像からなり、上記3次元データの視差情報は、上記複数視点に対応した複数画像間の視差を検出することにより得ることにより、複数視点画像を保持する立体動画像データ形式において、各視点画像間の差分から視差を検出し、視差情報提示画像を変化させることで動画像データの時間的な視差の分布を視認が可能となる。
また、上記3次元画像データの視差情報は、3次元画像内における最大視差量であることにより、視聴しようとする動画像の各位置での視差が大きいかどうかをあらかじめ確認することが可能となり、生体への影響を防止する為に視差の少ない部分から視聴するといった対応をすることも可能となる。
また、上記3次元画像内における最大視差を、視差の大きさに従い複数の区分に分割し、各区分に応じて上記視差情報提示画像の色、あるいは、明るさの少なくとも一方を異なるようにすることを特徴とし、細かく色を変える場合よりも一目でおおよその視差の大きさがわかるようになり視認性が向上する。
上記3次元画像内における最大視差は、動画像データを一定単位に分割し、単位ごとに最大視差を検出して視差情報提示画像に表すことにより、視差が頻繁に変化するようなシーンでは細かく色や明るさが変化し視差の大きさを判別しづらいが、一定単位ごとに扱うことによりユーザーが判断しやすくなり、誤った操作などにより意図せず視差の大きい画像から表示して生体に影響を与えることを防止することができる。
また、視差情報提示画像に重畳して表示される再生位置指示ポインタをさらに備え、再生位置指示ポインタにより現在の再生位置を視認可能とすることをにより、観察者が早送りなどを行い動画像の途中から視聴しようとする場合に、再生位置の視差がどの程度あるかを判別することが可能となる。
また、ユーザーの許容視差を保持する許容視差記憶手段を更に備え、動画像データを途中から再生する際に、再生位置の視差が許容視差より大きい場合には、動画像データの前後から視差が許容視差内に収まる位置を検索し、検索した位置から再生することにより、画像自体を編集する事無く、誤って視差の大きい部分から再生しようとした場合にも、許容視差内の部分から再生するようになるため、ユーザーに気分の悪化などの悪影響を与えるのを防止することができる。
尚、本発明は、上述した各実施の形態にいって限定的に解釈されるものではなく、特許請求の範囲に記載した事項の範囲内で、種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる形態についても本発明の技術的範囲に含まれるものとする。
本発明は立体画像処理装置に利用可能である。
本発明の第1の実施の形態による動画像データの一例を示す図である。 本実施の形態による立体画像処理装置を示すブロック図である。 動画像データにおける、各オブジェクトの詳細を示す図である。 動画像データにおける3D画像の例を示す図である。 3D画像における最大視差を説明する図である。 3D画像における最大視差の分布に関する一例を示す図である。 パララックスバリア方式を説明するための図である。 ユーザー指示情報の例を示す図である。 視差情報提示画像の一例を示す図である。 本発明の第2の実施の形態による立体画像処理装置を示すブロック図である。 視差情報を得るためのステレオマッチングを説明する図である。 レンティキュラ方式を説明する為の図である。 3D画像における最大視差の分布に関する一例を示す図である。 立体視における輻輳と調節の関係を示す図である。
符号の説明
100 動画像データ
101 ヘッダ制御情報
102 3D識別情報
103 3D表示制御情報
104 3D画像データ
105 オブジェクト
106 オブジェクトID
107 オブジェクトサイズ
108 オブジェクトデータ
200 立体画像処理装置
201 データ解析手段
202 3D識別情報解析手段
203 3D表示制御情報解析手段
204 復号手段
205 表示制御手段
206 画像生成手段
207 視差情報提示手段
208 画像表示手段208
701 画像表示パネル
702 パララクスバリア
703 左眼
704 右眼
900、901、902、903、904 視差情報提示バー
905 再生位置指示ポインタ
602 右眼
603 左眼
1000 立体画像処理装置
1001 データ解析手段
1002 視差マップ解析手段
1003 表示制御手段
1004 画像表示手段
1101、1102 ブロック
1201 画像表示パネル
1202 レンティキュラレンズ

Claims (14)

  1. 3次元画像データを含む動画像データを再生するための立体画像処理装置であって、
    前記3次元画像データの視差情報に基づいて、前記動画像データの各位置における視差の大きさを視認可能とする視差情報提示画像を生成する視差情報提示手段を有することを特徴とする立体画像処理装置。
  2. 前記視差情報提示画像と前記画像データとを同期させて、表示する画像を生成する画像生成手段を有することを特徴とする請求項1に記載の立体画像処理装置。
  3. 前記視差情報提示画像は、前記動画像データの各位置における視差の大きさに応じて視覚的に識別可能な画像として表示することにより、前記視差の大きさを視認可能とすることを特徴とする請求項1又は2に記載の立体画像処理装置。
  4. 前記動画像データは、動画像データ内に含まれる3次元画像データに関する視差情報をメタデータとして保持していることを特徴とする請求項1から3までのいずれか1項に記載の立体画像処理装置。
  5. 前記3次元画像データは2次元画像データと視差マップとを含んで構成されており、前記3次元画像データの視差情報は前記視差マップから検出することにより得ることを特徴とする請求項1から3までのいずれか1項に記載の立体画像処理装置。
  6. 前記3次元画像データは複数視点に対応した複数の画像からなり、前記3次元データの視差情報は前記複数視点に対応した複数画像間の視差を検出することにより得ることを特徴とする請求項1から3までのいずれか1項に記載の立体画像処理装置。
  7. 前記3次元画像データは2次元画像データと3次元空間上での距離情報を保持するデプスマップとからなり、前記距離情報を前記視差情報として用いることを特徴とする請求項1から3までのいずれか1項に記載の立体画像処理装置。
  8. 前記3次元画像データの視差情報として、3次元画像内における最大視差を用いることを特徴とする請求項1から7までのいずれか1項に記載の立体画像処理装置。
  9. 前記3次元画像内における最大視差を、視差の大きさに基づいて複数の区分に分割し、各区分に応じて前記視差情報提示画像を視覚的に識別可能な画像として表示することを特徴とする請求項8に記載の立体画像処理装置。
  10. 前記3次元画像内における最大視差は、前記動画像データを一定単位に分割し、前記単位毎に最大視差を検出して前記視差情報提示画像に表すことを特徴とする請求項8又は9に記載の立体画像処理装置。
  11. 前記視差情報提示画像は、表示される動画像に重畳して表示される再生位置指示ポインタを含み、該再生位置指示ポインタにより現在の動画像の再生位置を視認可能とすることを特徴とする請求項1から10に記載の立体画像処理装置。
  12. ユーザーの許容視差を保持する許容視差記憶手段を更に備え、
    前記動画像データを途中から再生する際に、再生位置の視差が前記許容視差より大きい場合には、前記動画像データの前後から視差が前記許容視差内に収まる位置を検索し、前記検索した位置から再生するように制御することを特徴とする請求項1から11までのいずれか1項に記載の立体画像処理装置。
  13. 入力された動画像データを逆多重化するステップと、
    3D表示を行うために必要となる3D情報を解析して視差情報を取得するとともに、符号化された動画像データを復号するステップと、
    前記視差情報に基づいて、前記動画像データの各位置における視差の大きさを視認可能とする視差情報提示画像を生成するステップと
    視差情報提示画像の表示を判断し、立体表示方式に応じた画像を生成し、視差情報提示画像を表示する際には立体画像に重畳して動画像データの表示するステップと
    を有することを特徴とする立体画像処理方法。
  14. 請求項13に記載のステップをコンピュータに実行させるためのプログラム。
JP2006282543A 2006-10-17 2006-10-17 立体画像処理装置 Expired - Fee Related JP4755565B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006282543A JP4755565B2 (ja) 2006-10-17 2006-10-17 立体画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006282543A JP4755565B2 (ja) 2006-10-17 2006-10-17 立体画像処理装置

Publications (2)

Publication Number Publication Date
JP2008103820A true JP2008103820A (ja) 2008-05-01
JP4755565B2 JP4755565B2 (ja) 2011-08-24

Family

ID=39437840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006282543A Expired - Fee Related JP4755565B2 (ja) 2006-10-17 2006-10-17 立体画像処理装置

Country Status (1)

Country Link
JP (1) JP4755565B2 (ja)

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079506A (ja) * 2008-09-25 2010-04-08 Kddi Corp 画像生成装置、方法、通信システム及びプログラム
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2010263383A (ja) * 2009-05-01 2010-11-18 Canon Inc 映像出力装置、及びその制御方法
WO2011058690A1 (ja) * 2009-11-11 2011-05-19 パナソニック株式会社 三次元映像復号装置及び三次元映像復号方法
KR20110056770A (ko) * 2009-11-23 2011-05-31 삼성전자주식회사 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
KR20110056758A (ko) * 2009-11-23 2011-05-31 삼성전자주식회사 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
WO2011080878A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 画像再生装置及び表示装置
JP2011142586A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
JP2011142585A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
EP2348747A1 (en) * 2008-11-18 2011-07-27 Panasonic Corporation Reproduction device, integrated circuit, and reproduction method considering specialized reproduction
JP2011525745A (ja) * 2008-06-24 2011-09-22 サムスン エレクトロニクス カンパニー リミテッド 映像生成方法、映像処理方法及びその装置
JP2011223214A (ja) * 2010-04-07 2011-11-04 Sony Corp 信号処理装置、信号処理方法、表示装置及びプログラム
JP2011529286A (ja) * 2008-07-25 2011-12-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 字幕の三次元表示処理
JP2011250278A (ja) * 2010-05-28 2011-12-08 Mitsubishi Electric Corp 画像処理装置、画像処理方法および画像表示装置
JP2011259199A (ja) * 2010-06-09 2011-12-22 Nec Casio Mobile Communications Ltd 画像表示装置及びプログラム
JP2012502559A (ja) * 2008-09-03 2012-01-26 ソニー株式会社 立体ビデオ配信
JP2012023567A (ja) * 2010-07-14 2012-02-02 Nikon Corp 表示装置、画像処理装置およびプログラム
JP2012054877A (ja) * 2010-09-03 2012-03-15 Canon Inc 立体動画像再生装置及びその制御方法
JP2012065327A (ja) * 2010-09-20 2012-03-29 Lg Electronics Inc 携帯端末機及びその動作制御方法
JP2012074845A (ja) * 2010-09-28 2012-04-12 Sony Corp 電子機器、再生システム、再生方法、プログラム
EP2442575A1 (en) * 2009-06-10 2012-04-18 LG Electronics Inc. Stereoscopic image reproduction method in quick search mode and stereoscopic image reproduction apparatus using same
JP2012095276A (ja) * 2010-09-28 2012-05-17 Fujifilm Corp 立体画像編集装置および立体画像編集方法
WO2012086298A1 (ja) * 2010-12-24 2012-06-28 富士フイルム株式会社 撮影装置、方法及びプログラム
WO2012096065A1 (ja) * 2011-01-13 2012-07-19 富士フイルム株式会社 視差画像表示装置及び視差画像表示方法
WO2012101916A1 (ja) * 2011-01-25 2012-08-02 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
WO2012105121A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
WO2012105120A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
GB2489930A (en) * 2011-04-08 2012-10-17 Sony Corp Analysis of Three-dimensional Video to Produce a Time-Varying Graphical Representation of Displacements
JP2012203755A (ja) * 2011-03-28 2012-10-22 Toshiba Corp 画像処理装置及び画像処理方法
JP2012222424A (ja) * 2011-04-05 2012-11-12 Sumitomo Electric Ind Ltd 映像再生装置
JP2012249202A (ja) * 2011-05-30 2012-12-13 Toshiba Corp 電子機器、表示制御方法及び表示制御プログラム
JP2013009324A (ja) * 2011-05-23 2013-01-10 Panasonic Corp 画像表示装置
JP2013031056A (ja) * 2011-07-29 2013-02-07 Jvc Kenwood Corp 立体映像制御装置、立体映像制御方法および立体映像制御用プログラム
JP5181083B1 (ja) * 2012-01-19 2013-04-10 パナソニック株式会社 立体画像表示制御装置、立体画像表示制御方法、及びプログラム
WO2013108298A1 (ja) * 2012-01-19 2013-07-25 パナソニック株式会社 立体画像表示制御装置、立体画像表示制御方法、及びプログラム
JP2013187878A (ja) * 2012-03-12 2013-09-19 Canon Inc 撮像装置および撮像装置の制御方法
JP2014506053A (ja) * 2010-12-29 2014-03-06 トムソン ライセンシング マルチビューシステムにおいてモノビジョンを提供する方法および装置
EP2793472A3 (en) * 2009-11-23 2014-12-10 Samsung Electronics Co., Ltd Method for providing three-dimensional (3D) image, method for converting 3D message, graphical user interface (GUI) providing method related to 3D image, and 3D display apparatus and system for providing 3D image
EP2475176A4 (en) * 2009-09-02 2015-07-01 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR VARIABLE SPEED REPRODUCTION OF VIDEO IMAGES
KR20160014260A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 영상 렌더링 장치 및 방법
JP2017022741A (ja) * 2012-03-01 2017-01-26 ソニー株式会社 受信装置および受信方法
US9667939B2 (en) 2011-06-06 2017-05-30 Sony Corporation Image processing apparatus, image processing method, and program
JP2018029340A (ja) * 2012-08-13 2018-02-22 キヤノン株式会社 画像処理装置およびその制御方法、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346188A (ja) * 2002-05-27 2003-12-05 Canon Inc 立体画像形成システム
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ
JP2005317165A (ja) * 2004-04-30 2005-11-10 Sony Corp 信号処理装置及び方法
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346188A (ja) * 2002-05-27 2003-12-05 Canon Inc 立体画像形成システム
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ
JP2005317165A (ja) * 2004-04-30 2005-11-10 Sony Corp 信号処理装置及び方法
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式

Cited By (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011525745A (ja) * 2008-06-24 2011-09-22 サムスン エレクトロニクス カンパニー リミテッド 映像生成方法、映像処理方法及びその装置
US9979902B2 (en) 2008-07-25 2018-05-22 Koninklijke Philips N.V. 3D display handling of subtitles including text based and graphics based components
JP2011529286A (ja) * 2008-07-25 2011-12-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 字幕の三次元表示処理
JP2012502559A (ja) * 2008-09-03 2012-01-26 ソニー株式会社 立体ビデオ配信
JP2010079506A (ja) * 2008-09-25 2010-04-08 Kddi Corp 画像生成装置、方法、通信システム及びプログラム
EP2348747A4 (en) * 2008-11-18 2013-08-28 Panasonic Corp REPRODUCTION DEVICE, INTEGRATED CIRCUIT, AND REPRODUCTION METHOD WHEREAS SPECIALIZED REPRODUCTION
US8548308B2 (en) 2008-11-18 2013-10-01 Panasonic Corporation Playback apparatus, integrated circuit, and playback method considering trickplay
EP2348747A1 (en) * 2008-11-18 2011-07-27 Panasonic Corporation Reproduction device, integrated circuit, and reproduction method considering specialized reproduction
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US8717415B2 (en) 2009-04-03 2014-05-06 Sony Corporation Information processing device, information processing method, and program
JP2010263383A (ja) * 2009-05-01 2010-11-18 Canon Inc 映像出力装置、及びその制御方法
US8780186B2 (en) 2009-06-10 2014-07-15 Lg Electronics Inc. Stereoscopic image reproduction method in quick search mode and stereoscopic image reproduction apparatus using same
EP2442575A4 (en) * 2009-06-10 2013-08-07 Lg Electronics Inc METHOD FOR REPRODUCING STEREOSCOPIC IMAGES IN QUICK SEARCH MODE AND DEVICE FOR REPRODUCING STEREOSCOPIC PICTURES THEREWITH
EP2442575A1 (en) * 2009-06-10 2012-04-18 LG Electronics Inc. Stereoscopic image reproduction method in quick search mode and stereoscopic image reproduction apparatus using same
EP2475176A4 (en) * 2009-09-02 2015-07-01 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR VARIABLE SPEED REPRODUCTION OF VIDEO IMAGES
US8964859B2 (en) 2009-11-11 2015-02-24 Panasonic Corporation 3D video decoding apparatus and 3D video decoding method
WO2011058690A1 (ja) * 2009-11-11 2011-05-19 パナソニック株式会社 三次元映像復号装置及び三次元映像復号方法
CN102342119B (zh) * 2009-11-11 2014-07-23 松下电器产业株式会社 三维影像解码装置及三维影像解码方法
CN102342119A (zh) * 2009-11-11 2012-02-01 松下电器产业株式会社 三维影像解码装置及三维影像解码方法
US8577208B2 (en) 2009-11-11 2013-11-05 Panasonic Corporation 3D video decoding apparatus and 3D video decoding method
JP2011103589A (ja) * 2009-11-11 2011-05-26 Panasonic Corp 三次元映像復号装置及び三次元映像復号方法
KR101639310B1 (ko) * 2009-11-23 2016-07-14 삼성전자주식회사 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
KR20110056770A (ko) * 2009-11-23 2011-05-31 삼성전자주식회사 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
KR20110056758A (ko) * 2009-11-23 2011-05-31 삼성전자주식회사 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
EP2793472A3 (en) * 2009-11-23 2014-12-10 Samsung Electronics Co., Ltd Method for providing three-dimensional (3D) image, method for converting 3D message, graphical user interface (GUI) providing method related to 3D image, and 3D display apparatus and system for providing 3D image
KR101615695B1 (ko) * 2009-11-23 2016-04-27 삼성전자주식회사 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
JPWO2011080878A1 (ja) * 2009-12-28 2013-05-09 パナソニック株式会社 画像再生装置及び表示装置
WO2011080878A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 画像再生装置及び表示装置
CN102742281A (zh) * 2010-01-08 2012-10-17 索尼公司 图像处理装置、信息记录介质、图像处理方法和程序
JP2011142585A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
JP2011142586A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
JP2011223214A (ja) * 2010-04-07 2011-11-04 Sony Corp 信号処理装置、信号処理方法、表示装置及びプログラム
JP2011250278A (ja) * 2010-05-28 2011-12-08 Mitsubishi Electric Corp 画像処理装置、画像処理方法および画像表示装置
JP2011259199A (ja) * 2010-06-09 2011-12-22 Nec Casio Mobile Communications Ltd 画像表示装置及びプログラム
JP2012023567A (ja) * 2010-07-14 2012-02-02 Nikon Corp 表示装置、画像処理装置およびプログラム
US9077967B2 (en) 2010-09-03 2015-07-07 Canon Kabushiki Kaisha Image reproduction apparatus and control method therefor
JP2012054877A (ja) * 2010-09-03 2012-03-15 Canon Inc 立体動画像再生装置及びその制御方法
KR101640404B1 (ko) 2010-09-20 2016-07-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9456205B2 (en) 2010-09-20 2016-09-27 Lg Electronics Inc. Mobile terminal and method of controlling the operation of the mobile terminal
KR20120056928A (ko) * 2010-09-20 2012-06-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012065327A (ja) * 2010-09-20 2012-03-29 Lg Electronics Inc 携帯端末機及びその動作制御方法
JP2012095276A (ja) * 2010-09-28 2012-05-17 Fujifilm Corp 立体画像編集装置および立体画像編集方法
JP2012074845A (ja) * 2010-09-28 2012-04-12 Sony Corp 電子機器、再生システム、再生方法、プログラム
CN103238340A (zh) * 2010-12-24 2013-08-07 富士胶片株式会社 摄影装置、方法及程序
US8711208B2 (en) 2010-12-24 2014-04-29 Fujifilm Corporation Imaging device, method and computer readable medium
WO2012086298A1 (ja) * 2010-12-24 2012-06-28 富士フイルム株式会社 撮影装置、方法及びプログラム
CN103238340B (zh) * 2010-12-24 2014-09-24 富士胶片株式会社 摄影装置及方法
JP5453552B2 (ja) * 2010-12-24 2014-03-26 富士フイルム株式会社 撮影装置、方法及びプログラム
JP2014506053A (ja) * 2010-12-29 2014-03-06 トムソン ライセンシング マルチビューシステムにおいてモノビジョンを提供する方法および装置
WO2012096065A1 (ja) * 2011-01-13 2012-07-19 富士フイルム株式会社 視差画像表示装置及び視差画像表示方法
JP5750457B2 (ja) * 2011-01-25 2015-07-22 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
WO2012101916A1 (ja) * 2011-01-25 2012-08-02 富士フイルム株式会社 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
US9380290B2 (en) 2011-01-25 2016-06-28 Fujifilm Corporation Stereoscopic video processor, recording medium for stereoscopic video processing program, stereoscopic imaging device and stereoscopic video processing method
CN103329549A (zh) * 2011-01-25 2013-09-25 富士胶片株式会社 立体视频处理器、立体视频处理程序及其记录介质、立体成像装置和立体视频处理方法
CN103329549B (zh) * 2011-01-25 2016-03-09 富士胶片株式会社 立体视频处理器、立体成像装置和立体视频处理方法
WO2012105121A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
US8982189B2 (en) 2011-02-03 2015-03-17 Fujifilm Corporation 3D video reproduction device, non-transitory recording medium, 3D display device, 3D imaging device, and 3D video reproduction method
JP5486697B2 (ja) * 2011-02-03 2014-05-07 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
US9210394B2 (en) 2011-02-03 2015-12-08 Fujifilm Corporation 3D video reproduction device, non-transitory computer-readable medium, 3D display device, 3D imaging device, and 3D video reproduction method
CN103339948A (zh) * 2011-02-03 2013-10-02 富士胶片株式会社 3d视频再现装置、3d视频再现程序及其记录介质、3d显示装置、3d成像装置和3d视频再现方法
CN103339947B (zh) * 2011-02-03 2014-07-30 富士胶片株式会社 3d视频再现装置、3d显示装置、3d成像装置和3d视频再现方法
CN103339947A (zh) * 2011-02-03 2013-10-02 富士胶片株式会社 3d视频再现装置、3d视频再现程序及其记录介质、3d显示装置、3d成像装置和3d视频再现方法
WO2012105120A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5466773B2 (ja) * 2011-02-03 2014-04-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP2012203755A (ja) * 2011-03-28 2012-10-22 Toshiba Corp 画像処理装置及び画像処理方法
JP2012222424A (ja) * 2011-04-05 2012-11-12 Sumitomo Electric Ind Ltd 映像再生装置
US8976229B2 (en) 2011-04-08 2015-03-10 Sony Corporation Analysis of 3D video
GB2489930A (en) * 2011-04-08 2012-10-17 Sony Corp Analysis of Three-dimensional Video to Produce a Time-Varying Graphical Representation of Displacements
EP2509326A3 (en) * 2011-04-08 2014-03-19 Sony Corporation Analysis of 3D video
JP2013009324A (ja) * 2011-05-23 2013-01-10 Panasonic Corp 画像表示装置
US8687950B2 (en) 2011-05-30 2014-04-01 Kabushiki Kaisha Toshiba Electronic apparatus and display control method
JP2012249202A (ja) * 2011-05-30 2012-12-13 Toshiba Corp 電子機器、表示制御方法及び表示制御プログラム
US9667939B2 (en) 2011-06-06 2017-05-30 Sony Corporation Image processing apparatus, image processing method, and program
JP2013031056A (ja) * 2011-07-29 2013-02-07 Jvc Kenwood Corp 立体映像制御装置、立体映像制御方法および立体映像制御用プログラム
JP5181083B1 (ja) * 2012-01-19 2013-04-10 パナソニック株式会社 立体画像表示制御装置、立体画像表示制御方法、及びプログラム
US8619076B2 (en) 2012-01-19 2013-12-31 Panasonic Corporation Stereoscopic image display control apparatus, stereoscopic image display control method, and program
WO2013108298A1 (ja) * 2012-01-19 2013-07-25 パナソニック株式会社 立体画像表示制御装置、立体画像表示制御方法、及びプログラム
JP2017022741A (ja) * 2012-03-01 2017-01-26 ソニー株式会社 受信装置および受信方法
US9924151B2 (en) 2012-03-01 2018-03-20 Sony Corporation Transmitting apparatus for transmission of related information of image data
JP2013187878A (ja) * 2012-03-12 2013-09-19 Canon Inc 撮像装置および撮像装置の制御方法
JP2018029340A (ja) * 2012-08-13 2018-02-22 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
KR20160014260A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 영상 렌더링 장치 및 방법
KR102240564B1 (ko) 2014-07-29 2021-04-15 삼성전자주식회사 영상 렌더링 장치 및 방법

Also Published As

Publication number Publication date
JP4755565B2 (ja) 2011-08-24

Similar Documents

Publication Publication Date Title
JP4755565B2 (ja) 立体画像処理装置
US11310486B2 (en) Method and apparatus for combining 3D image and graphical data
US9357231B2 (en) Video encoding device, video encoding method, video reproducing device, video reproducing method, video recording medium, and video data stream
JP5789518B2 (ja) グラフィック画面処理方法及び装置
JP5829604B2 (ja) 3dトリックプレイのためのエントリー・ポイント
US20100103168A1 (en) Methods and apparatuses for processing and displaying image
KR101659576B1 (ko) 영상 처리 방법 및 장치
TWI651960B (zh) 編碼/解碼視訊資料信號之方法與編碼器/解碼器及相關之視訊資料信號、視訊資料載體及電腦程式產品
JP2005110121A (ja) 画像データ表示装置
KR20100128233A (ko) 영상 처리 방법 및 장치
US20130266287A1 (en) Reproduction device and reproduction method
JP2011259012A (ja) 立体画像再生装置及び立体画像再生方法
JP4827881B2 (ja) 映像ファイル処理方法及び映像送受信再生システム
JP2011146830A (ja) 映像処理装置、映像識別方法、映像表示装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees