JPWO2007116549A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JPWO2007116549A1
JPWO2007116549A1 JP2008509683A JP2008509683A JPWO2007116549A1 JP WO2007116549 A1 JPWO2007116549 A1 JP WO2007116549A1 JP 2008509683 A JP2008509683 A JP 2008509683A JP 2008509683 A JP2008509683 A JP 2008509683A JP WO2007116549 A1 JPWO2007116549 A1 JP WO2007116549A1
Authority
JP
Japan
Prior art keywords
image
parallax
transparency
information
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008509683A
Other languages
English (en)
Other versions
JP4693900B2 (ja
Inventor
保孝 若林
保孝 若林
北浦 竜二
竜二 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008509683A priority Critical patent/JP4693900B2/ja
Publication of JPWO2007116549A1 publication Critical patent/JPWO2007116549A1/ja
Application granted granted Critical
Publication of JP4693900B2 publication Critical patent/JP4693900B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Abstract

3D画像に画像を合成する際、3D画像の視差を考慮して合成する事で違和感のない合成画像を実現すると共に、ブロック符号化時の画質の劣化を抑える画像処理装置を提供する。画像処理装置1は、左眼に対応する視点から得られた左眼用画像および右眼からの右眼用画像を入力とし、視差情報を検出する視差検出手段2からの視差情報、並びに位置決定手段5からの位置情報を元に、透明度決定手段3が左眼用画像および右眼用画像に合成するオブジェクトの透明度を決定し、または、調整手段32によりオブジェクトの合成位置を符号化ブロックの境界に合わせるように決定して、左眼用画像および右眼用画像とオブジェクトの合成を行う。

Description

本発明は、3次元表示する為の画像データを作成する際に、画像データに視認可能な属性情報を付加する画像処理装置に関する。
従来、立体画像を表示する様々な方法が提案されてきた。その中でも一般的に用いられているのは、両眼視差を利用する「2眼式」と呼ばれるものである。両眼視差を持った左眼用の画像と右眼用の画像(以下、それぞれ「左眼用画像」、「右眼用画像」という)を用意し、観察者が左眼用画像を左眼で、右眼用画像を右眼で見ることにより、被写体を直接見ているかのような立体感を得ることが出来る。
このような立体視における立体画像の作成方法として、平行法、交差法という2つの方式が知られている。立体画像を作成するための左・右眼用画像は、左右の視点に対応する位置にカメラを置いて撮影する。あるいはソフトウェア上での擬似的なカメラを視点位置におき、画像を作成する。この時、撮影した該左・右眼用画像を用い、平行法においては左眼用画像を向かって左に、右眼用画像を向かって右に配置し、交差法では左眼用画像を向かって右に、右眼用画像を向かって左に配置して作成する。
近年では、左眼用画像、右眼用画像からなる立体視用の電子画像を裸眼、あるいは特殊な眼鏡などを使用して立体視することが可能な表示装置も提案されており、2眼式の代表的な方式として、例えば、時分割方式、パララクスバリア方式又は偏光フィルタ方式などがある。このうち、例としてパララクスバリア方式に関して説明する。
図14は、パララクスバリア方式を説明するための概念図である。図14(a)は、視差が生じる原理を示す図である。一方、図14(b)は、パララクスバリア方式で表示される画面を示す図である。
図14(a)では、図14(b)に示すような左眼用画像と右眼用画像が水平方向1画素おきに交互にならんだ形に配置された画像を、画像表示パネル50に表示し、同一視点の画素の間隔よりも狭い間隔でスリットを持つパララクスバリア51を画像表示パネル50の前面に配置することにより、観察者は左眼用画像は左眼52だけで、右眼用画像は右眼53だけで観察することになり、立体視を行うことができる。
ここでパララクスバリア方式に対応した記録データ形式の一例を図15に示す。図15(a)に示す左眼用画像と図15(b)に示す右眼用画像から、それぞれを水平方向に1画素列おきに間引きして図15(c)に示す1枚の立体画像を作って記録する。表示する際にはこの立体画像を画素毎に並べ替え、パララクスバリア方式、あるいはレンティキュラ方式に対応した表示装置により観察者は裸眼で立体的に観察することが可能となる。
各立体視の方式に従い、左・右眼用画像の画素配置などの構成は変わることがあるものの、2眼式の立体視用の画像を図15(c)に示すような左眼用画像と右眼用画像が左右に並んだフォーマットとすることが多い。
このような立体画像において、画像や文字などを合成したいという要望がある。例えば、立体画像を立体視に対応しない通常の表示装置で表示した場合、左眼用画像、右眼用画像が左右に並んだ画像が表示されるだけとなってしまう。この場合、通常の表示装置しか所有していない人にとっては、それが立体視向けに撮影された画像であることを明確に識別することが出来ず、混乱を引き起こす可能性がある。このため、立体写真の場合には、撮影した画像のどちらが左眼用、右眼用かを示す識別情報をあらわすパターンと、撮影方法に応じた立体視を補助する為に左眼用、右眼用画像に共通のパターンをフィルム上に写しこむ方法が提案されている。(特許文献1参照)
同様に、表示装置で表示する為の立体画像データでもこのようなマークを合成する事で、立体画像であることを明確にすることができる。
また、立体画像に任意の文字等を書き込む方法が開示されている。入力された任意の文字等の遠近の調整には、これら文字等の遠近感を近づけたり、遠ざけたりするためのボタンがあり、該ボタンによりユーザーが任意に遠近を調整する。(特許文献2参照)
また、このような画像合成を行う際、単純に画像合成を行った場合、圧縮符号化処理をする際に画質の劣化を引き起こすという問題があるが、これを回避する方法として、圧縮符号化を行う際のブロックサイズに応じて合成画像の配置する位置を限定する方法が開示されている。(特許文献3参照)
また、文字画像データを合成する際に、前記データを構成する単位画素のサイズを、ブロック符号化するブロックサイズの偶数分の1もしくは整数倍にするような方法が開示されている。(特許文献4参照)
特開平6−324413号公報 特開2004−104331号公報 特開平7−38918号公報 特開平8−251419号公報
しかし、このような合成を行う際に立体画像の視差を考慮せずに合成すると、見づらく観察者に疲労を与えることがある。例えば、立体視した際に飛び出して見える画像に、視差をつけず、表示画面上の位置に見える画像を合成すると、合成した画像領域だけが周囲に対して奥の方向に見えることとなり、違和感が強く、また疲労を招く可能性もある。
本発明は、以上のような問題点を解決するためになされたものであって、立体画像データ内に画像などのオブジェクトを合成する際に、視差を考慮しつつ画質への影響を抑えて合成する画像処理装置を提供することを目的とする。
本発明は、複数視点の各々に対応した複数の画像から構成される立体画像データを作成する画像処理装置において、前記立体画像データにオブジェクトを合成する画像合成手段と、前記オブジェクトの透明度を設定する透明度決定手段とを備え、前記透明度決定手段は、前記複数視点に対応した複数の画像間の視差情報に基づき前記オブジェクトの透明度を決定することを特徴とする。
また、前記透明度決定手段は、前記複数視点に対応した複数の画像における前記オブジェクトを合成する領域の視差を視差情報として取得し、前記視差情報から前記オブジェクトの透明度を設定することを特徴とする。
また、前記透明度決定手段は、前記画像における前記オブジェクトを合成する領域内のそれぞれの視差と、前記オブジェクトの視差との差分値を取り、その値に応じて透明度を決定することを特徴とする。
また、前記オブジェクトの位置を決定する位置決定手段を備え、前記位置決定手段は、前記画像における視差情報より対応点のないオクルージョン領域を検出し、前記オクルージョン領域と重なるように前記オブジェクトの位置を決定することを特徴とする。
また、前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の視差情報に基づき、前記オブジェクトの視差が該視差情報の視差に最も近くなるよう、前記オブジェクトを前記画像のそれぞれに合成することを特徴とする。
また、前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の視差情報に基づき、前記オブジェクトの視差が該視差情報の視差よりも大きく、かつ前記オブジェクトの左端あるいは右端が符号化ブロックの境界と一致するように前記オブジェクトの水平方向位置を決めることを特徴とする。
また、前記画像合成手段は、前記オブジェクトを前記画像に合成する際、前記オブジェクトの垂直方向の下端あるいは上端の境界、かつ水平方向の左端あるいは右端の境界を符号化ブロックの境界に一致するよう合成することを特徴とする。
また、前記オブジェクトの大きさは、垂直方向と水平方向共に、前記符号化ブロックの整数倍の大きさとなることを特徴とする。
また、前記オブジェクトは、立体画像であることを示す情報を含む視認可能な立体画像識別情報であることを特徴とする。
本発明の画像処理装置によれば、前記立体画像データにオブジェクトを合成する画像合成手段と、前記オブジェクトの透明度を設定する透明度決定手段を備え、前記透明度決定手段は、前記複数視点に対応した複数の画像間の視差情報に基づき前記オブジェクトの透明度を決定することを特徴とすることにより、立体画像にオブジェクトを合成する際に、該オブジェクトが立体視の妨げになったり、違和感を生じさせてしまうのを防ぐことが可能となる。
また、前記透明度決定手段は、前記複数視点に対応した複数の画像における前記オブジェクトを合成する領域の視差を視差情報として取得し、前記視差情報から前記オブジェクトに透明度を設定することが可能であり、この手段を用いることにより、立体画像にオブジェクトを合成する際に、オブジェクトの配置位置が、元の立体画像の方がオブジェクトよりも手前に見えるような領域であっても、前記立体画像における視差のある領域に透明度を設定する事で元の立体画像はオブジェクトを通して透けて見えることとなり、違和感を防止して合成することが可能となる。
また、前記透明度決定手段は、前記画像における前記オブジェクトを合成する領域内のそれぞれの視差と、前記オブジェクトの視差との差分値を取り、その値に応じて透明度を変更することにより、視差が大きく違和感の大きい場所ほど透明度を上げると言ったように、より違和感を防止する合成が可能となる。
また、前記画像合成手段は、前記画像における視差情報より対応点のないオクルージョン領域を検出し、前記オクルージョン領域と重なるように前記オブジェクトを合成することにより、立体視の妨げとなるオクルージョン領域がオブジェクトにより目立たなくなり、違和感を減ずることが可能となる。
また、前記画像合成手段を用いて、前記画像における前記オブジェクトを合成する領域の視差情報に基づき、前記オブジェクトの視差が前記視差情報からの視差に最も近くなるよう、前記オブジェクトを前記画像それぞれに合成することにより、合成後の画像であっても合成前と同じような視差を保つことが可能となる。
また、前記画像合成手段を用いて、前記画像における前記オブジェクトを合成する領域の視差情報に基づき、前記画像よりも手前にみえるように前記オブジェクトを配置し、かつ前記オブジェクトの左端あるいは右端が符号化ブロックの境界と一致するように水平方向位置を決めることにより、表示画面より前方に見えるように合成する際、最も手前に見えるように前記オブジェクトを合成することでオブジェクトが立体画像よりも奥の方向に見えるのを防ぎ、違和感、又は観察者の疲労を少なくすることが可能となる。
また、前記画像合成手段を用いて、前記オブジェクトを前記画像に合成する場合、前記オブジェクトの垂直方向の下端あるいは上端の境界、かつ水平方向の左端あるいは右端の境界を符号化ブロックの境界に一致するように合成することにより、符号化の際、前記オブジェクトが符号化ブロックの境界をまたぐ領域を最小限に抑えることができるため、符号量を少なくすることが可能となる。
また、前記オブジェクトの大きさを、垂直方向と水平方向共に、前記符号化ブロックの整数倍とすることにより、符号化ブロックの境界をオブジェクトがまたぐことがなくなるため、効率よく符号化することが可能となる。
また、前記オブジェクトを、立体画像であることを示す情報を含む視認可能な立体画像識別情報とすることにより、観察者は、2Dの表示装置でこの立体画像を表示しても、それが立体向けの画像であることを一目で判別することが可能となる。
本発明の実施形態1の画像処理装置の構成を示すブロック図である。 立体画像データの視差について説明するための図である。 視差検出方法の説明に関する図である。 視差検出方法の説明に関する図である。 立体画像データへのオブジェクト合成に関する図である。 オブジェクト合成後の立体画像データの一例を示す図である。 ブロック符号化時のブロックに関する説明のための図である。 ブロック符号化の手順を示すブロック図である。 本発明の実施形態2の画像処理装置の構成を示すブロック図である。 立体画像データにおける3Dマークの一例を示す図である。 立体画像データへのオブジェクトの合成方法に関する説明の図である。 立体画像データへのオブジェクトの合成方法に関する説明の図である。 時分割方式を説明するための概念図である。 パララクスバリア方式を説明するための概念図である。 パララクスバリア方式の記録データ形式を説明する図である。
符号の説明
1、30 画像処理装置
2 視差検出手段
3 透明度決定手段
4 画像合成手段
5 位置決定手段
6 符号化手段
7L、8L 左眼用画像の点
7R、8R 右眼用画像の点
9 特徴点
10、11 カメラ
12 エピポーラ平面
13、14 画像平面
15、16 エピポーラ線
17、18 ブロック
19、35、40、41、42、43、44、45 オブジェクト
20、21、36、37 画像領域
22 ブロック画像
23 DCT器
24 量子化器
25 量子化テーブル
26 エントロピー符号化器
27 符号テーブル
31 3D情報作成手段
32 調整手段
33 画像合成手段
34 多重化手段
38、39、46 左右境界線
50 画像表示パネル
51 パララクスバリア
52 右眼
53 左眼
(実施形態1)
本発明の実施形態について、図面を参照しながら説明する。以下では、3次元または立体を意味する語として「3D」を、2次元を意味する語として「2D」をそれぞれ用い、3次元または立体画像を「3D画像」、通常の2次元画像を「2D画像」として説明を行なう。
図1は、本発明の実施形態1の画像処理装置の構成を示すブロック図である。
画像処理装置1は、左眼に対応する視点から得られた左眼用画像、および右眼からの右眼用画像を入力とし、視差情報を検出する視差検出手段2と、前記視差情報を元に、前記左眼用画像と前記右眼用画像からなる画像に合成するオブジェクトの透明度を決定する透明度決定手段3と、左眼用画像および右眼用画像と、オブジェクトの合成を行う画像合成手段4と、オブジェクトの合成位置を決定する位置決定手段5と、合成した画像を符号化する符号化手段6と、図示しない記録媒体や通信回線にアクセスする手段とを備えて構成される。
本実施形態では、例えば、本画像処理装置によって作成された画像は、パララクスバリア方式での3D表示装置で表示するものとして説明する。
まず、左眼用画像と右眼用画像からなる画像信号が、画像処理装置1に入力されると、視差検出手段2は、該左眼用および該右眼用画像から、視差情報を検出する。
視差は、例えば、ステレオマッチングにより検出する。ステレオマッチングとは、左眼用画像が右眼用画像のどの部分に対応するかを面積相関の計算により算出し、対応する点のずれを視差とするものである。
3D画像を、3D表示に対応した3D表示装置によって表示する場合、視差が大きいほど表示画面より飛び出して、あるいは表示画面よりも奥に見える。
図2は視差について示す図である。図2は家を撮影した画像を示しており、それぞれ図2(a)の画像は交差法により撮影された左眼用画像、図2(b)の画像は右眼用画像を示している。背景は視差がないものとする。
ここで、左眼用画像からみた右眼用画像の対応点は、左眼用画像のものより左側にある場合は飛び出して見え、右側にある場合には表示画面よりも奥の方向に見える。また、視差が無い場合、つまり、左眼用画像の点と右眼用画像の点の位置が同じ位置であれば、それらの点は、表示画面の位置にあるように見える。
例えば、画像図2(a)と図2(b)を比較すると、左眼用画像の点7L、8Lに対応する右眼用画像の点をそれぞれ7R、8Rとすると、それぞれの画像を撮影したカメラの位置に近い7Lと7Rの視差は大きくなり、また、前記カメラの位置から遠い8Lと8Rの視差は小さくなる。またこのとき、左眼用画像からみた右眼用画像の対応点は左側にある。よって、7Lと7R、8Lと8Rともに表示画面に対して飛び出して見えるが、視差が大きい7Lと7Rの点の方が、8Lと8Rの点より観察者には手前に飛び出して見える。
前記視差検出手段2において、ステレオマッチングにより視差情報を検出する方法について、以下、詳細に説明する。
視差は、左眼用画像と右眼用画像を比較し、被写体の対応点を求める事で算出する。しかし、入力画像をそれぞれの画素値を値にもつ2次元の配列と見て、同じ行における点の対応関係を求めるときに、その点の画素の比較だけでは結果が非常に不安定になってしまう。そこで、面積相関法を使用し、注目している画素の周りの面で比較し、その面中の点それぞれについて左右の画像中で差をとり、その合計がもっとも小さいものを対応点とする。
図2においてその例を示す。ここで、エピポーラ線は一致しているので、対応点を探すときは、縦方向は同じ高さに固定し、横方向のみをずらしながら探索すればよい。エピポーラ線とは、図3に示すように空間中の特徴点9と2つのカメラ10、11のレンズ中心によってできる平面(エピポーラ平面)12と、それぞれのカメラの画像平面13、14との交線が対応する線であり、図では15、16の点線となる。図3では一致していないが、本実施形態の図2の画像ではカメラを同じ高さにして、水平面に対して平行に設置している為一致している。
図4に示すように、ある一定のサイズのブロック単位で対応点を探す。それぞれの画素のRGB(赤、緑、青)成分の差を元に比較を行う。
図4(a)は左眼用画像、図4(b)は右眼用画像であり、それぞれの画像において左上から横方向にx番目、縦方向にy番目の画素を、L(x、y)、R(x、y)と表すものとする。上述のように、縦方向には一致しているので、横方向のみで比較し視差を算出する。視差をdで表し、L(x、y)とR(x−d、y)の画素値についてRGB成分の差を比較することになる。これをブロック毎に行い、例えばブロックを4×4の画素構成とすると、左右それぞれ16個の画素値を比較し、それらの差分およびその総和を求め、この差分の総和によって各ブロックの類似度を見る。この差分の総和が最も小さくなる時それぞれのブロックは対応していることとなり、そのときのdが視差となる。
図4において、図4(a)の17と図4(b)の18l、18m、18nのブロックをそれぞれ上記のようにRGB成分の差で算出すると、18mで最も差が小さくなり、このブロックが対応するブロックであることが分かり、視差dが算出される。画像全体をブロックに分け、それぞれ対応点を見つけ出す事で、画像全体の視差をブロック単位で算出することが出来る。
また、上記では、RGB成分の差を比較したが、R、G、Bそれぞれの差分に対して異なる重み付けをしてもかまわない。
さらにまた、RGB成分を、輝度と色差により表現するYUV成分などに変換し、Y、U、Vそれぞれの差分に対して異なる重み付けをしてもかまわない。例えば、輝度成分だけを用いて差分の総和を求めてもよい。
上記では、ブロックを4×4の画素構成としたが、水平・垂直とも少なくとも一つ以上の画素から構成されていれば、ブロックの画素構成がいくつであってもかまわない。
視差検出手段2は、左眼用画像、右眼用画像をそれぞれ画像合成手段4へと送り、視差情報は透明度決定手段3へと送る。透明度決定手段3は、3D画像に合成するオブジェクトを入力として受けとり、位置決定手段5からの位置情報に従って、該オブジェクトの合成位置を決定する。
ここでは、例えばオブジェクトを無地で白色、矩形の画像とする。
位置決定手段5は、例えば、ユーザーからの指示に従い、3D画像中の配置位置に関する位置情報を得る。例えば、本画像処理装置がPC(Personal Computer)といった端末機器であったとすると、ユーザーがキーボードやマウスといった入力装置により画像中の配置位置を指定することとなる。
また、視差検出手段2から位置決定手段5に視差情報が入力され、位置決定手段5は、該視差情報から元の3D画像の対応点の無い領域を求め、その領域の割合をもっとも多く含む位置になるようオブジェクトを配置するようにしてもよい。
視点が異なることから隠蔽され、画像内に対応点が無い領域は、オクルージョン領域と一般的に呼ばれ、立体視の妨げとなる可能性があるが、オブジェクトをオクルージョン領域に重なるように配置することにより、このオクルージョン領域が観察者に見えにくくなり、より立体視しやすい画像にすることができる。
透明度決定手段3は、位置情報より決定した該3D画像へのオブジェクトの合成位置を元に、視差検出手段2からオブジェクトの合成位置における視差情報を得て、該視差情報を元にオブジェクトのどの領域をどのくらいの透明度にするかを示す透明度情報を作成する。
例えば、3D画像においてオブジェクトの配置位置及びその周囲の視差が表示画面より手前に見える方向であった場合、オブジェクトを視差0となるように左眼用及び右眼用画像にそれぞれ合成し、該画像を立体視したときに、オブジェクトは表示画面位置に、オブジェクトの周囲は手前に飛び出して見えることとなり、不自然で見づらくなってしまう。
この問題を解決するために、まず元の3D画像内のオブジェクトを配置する領域の視差情報を参照して、その領域を元の3D画像の方がオブジェクトよりも前面に表示される領域P1と、そうでない領域P2とに分ける。つまり、対象とする領域において、前記視差情報から求めた元の立体画像の視差から前記オブジェクトの視差を引いた値が0より大きくなる領域をP1、0以下の値となる領域をP2とする。
次に、透明度決定手段3は、オブジェクトの透明度を上記のように分けた領域別に決定する。例えば、領域P1におけるオブジェクトの透明度を50パーセント、領域P2におけるオブジェクトの透明度を0パーセントとして、透明度情報を作成する。これにより、領域P1ではオブジェクトが透けて見え、領域P2ではオブジェクトのみが観察されることとなる。
このとき、左眼用画像と右眼用画像に対応点がない場合があり、該領域に関しては、オブジェクトの透明度を下げるようにしてもよいし、不透明としてもよい。本実施形態では、そのような領域の透明度を例えば20パーセントとして透明度情報を作成する。
透明度決定手段3は、上述した透明度情報、オブジェクト及びその配置位置の情報(以下、「オブジェクト位置情報」という)を含んだ情報をオブジェクト情報として作成し、画像合成手段4へと送る。
画像合成手段4は、視差検出手段2から得た左眼用画像、右眼用画像と、透明度決定手段3から得たオブジェクト情報に含まれる透明度情報とオブジェクト及びオブジェクト位置情報を元に、画像の合成を行う。
まず、左眼用画像と右眼用画像のそれぞれに対してオブジェクトを合成する方法を図面を用いて説明する。
図5は、オブジェクトをそれぞれ左・右眼用画像に合成したときの図を示している。19Lは左眼用画像に合成したオブジェクト、19Rは右眼用画像に合成したオブジェクトを示しており、各画像における左上からのオブジェクトの位置は同じであり、オブジェクトに視差はないものとする。左眼用画像、右眼用画像からなる3D画像は、背景は視差0で家の領域には視差があるものとする。斜線で表したオブジェクト19L、19Rが重なる家の端の領域20L、20RはCで示すように20Rの左側の境界が20Lより左に存在することから、オブジェクトが合成される元の画像には観察者から見て手前の方向に見えるように視差が存在し、オブジェクト19Lと19Rの斜線でない部分21L、21Rは背景であることから視差が0であることを示している。
画像合成手段4は、オブジェクト情報に含まれる透明度情報によりオブジェクトの透明度を設定する。
例えば、立体視の際に元の3D画像がオブジェクトよりも前面に表示される領域20L、20Rは、オブジェクトの透明度を50%とすることが透明度情報に指定されているとすると、この情報に従いオブジェクトが元の3D画像に合成され、オブジェクトより前に元の3D画像が透けて見えることとなる。
ここで、オブジェクトの透明度がn%(0≦n≦100)で設定されていた場合、オブジェクトが(100−n)%、元の画像がn%の割合で画像が合成される。すなわち、オブジェクトの透明度が0%であった場合、オブジェクトだけが見えることとなる。合成の割合の設定方法としては、単純に同位置の画素を前記のような割合で重み付けをして作成してもよいし、他の公知の方法を用いてもよく、本発明とは関係が無いため詳細な説明は省略する。
また、他に対応点が無い領域(オクルージョン領域)に関する情報を位置決定手段5から取得し、透明度決定手段が透明度情報として、例えば、オクルージョン領域は透明度を20パーセント、それ以外の領域は透明度を0パーセントとすることを指定すれば、この情報に従って、オブジェクトが重なる領域のうち、元の3D画像が立体視の際にオブジェクトよりも背面に表示される領域ではオブジェクトを不透明に、オクルージョン領域は視差が存在せず、本来その部分がオブジェクトよりも背面になるか前面になるか判断できないため、前記設定により透明度を20パーセントにして、元の3D画像にオブジェクトを合成することとなる。
このように、オクルージョン領域に対して、オブジェクトの透明度を低くして合成することにより、オクルージョンを観察者に見えにくくすることになり、より立体視しやすい画像にすることができる。
このようにして合成することにより、再生手段を通してこの合成画像を3D表示装置で表示すると、元の3D画像とオブジェクトが重なっている領域であっても、自然に立体視ができ、また、オブジェクト自体も観察することができる。
これにより、オブジェクトの位置を視差0で立体画像に合成した際でも、周囲に対してオブジェクトが不自然に見えることがなくなり、違和感を与えることがない。
例えば、表示装置がパララクスバリア方式の3D表示装置である場合、画像合成手段4が出力する合成画像は、図15(c)で示したように左右の各視点画像を水平方向に1画素列おきに間引きして左右に合成した画像となる。合成した時の画像の例を図6に示す。
画像合成手段4によって作成された画像データは、符号化手段6へと送られる。符号化手段6は符号化を行い、画像データを圧縮する。ここでは、画像の符号化方式をJPEG(Joint Photographic Expert Group)とする。JPEGでは、画像を小さな正方形のブロックに分割して直行変換を施し、互いに直行する複数の規定画像の和に展開し、それぞれの規定画像に対する係数を符号化する。直行変換としてはDCT(離散フーリエ変換)が使用される。
符号化手段6では、入力画像は、図7に示すように複数のブロックに分割され、円で囲まれた拡大図のブロック22に示すように各ブロックは8×8画素で構成される。
符号化手段6がこの各ブロックに対して図8に示す流れで画像の符号化を行う。
まず、ブロック22に対してDCT器23により2次元DCT変換を行う。これにより周波数分解され、量子化器24は量子化テーブル25を参照して、DCT変換後の各係数を量子化テーブル25による除数で割り算を行い、余りを丸めて高周波項を落とす。これをエントロピー符号化器26は、例えばハフマン符号を用い、符号テーブル27を参照して、符号化し、符号化データとして3D画像が出力される。
符号化データはこの逆の処理を再生手段が行う事で復号され、表示装置に送られて表示される。ここでは3D表示装置に送られ、表示される3D画像は画像合成する際に透明度が設定されて合成される為、画像合成後の画像も違和感や疲労感を増大させることなく立体視することが可能となる。
なお、本実施形態では左右眼の画像を交差法で撮影したものとしたが、平行法であっても良い。また、ここでは画像をJPEGとしたが、GIF(Graphic Interchange Format)、PNG(Portable Network Graphics)、又はTIFF(Tagged Image File Format)といった他の画像形式でもよく、各形式に応じて図1における符号化手段6の構成は変わる。Motion−JPEGといった動画であってもよい。
また、視差検出手段2は、ここで説明した以外にもこれを改良した方式や複雑系を利用した方式など様々な方式があり、どのような方式であっても構わない。画像から視差を検出しなくてもあらかじめ視差マップ等視差の情報が分かっているときには、単にそれを利用する形であっても良い。
また、ここではオブジェクトの透明度を50パーセントや20パーセントとして説明したが、これに限定するわけではなく80パーセントなどこれより高くても、低くてもよい。
また、上記の例では、オブジェクトの視差を0として合成を行ったが、オブジェクトに視差をつけてもよい。視差をつけた場合であっても同様にして合成を行うことができる。
また、位置決定手段5からあらかじめ位置情報を視差検出手段2に入力させておき、オブジェクトが重なる位置に対してのみ視差検出を行うようにしても構わない。
本実施形態では視差のある領域と重なる領域だけに透明度を設定するとしたが、オブジェクト全体を透明にしても良く、透明度の設定は表示画面に対して前面になる画像だけでなく、奥側になる画像に適用しても構わない。また、オブジェクトはここでは矩形の画像としたが、例えばマウスカーソルといったポインタなどであっても良い。
また、ここでは元の3D画像のオブジェクトを合成する領域に視差がある場合、あるいは対応点のないオクルージョン領域である場合の合成方法を示したが、位置決定手段5が、元の3D画像の視差情報から視差のない領域、あるいは視差のない領域の占める割合の多い場所を求め、該領域の中からオブジェクトの位置を決定し、透明度決定手段3にて任意の透明度で透明度情報を付加し、オブジェクトを合成する方法もある。
(実施形態2)
図9は、本発明の実施形態2の画像処理装置の構成を示すブロック図である。なお、上述の実施形態と同様の機能を示すものについては、同一の参照番号を付与している。
画像処理装置30は、立体画像であることを示す識別情報、立体画像の作成方法に関する情報及び視差情報等の3D情報を入力として、立体画像であることが視覚的に認知可能な3Dマークをオブジェクトとして作成する3D情報作成手段31と、前記3Dマークを合成する際の位置情報を出力する位置決定手段5と、前記3D情報作成手段31から3Dマークと視差情報を、位置決定手段5から位置情報を受け取り、これらを元に3Dマークの合成位置等を調整する調整手段32と、調整手段32から入力される3Dマーク及び位置情報、図示しない入力手段から入力される左眼の視点に対応する左眼用画像及び右眼の視点に対応する右眼用画像からなる3D画像より画像の合成を行う画像合成手段33と、合成した画像を符号化する符号化手段6と、画像データと3D情報を多重化して出力する多重化手段34と、図示しない記録媒体や通信回線にアクセスする手段とを備えて構成される。
本実施形態では、一例として、本画像処理装置30によって作成された画像は、パララクスバリア方式での3D表示装置で表示するものとして説明する。
左右に合成された左眼用画像と右眼用画像及び3D情報が多重化された状態の画像を不図示の逆多重化装置で逆多重化し、画像データと3D情報に分離され、画像処理装置30に入力される。逆多重化する機能は、本画像処理装置に備えていてもよい。このうち、3D情報は3D情報作成手段31に入力される。3D情報は、ここでは立体画像であることを示す識別情報、撮影方法を示す種別情報、並びに視差情報をあらわす視差マップからなるものとする。3D情報作成手段31は、ユーザーが立体画像であること、どのような撮影法かといった3Dに関する情報を見て確認することが出来る画像を作成する。これを3Dマークと呼び、本実施形態で画像合成をするオブジェクトとなる。3Dマークを合成した際の合成画像例を図10に示す。
図10に示す画像内の「3D Parallel」と表示されている領域35が3Dマークを示す。「3D」により、立体画像であることを、「Parallel」によりこの画像が平行法によって作成されたことを示している。立体画像であることを示す文字列としては、「3D」の他、例えば「Stereo」、「Stereo Photograph」といったものや、「Stereo Image」などでもよい。また作成方法の種別を示す文字列としては、交差法であれば、例えば「Crossing」などと表示すればよく、より簡単に平行法を「P」、交差法を「C」と表してもよい。また、文字以外にも平行法を「||」、交差法を「×」といった記号で表してもよい。立体画像であることを示す文字列または作成方法の種別を表す文字列は、任意に定めることができる。
このようにユーザーが識別できるようにマークを統合することにより、2Dディスプレイで表示した際に、ユーザーがすぐに3D用の画像であることが判断可能となる。また作成方式が明確になる事で、2Dのディスプレイで表示した上記3D画像を裸眼によって立体視する際に、立体視しやすいという利点がある。立体視する場合、平行法であれば左眼で左側に配置された画像を、右眼で右側に配置された画像を見る必要があり、交差法であれば左眼で右側に配置された画像を、右眼で左側に配置された画像を見る必要があるが、画像の作成方法が明確になる事で、どちらの見方をすればよいかすぐに判別することが可能となる。
3D情報作成手段31は、3Dマークと視差情報を調整手段32へと送る。位置決定手段5は、3Dマークの合成位置に関する情報を位置情報として調整手段32へ送る。調整手段32は、位置情報と視差情報を元に、合成位置を決定する。
ここで合成位置の決定方法について説明する。ここでは、画像は上述の実施形態同様JPEG方式で圧縮されるものとして説明する。図7、図8に示したように、画像は符号化の際8×8画素のブロック毎に符号化される。これを符号化ブロックと呼ぶ。画像を合成する際、この符号化ブロックにまたがるように3Dマークが合成されると、画像の高周波成分が増大するため符号量が増加することとなり、同じ符号量を保とうとすると画質が劣化するという問題がある。そのため少しでも画質の劣化を防ぐ為に、調整手段32はブロックと3Dマークの境界が一致するように位置の調整を行う。
図11は、位置決定手段5により決定された位置から調整手段32による3Dマークの位置決めの調整を表した図を示している。図11(a)が調整手段32によって調整を行う前、図11(b)に示す図が調整を行った後である。また左側の円状に囲まれた部分36、37は、3Dマークとブロックの位置関係を示す画像の領域拡大図である。中央の黒い太線38、39の左側が左眼用画像、右側が右眼用画像に対応しており、升目状に描かれた四角は符号化ブロックを示している。
図11(a)の画像を見ると、3Dマークは視差をつけて配置するように位置決定手段5により決められており、左眼用画像の3Dマーク40は左眼用画像の左端から2ブロック以上右側にあるのに対し、右眼用画像の3Dマーク41は右眼用画像の左端である中央の太線38から見て2ブロックに満たない距離しか離れていない。図11(a)の画像に示す位置に配置した場合、左右どちらの3Dマーク40、41も符号化ブロックをまたぐように配置されているため、画質の劣化が大きくなる。そのため、調整手段32は3Dマーク40、41の上側、あるいは下側のブロックの境界のどちらか一方のうち、元画像のブロック境界と近い方のブロック境界と一致するように移動する。左右方向についても同様に、一番移動距離が短くなるようなブロック境界にマークの境界が一致するように3Dマークを移動する。これにより、図11(b)の図に示す42、43のように配置される。図11中の点線および矢印はその方向に3Dマークが移動したことを示す為に記載している。これにより、画像合成時の画質劣化を抑えることが可能となる。
上記の例では、3Dマークの移動距離が位置決定手段5により決められた位置から最も少なくなるように移動したが、位置決定手段5の位置情報が3Dマークを元画像の重畳領域の視差に合わせて配置するようにしていた場合で、かつ元画像が表示画面に対して手前に見える画像であるときに最短で移動すると、3Dマークの視差が重畳領域の元画像の視差よりも少なくなり、やや沈んで見えてしまうことがある。前述のように周囲に対して奥側に沈んで見えると違和感があるため、このような場合には、3Dマークを視差が大きくなるような方向に移動する。
また、3Dマークの上下方向、あるいは左右方向のそれぞれ一方ずつをブロック境界に合わせるだけでは、図11からも明らかなように、あわせた場所以外のマーク境界はブロックの境界とは一致しない可能性が高い。そこで、図12に示すように、調整手段32は、まず、3Dマークの位置調整を行う際、視差が大きくなる方向で最も近いブロック境界に合わせるように移動する事で、立体視した際の違和感を解消する。次に、3Dマーク自体の大きさをブロックの整数倍になるように自動で拡大縮小処理をする事で、全ての境界がブロック境界に一致するようにする。
図12(a)は、3Dマーク移動前、図12(b)が移動及び拡大・縮小後を示しており、左眼用画像では3Dマーク44は右側に、右眼用画像側では3Dマーク45が左側に移動されており、視差が大きくなっている。また、水平方向に縮小、垂直方向に拡大処理が施され、ブロックサイズの整数倍の大きさになっている。
このようにして合成された画像データは、画像合成手段33から符号化手段6へと送られる。前述のように、本実施形態の画像はJPEGとして説明しているので実施形態1と同様、図8に示した流れで符号化が行われる。合成された3Dマークは調整手段32で符号化ブロックの境界に合わせているため、符号化の際の画質の劣化は抑制されている。
符号化データは、符号化手段6から多重化手段34へと送られ、3D情報とともに多重化され、多重化データとして出力される。
なお、本実施形態において画像のサイズやブロック等は、理解を容易にするために実際の大きさとは異なる数値により説明した。画像のサイズは640×480、1600×1200などこれ以外にも任意のサイズを取りうる。またここでは静止画としているが、MPEG(Moving Picture Experts Group)1やMPEG2といった符号化による圧縮を行う動画像でもよい。
また、符号化ブロックの単位はここではJPEGのため8×8画素としたが、この画素サイズに限定されるものではなくMPEG2であれば16×16等、様々な大きさを取り得る。
また、ここでは位置決定手段5によって3Dマークの合成位置が左右とも決められていたが、位置決定手段では大まかな位置だけを設定し、調整手段32で視差情報である視差マップに基づいて、背景に応じた視差を自動で設定するようにしても良い。
また、ここでは符号化ブロックの境界にオブジェクトをあわせる際、表示画面より前方に見える画像に重畳する際は視差を大きくするようにしたが、視差が小さくなる方向のブロックの境界に合わせて、実施形態1のように透明度を設定しても画質の劣化を抑えられ、違和感の低減も可能となる。オブジェクトの移動、拡大縮小処理はここでは移動した後拡大縮小するようにしたが、順序は逆であっても良い。
また、本発明の説明では、立体表示の方式として、2眼式であるパララクスバリア方式の例を用いて説明を行ったが、それ以外の表示方式であっても良い。
例えば、同じく2眼式の方式である時分割表示方式を用いてもよい。この方式を用いた場合、図15(a)、図15(b)に示す左眼用画像、右眼用画像を、図13に示すような1画素ずつ水平方向に並べた画像をフォーマットとして使用し、これを時分割表示方式に対応した3D表示装置、例えばプロジェクターなどにより立体表示を行う。この3D表示装置の再生タイミングに同期して開閉するシャッターを備えた液晶シャッター眼鏡などを通して該画像を観察することにより、ある時間では左眼用画像だけが、次のある時間では右眼用画像だけが見えるようなり、観察者は立体画像として観察することができる。
またさらに、ここで上げた2眼式だけでなく、より多くの視点に対応した画像を用意して立体視を行う多眼式やインテグラルフォトグラフィー方式といった方式であっても良い。各方式に従い、3D画像のフォーマットはここで示した2種類以外にも様々な方式がある。
また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
以上のように、本発明における画像処理装置によれば、3D画像にオブジェクトを合成する際、3D画像の視差を考慮してオブジェクトの透明度等を決定し、合成する事で違和感のない合成画像を実現すると共に、ブロック符号化時の画質の劣化を抑えるためにオブジェクトの合成位置を調整することを可能とする。

Claims (9)

  1. 複数視点の各々に対応した複数の画像から構成される立体画像データを作成する画像処理装置において、
    前記立体画像データにオブジェクトを合成する画像合成手段と、
    前記オブジェクトの透明度を設定する透明度決定手段とを備え、
    前記透明度決定手段は、前記複数視点に対応した複数の画像間の視差情報に基づき前記オブジェクトの透明度を決定することを特徴とする画像処理装置。
  2. 前記透明度決定手段は、前記複数視点に対応した複数の画像における前記オブジェクトを合成する領域の視差を視差情報として取得し、前記視差情報から前記オブジェクトの透明度を設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記透明度決定手段は、前記画像における前記オブジェクトを合成する領域内のそれぞれの視差と、前記オブジェクトの視差との差分値を取り、その値に応じて透明度を決定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記オブジェクトの位置を決定する位置決定手段を備え、前記位置決定手段は、前記画像における視差情報より対応点のないオクルージョン領域を検出し、前記オクルージョン領域と重なるように前記オブジェクトの位置を決定することを特徴とする請求項1から3のいずれか1つに記載の画像処理装置。
  5. 前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の視差情報に基づき、前記オブジェクトの視差が該視差情報の視差に最も近くなるよう、前記オブジェクトを前記画像のそれぞれに合成することを特徴とする請求項1から4のいずれか1つに記載の画像処理装置。
  6. 前記画像合成手段は、前記画像における前記オブジェクトを合成する領域の視差情報に基づき、前記オブジェクトの視差が該視差情報の視差よりも大きく、かつ前記オブジェクトの左端あるいは右端が符号化ブロックの境界と一致するように前記オブジェクトの水平方向位置を決めることを特徴とする請求項1から5のいずれか1つに記載の画像処理装置。
  7. 前記画像合成手段は、前記オブジェクトを前記画像に合成する際、前記オブジェクトの垂直方向の下端あるいは上端の境界、かつ水平方向の左端あるいは右端の境界を符号化ブロックの境界に一致するよう合成することを特徴とする請求項1から6のいずれか1つに記載の画像処理装置。
  8. 前記オブジェクトの大きさは、垂直方向と水平方向共に、前記符号化ブロックの整数倍の大きさとなることを特徴とする請求項1から7のいずれか1つに記載の画像処理装置。
  9. 前記オブジェクトは、立体画像であることを示す情報を含む視認可能な立体画像識別情報であることを特徴とする請求項1から8のいずれか1つに記載の画像処理装置。
JP2008509683A 2006-04-07 2006-10-10 画像処理装置 Expired - Fee Related JP4693900B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008509683A JP4693900B2 (ja) 2006-04-07 2006-10-10 画像処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006106386 2006-04-07
JP2006106386 2006-04-07
JP2008509683A JP4693900B2 (ja) 2006-04-07 2006-10-10 画像処理装置
PCT/JP2006/320202 WO2007116549A1 (ja) 2006-04-07 2006-10-10 画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2007116549A1 true JPWO2007116549A1 (ja) 2009-08-20
JP4693900B2 JP4693900B2 (ja) 2011-06-01

Family

ID=38580852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008509683A Expired - Fee Related JP4693900B2 (ja) 2006-04-07 2006-10-10 画像処理装置

Country Status (3)

Country Link
US (1) US20090284584A1 (ja)
JP (1) JP4693900B2 (ja)
WO (1) WO2007116549A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2906899B1 (fr) * 2006-10-05 2009-01-16 Essilor Int Dispositif d'affichage pour la visualisation stereoscopique.
US20100097444A1 (en) * 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
JP5049231B2 (ja) * 2008-08-28 2012-10-17 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
EP2348746B1 (en) 2008-11-18 2015-03-11 Panasonic Corporation Reproduction device, reproduction method, and program for stereoscopic reproduction
US8335425B2 (en) 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP5252223B2 (ja) * 2009-06-09 2013-07-31 ソニー株式会社 映像表示装置および映像表示システム
JP5620651B2 (ja) * 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
JP5407957B2 (ja) 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
JP2011030180A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011030182A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5402715B2 (ja) 2009-06-29 2014-01-29 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
JP5429034B2 (ja) 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5379660B2 (ja) * 2009-12-04 2013-12-25 キヤノン株式会社 画像処理装置及びその制御方法
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2011203811A (ja) * 2010-03-24 2011-10-13 Fujifilm Corp 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
JP5669599B2 (ja) * 2010-05-14 2015-02-12 キヤノン株式会社 画像処理装置及びその制御方法
JP2011249945A (ja) * 2010-05-24 2011-12-08 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US8994788B2 (en) * 2010-05-25 2015-03-31 Panasonic Intellectual Property Corporation Of America Image coding apparatus, method, program, and circuit using blurred images based on disparity
JP2012010311A (ja) * 2010-05-26 2012-01-12 Sony Corp 送信装置、送信方法、受信装置、受信方法および送受信システム
KR20110137607A (ko) * 2010-06-17 2011-12-23 삼성전자주식회사 디스플레이 장치 및 그 3d 영상 인식 진단 방법
JPWO2012014355A1 (ja) * 2010-07-27 2013-09-09 パナソニック株式会社 撮像装置
US10134150B2 (en) * 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
JP2012044625A (ja) * 2010-08-23 2012-03-01 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
JP4956664B1 (ja) * 2010-12-14 2012-06-20 株式会社東芝 立体映像表示装置及び方法
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP2012174237A (ja) 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP5698028B2 (ja) * 2011-02-25 2015-04-08 株式会社バンダイナムコゲームス プログラム及び立体視画像生成装置
JP5804760B2 (ja) * 2011-04-26 2015-11-04 株式会社東芝 画像処理システム及び方法
JP5519580B2 (ja) * 2011-06-06 2014-06-11 株式会社コナミデジタルエンタテインメント ゲーム装置、画像表示装置、立体画像表示方法、および、プログラム
JP2013046082A (ja) * 2011-08-22 2013-03-04 Sony Corp 映像信号処理装置及び映像信号処理方法、並びにコンピューター・プログラム
US9495791B2 (en) 2011-10-05 2016-11-15 Bitanimate, Inc. Resolution enhanced 3D rendering systems and methods
JP5385354B2 (ja) * 2011-10-21 2014-01-08 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
JP5817639B2 (ja) * 2012-05-15 2015-11-18 ソニー株式会社 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置
JP2014203017A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置、画像処理方法、表示装置、および電子機器
JP2015149547A (ja) * 2014-02-05 2015-08-20 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
US9807372B2 (en) * 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
US9965861B2 (en) 2014-12-29 2018-05-08 Intel Corporation Method and system of feature matching for multiple images
JP2016001476A (ja) * 2015-07-10 2016-01-07 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
CN115297312A (zh) * 2022-08-04 2022-11-04 深圳市瑞云科技有限公司 一种传输图像透明度信息的方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3311221B2 (ja) * 1995-01-10 2002-08-05 キヤノン株式会社 画像処理装置及びその方法
JP3268625B2 (ja) * 1995-08-11 2002-03-25 シャープ株式会社 3次元画像表示装置
JP4006105B2 (ja) * 1998-08-25 2007-11-14 キヤノン株式会社 画像処理装置およびその方法
JP2004234423A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム
JP2004248212A (ja) * 2003-02-17 2004-09-02 Kazunari Era 立体視画像表示装置
JP2005004341A (ja) * 2003-06-10 2005-01-06 Sanyo Electric Co Ltd 画像表示装置およびコンピュータに画像表示機能を付与するプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244244A (ja) * 2009-04-03 2010-10-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
WO2007116549A1 (ja) 2007-10-18
JP4693900B2 (ja) 2011-06-01
US20090284584A1 (en) 2009-11-19

Similar Documents

Publication Publication Date Title
JP4693900B2 (ja) 画像処理装置
US7889196B2 (en) 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program
JP5449162B2 (ja) 映像符号化装置、映像符号化方法、映像再生装置、及び映像再生方法
JP4630149B2 (ja) 画像処理装置
JP5299214B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
TWI549475B (zh) Dimensional image coding apparatus, stereoscopic image decoding apparatus, stereo image coding method, stereo image decoding method, stereo image coding program, and stereo image decoding program
US8373745B2 (en) Image processing apparatus, image display apparatus, image apparatus, and image processing method
KR100740607B1 (ko) 화상 데이터 작성 장치 및 그 데이터를 재생하는 화상데이터 재생 장치
US20090244258A1 (en) Stereoscopic display apparatus, stereoscopic display method, and program
KR20100102161A (ko) 스트레오스코픽 렌더링을 위한 이미지 인코딩 방법
JP2004334833A (ja) 立体視画像処理装置,情報提供方法,画像表示方法
JP2010049607A (ja) コンテンツ再生装置および方法
JP2012501031A (ja) 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、符号化された三次元ビデオ信号、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器。
JP2010226500A (ja) 立体画像表示装置および立体画像表示方法
JP2013223008A (ja) 画像処理装置及び方法
JP4657258B2 (ja) 立体画像表示装置およびその方法
WO2010041450A1 (en) Image processing apparatus and method, and image reproducing apparatus, method and program
JP4173684B2 (ja) 立体画像作成装置
KR100755020B1 (ko) 와이유브이 컬러 시스템의 양안 입체 카메라 및 그카메라를 이용한 입체영상 디스플레이 방법과 입체영상처리방법
JP2013090170A (ja) 立体視映像再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees