JP2012138885A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP2012138885A JP2012138885A JP2011062228A JP2011062228A JP2012138885A JP 2012138885 A JP2012138885 A JP 2012138885A JP 2011062228 A JP2011062228 A JP 2011062228A JP 2011062228 A JP2011062228 A JP 2011062228A JP 2012138885 A JP2012138885 A JP 2012138885A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- viewpoint
- signal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
【解決手段】3次元画像表示に適用する右眼用の画像信号と左眼用の画像信号を入力し、右画像変換部が右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成する。同様に、左画像変換部左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成する。これら右画像変換部の生成画像、および左画像変換部の生成画像を複数の新たな視点画像として出力する。変換画像は、例えば入力画像の輝度微分信号、あるいは輝度微分信号の非線形変換信号を入力画像信号に対して加算/減算する処理によって生成する。
【選択図】図4
Description
このような技術を用いることで、左眼と右眼に入る画像が混ざるクロストークを抑制し、メガネを装着しなくても立体視が可能となる。
図1は、2つの異なる視点から被写体A,Bを撮影する場合に得られる画像を表わしている。図に示す通り、左カメラ11で撮影される左画像21と、右カメラ12で撮影される右画像22では被写体の位置がカメラからの距離に応じて異なり、例えば被写体Bは左画像21よりも右画像22の方がより多く被写体Aの像に隠れている。
視点1カメラ31の撮影画像が、視点1画像41、
視点2カメラ32の撮影画像が、視点2画像42、
視点3カメラ33の撮影画像が、視点3画像43、
視点4カメラ34の撮影画像が、視点4画像44、
である。
図に示す通り、視点数が増えてカメラ間の距離が離れるに従って、視点1〜4の画像では被写体の位置の変化が大きくなる。
従来の手法では、奥行き情報から得られる被写体の位置を、新たに生成すべき異なる視点位置から得られる画像上の位置へ変換することによって被写体を投影し、新たな視点画像を生成する。
3次元画像表示に適用する右眼用の画像信号を入力する右画像入力部と、
3次元画像表示に適用する左眼用の画像信号を入力する左画像入力部と、
前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成する右画像変換部と、
前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成する左画像変換部と、
前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力する画像出力部を有する画像処理装置にある。
画像処理装置において実行する画像処理方法であり、
右画像入力部が、3次元画像表示に適用する右眼用の画像信号を入力する右画像入力ステップと、
左画像入力部が、3次元画像表示に適用する左眼用の画像信号を入力する左画像入力ステップと、
右画像変換部が、前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成する右画像変換ステップと、
左画像変換部が、前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成する左画像変換ステップと、
画像出力部が、前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力する画像出力ステップを実行する画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
右画像入力部に、3次元画像表示に適用する右眼用の画像信号を入力させる右画像入力ステップと、
左画像入力部に、3次元画像表示に適用する左眼用の画像信号を入力させる左画像入力ステップと、
右画像変換部に、前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成させる右画像変換ステップと、
左画像変換部に、前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成させる左画像変換ステップと、
画像出力部に、前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力させる画像出力ステップを実行させるプログラムにある。
1.本開示の画像処理装置の実行する処理の概要について
2.画像処理装置の第1実施例について
3.画像処理装置の第2実施例について
4.画像処理装置の第3実施例について
5.画像処理装置の第4実施例について
6.画像処理装置の第5実施例について
7.画像処理装置の第6実施例について
8.画像処理装置の第7実施例について
9.画像処理装置の第8実施例について
10.画像処理装置の第9実施例について
11.本開示の構成のまとめ
まず、本開示の画像処理装置の実行する処理の概要について説明する。
本開示の画像処理装置は、例えば3D画像表示に適用する左眼用の左画像と、右眼用の右画像の2画像を含む2以上の異なる視点から撮影した画像を入力し、これらの入力画像を利用して、入力画像の視点と異なる視点からの撮影画像に相当する画像を生成して出力する。
同様に、入力画像である3D画像表示用の右眼用の右画像に基づいて、さらに右側の視点からの画像に相当する画像を生成する。
このような処理により、入力画像と異なる様々な視点からの撮影画像に相当する画像を生成し、入力画像の視点以外の多視点画像を生成する。
先に図1を参照して説明したと同様、3D画像表示用に撮影された2枚の画像、すなわち、
(1)左カメラ101によって撮影された左画像111、
(2)右カメラ102によって撮影された右画像112、
これらの画像を本開示の画像処理装置に入力する。
左画像111を利用した2D3D変換処理によって左カメラ101よりさらに左側の視点1,103からの撮影画像に相当する視点1画像113を生成する。
また、右画像112を利用した2D3D変換処理によって右カメラ102よりさらに右側の視点4,104からの撮影画像に相当する視点4画像114を生成する。
図4に本開示の画像処理装置の第1実施例の構成図を示す。
第1の実施例は、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
入力画像は、3D画像表示に適用する左眼用画像(左画像)と、右眼用画像(右画像)の組み合わせである。例えば、図3に示す例における左カメラ101において撮影された左画像111(第2視点画像)と、右カメラ102において撮影された右画像112である。
入力左画像をそのまま第2視点画像として出力する。
入力左画像(第2視点画像)に基づく2D3D変換処理により、左画像よりさらに左側の視点からの撮影画像である第1視点画像を生成する。
さらに、
入力右画像をそのまま第3視点画像として出力する。
入力右画像(第3視点画像)に基づく2D3D変換処理により、右画像よりさらに右側の視点からの撮影画像である第4視点画像を生成する。
左画像入力部201は、左画像(第2視点画像)を入力する。入力された左画像(第2視点画像)は、奥行き検出部203、および左画像2D3D変換部204に入力される。
同様に、右画像入力部202は、右画像(第3視点画像)を入力する。入力された右画像(第3視点画像)は、奥行き検出部203、および右画像2D3D変換部205に入力される。
左画像入力部201の入力した左画像、すなわち第2視点画像は第2視点画像出力部207を介して出力する。
右画像入力部202の入力した右画像、すなわち第3視点画像は第3視点画像出力部208を介して出力する。
右画像2D3D変換部205の生成した第4視点画像は第4視点画像出力部209を介して出力する。
なお、画像の出力先は、例えば3D画像表示の表示処理を実行する装置、あるいは3D画像データを記録する記憶装置等である。あるいはネットワークを介して接続された装置に対する通信データとして出力してもよい。
例えば、ユーザの観察位置が、表示部の正面の標準的な位置である場合は、
第2視点画像を左眼用画像、第3視点画像を右眼用画像として出力する。
また、ユーザの観察位置が、表示部の正面より左側にいる場合には、
第1視点画像を左眼用画像、第2視点画像を右眼用画像として出力する。
また、ユーザの観察位置が、表示部の正面より右側にいる場合には、
第3視点画像を左眼用画像、第4視点画像を右眼用画像として出力する。
このような切り替えを行うことで、ユーザの観察位置に応じた最適な左眼用画像と右眼用画像の出力が可能となる。
なお、特開2010−63083号に記載した2D3D変換処理は、1枚の2次元画像に含まれる空間的な特徴量、例えば輝度情報を抽出し、抽出した特徴量を用いて入力画像の変換処理を実行して異なる視点からの撮影画像に相当する変換画像を生成する処理である。具体的には、入力画像信号の輝度微分信号を抽出し、該輝度微分信号を特徴量として設定し、入力画像信号に対して特徴量である輝度微分信号、あるいは輝度微分信号の非線形変換信号を加算または減算することで変換画像を生成する。例えば、この処理を適用することができる。
図5の右下に示すグラフ(a)は、左画像入力部201を介して入力される左画像(第2視点画像に相当)と、右画像入力部202を介して入力する右画像(第3視点画像に相当)の間で検出された奥行き情報のヒストグラムを表わしている。
すなわち、奥行き検出部203が検出した奥行き情報である。
図5(a)に示すヒストグラムは、横軸が被写体までの距離に応じて変化する距離情報d、縦軸が各距離を持つ画素面積を示している。
一方、距離dが0より小さい(左画像よりも右画像の方が左側に存在)場合には画面手前に被写体像が観察される。
また、dが0より大きい(左画像よりも右画像の方が右側に存在)場合には画面奥に被写体像が観察される。
左画像2D3D変換部204は、新たに生成する第1視点画像と入力左画像(第2視点画像)との奥行きヒストグラムが図5(a)に示す奥行きヒストグラムとなるような第1視点画像を生成する。
図5(b)に示すグラフは、新たに生成する第1視点画像と入力左画像(第2視点画像)との奥行きヒストグラムである。このヒストグラムに対応するように第1視点画像を生成する。
具体的なシフト処理については後述する。
新たに生成された第1視点画像と、第2視点画像(=入力左画像)間の奥行きは、入力左右画像の間の奥行きと同等であることが好ましいが、2D3D変換処理では、必ずしも入力される奥行き情報と同等の視差を生成できるとは限らない。2D3D変換処理によって生成される視差量は、例えばシフト量を制御するゲインの設定や変換フィルタの特性により決定されるため、奥行き情報に基づいてゲイン制御や変換フィルタ特性を制御することにより最大の視差が入力画像間の視差を超えないように制御する。
図6は、左画像2D3D変換部204の一実施例の構成を示すブロック図である。なお、左画像2D3D変換部204と右画像2D3D変換部205は、新たに生成する画像に応じてシフト方向が変化するのみである。以下では、距離情報に応じたシフト量の制御による2D3D変換処理の具体例について左画像2D3D変換部204の処理例を代表例として説明する。
なお、実施例では輝度信号を処理データとした例について説明するが、輝度信号ではなく色信号(RGB等)を処理対象データとして利用してもよい。
図7は、ゲイン制御部212の一実施例の構成を示すブロック図である。ゲイン制御部212では、入力された微分信号の振幅値を、同じく入力した奥行き情報を基に、その振幅値を制御する。なお、以下に説明する実施例では、奥行き情報は入力微分信号の1画素ごとに、1つの深さの値を有する、所謂デプスマップの形状で入力されるものとして説明していく。
乗算処理部222は、入力された微分信号の各画素について、ゲイン係数算出部221から出力された各画素に対するゲイン係数を、微分信号(H)の振幅値に乗じる乗算処理を行い、結果として振幅値がゲイン制御された補正微分信号(H')を出力する。
ゲイン係数算出部221は、入力された奥行き情報(In)を、予め設定した関数f(x)により変換して、ゲイン係数(Out)を出力する。
このとき、関数f(x)は、様々な設定が利用可能である。
関数f(x)の一例としては、例えば、
f(x)=A×x
(ただしAは定数)
上記式に示されるような線形一次関数を用いる。Aは予め設定した定数であり、様々な値に設定可能である。
奥行き情報は、微分信号の各画素に応じた値を入力し、各画素に応じたゲイン係数を出力するものとする。
入力値(奥行き情報)の例は、D1、D2、D3であり、ある3つの画素に対応した奥行きの値を想定する。なお、奥行きとは観察者(ユーザ)あるいはカメラから被写体までの距離に対応する値である。
奥行き(=被写体距離)はD1<D2<D3の順に、手前から奥へと深く(ユーザまたはカメラから遠く)なっていくものとする。ここで、図8中、奥行き情報In=0の位置は生成した画像を3次元表示装置に表示した場合に表示画面上に知覚される点である。
このとき出力値(ゲイン係数)の例は、G1、G2、G3であり、各々は図8中の関数f(x)に、D1、D2、D3の値を入力することで得られる値である。
この例のように、ゲイン係数算出部221は、微分信号の各画素に応じたゲイン係数を出力する。
図9には、
(a)入力信号
(b)微分信号
(c)奥行き情報
(d)補正後の微分信号
これらの例を示している。
図9(b)は、図9(a)の入力画像信号を微分処理した画像である。
図9(c)は、図9(a)の入力画像信号に対応した奥行き情報であり、画像を3分割した各領域に奥行きの値を与えた簡易なものである。
G3、G2、G1(G1<G2<G3)
となる。
図9(d)補正後の微分信号においては、画面上部ほど(遠い領域ほど)、大きなゲイン値が乗じられ、画面下部ほど(近い領域ほど)小さなゲイン値が乗じられる。
この結果、画面上部ほど(遠い領域ほど)微分信号の振幅値が大きくなり、画面下部ほど(近い領域ほど)微分信号の振幅は小さくなる。
f(x)=xγ
上記式に示されるような指数関数を用いる。γは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部213における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
画像合成部214は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号を適用して新たな視点の画像を生成する処理を行う。
図11は、距離が大の画像領域(奥行きが大きい画像領域)
図12は、距離が小の画像領域(奥行きが小さい画像領域)
これらの各画像領域について、上から順に、
(a)入力信号(S)
(b)微分信号(H)
(c)補正(ゲイン制御)後の補正微分信号(H')
(d)右シフト画像信号
(e)左シフト画像信号
これらの各信号を示している。
(a)入力信号(S)は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
微分器211の生成する微分信号(H)は、図11に示すとおり、(a)入力信号(S)の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
また、図4に示す右画像2D3D変換部205は、入力右画像を図11(a)に示す入力画像であるとした場合、さらに右シフトした(d)右シフト画像信号を第4視点画像として生成する。
図11(d)に示す通り、大きなゲイン(G3)によって補正が行われた補正微分信号(H')を合成する場合、補正前の微分信号(H)を合成する場合に比較して、右シフトが大きい画像信号が生成される。同様に、図11(d)では、左シフト量が大きい画像信号が生成される。
また、図4に示す右画像2D3D変換部205は、入力右画像を図11(a)に示す入力画像であるとした場合、さらに右シフトした(d)右シフト画像信号を第4視点画像として生成する。
図12(d)に示す通り、小さなゲイン(G1)によって補正が行われた補正微分信号(H')を合成する場合、補正前の微分信号(H)を合成する場合に比較して、右シフト量が小さい画像信号が生成される。同様に、図11(d)では、左シフト量が小さい画像信号が生成される。
距離=大の場合は、振幅の大きい補正微分信号
距離=小の場合は、振幅の小さい補正微分信号、
これらの補正微分信号(図11、図12の(c))を生成し、これらの補正微分信号(またはその非線形変換結果である視差強調信号)と(a)入力信号との合成処理により、入力画像と異なる視点からの観察画像に相当する(d)右シフト画像信号、または(e)左シフト画像信号を生成する。
図11、図12の(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図11、図12の(b)に示す微分信号の信号レベルを(H)とする。
また、ゲイン制御部212において行われる微分信号の補正結果としての補正微分信号の信号レベルを(H')てとする。
なお、補正微分信号(H')の生成の際、(b)微分信号(H)に乗じるゲイン値(G)は、奥行き情報(D)をもとに予め設定された関数などから決定される。
図12に示す距離が小の場合のゲイン値をG1、
とする。
図11、図12に示す例は、G3>1>G1の関係を想定している。
図11に示す距離が大の場合の補正後微分信号(H')は、
H'=G3×H
図12に示す距離が小の場合の補正後微分信号(H')は、
H'=G1×H
これらの式によって算出された信号が、図11、図12の(c)補正後の微分信号の信号レベル(H')となる。
一方、図12(c)に示す距離が小の場合において、実線で示す補正後微分信号(H')と、点線で示す補正前微分信号(=(b))を比較すると、実線で示す補正後微分信号(H')は、点線で示す補正前微分信号よりも振幅が小さくなっている。
すなわち、奥行き検出部203の出力する奥行き情報が大(カメラからの距離が遠い)画素については、(b)微分信号に対して大きなゲイン値を乗じて補正されて図11(c)に示す補正後微分信号が生成される。
一方、奥行き検出部203の出力する奥行き情報が小(カメラからの距離が近い)画素については、(b)微分信号に対して小さなゲイン値を乗じて補正されて図12(c)に示す補正後微分信号が生成される。
Right=S−E'
Left=S+E'
これにより得られる信号が、図11(d)、図12(d)に実線で示す右シフト画像信号、および、図11(e)、図12(e)に示す左シフト画像信号である。
Right=S−E
Left=S+E
である。
図11に示す距離が大の場合は、(d)右シフト画像信号、(e)左シフト画像信号の両者とも、実線(補正後微分信号)が、点線(補正前微分信号)よりエッジ部(信号の変化部)が急峻になっており、(a)入力信号に比較して信号のシフトが大きくなっている。
一方、図12に示す距離が小の場合は、(d)右シフト画像信号、(e)左シフト画像信号の両者とも、実線(補正後微分信号)が、点線(補正前微分信号)よりエッジ部が滑らかになっており、(a)入力信号に比較して信号のシフトが小さくなっている。
本実施例では、表示画面よりも奥に視差を生成する方法を参考にして説明を行ったが、表示画面よりも前に視差を生成する場合には、画像合成部133は以下の式に従って右シフト画像信号(Right)、または左シフト画像信号(Left)を生成する。
Right=S+E'
Left=S−E'
このようにすることにより、右シフト画像信号と左シフト画像信号のシフトが逆方向に発生し、右シフト画像信号は入力画像より左にシフトし、左画像信号は入力画像より右にシフトする。この結果、生成された右シフト画像信号と左シフト画像信号は表示画面よりも前に知覚されるようになる。
図13に本開示の画像処理装置の第2実施例の構成図を示す。
第2実施例は、第1実施例と同様、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
ただし、第2実施例は、第1実施例と異なり、入力画像を第1視点画像と第4視点画像として出力し、2D3D変換部において生成する画像を第2視点画像と第3視点画像としている点が異なる。なお、第1〜第4視点画像は図3に示す第1〜第4視点画像に対応し、順次、左側の視点から右側の視点の撮影画像に対応する。
入力左画像をそのまま第1視点画像として出力する。
入力左画像(第1視点画像)に基づく2D3D変換処理により、左画像より右側の視点からの撮影画像である第2視点画像を生成する。
さらに、
入力右画像(第4視点画像)に基づく2D3D変換処理により、右画像より左側の視点からの撮影画像である第3視点画像を生成する。
入力右画像をそのまま第4視点画像として出力する。
左画像入力部251は、左画像(第1視点画像)を入力する。入力された左画像(第1視点画像)は、奥行き検出部253、および左画像2D3D変換部254に入力される。
同様に、右画像入力部252は、右画像(第4視点画像)を入力する。入力された右画像(第4視点画像)は、奥行き検出部253、および右画像2D3D変換部255に入力される。
これらの処理は、図4を参照して説明した実施例1における処理と同様である。
奥行検出部253は、左画像に対応する左画像奥行情報(例えば距離画像)を生成して左画像2D3D変換部254に提供する。さらに、右画像に対応する右画像奥行情報(例えば距離画像)を生成して右画像2D3D変換部255に提供する。
左画像2D3D変換部254の生成した第2視点画像は第2視点画像出力部257を介して出力する。
右画像2D3D変換部255の生成した第3視点画像は第3視点画像出力部258を介して出力する。
右画像入力部252の入力した右画像、すなわち第4視点画像は第4視点画像出力部259を介して出力する。
なお、画像の出力先は、例えば3D画像表示の表示処理を実行する装置、あるいは3D画像データを記録する記憶装置等である。あるいはネットワークを介して接続された装置に対する通信データとして出力してもよい。
すなわち、奥行き検出部253が検出した奥行き情報である。
図14(a)に示すヒストグラムは、横軸が被写体までの距離に応じて変化する距離情報d、縦軸が各距離を持つ画素面積を示している。
一方、距離dが0より小さい(左画像よりも右画像の方が左側に存在)場合には画面手前に被写体像が観察される。
また、dが0より大きい(左画像よりも右画像の方が右側に存在)場合には画面奥に被写体像が観察される。
この図14(b)に示す奥行きヒストグラムが、入力左画像(第1視点画像)と新たに生成する第2視点画像間の奥行きヒストグラムとして得られるよう第2視点画像を生成する。
図16に本開示の画像処理装置の第3実施例の構成図を示す。
第3実施例は、第1実施例と同様、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
入力画像は第2視点画像と第3視点画像として出力し、2D3D変換部において第1視点画像と、第4視点画像を生成して出力する。この構成は図4を参照して説明した第1実施例と同様である。
左画像入力部301は、左画像(第2視点画像)を入力する。入力された左画像(第2視点画像)は、左画像奥行き推定部303、および左画像2D3D変換部305に入力される。
同様に、右画像入力部302は、右画像(第3視点画像)を入力する。入力された右画像(第3視点画像)は、右画像奥行き推定部304、および右画像2D3D変換部306に入力される。
右画像奥行き推定部304は、入力される右画像の画像特徴量(輝度分布、エッジ分布など)を計算し、その特徴量から入力画像の各位置(画素単位あるいはブロック単位)における奥行きを推定し、位置対応の奥行推定情報を生成して右画像2D3D変換部306に提供する。
["Make3D: Learning 3-D Scene Structure from a Single Still Image",
Ashutosh Saxena, Min Sun, Andrew Y. Ng, In IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2008.]
["Automatic Photo Pop-up",D. Hoiem, A.A. Efros, and M. Hebert, ACM SIGGRAPH 2005.]
上記文献に記載の処理を適用することができる。
左画像入力部301の入力した左画像、すなわち第2視点画像は第2視点画像出力部308を介して出力する。
右画像入力部302の入力した右画像、すなわち第3視点画像は第3視点画像出力部309を介して出力する。
右画像2D3D変換部306の生成した第4視点画像は第4視点画像出力部310を介して出力する。
これらの4つの異なる視点画像は、先に説明した実施例と同様、裸眼対応の3D表示装置において、ユーザ位置に応じた画像の組み合わせを選択出力することで、逆視やクロストークの発生を抑制した3D画像の提示が可能となる。
図17に本開示の画像処理装置の第4実施例の構成図を示す。
第4実施例は、第1実施例と同様、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
入力画像は第2視点画像と第3視点画像として出力し、2D3D変換部において第1視点画像と、第4視点画像を生成して出力する。この構成は図4を参照して説明した第1実施例と同様である。
第4実施例の構成は、図4に示す奥行検出部253を持たず、さらに、図16を参照して説明した実施例3で利用した奥行推定部も持たない。
左画像入力部351は、左画像(第2視点画像)を入力する。入力された左画像(第2視点画像)は、左画像2D3D変換部352に入力される。
同様に、右画像入力部355は、右画像(第3視点画像)を入力する。入力された右画像(第3視点画像)は、右画像2D3D変換部356に入力される。
右画像2D3D変換部356は、右画像入力部355から入力する右画像(第3視点画像)の画像特徴量などから奥行きを推定せずに、入力右画像(第3視点画像)より、さらに右側の視点に相当する視差を与えた画像(第4視点画像)を生成する。
左画像入力部351の入力した左画像、すなわち第2視点画像は第2視点画像出力部354を介して出力する。
右画像入力部355の入力した右画像、すなわち第3視点画像は第3視点画像出力部357を介して出力する。
右画像2D3D変換部356の生成した第4視点画像は第4視点画像出力部358を介して出力する。
これらの4つの異なる視点画像は、先に説明した実施例と同様、裸眼対応の3D表示装置において、ユーザ位置に応じた画像の組み合わせを選択出力することで、クロストークの発生を抑制した3D画像の提示が可能となる。
本実施例では、奥行きを検出、または推定する回路を削減することが可能である。
図18に本開示の画像処理装置の第5実施例の構成図を示す。
第5実施例は、第1実施例と同様、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
第5実施例では、先に説明した第1〜第4実施例とは異なり、入力画像事態を出力画像として用いず、入力画像に基づいて、新たな全ての出力画像である第1〜4視点画像を生成する。
左画像入力部401は、左画像を入力する。入力された左画像は、奥行き検出部403、および左画像2D3D変換部405に入力される。
同様に、右画像入力部402は、右画像を入力する。入力された右画像は、奥行き検出部403、および右画像2D3D変換部405に入力される。
左画像2D3D変換部404の生成した第2視点画像は第2視点画像出力部407を介して出力する。
右画像2D3D変換部405の生成した第3視点画像は第3視点画像出力部408を介して出力する。
右画像2D3D変換部405の生成した第4視点画像は第4視点画像出力部409を介して出力する。
図19に本開示の画像処理装置の第6実施例の構成図を示す。
第6実施例は、第1実施例と同様、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
また、図18を参照して説明した第5実施例と同様、入力画像自体を出力画像として用いず、入力画像に基づいて全ての出力画像である新たな第1〜4視点画像を生成する。
例えば、図3の構成において、視点1,103と左カメラ101の中間位置からの撮影画像を左画像として入力し、右カメラ102と、視点4,104の中間位置からの撮影画像を右画像として入力する。これらの入力画像に基づいて、新たな第1〜第4視点画像を生成する。このような処理を行う構成に相当する。
左画像入力部451は、左画像を入力する。入力された左画像は、左画像奥行き推定部453、および左画像2D3D変換部455に入力される。
同様に、右画像入力部452は、右画像を入力する。入力された右画像は、右画像奥行き推定部454、および右画像2D3D変換部456に入力される。
左画像2D3D変換部455の生成した第2視点画像は第2視点画像出力部458を介して出力する。
右画像2D3D変換部456の生成した第3視点画像は第3視点画像出力部459を介して出力する。
右画像2D3D変換部456の生成した第4視点画像は第4視点画像出力部460を介して出力する。
図20に本開示の画像処理装置の第7実施例の構成図を示す。
第7実施例は、第1実施例と同様、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う装置である。
また、図18を参照して説明した第5実施例と同様、入力画像自体を出力画像として用いず、入力画像に基づいて全ての出力画像である第1〜4視点画像を生成する。
例えば、図3の構成において、視点1,103と左カメラ101の中間位置からの撮影画像を左画像として入力し、右カメラ102と、視点4,104の中間位置からの撮影画像を右画像として入力する。これらの入力画像に基づいて、新たな第1〜第4視点画像を生成する。このような処理を行う構成に相当する。
左画像入力部501は、左画像を入力する。入力された左画像は、左画像2D3D変換部502に入力される。
同様に、右画像入力部502は、右画像を入力する。入力された右画像は、右画像2D3D変換部506に入力される。
左画像2D3D変換部502の生成した第2視点画像は第2視点画像出力部504を介して出力する。
右画像2D3D変換部506の生成した第3視点画像は第3視点画像出力部507を介して出力する。
右画像2D3D変換部506の生成した第4視点画像は第4視点画像出力部508を介して出力する。
図21に本開示の画像処理装置の第8実施例の構成図を示す。
これまで説明した実施例では、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、第1〜第4の4視点の画像を出力する多視点画像生成を行う処理例について説明した。
図21に示す第8実施例の画像処理装置550は、左右の視点の異なる2枚の画像(左画像、右画像)を入力とし、さらに多くの第1〜第6の6視点の画像を出力する多視点画像生成を行う。
入力画像の左画像をそのまま第3視点画像として出力し、
入力左画像(第3視点画像)に基づいて、入力左画像の左側の視点の第2視点画像と、さらに左側の第1視点画像を生成して出力する。
また、入力画像の右画像をそのまま第4視点画像として出力し、
入力右画像(第4視点画像)に基づいて、入力右画像の右側の視点の第5視点画像と、さらに右側の第6視点画像を生成して出力する。
左画像入力部551は、左画像を入力する。入力された左画像は、奥行き検出部553、および左画像第1−2D3D変換部554に入力される。
同様に、右画像入力部552は、右画像を入力する。入力された右画像は、奥行き検出部553、および右画像第1−2D3D変換部556に入力される。
左画像第1−2D3D変換部554の生成した第2視点画像は、第2視点画像出力部559を介して出力する。
左画像入力部551を介して入力した画像(第3視点画像)は、第3視点画像出力部560を介して出力する。
右画像入力部552を介して入力した画像(第4視点画像)は、第4視点画像出力部561を介して出力する。
右画像第1−2D3D変換部556の生成した第5視点画像は、第5視点画像出力部562を介して出力する。
右画像第2−2D3D変換部557の生成した第6視点画像は、第6視点画像出力部563を介して出力する。
図22に本開示の画像処理装置の第9実施例の構成図を示す。
図22に示す第9実施例の画像処理装置600は、視点の異なる4枚の画像(第1画像〜第4画像)を入力とし、第1〜第8の8視点の画像を出力する多視点画像生成を行う。
入力画像の第1画像は、そのまま第2視点画像として出力し、
入力第1画像(第2視点画像)に基づいて、入力第1画像(第2視点画像)の左側の視点の第1視点画像を生成して出力する。
また、入力画像の第2画像は、そのまま第4視点画像として出力し、
入力第2画像(第4視点画像)に基づいて、入力第2画像(第4視点画像)の左側の視点の第3視点画像を生成して出力する。
入力第3画像(第5視点画像)に基づいて、入力第3画像(第5視点画像)の右側の視点の第6視点画像を生成して出力する。
また、入力画像の第4画像は、そのまま第7視点画像として出力し、
入力第4画像(第7視点画像)に基づいて、入力第4画像(第7視点画像)の右側の視点の第8視点画像を生成して出力する。
第1画像入力部601は、第1画像を入力する。入力された第1画像は、第1奥行き検出部611、および第1−2D3D変換部621に入力される。
第2画像入力部602は、第2画像を入力する。入力された第2画像は、第1奥行き検出部611、および第2奥行き検出部612、さらに第2−2D3D変換部622に入力される。
第4画像入力部604は、第4画像を入力する。入力された第4画像は、第3奥行き検出部613、および第4奥行き検出部614、さらに第4−2D3D変換部624に入力される。
さらに、第3画像の各画素、または各ブロックが、第2画像のどの画素またはブロックに対応するかを検出し、その位置の差を第3画像の当該画素に相当する位置に保存した第3画像奥行情報を生成する。
第1画像入力部601を介して入力した画像(第2視点画像)は、第2視点画像出力部632を介して出力する。
第2−2D3D変換部622の生成した第2視点画像は、第2視点画像出力部633を介して出力する。
第2画像入力部602を介して入力した画像(第4視点画像)は、第4視点画像出力部634を介して出力する。
第3画像入力部603を介して入力した画像(第5視点画像)は、第5視点画像出力部635を介して出力する。
第3−2D3D変換部623の生成した第6視点画像は、第6視点画像出力部636を介して出力する。
第4画像入力部604を介して入力した画像(第7視点画像)は、第7視点画像出力部637を介して出力する。
第4−2D3D変換部624の生成した第8視点画像は、第8視点画像出力部638を介して出力する。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1)3次元画像表示に適用する右眼用の画像信号を入力する右画像入力部と、
3次元画像表示に適用する左眼用の画像信号を入力する左画像入力部と、
前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成する右画像変換部と、
前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成する左画像変換部と、
前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力する画像出力部を有する画像処理装置。
(5)前記左画像変換部、または右画像変換部は多段接続構成を有し、前段の画像変換部が生成した変換画像を後段の画像変換部に入力し、入力画像信号に対する位相変化を施す処理を各画像変換部において繰り返し実行し、各画像変換部において、順次新たな変換画像を生成する(1)〜(4)いずれかに記載の画像処理装置。
(7)前記左画像変換部、および右画像変換部は、前記右眼用の入力画像信号と、前記左眼用の入力画像信号に基づいて算出または推定される奥行き情報から最大距離と最少距離の被写体間の画像間距離差を算出し、最終的に出力する視点画像数に応じて各視点画像間の画像間距離差をほぼ均等に配分した新たな視点画像の生成を行う(1)〜(6)いずれかに記載の画像処理装置。
12 右カメラ
21 左画像
22 右画像
31 視点1カメラ
32 視点2カメラ
33 視点3カメラ
34 視点4カメラ
41 視点1画像
42 視点2画像
43 視点3画像
44 視点4画像
101 左カメラ
102 右カメラ
103 視点1
104 視点2
111 左画像(第2視点画像)
112 右画像(第3視点画像)
113 第1視点画像
114 第4視点画像
200 画像処理装置
201 左画像入力部
202 右画像入力部
203 奥行き検出部
204 左画像2D3D変換部
205 右画像2D3D変換部
206 第1視点画像出力部
207 第2視点画像出力部
208 第3視点画像出力部
209 第4視点画像出力部
211 微分器
212 ゲイン制御器
213 非線形変換部
214 画像合成部
221 ケイン係数算出部
222 乗算処理部
250 画像処理装置
251 左画像入力部
252 右画像入力部
253 奥行き検出部
254 左画像2D3D変換部
255 右画像2D3D変換部
256 第1視点画像出力部
257 第2視点画像出力部
258 第3視点画像出力部
259 第4視点画像出力部
261 奥行き情報調整部
300 画像処理装置
301 左画像入力部
302 右画像入力部
303 左画像奥行き推定部
304 右画像奥行き推定部
305 左画像2D3D変換部
306 右画像2D3D変換部
307 第1視点画像出力部
308 第2視点画像出力部
309 第3視点画像出力部
310 第4視点画像出力部
350 画像処理装置
351 左画像入力部
352 左画像2D3D変換部
353 第1視点画像出力部
354 第2視点画像出力部
355 右画像入力部
356 右画像2D3D変換部
357 第3視点画像出力部
358 第4視点画像出力部
400 画像処理装置
401 左画像入力部
402 右画像入力部
403 奥行き検出部
404 左画像2D3D変換部
405 右画像2D3D変換部
406 第1視点画像出力部
407 第2視点画像出力部
408 第3視点画像出力部
409 第4視点画像出力部
450 画像処理装置
451 左画像入力部
452 右画像入力部
453 左画像奥行き推定部
454 右画像奥行き推定部
455 左画像2D3D変換部
456 右画像2D3D変換部
457 第1視点画像出力部
458 第2視点画像出力部
459 第3視点画像出力部
460 第4視点画像出力部
500 画像処理装置
501 左画像入力部
502 左画像2D3D変換部
503 第1視点画像出力部
504 第2視点画像出力部
505 右画像入力部
506 右画像2D3D変換部
507 第3視点画像出力部
508 第4視点画像出力部
550 画像処理装置
551 左画像入力部
552 右画像入力部
553 奥行き検出部
554 左画像第1―2D3D変換部
556 左画像第2―2D3D変換部
557 右画像第1―2D3D変換部
555 右画像第2―2D3D変換部
558 第1視点画像出力部
559 第2視点画像出力部
560 第3視点画像出力部
561 第4視点画像出力部
562 第5視点画像出力部
563 第6視点画像出力部
600 画像処理装置
601 第1画像入力部
602 第2画像入力部
603 第3画像入力部
604 第4画像入力部
611 第1奥行き検出部
612 第2奥行き検出部
613 第3奥行き検出部
621 第1−2D3D変換部
622 第2−2D3D変換部
623 第3−2D3D変換部
624 第4−2D3D変換部
631 第1視点画像出力部
632 第2視点画像出力部
633 第3視点画像出力部
634 第4視点画像出力部
635 第5視点画像出力部
636 第6視点画像出力部
637 第7視点画像出力部
638 第8視点画像出力部
Claims (9)
- 3次元画像表示に適用する右眼用の画像信号を入力する右画像入力部と、
3次元画像表示に適用する左眼用の画像信号を入力する左画像入力部と、
前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成する右画像変換部と、
前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成する左画像変換部と、
前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力する画像出力部を有する画像処理装置。 - 前記右眼用の入力画像信号と、前記左眼用の入力画像信号からそれぞれの画像信号に対応した被写体距離情報を持つ画像奥行情報を生成する奥行き検出部を有し、
前記左画像変換部、および右画像変換部は、前記画像奥行情報を補助情報として前記画像信号を左方向、または右方向に位相変化を施した変換画像を生成する請求項1に記載の画像処理装置。 - 前記右眼用の入力画像信号と、前記左眼用の入力画像信号からそれぞれの画像信号に対応した被写体距離推定情報を生成する奥行き推定部を有し、
前記左画像変換部、および右画像変換部は、前記奥行き推定情報を補助情報として画像信号を左方向、または右方向に位相変化を施した変換画像を生成する請求項1に記載の画像処理装置。 - 前記左画像変換部、および右画像変換部は、
入力画像信号の輝度微分信号を抽出し、該輝度微分信号を特徴量として設定し、入力画像信号に対して、輝度微分信号あるいは輝度微分信号の非線形変換信号を加算または減算することで前記変換画像を生成する請求項1に記載の画像処理装置。 - 前記左画像変換部、または右画像変換部は多段接続構成を有し、
前段の画像変換部が生成した変換画像を後段の画像変換部に入力し、入力画像信号に対する位相変化を施す処理を各画像変換部において繰り返し実行し、各画像変換部において、順次新たな変換画像を生成する請求項1に記載の画像処理装置。 - 前記左画像変換部、および右画像変換部は、
前記右眼用の入力画像信号と、前記左眼用の入力画像信号に基づいて算出または推定される奥行き情報から最大距離と最少距離の被写体間の画像間距離差を算出し、
該画像間距離差に従って、新たな視点画像と他画像から得られる最大距離および最少距離の被写体間の画像間距離差を制御した新たな視点画像を生成する請求項1に記載の画像処理装置。 - 前記左画像変換部、および右画像変換部は、
前記右眼用の入力画像信号と、前記左眼用の入力画像信号に基づいて算出または推定される奥行き情報から最大距離と最少距離の被写体間の画像間距離差を算出し、
最終的に出力する視点画像数に応じて各視点画像間の画像間距離差をほぼ均等に配分した新たな視点画像の生成を行う請求項1に記載の画像処理装置。 - 画像処理装置において実行する画像処理方法であり、
右画像入力部が、3次元画像表示に適用する右眼用の画像信号を入力する右画像入力ステップと、
左画像入力部が、3次元画像表示に適用する左眼用の画像信号を入力する左画像入力ステップと、
右画像変換部が、前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成する右画像変換ステップと、
左画像変換部が、前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成する左画像変換ステップと、
画像出力部が、前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力する画像出力ステップを実行する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
右画像入力部に、3次元画像表示に適用する右眼用の画像信号を入力させる右画像入力ステップと、
左画像入力部に、3次元画像表示に適用する左眼用の画像信号を入力させる左画像入力ステップと、
右画像変換部に、前記右眼用の入力画像信号を画像の特徴に応じて右方向、または左方向に位相変化を施した変換画像を生成させる右画像変換ステップと、
左画像変換部に、前記左眼用の入力画像信号を画像の特徴に応じて左方向、または右方向に位相変化を施した変換画像を生成させる左画像変換ステップと、
画像出力部に、前記右画像変換部の生成画像、および前記左画像変換部の生成画像を複数の新たな視点画像として出力させる画像出力ステップを実行させるプログラム。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011062228A JP5879713B2 (ja) | 2010-12-09 | 2011-03-22 | 画像処理装置、および画像処理方法、並びにプログラム |
PCT/JP2011/074469 WO2012077420A1 (ja) | 2010-12-09 | 2011-10-24 | 画像処理装置、および画像処理方法、並びにプログラム |
KR1020137014024A KR101856805B1 (ko) | 2010-12-09 | 2011-10-24 | 화상 처리 장치 및 화상 처리 방법, 및 프로그램 |
EP11847769.4A EP2611173A4 (en) | 2010-12-09 | 2011-10-24 | IMAGE PROCESSING DEVICE, IMAGE PROCESSING PROCESS AND CORRESPONDING PROGRAM |
US13/990,824 US9922441B2 (en) | 2010-12-09 | 2011-10-24 | Image processing device, image processing method, and program |
BR112013013511A BR112013013511A2 (pt) | 2010-12-09 | 2011-10-24 | dispositivo e método de processamento de imagem, e, programa |
CN201180058061.8A CN103238341B (zh) | 2010-12-09 | 2011-10-24 | 图像处理装置、图像处理方法 |
CA2812903A CA2812903A1 (en) | 2010-12-09 | 2011-10-24 | Image processing device, image processing method, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010274808 | 2010-12-09 | ||
JP2010274808 | 2010-12-09 | ||
JP2011062228A JP5879713B2 (ja) | 2010-12-09 | 2011-03-22 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012138885A true JP2012138885A (ja) | 2012-07-19 |
JP5879713B2 JP5879713B2 (ja) | 2016-03-08 |
Family
ID=46206923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011062228A Expired - Fee Related JP5879713B2 (ja) | 2010-12-09 | 2011-03-22 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (8)
Country | Link |
---|---|
US (1) | US9922441B2 (ja) |
EP (1) | EP2611173A4 (ja) |
JP (1) | JP5879713B2 (ja) |
KR (1) | KR101856805B1 (ja) |
CN (1) | CN103238341B (ja) |
BR (1) | BR112013013511A2 (ja) |
CA (1) | CA2812903A1 (ja) |
WO (1) | WO2012077420A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014072602A (ja) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | 多視点画像生成装置及び方法 |
JP2017525210A (ja) * | 2014-06-19 | 2017-08-31 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 三次元画像を生成するための方法及び機器 |
WO2023032209A1 (ja) * | 2021-09-06 | 2023-03-09 | 日本電信電話株式会社 | 映像処理装置、映像処理方法、およびプログラム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5249114B2 (ja) * | 2009-04-03 | 2013-07-31 | Kddi株式会社 | 画像生成装置、方法及びプログラム |
KR101727899B1 (ko) * | 2010-11-26 | 2017-04-18 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US9148645B2 (en) | 2011-05-14 | 2015-09-29 | Dolby Laboratories Licensing Corporation | Crosstalk cancellation in 3D displays |
US20120299805A1 (en) * | 2011-05-26 | 2012-11-29 | Sanyo Electric., Ltd. | Projection display apparatus |
EP2765774A1 (en) * | 2013-02-06 | 2014-08-13 | Koninklijke Philips N.V. | System for generating an intermediate view image |
US10122992B2 (en) * | 2014-05-22 | 2018-11-06 | Disney Enterprises, Inc. | Parallax based monoscopic rendering |
US9626584B2 (en) * | 2014-10-09 | 2017-04-18 | Adobe Systems Incorporated | Image cropping suggestion using multiple saliency maps |
JP6759347B2 (ja) * | 2016-09-23 | 2020-09-23 | 日本電信電話株式会社 | 画像生成装置、画像生成方法、およびプログラム |
WO2018191648A1 (en) | 2017-04-14 | 2018-10-18 | Yang Liu | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
WO2018233387A1 (zh) * | 2017-06-22 | 2018-12-27 | 上海玮舟微电子科技有限公司 | 裸眼3d显示方法及装置 |
US11315328B2 (en) * | 2019-03-18 | 2022-04-26 | Facebook Technologies, Llc | Systems and methods of rendering real world objects using depth information |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09322199A (ja) * | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
JPH1032840A (ja) * | 1996-04-05 | 1998-02-03 | Matsushita Electric Ind Co Ltd | 多視点画像伝送方法および多視点画像表示方法 |
JP2001346226A (ja) * | 2000-06-02 | 2001-12-14 | Canon Inc | 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体 |
JP2006115198A (ja) * | 2004-10-14 | 2006-04-27 | Canon Inc | 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 |
JP2009124308A (ja) * | 2007-11-13 | 2009-06-04 | Tokyo Denki Univ | 多眼視画像作成システム及び多眼視画像作成方法 |
JP2010063083A (ja) * | 2008-08-06 | 2010-03-18 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
WO2011099314A1 (ja) * | 2010-02-12 | 2011-08-18 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PH26813A (en) * | 1987-09-02 | 1992-11-05 | Ciba Geigy Ag | Conjugates of cytokines with immunoglobulins |
CN1113320C (zh) * | 1994-02-01 | 2003-07-02 | 三洋电机株式会社 | 将二维图像转换成三维图像的方法以及三维图像显示系统 |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
US5926190A (en) * | 1996-08-21 | 1999-07-20 | Apple Computer, Inc. | Method and system for simulating motion in a computer graphics application using image registration and view interpolation |
EP0896301A1 (en) | 1997-08-06 | 1999-02-10 | Victor Company Of Japan, Limited | Stereoscopic image interpolating apparatus and method |
KR100433625B1 (ko) | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
JP3880561B2 (ja) * | 2002-09-05 | 2007-02-14 | 株式会社ソニー・コンピュータエンタテインメント | 表示システム |
US20040190023A1 (en) * | 2003-03-24 | 2004-09-30 | Tatsuya Aoyama | Image processing method, apparatus and program |
EP1952199B1 (en) * | 2005-11-17 | 2012-10-03 | Nokia Corporation | Method and devices for generating, transferring and processing three-dimensional image data |
JP2009080144A (ja) * | 2007-09-25 | 2009-04-16 | Toshiba Corp | 立体映像表示装置および立体映像表示方法 |
JP4669032B2 (ja) * | 2008-09-08 | 2011-04-13 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
JP5877065B2 (ja) | 2009-01-26 | 2016-03-02 | トムソン ライセンシングThomson Licensing | ビデオ符号化のためのフレーム・パッキング |
BRPI1008264A2 (pt) | 2009-05-28 | 2019-09-24 | Koninklijke Philips Electrnics N. V. | dispositivo de tela autoestereoscopica tendo um campo de visão em uma direção lateral e vertical e luz de fundo colimante |
JP5397190B2 (ja) * | 2009-11-27 | 2014-01-22 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN101895779B (zh) * | 2010-07-23 | 2011-10-05 | 深圳超多维光电子有限公司 | 立体显示方法和系统 |
US8446461B2 (en) * | 2010-07-23 | 2013-05-21 | Superd Co. Ltd. | Three-dimensional (3D) display method and system |
US20120069143A1 (en) * | 2010-09-20 | 2012-03-22 | Joseph Yao Hua Chu | Object tracking and highlighting in stereoscopic images |
-
2011
- 2011-03-22 JP JP2011062228A patent/JP5879713B2/ja not_active Expired - Fee Related
- 2011-10-24 EP EP11847769.4A patent/EP2611173A4/en not_active Withdrawn
- 2011-10-24 CN CN201180058061.8A patent/CN103238341B/zh not_active Expired - Fee Related
- 2011-10-24 KR KR1020137014024A patent/KR101856805B1/ko active IP Right Grant
- 2011-10-24 US US13/990,824 patent/US9922441B2/en not_active Expired - Fee Related
- 2011-10-24 BR BR112013013511A patent/BR112013013511A2/pt not_active Application Discontinuation
- 2011-10-24 WO PCT/JP2011/074469 patent/WO2012077420A1/ja active Application Filing
- 2011-10-24 CA CA2812903A patent/CA2812903A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1032840A (ja) * | 1996-04-05 | 1998-02-03 | Matsushita Electric Ind Co Ltd | 多視点画像伝送方法および多視点画像表示方法 |
JPH09322199A (ja) * | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
JP2001346226A (ja) * | 2000-06-02 | 2001-12-14 | Canon Inc | 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体 |
JP2006115198A (ja) * | 2004-10-14 | 2006-04-27 | Canon Inc | 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 |
JP2009124308A (ja) * | 2007-11-13 | 2009-06-04 | Tokyo Denki Univ | 多眼視画像作成システム及び多眼視画像作成方法 |
JP2010063083A (ja) * | 2008-08-06 | 2010-03-18 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
WO2011099314A1 (ja) * | 2010-02-12 | 2011-08-18 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014072602A (ja) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | 多視点画像生成装置及び方法 |
US9460550B2 (en) | 2012-09-28 | 2016-10-04 | JVC Kenwood Corporation | Multi-viewpoint image generation apparatus and method |
JP2017525210A (ja) * | 2014-06-19 | 2017-08-31 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 三次元画像を生成するための方法及び機器 |
WO2023032209A1 (ja) * | 2021-09-06 | 2023-03-09 | 日本電信電話株式会社 | 映像処理装置、映像処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5879713B2 (ja) | 2016-03-08 |
US20130249904A1 (en) | 2013-09-26 |
EP2611173A1 (en) | 2013-07-03 |
CN103238341A (zh) | 2013-08-07 |
CN103238341B (zh) | 2016-08-24 |
EP2611173A4 (en) | 2015-05-20 |
BR112013013511A2 (pt) | 2016-09-06 |
CA2812903A1 (en) | 2012-06-14 |
KR20130137000A (ko) | 2013-12-13 |
WO2012077420A1 (ja) | 2012-06-14 |
KR101856805B1 (ko) | 2018-06-20 |
US9922441B2 (en) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5879713B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US8866884B2 (en) | Image processing apparatus, image processing method and program | |
EP2469870A2 (en) | Image processing device, image processing method, and program | |
JP5291755B2 (ja) | 立体視画像生成方法および立体視画像生成システム | |
US20130342529A1 (en) | Parallax image generating apparatus, stereoscopic picture displaying apparatus and parallax image generation method | |
US9338426B2 (en) | Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method | |
JP5831024B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
JP5521608B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2013054632A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US9210396B2 (en) | Stereoscopic image generation apparatus and stereoscopic image generation method | |
US9082210B2 (en) | Method and apparatus for adjusting image depth | |
JP2013135357A (ja) | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム | |
JP5627498B2 (ja) | 立体画像生成装置及び方法 | |
JP2013090129A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5845780B2 (ja) | 立体画像生成装置及び立体画像生成方法 | |
JP2012060345A (ja) | 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム | |
JP5871113B2 (ja) | 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム | |
KR20120087867A (ko) | 2차원 영상을 스테레오 영상으로 변환하는 방법 | |
KR20120072786A (ko) | 2차원 영상을 스테레오 영상으로 변환하는 방법 | |
JP5431393B2 (ja) | 立体画像生成装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160118 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5879713 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |