JPWO2011030399A1 - 画像処理方法及び装置 - Google Patents

画像処理方法及び装置 Download PDF

Info

Publication number
JPWO2011030399A1
JPWO2011030399A1 JP2011501034A JP2011501034A JPWO2011030399A1 JP WO2011030399 A1 JPWO2011030399 A1 JP WO2011030399A1 JP 2011501034 A JP2011501034 A JP 2011501034A JP 2011501034 A JP2011501034 A JP 2011501034A JP WO2011030399 A1 JPWO2011030399 A1 JP WO2011030399A1
Authority
JP
Japan
Prior art keywords
image
vector
depth
innermost
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011501034A
Other languages
English (en)
Other versions
JP4892113B2 (ja
Inventor
三島 直
直 三島
賢一 下山
賢一 下山
三田 雄志
雄志 三田
井田 孝
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP4892113B2 publication Critical patent/JP4892113B2/ja
Publication of JPWO2011030399A1 publication Critical patent/JPWO2011030399A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

2次元動画像から立体表示のための視差画像を生成する画像処理方法は、2次元動画像の任意時刻の第1画像と、第1画像とは別の時刻の第2画像に基づいて、第1画像のブロック毎に、第2画像との間の動きベクトルを検出するステップと、奥行きが奥側となる部分の最奥ベクトルを、動きベクトルの中から検出するステップと、各動きベクトルと最奥ベクトルとの差分ベクトルを求め、差分ベクトルが大きい動きベクトルに対応する第1画像のブロックほど手前側の奥行きを与えるステップと、第1画像と前記奥行きから1枚以上の視差画像を生成するステップと、を含む。

Description

本発明は、2次元画像から立体表示のための視差画像を生成する画像処理方法及び装置に関する。
視差のある画像それぞれを、左目、右目で視覚するよう表示することで立体像を認識させる立体表示技術が知られている。三角測量の要領によって左目で見たときの像は右目で見ると位置が若干ずれている。そのずれを三角測量の要領で把握することによってこの物体が手前にあるのか奥にあるのかを判定している。つまり立体表示を実現するために、画像間で両眼視差のある3次元画像が必要となる。
近年では、一般のテレビ放送のような元々3次元の情報が含まれていない2次元画像に対しても3次元表示可能になるような映像を生成する技術が開発されている。2次元画像から3次元画像を生成する際に、物体を左目から見たときと右目から見たときとでどれくらいずれているかを示す視差が非常に大事な要素となる。一台のカメラで被写体を撮影した際には奥行きの情報は失われているので、奥行きを如何に求めるかが2次元画像から3次元画像への変換の課題となる。例えば、特許文献1は、2次元動画像の基準フレームから別のフレームへの動きベクトルを検出し、動きベクトルの水平成分に基づいてフレーム遅延量を決定し、動きベクトルの垂直成分に基づいてライン遅延量を決定し、フレーム・ライン遅延量から基準フレームに対応する視差画像を生成し、これをモーションステレオの原理に基づいて立体視する方法が提供されている。しかしながらこの方法では、画面全体の上下動を補正して正しい視差画像を生成することはできるが、画面内で局所的な動きをしている物体が含まれている場合には、物体がぶれてしまい正しい視差画像を生成することができない。
また、特許文献2では、動きベクトルと背景領域を検出し、背景領域の動きベクトルから背景ベクトルを算出し、背景ベクトルを全動きベクトルから減じることにより相対ベクトルを算出し、相対ベクトルの大きさが大きいものほど手前に配置するように視差画像を生成する方法が提供されている。しかしながらこの方法では、背景領域の検出結果によっては、奥に存在する物体が手前に配置されるような違和感のある視差画像となってしまうことがある。
特開平7−264631号公報 特開2000−261828号公報
本発明は、2次元動画像が入力された時に、立体視を可能とする1枚以上の視差画像を生成することを目的としている。また、立体眼鏡により2次元動画像を立体視するような用途の場合には左右2枚の視差画像を生成することを目的とする。
本発明の一形態は、2次元動画像から3次元表示のための視差画像を生成する画像処理方法において、2次元動画像の任意時刻の第1画像と、前記第1画像とは別の時刻の第2画像に基づいて、前記第1画像のブロック毎に、第2画像との間の動きベクトルを検出するステップと、奥行きが奥側となる部分の最奥ベクトルを、前記動きベクトルの中から検出するステップと、各動きベクトルと前記最奥ベクトルとの差分ベクトルを求め、前記差分ベクトルが大きい前記動きベクトルに対応する前記第1画像のブロックほど手前側の奥行きを与えるステップと、前記第1画像と前記奥行きから1枚以上の視差画像を生成するステップと、を有する画像処理方法を提供する。
本発明の第1実施形態に係る、2次元画像から立体表示のための視差画像を生成する画像処理装置のブロック図である。 本発明の第1の実施形態に係る画像処理方法を示すフローチャート図である。 モーションステレオの原理を説明するための図である。 動きがぶれることを説明するための図である。 視差ベクトルから奥行きへの変換モデルを説明するための図である。 画像の物体のコンフリクトを説明するための図である。 最奥ベクトル検出方法を示すフローチャート図である。 奥行き変換モデルを説明するための図である。 視差画像生成を説明するための図である。
以下、本発明の実施の形態について、詳細に説明する。
[第1実施形態]
第1実施形態に従った2次元画像から立体表示のための視差画像を生成する画像処理装置を図1のブロック図を参照して説明する。
図1に示す画像処理装置によると、フレームメモリ11はビデオカメラ、ビデオ再生機などのビデオ装置からの入力動画像をフレーム単位で記憶する。このフレームメモリ11は動きベクトル検出器21に接続されている。動きベクトル検出器21は入力動画像とフレームメモリ11に記憶された画像とからブロックマッチングなどの周知の方法で動きベクトルを検出する。動きベクトル検出器21の出力はクラスタリング装置23に接続される。クラスタリング装置23は画像(フレーム)を複数の領域(クラスタ)に分割する。クラスタリング装置23の出力は最奥ベクトル検出器24に接続され、この最奥ベクトル検出器24はクラスタに基づいて一番奥の物体のベクトル、即ち最奥ベクトルを検出する。具体的には、奥の物体と手前の物体との重なり合いをクラスタに基づいて検出し、一番重なるクラスタを一番奥と決定し、このクラスタのベクトルを最奥ベクトルとして検出する。最奥ベクトル検出器24の出力は奥行き算出器25に接続され、この奥行き算出器25は最奥ベクトルから奥行きを算出する。具体的には、最奥ベクトルと最も手前の物体のベクトル、即ち最前ベクトルとから最奥物体までの奥行きを算出する。奥行き算出器25の出力は視差ベクトル算出器26に接続され、この視差ベクトル算出器26は奥行き情報に基づいて視差ベクトルを算出する。視差ベクトル算出器26の出力は視差画像生成器27に接続される。この視差画像生成器27は後述する方法により視差ベクトルから右目で見た映像と左目で見た映像とを作成する。
図2のフローチャートを参照して図1の画像処理装置の作用を説明するに先立ち2次元画像から3次元画像に変換するメカニズムについて説明する。
2次元の画像から3次元の画像を生成する根拠は図3に示すようなモーションステレオの原理を利用する。すなわち1台のカメラが左から右に移動しながら撮影している状況を考えると、t1の時刻の映像は左目で見える画像に、t2の時刻の映像は右目で見える画像に酷似していると考えることができる。このような移動カメラの映像を右目及び左目で見ることにより立体視が可能となる。このように移動カメラからの動画像をそれぞれ左視差画像及び右視差画像として利用する技術がモーションステレオである。しかし図4に示すように、画面内にカメラの動きとは独立して動いている物体があると異なる時刻の映像が右目と左目に入ることになり、手や足がぶれてしまい物体を正しく立体視することができない。
そこで本実施形態では、入力された動画像の基準フレームから別時刻のフレームへの動きベクトルを求め、動きベクトルを視差ベクトルと見なして視差ベクトルから奥行きマップを算出し、算出された奥行きマップから再度視差ベクトルを算出し、基準フレームから視差ベクトルに従い2枚の視差画像を生成する(ただし2枚に限定するものではない)。このようにすることで、1枚の(1時刻の)基準フレームから同時刻の視差画像を生成できるため、前述したような手足のぶれ問題が解決される。
動きベクトルの水平成分を視差ベクトルとしたときに、視差ベクトルから奥行きへの変換は、人間の左右の目と対象物体への幾何学的関係から図5のモデルに従うことが知られている。左右の目は水平方向に配置されているため、視差は基本的に左右水平に発生する。このモデルに従えば動きから自然な奥行きを再現することが可能である。しかし動きの水平成分しか利用できないため、水平方向の動きを持つ映像に限られてしまう。
本実施形態では背景ベクトルを検出するのではなく、奥行きを動画の動きから追跡する方法を採用している。即ち、最も奥側に配置すべき領域の動きベクトル(最奥ベクトル)を検出し、最奥ベクトルとの差分ベクトルが大きい物体ほど手前に配置するようにする。最奥ベクトルは動きベクトルの重なり関係から検出する。このようにすることにより最も奥の領域から、動きベクトルの差によって物体を順次手前に配置していくことが可能である。
次に、図2のフローチャートを参照して図1の画像処理装置の作用を説明する。
入力2次元動画像の時刻tフレームの位置x,yの画素値をIt(x,y)、時刻t−1フレームの位置x,yの画素値をIt-1(x,y)、時刻t+1フレームの位置x,yの画素値をIt+1(x,y)とする。
<動きベクトル検出ステップS11>
動きベクトル検出ステップS11では、動きベクトル検出器22がtフレームからt−1フレームへの動きベクトルを検出する。動きベクトルの検出には様々な方法が使えるが、ここではブロックマッチングを使ったものを述べる。ただしそれに限ったものではない。ブロックマッチングはtフレームを矩形ブロックの部分に分割し、ブロック毎に対応するブロックをt−1フレーム上から探索する方法である。ブロックの大きさをM,Mとし、ブロックの位置をi,jとする。動きを求めるための誤差関数として平均絶対値差分(Mean Absolute Difference:MAD)などを用いることができる。
Figure 2011030399
ここでu=(ux,uy)Tは評価したい動きベクトルである(Tは転置を表す)。または平均二乗誤差(Mean Squared Error)を用いても良い。探索範囲を−WからWまでの矩形領域とすると、i,j位置の動きベクトルu(i,j)を求めるブロックマッチングアルゴリズムは以下のようになる。
Figure 2011030399
また、ブロック内の動きベクトルはブロックの動きベクトルと同一とする。
Figure 2011030399
また、動きベクトルをここで検出しなくても、例えばMPEG2のような動画像符号化における圧縮のために用いられている動きベクトルを用いても良く、デコーダによってデコードされた動きベクトルを用いることができる。
<クラスタリングステップS12>
クラスタリングステップS12では、クラスタリング装置23が、動きベクトルの方向及び大きさが近い対象同士を分類する。クラスタリング手法としてはK−means法などを用いることができるが、これに限ったものではない。以下K−means法による処理の概要を述べる。
K−means法では、動きベクトルの方向及び大きさが近い対象同士をクラスタというK個の領域に分類する。x,y位置の動きベクトルがどのクラスタに属するかを次式(4)により表現する。
Figure 2011030399
ステップ3:各動きベクトルに関して、全クラスタ内でクラスタ内平均ベクトルと動きベクトルの差分(差分ベクトル)が最も小さいクラスタを選択し、そのクラスタ番号でラベルを更新する。
ステップ4:予め規定のイテレーションまでステップ2,3を繰り返す。
以上により動きベクトルをK個のクラスタに分類することができ、K個のクラスタ内平均ベクトルが算出される。
<最奥ベクトル検出ステップS13>
最奥ベクトル検出ステップS13では、最奥ベクトル検出器24が、最も奥側に配置すべき動きベクトルを、検出されたクラスタ内平均ベクトルの中から選択する。最も奥側の領域は物体間の重なりにおいて、他の物体から覆われている確率が最も高い領域ということができる。そこでそのような領域を動きベクトルの重なり合いから判断する。
物体が背景上を移動している状態の断面図を図6に示す。ここで、破線で囲まれた領域を、動きベクトル同士が衝突する領域「コンフリクト」と定義する。このコンフリクトが動きベクトルの重なり合いを示している。コンフリクトしている次式(5)の2ベクトルに着目してみる。
Figure 2011030399
手前にくる方の動きベクトルは常に画面上に表れているので、その画素差分値が奥になる動きベクトルよりも小さくなる。そこで、次式の絶対値画素差分によりコンフリクトした2ベクトルの前後関係を決定することができる。
Figure 2011030399
すなわち2ベクトルの前後関係は次のようになる。
Figure 2011030399
このときu(x1,y1)及びu(x2,y2)が属しているクラスタはラベルl(x1,y1)及びl(x2,y2)により判別できるので、これによりの動きベクトルのコンフリクトからクラスタ間の前後関係が分かる。この判定を画面全体で行い、最も奥側となるクラスタを決定する。
最奥ベクトル検出器24の作用を図7のフローチャートを参照して説明する。
まず、動きベクトルのコンフリクトを検出する(ステップS21)。検出されたコンフリクトしたベクトルの前後関係を判定する(S22)。対応するクラスタの前後関係を更新する(S23)。画面全体が処理されたかが判断される(S24)。この判断がYesであると、最も奥側に来るクラスタを選択し(S25)、処理を終了する。ステップS24の判定がNoであると、処理はステップS21に戻る。
<奥行き算出ステップS14>
クラスタの平均動きベクトルを最奥ベクトルu_deepとする。奥行き算出ステップS14では、奥行き算出器25が動きベクトルと最奥ベクトルから奥行き値を算出する。奥行き値は、図5に示すように、右目、左目及び物体を結ぶ三角形と、画面上での右視差、左視差及び物体により規定される三角形との二つの三角形の相似性を利用して視差ベクトルから算出される。ここで図5に示される各パラメータは次のように定義するものとする。
奥行き:z
視差ベクトル:d[cm]
眼間距離:b[cm]
画面までの距離:z[cm]
飛び出し距離:z[cm]
奥行きの最大値:zmax
実空間での奥行きサイズ:L[cm]
ここでb、z、z、Lは任意の値を設定しておく。視差は動きベクトルと最奥ベクトルから次式(8)によって計算できる。
Figure 2011030399
ここで‖・‖はベクトルのl2ノルム(長さ)を算出するオペレータである。ただし、単位は画素であり、画素サイズから[cm]への変換は次式(9)に従って行われる。
Figure 2011030399
奥行き値zは0−255の範囲であり(0−1でも良い)、0が手前、255が奥を表しているとする。しかしこの値はあくまで仮想的なものであり実際の距離に換算する必要がある。実空間での奥行きサイズLzを用いて次式(10)に従って変換が行われる。
Figure 2011030399
ここでzmax=255である。すると画面から対象物までの距離は次式(11)によって求められる。
Figure 2011030399
三角形の相似性から視差、奥行き変換モデルが次式(12)により表される。
Figure 2011030399
画素毎に上記奥行き変換モデルにより奥行き値が算出される。図8は式12によって算出される結果をプロットして作成された曲線を表している。図8のグラフの縦軸は視差、横軸は奥行きを示している。
上記の奥行き変換モデルにより右方向に大きい動きベクトルほど奥になり、左方向に大きい動きベクトルほど手前になる。軸を反転させると逆になる。
上記奥行き変換モデルは視差ベクトルと反比例の関係にあるモデルだったが、奥行き変換モデルは例えば反比例の関係を部分的な比例関係で近似した関数のモデルでも良い。
画面までの距離zsは算出される奥行き値に直接的に関係する値であり、算出された奥行き値のヒストグラムができる限り幅広くなるように画面までの距離zsを決定しても良い。
<視差ベクトル算出ステップS15>
一度奥行き値を算出しておけば、任意のパラメータに従って視差画像を生成できる。視差ベクトル算出器26は視差画像を生成する元となる視差ベクトルを奥行き値から算出する。
立体視のパラメータb、z、z、Lは、提供したい立体視に基づいて任意に決定できる。例えば、実際の画面の位置に従ってzを決定し、飛び出しを大きくしたい場合にはzを大きくする。また、奥行きの深さはLによって決定できる。
立体視のパラメータが決まれば、式(2)の変換モデルを変形した次式(13)の奥行き視差ベクトル変換モデルに従って、奥行き値から視差ベクトルを算出できる。
Figure 2011030399
<視差画像生成ステップS16>
視差画像生成ステップS16では、視差画像生成器27が生成したい視差画像の枚数分、tフレームと視差ベクトルから視差画像を生成する。
Figure 2011030399
Figure 2011030399
即ち、d=−0.5d,d=0.5dとして左右の視差画像が生成できる。
左視差画像はtフレームの画素値It(x,y)をdLに従って移動させることにより生成できる。右視差画像も同様である。単純に移動しただけでは穴が空いてしまう可能性もあるので、穴の領域には周辺の視差ベクトルから補間して映像を埋めればよい。ここでは2視差の場合を例に挙げたが、多視差の場合も同様に処理すればよい。
上述のようにして生成された左視差画像及び右視差画像は交互に高速に切替えて、又は画面の一ライン目を左目で見て二ライン目を右目で見るような形で時間的又は空間的に切り替えながら一つの画面として表示器に表示し、左目と右目に別々の映像を見せるようにする。
上記のように本発明によると、異なる時刻の画像をフレームメモリ記憶しておいて、異なる時刻の画像から動きベクトルを画面全体について検出する。この動きベクトルを同じ方向を持っているベクトル同士で分割し、纏める。即ちクラスタリングする。このクラスタリングにより、画面内から複数のクラスタを抽出する。これらクラスタの重なり合いをみてクラスタの中で一番多く被さられているクラスタを検出する。一番被さられているクラスタの平均動きベクトルを最奥ベクトルとする。この最奥ベクトルから各クラスタの動きベクトルを引き算して差分ベクトルの大きさが大きいほど手前に差分ベクトルが小さければ奥になることを決定する。このようにして各クラスタ、即ち各物体の奥行きが決定されると、各物体について左右の視差画像が生成される。
本発明によると、殆どぶれのない画像を立体視することができる視差画像を生成できる。
本発明の実施の形態に記載した本発明の手法は、コンピュータによって実行させることができ、また、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することもできる。
21…フレームメモリ、22…動きベクトル検出器、23…クラスタリング装置、24…最奥ベクトル検出器、25…奥行き算出器、26…視差ベクトル算出器、27…視差画像生成器。

Claims (6)

  1. 2次元動画像から3次元表示のための視差画像を生成する画像処理方法において、
    2次元動画像の任意時刻の第1画像と、前記第1画像とは別の時刻の第2画像に基づいて、前記第1画像のブロック毎に、第2画像との間の動きベクトルを検出するステップと、
    奥行きを最も奥側とすべきブロックに対して求めた最奥ベクトルを、前記動きベクトルの中から検出するステップと、
    各動きベクトルと前記最奥ベクトルとの差分ベクトルを求め、前記差分ベクトルが大きい前記動きベクトルに対応する前記第1画像のブロックほど手前側の奥行きを与えるステップと、
    前記第1画像と前記奥行きから1枚以上の視差画像を生成するステップと、
    を有する画像処理方法。
  2. 前記最奥ベクトルを検出するステップは、
    前記動きベクトルを1つ以上のクラスタに分類し、前記クラスタ内の平均動きベクトルを求めるステップと、
    前記平均動きベクトルのどれか1つを前記最奥ベクトルに設定するステップと、を含むことを特徴とする請求項1に記載の画像処理方法。
  3. 前記最奥ベクトル検出ステップは、
    前記クラスタ間の動きベクトルの重なりを検出し、もっとも覆い被されているクラスタ内の平均動きベクトルを前記最奥ベクトルに設定するステップを含むことを特徴とする請求項2に記載の画像処理方法。
  4. 前記差分ベクトルの大きさと前記奥行きの関係が反比例していることを特徴とする請求項3に記載の画像処理方法。
  5. 前記差分ベクトルの大きさと前記奥行きの関係が比例していることを特徴とする請求項3に記載の画像処理方法。
  6. 2次元動画像から3次元表示のための視差画像を生成する画像処理装置において、
    2次元動画像の任意時刻の第1画像と、前記第1画像とは別の時刻の第2画像に基づいて、前記第1画像のブロック毎に、第2画像との間の動きベクトルを検出する動きベクトル検出器と、
    奥行きが奥側となる部分の最奥ベクトルを、前記動きベクトルの中から検出する奥行きベクトル検出器と、
    各動きベクトルと前記最奥ベクトルとの差分ベクトルを求め、前記差分ベクトルが大きい前記動きベクトルに対応する前記第1画像のブロックほど手前側の奥行きを与える視差ベクトル算出器と、
    前記第1画像と前記奥行きから1枚以上の視差画像を生成する視差画像生成器と、
    を含む画像処理装置。
JP2011501034A 2009-09-08 2009-09-08 画像処理方法及び装置 Expired - Fee Related JP4892113B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/065683 WO2011030399A1 (ja) 2009-09-08 2009-09-08 画像処理方法及び装置

Publications (2)

Publication Number Publication Date
JP4892113B2 JP4892113B2 (ja) 2012-03-07
JPWO2011030399A1 true JPWO2011030399A1 (ja) 2013-02-04

Family

ID=43732087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011501034A Expired - Fee Related JP4892113B2 (ja) 2009-09-08 2009-09-08 画像処理方法及び装置

Country Status (4)

Country Link
US (1) US8289376B2 (ja)
JP (1) JP4892113B2 (ja)
CN (1) CN102326394B (ja)
WO (1) WO2011030399A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
JP2012151663A (ja) * 2011-01-19 2012-08-09 Toshiba Corp 立体音響生成装置及び立体音響生成方法
US9483836B2 (en) 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
EP2627093A3 (en) * 2012-02-13 2013-10-02 Thomson Licensing Method and device for inserting a 3D graphics animation in a 3D stereo content
JP5858254B2 (ja) * 2013-06-06 2016-02-10 ソニー株式会社 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置
JP6412819B2 (ja) * 2015-03-30 2018-10-24 株式会社東芝 画像処理装置、画像処理方法、および画像処理プログラム
JP6207640B2 (ja) * 2016-01-27 2017-10-04 エフ・エーシステムエンジニアリング株式会社 2次元映像の立体映像化表示装置
CN109829393B (zh) * 2019-01-14 2022-09-13 北京鑫洋泉电子科技有限公司 一种移动物体探测方法、装置及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259040A (en) * 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
JP3152556B2 (ja) * 1994-03-24 2001-04-03 三洋電機株式会社 2次元画像を3次元画像に変換する方法
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
US7764827B2 (en) * 2003-08-05 2010-07-27 Koninklijke Philips Electronics N.V. Multi-view image generation

Also Published As

Publication number Publication date
WO2011030399A1 (ja) 2011-03-17
US8289376B2 (en) 2012-10-16
CN102326394B (zh) 2014-06-11
JP4892113B2 (ja) 2012-03-07
US20120169844A1 (en) 2012-07-05
CN102326394A (zh) 2012-01-18

Similar Documents

Publication Publication Date Title
JP4892113B2 (ja) 画像処理方法及び装置
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US9041819B2 (en) Method for stabilizing a digital video
US9237330B2 (en) Forming a stereoscopic video
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
Feng et al. Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications
EP2618584B1 (en) Stereoscopic video creation device and stereoscopic video creation method
US8611642B2 (en) Forming a steroscopic image using range map
US20130127988A1 (en) Modifying the viewpoint of a digital image
JP4762994B2 (ja) 視差マップ
KR101502362B1 (ko) 영상처리 장치 및 방법
US20130129192A1 (en) Range map determination for a video frame
KR20100002049A (ko) 영상 처리 방법 및 장치
JP2005235211A (ja) 中間時点の画像合成方法及びそれを適用した3dディスプレイ装置
JP6173218B2 (ja) 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
JP2022174085A (ja) 場面の積層深度データを生成するための方法
KR20210038659A (ko) 2차원 이미지를 외삽하기 위해 깊이 정보를 사용하는 시스템 및 방법
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
WO2008152607A1 (en) Method, apparatus, system and computer program product for depth-related information propagation
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
WO2015158570A1 (en) System, method for computing depth from video
JP6685241B2 (ja) 立体視ビデオ生成

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111216

R151 Written notification of patent or utility model registration

Ref document number: 4892113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees