JP5627798B2 - 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 - Google Patents
画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 Download PDFInfo
- Publication number
- JP5627798B2 JP5627798B2 JP2013544205A JP2013544205A JP5627798B2 JP 5627798 B2 JP5627798 B2 JP 5627798B2 JP 2013544205 A JP2013544205 A JP 2013544205A JP 2013544205 A JP2013544205 A JP 2013544205A JP 5627798 B2 JP5627798 B2 JP 5627798B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vector
- viewpoint
- integrated
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Description
本発明は、画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法に関する。
近年、観察者が擬似的に奥行き感を得るための画像表示技術として、両眼視差を利用した立体画像表示技術がある。両眼視差を利用した立体画像表示技術では、3次元空間の左眼で見た映像と右眼で見た映像とを観察者の左眼と右眼とに分けて見せることによって観察者が映像を立体と感じる。
観察者の左右の眼に異なる映像を見せるための技術として、左眼用画像と右眼用画像とを時間的に交互に切り替えてディスプレイに表示すると同時に、画像が切り替わるタイミングに同期して左右それぞれのレンズを透過する光量を制御する眼鏡を用いて左右の視界を時間的に分離する方式や、ディスプレイの前面に画像の表示角を制限するバリアやレンズを用いることで左右の眼それぞれに左眼用画像と右眼用画像とを見せる方式など、様々な方式がある。
このような立体画像表示装置において、観察者は飛び出した物体の位置に目の輻輳角を合わせながら、ディスプレイ表面にピントを合わせることになる。この不整合は、飛び出し量が大きすぎる場合、観察者に目の疲れを誘発するという問題点がある。一方、観察者にとって目の疲れを誘発する奥行き感は、観察者とディスプレイの表示面との距離や観察者の特性によって異なるという問題がある。なお、輻輳角とは左眼の視線と右眼の視線が成す角度のことを表し、奥行き感とは両眼視差よって表現される物体の飛び出し量または引っ込み量のことを表す。
また、液晶ディスプレイなどのホールド型ディスプレイでは、1フレーム期間同じ画像が表示され続けており、画像中の物体が動く場合に、動く物体に対する人間の目の追従が連続的であるのに対して、物体の移動が1フレーム単位の不連続な移動であるので、エッジ部分がぼやけて見えるという問題がある。
特許文献1には、視点の異なる2つの画像から2画像間の任意の視点に対応する中間像を生成する技術が開示されている。
また、特許文献2には、映像信号の1つ前のフレームと現フレームとから補間フレームを生成し、1つ前のフレームと現フレームとの間に補間フレームを内挿し、映像信号のフレームレートを変換する技術が開示されている。
ところで、複数の入力画像から任意の時刻における任意の視点の画像を生成したいという要望がある。例えば、ホールド型の立体画像表示装置において、飛び出し量を調整するとともに表示される物体の移動をスムーズにするために、複数の入力画像から任意の時刻および視点の画像を生成したいという要望がある。
本発明は、複数の入力画像から任意の時刻における任意の視点の画像を生成することができる画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法を提供することを目的とする。
本発明に係る画像処理装置は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理装置は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理装置は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理装置は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理装置は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像表示装置は、
上記いずれかの画像処理装置と、
前記画像処理装置の前記画像生成部により生成された画像P(t,v)を表示する画像表示部と、
を備えることを特徴とする。
上記いずれかの画像処理装置と、
前記画像処理装置の前記画像生成部により生成された画像P(t,v)を表示する画像表示部と、
を備えることを特徴とする。
また、本発明に係る画像処理方法は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理方法は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理方法は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理方法は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理方法は、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像表示方法は、
上記いずれかの画像処理方法と、
前記画像処理方法の前記画像生成ステップにより生成された画像P(t,v)を表示する画像表示ステップと、
を有することを特徴とする。
上記いずれかの画像処理方法と、
前記画像処理方法の前記画像生成ステップにより生成された画像P(t,v)を表示する画像表示ステップと、
を有することを特徴とする。
また、本発明に係る画像処理プログラムは、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理プログラムは、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理プログラムは、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理プログラムは、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
また、本発明に係る画像処理プログラムは、
第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする。
本発明によれば、複数の入力画像から任意の時刻における任意の視点の画像を生成することができる。
以下、本発明の実施の形態を図面に従って説明する。
図1は、本発明の実施の形態に係る画像表示装置100の構成を示す図である。この画像表示装置100は、画像処理部10と、画像表示部20とを有する。画像処理部10は、複数の入力画像から任意の時刻における任意の視点の画像を生成し、画像表示部20は、画像処理部10により生成された画像を表示する。
図1は、本発明の実施の形態に係る画像表示装置100の構成を示す図である。この画像表示装置100は、画像処理部10と、画像表示部20とを有する。画像処理部10は、複数の入力画像から任意の時刻における任意の視点の画像を生成し、画像表示部20は、画像処理部10により生成された画像を表示する。
図1において、画像処理部10は、動き推定部11、視差推定部12、視差・動き統合部(以下、「統合部」と称す)13、および画像生成部14を備える。
画像処理部10には、入力画像として、第1の時刻T1における第1の視点V1の画像P(T1,V1)と、第1の時刻T1と異なる第2の時刻T2における第1の視点V1の画像P(T2,V1)と、第1の時刻T1における第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とが入力される。時刻T1における視点V1の画像P(T1,V1)は、例えば、時刻T1において視点V1から撮像された画像である。
動き推定部11は、時刻T1で視点V1の画像P(T1,V1)と、時刻T2で視点V1の画像P(T2,V1)とを受け、画像P(T1,V1)から画像P(T2,V1)への動きベクトルを第1の動きベクトルMV1として算出する。具体的には、動き推定部11は、画像P(T1,V1)と画像P(T2,V1)とを参照して、画素ごとに画像P(T1,V1)から画像P(T2,V1)への第1の動きベクトルMV1を算出して、統合部13に出力する。
視差推定部12は、時刻T1で視点V1の画像P(T1,V1)と、時刻T1で視点V2の画像P(T1,V2)とを受け、画像P(T1,V1)から画像P(T1,V2)への視差ベクトルを第1の視差ベクトルDV1として算出する。具体的には、視差推定部12は、画像P(T1,V1)と画像P(T1,V2)とを参照して、画素ごとに画像P(T1,V1)から画像P(T1,V2)への第1の視差ベクトルDV1を算出して、統合部13に出力する。
統合部13は、動き推定部11により算出された第1の動きベクトルMV1と、視差推定部12により算出された第1の視差ベクトルDV1とから、第1の動きベクトルMV1と第1の視差ベクトルDV1とが統合された統合ベクトルを算出する。
画像生成部14は、画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、統合部13により算出された統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する。ここで、時刻tおよび視点vは、例えば、画像処理部10の外部のモジュールや装置、使用者等により指定される。時刻tの範囲は、例えばT1≦t≦T2であるが、当該範囲に限定されない。また、視点vの範囲は、例えばV1≦v≦V2であるが、当該範囲に限定されない。
一つの態様では、統合部13は、第1の動きベクトルMV1と第1の視差ベクトルDV1とから、統合ベクトルとして、画像P(T2,V1)から画像P(t,v)への第2の統合ベクトルTV2と、画像P(T1,V2)から画像P(t,v)への第3の統合ベクトルTV3とを算出する。そして、画像生成部14は、画像P(T2,V1)、画像P(T1,V2)、第2の統合ベクトルTV2、および第3の統合ベクトルTV3から、画像P(t,v)を生成する。
具体的には、図1に示されるように、統合部13は、動き変換部15、視差変換部16、ベクトル加算部17、第1のベクトル減算部18、および第2のベクトル減算部19を備える。
動き変換部15は、画素ごとに第1の動きベクトルMV1を画像P(T1,V1)から任意の時刻tで視点V1の位置(または画像)への第2の動きベクトルMV2に変換して、ベクトル加算部17に出力する。
視差変換部16は、画素ごとに第1の視差ベクトルDV1を画像P(T1,V1)から時刻T1で任意の視点vの位置(または画像)への第2の視差ベクトルDV2に変換して、ベクトル加算部17に出力する。
ベクトル加算部17は、画素ごとに、動き変換部15により得られた第2の動きベクトルMV2と、視差変換部16により得られた第2の視差ベクトルDV2とを加算して、第1の統合ベクトルTV1を算出し、第1のベクトル減算部18および第2のベクトル減算部19に出力する。第2の動きベクトルMV2は時刻T1で視点V1の画像P(T1,V1)から時刻tで視点V1の位置へのベクトルであり、第2の視差ベクトルDV2は時刻T1で視点V1の画像P(T1,V1)から時刻T1で視点vの位置へのベクトルであるので、第1の統合ベクトルTV1は、時刻T1で視点V1の画像P(T1,V1)から時刻tで視点vの位置(または画像)へのベクトルに相当する。
第1のベクトル減算部18は、画素ごとに、ベクトル加算部17により得られた第1の統合ベクトルTV1から第1の動きベクトルMV1を減算して第2の統合ベクトルTV2を算出して、画像生成部14に出力する。第1の動きベクトルMV1は時刻T1で視点V1の画像P(T1,V1)から時刻T2で視点V1の画像P(T2,V1)へのベクトルであり、第1の統合ベクトルTV1は時刻T1で視点V1の画像P(T1,V1)から時刻tで視点vの位置へのベクトルであるので、第2の統合ベクトルTV2は、時刻T2で視点V1の画像P(T2,V1)から時刻tで視点vの位置(または画像)へのベクトルに相当する。
第2のベクトル減算部19は、画素ごとに、ベクトル加算部17により得られた第1の統合ベクトルTV1から第1の視差ベクトルDV1を減算して第3の統合ベクトルTV3を算出して、画像生成部14に出力する。第1の視差ベクトルDV1は時刻T1で視点V1の画像P(T1,V1)から時刻T1で視点V2の画像P(T1,V2)へのベクトルであり、第1の統合ベクトルTV1は時刻T1で視点V1の画像P(T1,V1)から時刻tで視点vの位置へのベクトルであるので、第3の統合ベクトルTV3は、時刻T1で視点V2の画像P(T1,V2)から時刻tで視点vの位置(または画像)へのベクトルに相当する。
画像生成部14は、画像P(T2,V1)と、画像P(T1,V2)と、第1のベクトル減算部18により算出された第2の統合ベクトルTV2と、第2のベクトル減算部19により算出された第3の統合ベクトルTV3とから、時刻tで視点vの出力画像P(t,v)を生成し、画像表示部20に出力する。
画像表示部20は、画像生成部14により生成された時刻tで視点vの出力画像P(t,v)を表示する。
以下、画像処理部10の各部の処理について詳しく説明する。
図2は、動き推定部11の動作を説明するための図である。動き推定部11は、図2に示されるように、時刻T1で視点V1の画像P(T1,V1)から時刻T2で視点V1の画像P(T2,V1)への第1の動きベクトルMV1を算出する。動き推定部11は、例えば、ブロックマッチング法により第1の動きベクトルMV1を求める。具体的には、動き推定部11は、画像P(T1,V1)から、注目画素を含む注目画像ブロックを切り出し、当該注目画像ブロックが画像P(T2,V1)のどの領域に動いたかを推定し、推定された領域の注目画像ブロックに対する相対位置を、注目画素についての第1の動きベクトルMV1として検出する。
図2は、動き推定部11の動作を説明するための図である。動き推定部11は、図2に示されるように、時刻T1で視点V1の画像P(T1,V1)から時刻T2で視点V1の画像P(T2,V1)への第1の動きベクトルMV1を算出する。動き推定部11は、例えば、ブロックマッチング法により第1の動きベクトルMV1を求める。具体的には、動き推定部11は、画像P(T1,V1)から、注目画素を含む注目画像ブロックを切り出し、当該注目画像ブロックが画像P(T2,V1)のどの領域に動いたかを推定し、推定された領域の注目画像ブロックに対する相対位置を、注目画素についての第1の動きベクトルMV1として検出する。
図3は、動き推定部11の構成例を示すブロック図である。図3では、動き推定部11は、注目画像ブロック切り出し部11aと、探索画像ブロック切り出し部11bと、動きベクトル決定部11cとを備える。
図4(a)に示されるように、画像P(T1,V1)の位置p(i,j)にある注目画素についての第1の動きベクトルMV1を求める場合、注目画像ブロック切り出し部11aは、画像P(T1,V1)から注目画素の周辺領域をブロックとして切り出す。ここでは、注目画像ブロック切り出し部11aは、注目画素を中心とし、幅(水平方向サイズ)が(2×BM+1)、高さ(垂直方向サイズ)が(2×BN+1)の矩形領域(ブロック)D2B(i,j)を切り出す。ここで、上記(i,j)において、iは画像における水平方向の位置を示し、jは画像における垂直方向の位置を示す。
探索画像ブロック切り出し部11bは、画像P(T2,V1)から、注目画素に対応する動きベクトルの探索範囲に含まれる各位置を中心とする、矩形領域D2B(i,j)と同じサイズの複数個の矩形領域(ブロック)を切り出す。ここでは、図4(b)に示されるように、探索範囲は、下記式(1)で表される座標の集合S(i,j)である。
S(i,j)={(i+k,j+l)}…(1)
上記式(1)において、k=−SH,…,−1,0,+1,…,SH(SHは1以上の所定の整数)であり、l=−SV,…,−1,0,+1,…,SV(SVは1以上の所定の整数)である。
S(i,j)={(i+k,j+l)}…(1)
上記式(1)において、k=−SH,…,−1,0,+1,…,SH(SHは1以上の所定の整数)であり、l=−SV,…,−1,0,+1,…,SV(SVは1以上の所定の整数)である。
このように定義される探索範囲は、水平方向のサイズが2SH+1、垂直方向のサイズが2SV+1の矩形の領域である。
そして、探索画像ブロック切り出し部11bは、座標の集合S(i,j)に含まれる各位置(i+k,j+l)を中心とする、矩形領域D2B(i,j)と同じサイズの、(2×SH+1)×(2×SV+1)個の矩形領域D1B(i+k,j+l)を切り出す。
動きベクトル決定部11cは、注目画像ブロック切り出し部11aから入力されるブロックD2B(i,j)と、探索画像ブロック切り出し部11bから入力されるブロックD1B(i+k,j+l)との間で、それぞれのブロック内のすべての画素、すなわち(2×BM+1)×(2×BN+1)個の、互いに対応する位置の画素同士の差分の絶対値の総和である差分絶対値和SAD(i+k,j+l)を求める。この差分絶対値和SAD(i+k,j+l)は、下記の式(2)で表される。
上記式(2)において、D1(i+k+r,j+l+s)は、画像P(T2,V1)の位置(i+k+r,j+l+s)の画素値を表し、D2(i+r,j+s)は、画像P(T1,V1)の位置(i+r,j+s)の画素値を表す。
動きベクトル決定部11cは、(2×SH+1)×(2×SV+1)個の矩形領域D1B(i+k,j+l)に対応する(2×SH+1)×(2×SV+1)個の差分絶対値和SAD(i+k,j+l)を求め、これらの中で最小の差分絶対値和を生じさせた矩形領域D1B(i+km,j+lm)を特定し、当該矩形領域の、矩形領域D2B(i,j)に対する相対位置(km,lm)を第1の動きベクトルMV1=(Vx,Vy)=(km,lm)として出力する。この第1の動きベクトルMV1は、他の画素についての動きベクトルとの区別のために、MV1(i,j)と表されてもよい。
動きベクトル決定部11cは、上記の動きベクトル検出を、画像P(T1,V1)の全画素に対して行い、各画素についての第1の動きベクトルMV1を検出する。
なお、動き推定部11における動きベクトル検出において、上記の矩形領域D2BまたはD1Bが画像の上端、下端、左端、または右端の外側の領域を含む場合には、例えば、矩形領域D2BまたはD1Bのうち、画像の上端、下端、左端、または右端の外側の領域の画素が、それぞれ画像の上端、下端、左端、または右端の画素と同じ画素値を持つものとして処理すればよい。
また、動き推定部11の処理方法は、上記方法に限定されるものではなく、例えば位相相関関数を用いて動きベクトルを求める手法など、他の動きベクトル算出方法が採用されてもよい。
図5は、動き変換部15の動作を説明するための図である。動き変換部15は、図5に示されるように、画素ごとに、第1の動きベクトルMV1を時刻T1で視点V1の画像P(T1,V1)から時刻tで視点V1の位置への第2の動きベクトルMV2に変換する。この変換には、画素ごとに下記式(3)が用いられる。
MV2=MV1×(t−T1)/(T2−T1)…(3)
MV2=MV1×(t−T1)/(T2−T1)…(3)
図6は、視差推定部12の動作を説明するための図である。視差推定部12は、図6に示されるように、時刻T1で視点V1の画像P(T1,V1)から時刻T1で視点V2の画像P(T1,V2)への第1の視差ベクトルDV1を算出する。
視差推定部12は、例えば、上記動き推定部11と同様に、ブロックマッチング法により、画像P(T1,V1)の各画素についての第1の視差ベクトルDV1=(Dx,Dy)を検出する。視差推定部12の構成は、例えば、図3に示される動き推定部11の構成と同様である。
なお、視点の移動方向(具体的には図6の横軸方向)が入力画像の水平方向と一致する場合には、常にDy=0となり、入力画像の垂直方向の視差は考慮しなくてよい。ただし、視点の移動方向が入力画像の水平方向と一致しない場合には、入力画像の垂直方向の視差も考慮して、第1の動きベクトルMV1の場合と同様に、画素ごとに第1の視差ベクトルDV1=(Dx,Dy)を求める。
また、視差推定部12の処理方法は、上記方法に限定されるものではなく、例えば位相相関関数を用いて動きベクトルを求める手法など、他の動きベクトル算出方法が採用されてもよい。
図7は、視差変換部16の動作を説明するための図である。視差変換部16は、図7に示されるように、画素ごとに、第1の視差ベクトルDV1を時刻T1で視点V1の画像P(T1,V1)から時刻T1で視点vの位置への第2の視差ベクトルDV2に変換する。この変換には、画素ごとに下記式(4)が用いられる。
DV2=DV1×(v−V1)/(V2−V1)…(4)
DV2=DV1×(v−V1)/(V2−V1)…(4)
図8は、ベクトル加算部17の動作を説明するための図である。ベクトル加算部17は、図8に示されるように、画素ごとに、第2の動きベクトルMV2と第2の視差ベクトルDV2とを用いて、時刻T1で視点V1の画像P(T1,V1)から時刻tで視点vの位置へのベクトルを第1の統合ベクトルTV1として算出する。この算出には、画素ごとに下記式(5)が用いられる。
TV1=DV2+MV2…(5)
TV1=DV2+MV2…(5)
図9は、第1のベクトル減算部18の動作を説明するための図である。第1のベクトル減算部18は、図9に示されるように、画素ごとに、第1の統合ベクトルTV1と第1の動きベクトルMV1とを用いて、時刻T2で視点V1の画像P(T2,V1)から時刻tで視点vの位置へのベクトルを第2の統合ベクトルTV2として算出する。この算出には、画素ごとに下記式(6)が用いられる。
TV2=TV1−MV1…(6)
TV2=TV1−MV1…(6)
図10は、第2のベクトル減算部19の動作を説明するための図である。第2のベクトル減算部19は、図10に示されるように、画素ごとに、第1の統合ベクトルTV1と第1の視差ベクトルDV1とを用いて、時刻T1で視点V2の画像P(T1,V2)から時刻tで視点vの位置へのベクトルを第3の統合ベクトルTV3として算出する。この算出には、画素ごとに下記式(7)が用いられる。
TV3=TV1−DV1…(7)
TV3=TV1−DV1…(7)
図11は、画像生成部14の動作を説明するための図である。画像生成部14は、図11に示されるように、画像P(T2,V1)、画像P(T1,V2)、第2の統合ベクトルTV2、および第3の統合ベクトルTV3を用いて、時間tで視点vの画像P(t,v)を生成する。具体的には、画像生成部14は、画像P(t,v)の各画素の画素値を、当該画素から第2の統合ベクトルの逆ベクトル(−TV2)だけ移動した位置における画像P(T2,V1)の画素値と、当該画素から第3の統合ベクトルの逆ベクトル(−TV3)だけ移動した位置における画像P(T1,V2)の画素値との平均を算出することにより求める。例えば、第2の統合ベクトルTV2が(tv2x,tv2y)であり、第3の統合ベクトルTV3が(tv3x,tv3y)であるとき、画像生成部14は、画像P(t,v)の位置pa(x,y)にある画素の画素値Dp(x,y)を、画像P(T2,V1)の位置pb(x−tv2x,y−tv2y)の画素値D1(x−tv2x,y−tv2y)と、画像P(T1,V2)の位置pc(x−tv3x,y−tv3y)の画素値D2(x−tv3x,y−tv3y)とから、下記式(8)により求める。
Dp(x,y)={D1(x−tv2x,y−tv2y)+D2(x−tv3x,y−tv3y)}/2…(8)
Dp(x,y)={D1(x−tv2x,y−tv2y)+D2(x−tv3x,y−tv3y)}/2…(8)
以下、画像処理部10の各部の処理について、さらに詳しく説明する。
図12は、画像処理部10の処理を説明するための図である。まず、図12を参照しながら、画像P(T1,V1)の位置p(x,y)の画素に注目して、画像処理部10の各部の処理を説明する。なお、図12では、説明の便宜上、各画像の位置や矩形領域等を重ね合わせて示している。
図12は、画像処理部10の処理を説明するための図である。まず、図12を参照しながら、画像P(T1,V1)の位置p(x,y)の画素に注目して、画像処理部10の各部の処理を説明する。なお、図12では、説明の便宜上、各画像の位置や矩形領域等を重ね合わせて示している。
動き推定部11は、画像P(T1,V1)の位置p(x,y)の画素を中心とする矩形領域R0に対応する、画像P(T2,V1)の矩形領域R1を特定する。そして、動き推定部11は、位置p(x,y)から矩形領域R1の中心位置p1へのベクトルを、画像P(T1,V1)の位置p(x,y)の画素についての第1の動きベクトルMV1として算出する。
動き変換部15は、上記第1の動きベクトルMV1から、上記式(3)により、画像P(T1,V1)の位置p(x,y)の画素についての第2の動きベクトルMV2を算出する。
視差推定部12は、画像P(T1,V1)の位置p(x,y)の画素を中心とする矩形領域R0に対応する、画像P(T1,V2)の矩形領域R2を特定する。そして、視差推定部12は、位置p(x,y)から矩形領域R2の中心位置p2へのベクトルを、画像P(T1,V1)の位置p(x,y)の画素についての第1の視差ベクトルDV1として算出する。
視差変換部16は、上記第1の視差ベクトルDV1から、上記式(4)により、画像P(T1,V1)の位置p(x,y)の画素についての第2の視差ベクトルDV2を算出する。
ベクトル加算部17は、上記第2の動きベクトルMV2と、上記第2の視差ベクトルDV2とを加算し、画像P(T1,V1)の位置p(x,y)の画素についての第1の統合ベクトルTV1=(tv1x,tv1y)を算出する。この第1の統合ベクトルTV1は、画像P(T1,V1)の位置p(x,y)から、出力画像P(t,v)の注目画素に対応する位置p3へのベクトルに相当する。位置p3の座標は、(x+tv1x,y+tv1y)である。
第1のベクトル減算部18は、上記第1の統合ベクトルTV1から、上記第1の動きベクトルMV1を減算し、画像P(T1,V1)の位置p(x,y)の画素についての第2の統合ベクトルTV2=(tv2x,tv2y)を算出する。この第2の統合ベクトルTV2は、画像P(T2,V1)の位置p1から出力画像P(t,v)の位置p3へのベクトルに相当する。したがって、第2の統合ベクトルTV2は、出力画像P(t,v)の位置p3(x+tv1x,y+tv1y)に対応するものである。
第2のベクトル減算部19は、上記第1の統合ベクトルTV1から、上記第1の視差ベクトルDV1を減算し、画像P(T1,V1)の位置p(x,y)の画素についての第3の統合ベクトルTV3=(tv3x,tv3y)を算出する。この第3の統合ベクトルTV3は、画像P(T1,V2)の位置p2から出力画像P(t,v)の位置p3へのベクトルに相当する。したがって、第3の統合ベクトルTV3は、出力画像P(t,v)の位置p3(x+tv1x,y+tv1y)に対応するものである。
出力画像P(t,v)の位置p3(x+tv1x,y+tv1y)にある画素の画素値Dp(x+tv1x,y+tv1y)は、下記式(9)で求めることができる。ただし、画像P(T2,V1)の位置(x,y)にある画素の画素値をD1(x,y)と表し、画像P(T1,V2)の位置(x,y)にある画素の画素値をD2(x,y)と表すものとする。
Dp(x+tv1x,y+tv1y)={D1(x+tv1x−tv2x,y+tv1y−tv2y)+D2(x+tv1x−tv3x,y+tv1y−tv3y)}/2…(9)
Dp(x+tv1x,y+tv1y)={D1(x+tv1x−tv2x,y+tv1y−tv2y)+D2(x+tv1x−tv3x,y+tv1y−tv3y)}/2…(9)
上記式(9)において、x+tv1x=x’、y+tv1y=y’とすると、下記式(10)が得られる。
Dp(x’,y’)={D1(x’−tv2x,y’−tv2y)+D2(x’−tv3x,y’−tv3y)}/2…(10)
Dp(x’,y’)={D1(x’−tv2x,y’−tv2y)+D2(x’−tv3x,y’−tv3y)}/2…(10)
画像生成部14は、上記式(9)または(10)を用いて、画像P(t,v)の各画素の画素値を求めることができる。
以下、画像生成部14の処理について具体的に説明する。
画像P(T1,V1)、P(T2,V1)、P(T1,V2)、およびP(t,v)は、例えば、それぞれ、図13の白丸印のように配置された、位置(xm,yn)(m=1,2,…,M、n=1,2,…,N)にある、水平方向にM個、垂直方向にN個、合計M×N個の画素の画素値で表される。そして、統合部13は、画像P(T1,V1)の各位置(xm,yn)の画素について、第1の統合ベクトルTV1、第2の統合ベクトルTV2、および第3の統合ベクトルTV3を算出する。
画像P(T1,V1)、P(T2,V1)、P(T1,V2)、およびP(t,v)は、例えば、それぞれ、図13の白丸印のように配置された、位置(xm,yn)(m=1,2,…,M、n=1,2,…,N)にある、水平方向にM個、垂直方向にN個、合計M×N個の画素の画素値で表される。そして、統合部13は、画像P(T1,V1)の各位置(xm,yn)の画素について、第1の統合ベクトルTV1、第2の統合ベクトルTV2、および第3の統合ベクトルTV3を算出する。
ここで、画像P(T1,V1)の位置(xm,yn)の画素についての第2の統合ベクトルTV2および第3の統合ベクトルTV3は、上述したように、出力画像P(t,v)の位置(xm+tv1x,yn+tv1y)に対応するものである。すなわち、図14に示されるように、白丸印で表される画像P(t,v)の各位置(xm,yn)からベクトルTV1だけずれた、黒三角印で表される各位置(xm+tv1x,yn+tv1y)に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3が得られる。
したがって、統合部13により算出された第2の統合ベクトルTV2および第3の統合ベクトルTV3をそのまま用いて出力画像P(t,v)の画素値を計算する場合には、図14の黒三角印の各位置の画素値が求まることになる。
出力画像P(t,v)の白丸印の各位置(xm,yn)の画素値を求めるために、画像生成部14は、例えば、下記第1または第2の処理を行う。
[第1の処理]
画像生成部14は、画像P(t,v)の黒三角印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3から、画像P(t,v)の白丸印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3を補間により算出する。
画像生成部14は、画像P(t,v)の黒三角印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3から、画像P(t,v)の白丸印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3を補間により算出する。
そして、画像生成部14は、上記算出された白丸印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3を用いて、下記式(11)により、画像P(t,v)の白丸印の各位置(xm,yn)の画素値Dp(xm,yn)を算出する。
Dp(xm,yn)={D1(xm−tv2x,yn−tv2y)+D2(xm−tv3x,yn−tv3y)}/2…(11)
Dp(xm,yn)={D1(xm−tv2x,yn−tv2y)+D2(xm−tv3x,yn−tv3y)}/2…(11)
上記式(11)を計算する際、画像生成部14は、画像P(T2,V1)において位置(xm−tv2x,yn−tv2y)に画素が存在する場合には、当該画素の画素値をD1(xm−tv2x,yn−tv2y)として用いる。一方、画像P(T2,V1)において位置(xm−tv2x,yn−tv2y)に画素が存在しない場合には、例えば、画像P(T2,V1)の各画素値から位置(xm−tv2x,yn−tv2y)の画素値を補間し、当該画素値をD1(xm−tv2x,yn−tv2y)として用いる。
同様に、画像生成部14は、画像P(T1,V2)において位置(xm−tv3x,yn−tv3y)に画素が存在する場合には、当該画素の画素値をD2(xm−tv3x,yn−tv3y)として用いる。一方、画像P(T1,V2)において位置(xm−tv3x,yn−tv3y)に画素が存在しない場合には、例えば、画像P(T1,V2)の各画素値から位置(xm−tv3x,yn−tv3y)の画素値を補間し、当該画素値をD2(xm−tv3x,yn−tv3y)として用いる。
[第2の処理]
画像生成部14は、画像P(t,v)の黒三角印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3を用いて、下記式(12)により、画像P(t,v)の黒三角印の各位置(xm+tv1x,yn+tv1y)の画素値Dp(xm+tv1x,yn+tv1y)を算出する。
Dp(xm+tv1x,yn+tv1y)={D1(xm+tv1x−tv2x,yn+tv1y−tv2y)+D2(xm+tv1−tv3x,yn+tv1y−tv3y)}/2…(12)
画像生成部14は、画像P(t,v)の黒三角印の各位置に対応する第2の統合ベクトルTV2および第3の統合ベクトルTV3を用いて、下記式(12)により、画像P(t,v)の黒三角印の各位置(xm+tv1x,yn+tv1y)の画素値Dp(xm+tv1x,yn+tv1y)を算出する。
Dp(xm+tv1x,yn+tv1y)={D1(xm+tv1x−tv2x,yn+tv1y−tv2y)+D2(xm+tv1−tv3x,yn+tv1y−tv3y)}/2…(12)
上記式(12)を計算する際、画像生成部14は、画像P(T2,V1)において位置(xm+tv1x−tv2x,yn+tv1y−tv2y)に画素が存在する場合には、当該画素の画素値をD1(xm+tv1x−tv2x,yn+tv1y−tv2y)として用いる。一方、画像P(T2,V1)において位置(xm+tv1x−tv2x,yn+tv1y−tv2y)に画素が存在しない場合には、例えば、画像P(T2,V1)の各画素値から位置(xm+tv1x−tv2x,yn+tv1y−tv2y)の画素値を補間し、当該画素値をD1(xm+tv1x−tv2x,yn+tv1y−tv2y)として用いる。
同様に、画像生成部14は、画像P(T1,V2)において位置(xm+tv1x−tv3x,yn+tv1y−tv3y)に画素が存在する場合には、当該画素の画素値をD2(xm+tv1x−tv3x,yn+tv1y−tv3y)として用いる。一方、画像P(T1,V2)において位置(xm+tv1x−tv3x,yn+tv1y−tv3y)に画素が存在しない場合には、例えば、画像P(T1,V2)の各画素値から位置(xm+tv1x−tv3x,yn+tv1y−tv3y)の画素値を補間し、当該画素値をD2(xm+tv1x−tv3x,yn+tv1y−tv3y)として用いる。
そして、画像生成部14は、上記算出された画像P(t,v)の黒三角印の各位置の画素値Dp(xm+tv1x,yn+tv1y)から、画像P(t,v)の白丸印の各位置(xm,yn)の画素値Dp(xm,yn)を補間により算出する。
なお、上記の第1および第2の処理において、各補間の方法は特に限定されないが、画像生成部14は、例えば、平均補間法や最近隣補間法を用いて、統合ベクトルや画素値の補間を行う。例えば、画像生成部14は、画像P(t,v)の位置(xm,yn)の画素値Dp(xm,yn)を補間する場合、位置(xm,yn)の周辺の画素の画素値の平均をDp(xm,yn)として求めてもよいし、位置(xm,yn)の周辺の画素(例えば最も近い画素)の画素値をDp(xm,yn)としてコピーしてもよい。
図15は、本実施の形態に係る画像表示装置100の処理工程を示すフローチャートである。以下、図15を参照して、画像表示装置100の処理を説明する。
まず、動き推定ステップS1では、画像表示装置100は、時刻T1で視点V1の画像P(T1,V1)と、時刻T2で視点V1の画像P(T2,V1)とを参照して、画素ごとに、時刻T1で視点V1の画像P(T1,V1)から時刻T2で視点V1の画像P(T2,V1)への第1の動きベクトルMV1を算出する。この動作は、動き推定部11により実行される。
視差推定ステップS2では、画像表示装置100は、時刻T1で視点V1の画像P(T1,V1)と、時刻T1で視点V2の画像P(T1,V2)とを参照して、画素ごとに、時刻T1で視点V1の画像P(T1,V1)から時刻T1で視点V2の画像P(T1,V2)への第1の視差ベクトルDV1を算出する。この動作は、視差推定部12により実行される。
視差・動き統合ステップS3では、画像表示装置100は、第1の動きベクトルMV1と第1の視差ベクトルDV1とから、第1の動きベクトルMV1と第1の視差ベクトルDV1とが統合された統合ベクトルを算出する。この動作は、統合部13により実行される。
画像生成ステップS4では、画像表示装置100は、画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、上記統合ステップS3で算出された統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する。この動作は、画像生成部14により実行される。
一つの態様では、統合ステップS3では、画像表示装置100は、第1の動きベクトルMV1と第1の視差ベクトルDV1とから、統合ベクトルとして、時刻T2で視点V1の画像P(T2,V1)から時刻tで視点vの位置への第2の統合ベクトルTV2と、時刻T1で視点V2の画像P(T1,V2)から時刻tで視点vの位置への第3の統合ベクトルTV3とを算出する。そして、画像生成ステップS4では、画像表示装置100は、時刻T2で視点V1の画像P(T2,V1)、時刻T1で視点V2の画像P(T1,V2)、第2の統合ベクトルTV2、および第3の統合ベクトルTV3から、時刻tで視点vの画像P(t,v)を生成する。
なお、上記の説明では、画像P(T2,V1)、画像P(T1,V2)、第2の統合ベクトルTV2、および第3の統合ベクトルTV3から画像P(t,v)を生成する構成を例示したが、画像処理部10は、入力画像および統合ベクトルの他の組み合わせにより画像P(t,v)を生成してもよい。
例えば、画像処理部10は、統合ベクトルとして、第1の統合ベクトルTV1と第2の統合ベクトルTV2とを算出し、画像P(T1,V1)、画像P(T2,V1)、第1の統合ベクトルTV1、および第2の統合ベクトルTV2から画像P(t,v)を生成してもよい。この場合、図11において、第3の統合ベクトルTV3の代わりに第1の統合ベクトルTV1が用いられ、画像P(T1,V2)の代わりに画像P(T1,V1)が用いられる。
また例えば、画像処理部10は、統合ベクトルとして、第1の統合ベクトルTV1と第3の統合ベクトルTV3とを算出し、画像P(T1,V1)、画像P(T1,V2)、第1の統合ベクトルTV1、および第3の統合ベクトルTV3から画像P(t,v)を生成してもよい。この場合、図11において、第2の統合ベクトルTV2の代わりに第1の統合ベクトルTV1が用いられ、画像P(T2,V1)の代わりに画像P(T1,V1)が用いられる。
さらに、画像処理部10は、統合ベクトルTV1〜TV3のうちの1つの統合ベクトルを用いて、入力画像P(T1,V1)、P(T2,V1)、およびP(T1,V2)のうちの1つの画像から、出力画像P(t,v)を生成してもよい。例えば、画像処理部10は、統合ベクトルとして第1の統合ベクトルTV1を算出し、画像P(T1,V1)と第1の統合ベクトルTV1とから画像P(t,v)を生成してもよい。具体的には、画像処理部10は、画像P(T1,V1)の位置(x,y)の画素値をD(x,y)と表した場合、画像P(t,v)の位置(x,y)の画素値Dp(x,y)を、下記式(13)により算出してもよい。
Dp(x,y)=D(x−tv1x,y−tv1y)…(13)
Dp(x,y)=D(x−tv1x,y−tv1y)…(13)
また、画像処理部10は、画像P(T1,V1)の各画素を当該画素に対応する第1の統合ベクトルTV1に従って移動させて、出力画像P(t,v)を生成してもよい。例えば、図14を参照すると、白丸印で表される画像P(T1,V1)の各位置(xm,yn)の画素を、それぞれ対応する第1の統合ベクトルTV1に従って黒三角印で表される位置に移動させる。そして、黒三角印の位置にある画素群に基づいて出力画像P(t,v)を生成する。具体的には、画像P(T1,V1)の各位置(xm,yn)の画素値D(xm,yn)を、出力画像P(t,v)の各位置(xm+tv1x,yn+tv1y)の画素値Dp(xm+tv1x,yn+tv1y)とする。そして、得られた画素値Dp(xm+tv1x,yn+tv1y)から、出力画像P(t,v)の各位置(xm,yn)の画素値Dp(xm,yn)を補間により求める。
また、上記の説明では、画素ごとに動きベクトルや視差ベクトルなどを算出し、画素ごとに処理する構成を例示したが、画素ごとに処理する構成に限定されない。例えば、画像処理部10は、複数の画素を含むブロックごとに処理してもよいし、画像中の特定のオブジェクト(例えば立体や移動物体)ごとに処理してもよい。
また、本実施の形態の画像処理部10は、複数の入力画像から任意の時刻および視点の画像を生成するものであり、その利用形態は特に限定されないが、一つの利用形態では、ホールド型の立体画像表示装置において、表示物体の移動をスムーズにするためにフレーム周波数の変換を行い、飛び出し量を調整するために視点を変更する際に用いられる。この利用形態における具体的な構成例では、不図示の制御部は、入力画像のフレーム周波数と目標のフレーム周波数(すなわち出力画像のフレーム周波数)とから時刻tを決定し、当該時刻tを画像処理部10に出力する。また、制御部は、使用者から指定された飛び出し量の調整値に基づき、指定された飛び出し量に対応する視点vlおよびvrを決定し、当該視点vlおよびvrを画像処理部10に出力する。画像処理部10は、制御部からの時刻tおよび視点vl,vrに基づき、出力画像(t,vl)および出力画像(t,vr)を生成し、画像表示部20に出力する。画像表示部20は、画像(t,vl)および画像(t,vr)を表示する。これにより、フレーム周波数が変換され、飛び出し量が調整された画像が表示される。
上記利用形態のほか、画像処理部10は、多視点の表示デバイス向けに2視点の映像から多視点の映像を生成するとともに、フレーム周波数の変換を行う場合に利用されてもよい。ここで、上記多視点の表示デバイスとは、具体的には、3以上の視点の画像を表示する装置であり、例えば、いわゆる多視点立体ディスプレイである。
以上説明したように、本実施の形態では、画像処理部は、入力画像P(T1,V1)、P(T2,V1)、およびP(T1,V2)を受け、画像P(T1,V1)から画像P(T2,V1)への第1の動きベクトルを算出し、画像P(T1,V1)から画像P(T1,V2)への第1の視差ベクトルを算出し、第1の動きベクトルと第1の視差ベクトルとから、第1の動きベクトルと第1の視差ベクトルとが統合された統合ベクトルを算出し、入力画像のうち少なくとも1つの画像と統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する。このような本実施の形態によれば、複数の入力画像から任意の時刻における任意の視点の画像を生成することができる。また、本実施の形態によれば、少ない演算量または小さい回路規模で、複数の入力画像から任意の時刻における任意の視点の画像を生成することができる。具体的には、本実施の形態では、1つの動き推定処理と1つの視差推定処理とにより任意の時刻および視点の画像を生成することができ、これにより、演算量を少なくでき、電子回路では回路規模を小さくできる。
また、本実施の形態の一態様では、画像処理部は、2つの統合ベクトルを算出して、当該2つの統合ベクトルを用いて2つの入力画像の平均により出力画像を生成する。本態様によれば、1つの統合ベクトルを用いる構成と比較して、良好な出力画像を得ることが可能となる。例えば、1つの統合ベクトルを用いる構成では、動きや視差をブロック単位で推定する場合、1つのブロックに2種類の動きがあっても1つしか動きを推定しない。このため、ブロック内の一部の画素については誤った動きを推定することになる。これに対し、2つの統合ベクトルを用いて2つの入力画像の平均により出力画像を生成する構成によれば、平均することで、上記誤った動きの推定による出力画像上の弊害を目立たせないようにすることができる。
以下、図面を参照しながら、本実施の形態の効果について具体的に説明する。
上述したように、立体画像表示装置では、飛び出し量が大きすぎる場合、観察者に目の疲れを誘発するという問題がある。この問題は、飛び出し量を調整する手法により解決することができる。この手法では、図16に示されるように、立体の対象物を視点V1およびV2から撮像して得られた画像P(V1)およびP(V2)から、視差を推定する視差推定技術を用いることで、所望の視点vの補間画像P(v)を生成して表示することで飛び出し量を調整する。
上述したように、立体画像表示装置では、飛び出し量が大きすぎる場合、観察者に目の疲れを誘発するという問題がある。この問題は、飛び出し量を調整する手法により解決することができる。この手法では、図16に示されるように、立体の対象物を視点V1およびV2から撮像して得られた画像P(V1)およびP(V2)から、視差を推定する視差推定技術を用いることで、所望の視点vの補間画像P(v)を生成して表示することで飛び出し量を調整する。
また、上述したように、液晶ディスプレイなどのホールド型ディスプレイでは、1フレーム期間同じ画像が表示され続けることから、エッジ部分がぼやけて見えるという問題がある。この問題は、表示画像数を多くして表示物体の移動をスムーズにするフレーム周波数の変換技術により解決することができる。この技術では、図17に示されるように、時刻T1およびT2で撮像して得られた画像P(T1)およびP(T2)から、対象物の時間的な動きを推定する動き推定技術を用いて、画像P(T1)およびP(T2)の2フレームの間に所望の時刻tの補間画像P(t)を生成して表示することで、表示画像数を多くする。
上記の視差推定技術と動き推定技術とを組み合わせて使用することにより、複数の入力画像から任意の時刻における任意の視点の画像を生成することができる。例えば、図18に示されるように、時刻T1で視点V1の画像P(T1,V1)、時刻T1で視点V2の画像P(T1,V2)、時刻T2で視点V1の画像P(T2,V1)、および時刻T2で視点V2の画像P(T2,V2)から、任意の時刻tで任意の視点vの画像P(t,v)を生成することができる。この場合、はじめに、図19に示されるように、画像P(T1,V1)と画像P(T2,V1)から動き推定技術を使用して中間画像P(t,V1)を生成し、画像P(T1,V2)と画像P(T2,V2)から動き推定技術を使用して中間画像P(t,V2)を生成する。次に、図20に示されるように、中間画像P(t,V1)と中間画像P(t,V2)から視差推定技術を用いて出力画像P(t,v)を生成する。
視差推定処理や動き推定処理は多くの演算量を必要とするところ、上記比較例に係る画像処理方法では、2つの動き推定処理と1つの視差推定処理とを必要とするので、演算量が膨大となってしまい、電子回路では回路規模が膨大になってしまう。これに対し、本実施の形態では、1つの視差推定処理と1つの動き推定処理とにより出力画像を生成することができ、上記比較例に係る画像処理方法と比較して、演算量を少なくでき、電子回路では回路規模を小さくできる。
なお、以上説明した実施の形態に係る画像表示装置または画像処理部は、電子回路などのハードウェア資源のみにより実現されてもよいし、ハードウェア資源とソフトウェアとの協働により実現されてもよい。ハードウェア資源とソフトウェアとの協働により実現される場合、画像表示装置または画像処理部は、例えばコンピュータプログラムがコンピュータにより実行されることによって実現され、より具体的には、ROM(Read Only Memory)等の記録媒体に記録されたコンピュータプログラムが主記憶装置に読み出されて中央処理装置(CPU:Central Processing Unit)により実行されることによって実現される。コンピュータプログラムは、光ディスク等のコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネット等の通信回線を介して提供されてもよい。
また、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。
10 画像処理部、 11 動き推定部、 11a 注目画像ブロック切り出し部、 11b 探索画像ブロック切り出し部、 11c 動きベクトル決定部、 12 視差推定部、 13 視差・動き統合部、 14 画像生成部、 15 動き変換部、 16 視差変換部、 17 ベクトル加算部、 18 第1のベクトル減算部、 19 第2のベクトル減算部、 20 画像表示部、 100 画像表示装置。
Claims (13)
- 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理装置。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理装置。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定部と、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定部と、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合部と、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成部と、
を備え、
前記統合部は、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成部は、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理装置。 - 前記統合部は、
前記第1の動きベクトルを、前記画像P(T1,V1)から前記任意の時刻tにおける前記視点V1の位置への第2の動きベクトルに変換する動き変換部と、
前記第1の視差ベクトルを、前記画像P(T1,V1)から前記時刻T1における前記任意の視点vの位置への第2の視差ベクトルに変換する視差変換部と、
前記第2の動きベクトルと前記第2の視差ベクトルとを加算して第1の統合ベクトルを算出するベクトル加算部と、
前記第1の統合ベクトルから前記第1の動きベクトルを減算して前記第2の統合ベクトルを算出する第1のベクトル減算部と、
前記第1の統合ベクトルから前記第1の視差ベクトルを減算して前記第3の統合ベクトルを算出する第2のベクトル減算部と、
を備えることを特徴とする請求項1に記載の画像処理装置。 - 請求項1から4のいずれか1項に記載の画像処理装置と、
前記画像処理装置の前記画像生成部により生成された画像P(t,v)を表示する画像表示部と、
を備えることを特徴とする画像表示装置。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理方法。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理方法。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
を有し、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理方法。 - 前記統合ステップは、
前記第1の動きベクトルを、前記画像P(T1,V1)から前記任意の時刻tにおける前記視点V1の位置への第2の動きベクトルに変換する動き変換ステップと、
前記第1の視差ベクトルを、前記画像P(T1,V1)から前記時刻T1における前記任意の視点vの位置への第2の視差ベクトルに変換する視差変換ステップと、
前記第2の動きベクトルと前記第2の視差ベクトルとを加算して第1の統合ベクトルを算出するベクトル加算ステップと、
前記第1の統合ベクトルから前記第1の動きベクトルを減算して前記第2の統合ベクトルを算出する第1のベクトル減算ステップと、
前記第1の統合ベクトルから前記第1の視差ベクトルを減算して前記第3の統合ベクトルを算出する第2のベクトル減算ステップと、
を有することを特徴とする請求項6に記載の画像処理方法。 - 請求項6から9のいずれか1項に記載の画像処理方法と、
前記画像処理方法の前記画像生成ステップにより生成された画像P(t,v)を表示する画像表示ステップと、
を有することを特徴とする画像表示方法。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T2,V1)、前記画像P(T1,V2)、前記第2の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理プログラム。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T2,V1)から前記画像P(t,v)への第2の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T2,V1)、前記第1の統合ベクトル、および前記第2の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理プログラム。 - 第1の時刻T1における第1の視点V1の画像P(T1,V1)と、前記第1の時刻T1と異なる第2の時刻T2における前記視点V1の画像P(T2,V1)とを受け、前記画像P(T1,V1)から前記画像P(T2,V1)への第1の動きベクトルを算出する動き推定ステップと、
前記画像P(T1,V1)と、前記時刻T1における前記第1の視点V1と異なる第2の視点V2の画像P(T1,V2)とを受け、前記画像P(T1,V1)から前記画像P(T1,V2)への第1の視差ベクトルを算出する視差推定ステップと、
前記第1の動きベクトルと前記第1の視差ベクトルとから、前記第1の動きベクトルと前記第1の視差ベクトルとが統合された統合ベクトルを算出する統合ステップと、
前記画像P(T1,V1)、画像P(T2,V1)、および画像P(T1,V2)のうち少なくとも1つの画像と、前記統合ベクトルとから、任意の時刻tにおける任意の視点vの画像P(t,v)を生成する画像生成ステップと、
をコンピュータに実行させ、
前記統合ステップでは、前記統合ベクトルとして、前記画像P(T1,V1)から前記画像P(t,v)への第1の統合ベクトルと、前記画像P(T1,V2)から前記画像P(t,v)への第3の統合ベクトルとを算出し、
前記画像生成ステップでは、前記画像P(T1,V1)、前記画像P(T1,V2)、前記第1の統合ベクトル、および前記第3の統合ベクトルから、前記画像P(t,v)を生成する、
ことを特徴とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013544205A JP5627798B2 (ja) | 2011-11-17 | 2012-10-31 | 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011251364 | 2011-11-17 | ||
JP2011251364 | 2011-11-17 | ||
JP2013544205A JP5627798B2 (ja) | 2011-11-17 | 2012-10-31 | 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 |
PCT/JP2012/078157 WO2013073369A1 (ja) | 2011-11-17 | 2012-10-31 | 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5627798B2 true JP5627798B2 (ja) | 2014-11-19 |
JPWO2013073369A1 JPWO2013073369A1 (ja) | 2015-04-02 |
Family
ID=48429437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013544205A Expired - Fee Related JP5627798B2 (ja) | 2011-11-17 | 2012-10-31 | 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5627798B2 (ja) |
WO (1) | WO2013073369A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191393A (ja) * | 1996-12-24 | 1998-07-21 | Sharp Corp | 多視点画像符号化装置 |
JP2009003507A (ja) * | 2007-06-19 | 2009-01-08 | Victor Co Of Japan Ltd | 画像処理方法、画像処理装置及び画像処理プログラム |
JP2011223493A (ja) * | 2010-04-14 | 2011-11-04 | Canon Inc | 画像処理装置および画像処理方法 |
-
2012
- 2012-10-31 JP JP2013544205A patent/JP5627798B2/ja not_active Expired - Fee Related
- 2012-10-31 WO PCT/JP2012/078157 patent/WO2013073369A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191393A (ja) * | 1996-12-24 | 1998-07-21 | Sharp Corp | 多視点画像符号化装置 |
JP2009003507A (ja) * | 2007-06-19 | 2009-01-08 | Victor Co Of Japan Ltd | 画像処理方法、画像処理装置及び画像処理プログラム |
JP2011223493A (ja) * | 2010-04-14 | 2011-11-04 | Canon Inc | 画像処理装置および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2013073369A1 (ja) | 2013-05-23 |
JPWO2013073369A1 (ja) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9270970B2 (en) | Device apparatus and method for 3D image interpolation based on a degree of similarity between a motion vector and a range motion vector | |
KR100720722B1 (ko) | 중간영상 생성방법 및 이 방법이 적용되는 입체영상디스플레이장치 | |
US8803947B2 (en) | Apparatus and method for generating extrapolated view | |
JP5387905B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP5879713B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
KR20080076628A (ko) | 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법 | |
KR100517517B1 (ko) | 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치 | |
JPH0927969A (ja) | 複数画像の中間像生成方法及び視差推定方法および装置 | |
US8610707B2 (en) | Three-dimensional imaging system and method | |
TW201242335A (en) | Image processing device, image processing method, and program | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
JP2012204852A (ja) | 画像処理装置および方法、並びにプログラム | |
JP6033625B2 (ja) | 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体 | |
GB2470754A (en) | Generating and displaying images dependent on detected viewpoint | |
JP5627498B2 (ja) | 立体画像生成装置及び方法 | |
JP5304758B2 (ja) | 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム | |
US9113140B2 (en) | Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector | |
JP2013090129A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5627798B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法 | |
JP5528162B2 (ja) | 画像処理装置および画像処理方法 | |
JP5838775B2 (ja) | 画像処理方法、画像処理システムおよび画像処理プログラム | |
JP2011257784A (ja) | 画像処理装置、画像処理方法および画像表示装置 | |
KR101907127B1 (ko) | 입체 비디오 주밍 및 비디오 내의 전경 및 배경 검출 | |
US9330487B2 (en) | Apparatus and method for processing 3D images through adjustment of depth and viewing angle | |
JP5362071B2 (ja) | 映像処理装置、映像表示装置および映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5627798 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |