JP5645450B2 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP5645450B2
JP5645450B2 JP2010095096A JP2010095096A JP5645450B2 JP 5645450 B2 JP5645450 B2 JP 5645450B2 JP 2010095096 A JP2010095096 A JP 2010095096A JP 2010095096 A JP2010095096 A JP 2010095096A JP 5645450 B2 JP5645450 B2 JP 5645450B2
Authority
JP
Japan
Prior art keywords
image
frame
blur
interest
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010095096A
Other languages
English (en)
Other versions
JP2011228846A (ja
Inventor
知宏 西山
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010095096A priority Critical patent/JP5645450B2/ja
Priority to US13/082,812 priority patent/US20110254973A1/en
Publication of JP2011228846A publication Critical patent/JP2011228846A/ja
Application granted granted Critical
Publication of JP5645450B2 publication Critical patent/JP5645450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数のカメラの画像を利用して仮想視点映像を生成するものである。
移動する仮想視点から見た映像を表現する場合に、複数台のカメラで同一シーンを撮影し、様々な方法でそれらの映像を再生して見せる見せ方がある。例えば、異なる視点に多数のカメラを設置し、設置されたカメラにより撮影された異なる視点からの映像(多視点映像)データを切り替えながら連続して再生することが考えられる。このような画像再生において、異なるカメラ間の明るさや色味を調整し、滑らかな映像再生を行う方法が提案されている(特許文献1参照)。また実際のカメラで撮影した映像だけでなく、複数のカメラにより撮影された映像から補間した中間視点映像も用いて連続性を高めることも提案されている(特許文献2参照)。
特開2004−088247号公報 特開2008−217243号公報
しかしながら、特許文献1の手法では以下のような問題がある。特許文献1の手法ではカメラが切り替わる際に、映像跳びが生じる。
一方特許文献2の手法では中間視点画像を挿入することによって、映像跳びを緩和することができる。しかし、この手法では中間視点映像の生成を失敗した場合に、画像が不連続になってしまうと言う問題点がある。
本発明はブラー処理を用いることにより、映像における跳びを低減し、滑らかな仮想視点映像を生成することを目的とする。
上記目的を達成するために、本発明は、異なる視点位置から撮影する複数の撮像部からの複数の撮影画像から、指示された視点情報に応じて選択された撮影画像を取得する取得手段と、前記選択された撮影画像の視点情報と前記指示された視点情報とを用いて、前記選択された撮影画像から前記指示された視点情報に応じた画像を生成する生成手段と、前記生成された画像に対してブラー処理を行うブラー処理手段とを有し、前記ブラー処理手段は、注目フレームに対して取得される撮影画像に対応する撮像部と、該注目フレーム周辺のフレームに対して取得される撮影画像に対応する撮像部とが異なる場合に、該注目フレームに対応する前記生成された画像に対して前記ブラー処理を行うことを特徴とする。
本発明によれば、映像における跳びが低減された、滑らかな仮想視点映像を生成することができる。
実施例1の概念図である。 実施例1の画像処理方法を示すブロック図である。 ブラー画像生成部208のブロック図である。 カメラの属性情報を表す図である。 実施例1の動作を示すフローチャートである。 仮想スクリーン上の座標と実際の物理座標の対応を表す図である。 カメラが切り替わった場合の仮想視点画像を表した図である。 動きベクトルの算出過程を表した図である。 ブラー画像の効果を示した図である。 実施例2の画像処理方法を示すブロック図である。 仮想視点画像の領域分割を示す概念図である。 実施例3の画像処理方法を示すブロック図である。
(実施例1)
本実施例では固定された複数カメラ(撮像部)を用いて、仮想視点から見た場合の滑らかな動画を生成する画像処理装置について説明する。例えば本実施例では天頂に固定カメラを複数台配置し、複数の人がいるシーンを上から撮影する状況を想定している。概念図を図1に示す。図1(a)はカメラの配置の例を立体的に図示したものである。図1(a)において、101はカメラ、102は床面、103は天井を表している。また図1(b)は図1(a)を2次元平面に投影したものであり、複数の人がいる場合を想定している。図1(b)において、104は被写体となる人を表している。105は仮想的な仮想視点を表している。本実施例では、予め設定されたシナリオに応じて仮想視点の視点情報が決められている。そして、固定された複数のカメラによりリアルタイムに撮影された映像を用いて、シナリオに応じた仮想視点の映像を生成する。
図2は、本実施例にかかる画像処理装置の一形態を示すブロック図である。
視点管理部220は、シナリオに対応する動画のフレームごと(m=1〜M)に、使用するカメラのID情報と仮想視点の属性情報を格納する。そして、フレーム番号に基づき、順次、使用するカメラのID情報と仮想視点の属性情報を出力する。
撮像データ入力端子201は、カメラ101によって撮影された撮像データを入力する。基準面高さ情報入力端子202は基準面高さ情報を入力する。本実施例では、基準面を床面102とし、床面の高さ(Hfloor)をZ=0と設定る。仮想視点情報入力端子203は、視点管理部から仮想視点の属性情報を入力する。注視点高さ情報入力端子204は注視点の高さ情報を入力する。本実施例では注視点は人の頭部であるとし、標準的な人の身長を注視点の高さHheadと設定する。カメラID情報入力端子205は処理対象フレーム(m)における使用カメラID情報(ID(m))を入力する。カメラ情報データベース206はカメラ101それぞれのカメラIDと各カメラ101の属性情報(位置姿勢および画角)とを対応付けて格納する。そして、視点管理部220から入力される処理対象フレーム(m)における使用カメラID情報と、使用カメラID情報に対応するカメラの属性情報を出力する。仮想視点画像生成部207は、カメラ情報データベース206から入力した使用カメラID情報に対応するカメラの撮像データを入力し、基準面高さ情報と仮想視点の属性情報とに基づき入力した撮像データから仮想視点の画像データを生成する。ブラー処理部208はカメラ情報データベース206から入力したカメラの属性情報、注視点高さ情報および視点管理部220から入力した仮想視点の属性情報に基づき、生成された仮想視点の画像データにブラー処理を施す。
画像処理部200は、各フレームに対して上記処理を行い、動画フレームデータ出力部210からシナリオに応じた仮想視点の映像データを出力する。
図3はブラー処理部208のブロック図である。仮想視点画像データ入力端子301は仮想視点画像生成部207によって生成された仮想視点の画像データを入力する。カメラ切り換え判断部302は、カメラ情報データベース206から端子303を介して順次入力されるカメラIDを用いて、注目フレームmと次時刻のフレーム m+1で使用するカメラが切り替わるか否を判断し、判断結果を動きベクトル算出部304に出力する。本実施例では、カメラが切り替わる場合はYesの信号を、切り替わらない場合はNoの信号を送る。
動きベクトル算出部304は、注視点高さ情報、仮想視点情報およびカメラの属性情報を用いて、仮想視点画像における注視点の跳びを表す動きベクトルを算出する。動きベクトル算出部304はカメラ切り替え判断部302からYesの信号を受けた場合に、動きベクトルを算出する。
ブレ生成判断部305は動きベクトルのノルムがある閾値Th以上の場合はYesを、Th未満の場合はNoの信号を送る。ブレ画像生成部306は、動きベクトル算出部304からYesを入力した場合は、仮想視点の画像データに対して動きベクトルに対応したぶれフィルタを用いてブラー処理を行う。一方、動きベクトル算出部304からNoを入力した場合は、仮想視点の画像データをそのまま出力する。308はブレ画像生成部によって生成されたブラー画像データを出力するブラー画像データ出力端子である。
カメラ情報データベース206に格納されているカメラの属性情報について説明する。
図4はあるID番号(カメラID情報)のカメラの特性を表した図である。図4(a)はY=const.の平面に投影した図を表している。図4(b)はZ=const.の平面に投影した図を表している。
図4(a)において、カメラ401はあるID番号のカメラである。点402はカメラ401の重心である。ベクトル403はカメラ401のレンズの姿勢を示す単位法線ベクトルである。角度404はカメラ401の画角に対応した角度である。図4(b)において、ベクトル405はカメラの上方向を表す単位ベクトルである。
カメラ情報データベース206にはカメラのID番号とそのIDのカメラの属性情報が格納されている。カメラの属性情報は、重心402の位置ベクトル、レンズの姿勢を示す単位法線ベクトル403、画角に対応する角度404をθとしたときのtanθの値、カメラの上方向を表す単位ベクトル405を示す。
なお、視点管理部220が保持している仮想視点の属性情報も、カメラの属性情報と同様に、仮想視点における仮想カメラの重心402の位置ベクトル、レンズの姿勢を示す単位法線ベクトル403、画角に対応する角度404をθとしたときのtanθの値、カメラの上方向を表す単位ベクトル405を有する。
<仮想視点の画像データの生成>
仮想視点画像生成部207にて行われる仮想視点の画像データの生成処理について説明する。
まず、注目フレームmの仮想視点画像の画像座標を物理座標へ変換する。次に、この物理座標からID(m)のカメラの撮像画像の画像座標に変換する。これらの処理により、仮想視点の画像の画像座標とID(m)のカメラの撮像画像の画像座標とを対応づける。そして、仮想視点の画像の各画像座標に対して対応づけれらたID(m)のカメラの撮像画像の画像座標の画素値を取得することにより、仮想視点の画像データを生成する。
●画像座標から物理座標への変換
ある視点の画像の画像座標を物理座標に変換する式について説明する。以下、図4において、カメラ401の重心402の位置ベクトルをC、単位法線ベクトル403をn、カメラの上方向の単位ベクトル405をt、画角404をγ=tanθと置くことにする。
図6はカメラ401の視点に応じた画像上に被写体がどのように射影されるかを表した図である。図6において、601はカメラ401の仮想スクリーン、602は被写体、603は被写体が存在する基準面とする。点604は被写体602を仮想スクリーン601上に投影した点である。また重心402から仮想スクリーン601までの距離をfとし、点604の仮想スクリーン601上での座標を(x,y)とし、被写体の物理座標を(X,Y,Z)とする。本実施例では、物理座標を規定するXYZ座標のX−Y平面が平面である床面を含むようにX軸とY軸を設定し、Z軸を高さ方向に設定する。そして、本実施例では基準面として床面を設定しているので、基準面である床面の高さHfloorのZ値が0になるように設定する。
仮想スクリーンは単位ベクトルtと単位ベクトルu≡t×nで張られる平面である。また画角γを用いると、画像の縦の幅(pixel)をwとしたとき、
と表される。
この時、点604の物理ベクトルx(カメラの重心401から点604へのベクトル)は
と示すことができる。
被写体602は物理ベクトルxの延長線上に存在する。したがって、被写体602の物理ベクトルX(カメラの重心401から被写体602へのベクトル)は、ある定数aを用いて、
と示すことができる。被写体の高さZは既知であるので、式(3)のZ成分に着目することにより、
となり、
となる。
これを式(3)に代入して、
となる。これが、画像上の点(x,y)から被写体の物理座標を求める変換式である。
これを以下簡単のため、
と表すことにする。
●物理座標から画像座標への変換
次に、被写体の物理座標をある視点からカメラで撮影した場合の画像上の座標に変換する変換式について説明する。
上述の式(3)に示したように、被写体602の物理ベクトルXは以下の式で示すことができる。
この式の両辺とuの内積をとり、u,t,nの正規直交性を用いると式(7)となる。
同様にして、t,nを作用させてまとめると式(8)となる。
この式の3行目に着目すると、
となるので、
となる。これば、物理ベクトルXから画像上の座標(x,y)を求める式である。
これを以下簡単のため、
と表すことにする。
●仮想視点画像生成部207における処理
mフレーム目の仮想視点画像を生成する場合について説明する。ここでは基準面高さを床面としその高さをHfloorとする。本実施例ではHfloorはZ=0である。ID(m)のカメラで撮影した画像をm番目の仮想視点から見た画像に変換する手法を概説する。
仮想視点画像生成部207では、全ての被写体の高さがHfloorであると仮定し、画像上の座標を物理座標に変換する。つまり、本実施例では全ての被写体が床面上に存在すると仮定する。
仮想視点情報入力端子203から仮想視点の属性情報を入力する。以下、仮想視点に関する情報については添え字fを付けて表す。またmフレーム目に関する情報については引数mをつけて表す。
mフレーム目の仮想視点の画像上の座標(x,y)を物理座標へ変換する変換式は、式(6)より、
となる。ここで、説明を簡単にするために画角は仮想視点およびフレームに依らず一定とした。
次にこの求めれた物理座標をID(m)のカメラの画像上の座標に変換する変換式は、式(11)より、
となる。式(12)、式(13)より仮想視点画像の座標(x,y)とID(m)のカメラにより撮影された画像の座標(x(m),y(m))を対応付けることができる。したがって、仮想視点画像の各画素について、ID(m)のカメラにより撮影された画像データから対応する画素値を取得する。これにより、ID(m)のカメラで撮像した画像データから仮想視点の画像を生成することができる。
<動きベクトル算出部304>
仮想視点画像変換部207は被写体の高さが全てHfloor(Z=0)である仮定して変換を行った。つまり、被写体が全て床面に存在すると仮定して変換を行なった。しかし、実際の被写体はHfloorとは異なる高さにある場合がある。
mフレーム目の撮影画像とm+1フレーム目の撮影画像が同一のカメラの撮影画像である場合(ID(m)=ID(m+1))は、Hfloorとは異なる高さの被写体でも、mフレーム目の仮想視点画像とm+1フレーム目の仮想視点画像において跳びは発生しない。これは、mフレームとm+1フレームとで、物理座標から画像座標への変換式(式(11))が同一であるからである。
これに対して、mフレーム目の撮影画像とm+1フレーム目の撮影画像が異なるカメラの撮影画像である場合(ID(m)≠ID(m+1))は、Hfloorの高さにある被写体(例えば靴)はスムーズに動くように見えるが、Hfloorの高さと異なる高さにある被写体(例えば人間の頭部)は図7に示すように跳びが発生する。式(3)から式(4)を求める際に被写体の高さZが既知であるとしている。そして、本実施例では被写体の高さとして被写体にかかわらず基準面高さを床面としその高さをHfloorとしている。したがって、被写体の高さが基準面高さと異なる場合、画像座標から物理座標への変換式に誤差が生じてしまう。したがって、フレーム内では画像が不適切になることはないが、撮影したカメラがことなるフレーム間において跳びが発生する。
図7において、画像701はID(m)のカメラで撮影した画像をmフレーム目の仮想視点に変換した画像であり、画像702はID(m+1)のカメラで撮影した画像をm+1フレーム目の仮想視点に変換した画像である。703は被写体となる人間の頭部であり、704は靴である。本実施例では、複数の人がいるシーンを上から仮想視点で撮影する状況を想定している。そこで、床面(Hfloor)から最も離れた部位であると考えられる頭部の高さを用いて、カメラが切り替わることにより、被写体の頭部が画像において動く量を求める。つまり、人間の標準的な身長をHheadとして、仮想視点画像の座標(x,y)に頭部があると仮定したときの仮想視点画像上での頭部の動きベクトルを求める。本実施例では、仮想視点画像の座標(x,y)として、画像の中心の位置の座標を使用する。そして、この中心位置に頭部が存在した際に生じる動き量に応じてm+1フレーム目に対するぶれ量を制御する。
図8に頭部の動きベクトルを求める概念図を示す。図8(a)において、801はmフレーム目の仮想視点、802はm+1フレーム目の仮想視点である。カメラ803はID(m)のカメラ、カメラ804はID(m+1)のカメラである。805は仮想視点801の仮想スクリーン、806は仮想視点802の仮想スクリーンである。点807は注目フレームであるmフレームに対応する仮想スクリーン805上の点(x,y)である。808は点807を床面603に射影した点である。809は頭部703をカメラ804から床面603に射影した点である。810は点809を仮想スクリーン806に射影した点である。811は靴704を仮想スクリーン805上に射影した点である。812は靴704を仮想スクリーン806上に射影した点である。
図8(b)は頭部703と靴704をm番目の仮想視点の画像とm+1番目の仮想視点の画像を表したものである。820は画像701と画像702において、頭部703の跳びを表す動きベクトルである。動きベクトル算出部304は点810の画像座標と点807の画像座標(x,y)の差分ベクトル820を算出する。
以下に点810の座標の求め方を示す。まず、m番目の仮想視点における画像座標(x,y)から、注視点の高さHheadを有する頭部703の物理座標Xheadを算出する。算出された頭部703の物理座標をID(m+1)のカメラ804から床面603に射影した点809の物理座標Xfloorを算出する。そして、この点809の物理座標Xfloorをm+1番目の仮想スクリーン806の画像座標に変換し、点810の座標を取得する。
以下、点810の座標の求め方を詳細に説明する。
動きベクトル算出部304は、mフレーム目の仮想スクリーン805における代表点の座標(x,y)(mフレーム目の仮想視点の画像の座標)から、式(6)に応じた式(14)を用いて、点808の物理座標を求める。
頭部703の物理座標Xheadは、ID(m)のカメラの視点位置と点808とのベクトル上に存在する。したがって、物理座標Xheadは定数bを用いて、式(13)のように示すことができる。
ここで、物理座標Xheadのz成分はHheadであるので、式(16)のようになる。
式(16)をbについて解くことにより、
となる。動きベクトル算出部304は、式(17)を用いて、頭部703の物理座標Xheadを算出する。
次に、点809の物理座標Xfloorを求める。点809は、ID(m+1)のカメラ804の視点位置と頭部703の物理座標Xheadとのベクトルの延長線上に存在する。したがって、動きベクトル算出部304は、点809は頭部703の物理座標を求めた場合と同様の考え方から導き出される式(18)を用いて、点809の物理座標Xfloorを求める。
そして、動きベクトル算出部304は、式(11)に応じた式(19)を用いて、点809の物理座標Xfloorをm+1番目の仮想スクリーン806の画像座標(x,y)に変換する。
動きベクトル820は、代表点に想定した被写体頭部の画像における位置変化を示すものである。よって、動きベクトル算出部304は、算出された画像座標(x,y)と代表点の画像座標(x,y)とから、(x−x,y−y)を動きベクトルvとして算出する。
<ブレ画像生成部>
ブレ画像生成部306は、動きベクトル算出304が算出した動きベクトルvを元に、m+1フレーム目の画像に式(20)に従って動きベクトルと逆方向にブラーをかける。
ここで、Im+1(x,y)はm+1フレーム目の仮想視点画像データであり、αは重み係数であり、βは適当な係数である。例えばここではβ=1とし、α=exp(−t/2)と言うGaussianの重みにする。このように、ぶれ画像生成部306は、動きベクトルに基づく方向に、ベクトルに応じた度合いのブラー処理を行う。
概念図を図9に示す。図9において、901は702に式(20)に表されるブラーを作用させた画像である。901には映像跳びに対応したブラーがかかっているので、701と901を連続再生することにより、滑らかな動画を得ることができる。
ここではm+1フレームの画像データに動きベクトルvと逆方向にブラーをかけたが、mフレームの画像データに動きベクトル方向にブラーをかけても構わない。さらに、動きベクトルvを複数のベクトルvに分割し、複数フレームにまたがってvに対応するブラーをかけても構わない。目視による実験ではm+1フレーム目に動きベクトルvと逆方向にブラーをかけると良好な画像が得られることが分かっている。
また、本実施例では、隣接する2つのフレームを用いて動きベクトルを算出したが、注目フレームとその前後の2つのフレームや、注目フレームとその後の複数のフレームなど、注目フレームと周辺のフレームを用いて動きベクトルを算出しても構わない。
<画像処理装置の動作>
図2の画像処理装置の動作について図5のフローチャートを用いて説明する。
仮想視点動画のフレーム番号をm=1にセットする(S501)。mフレームを撮影するのに使用するカメラID(ID(m))と次のフレームで使用するカメラID(ID(m+1))を取得する(S502)。次にID(m)のカメラの撮像データ、基準面高さ情報、仮想視点情報がそれぞれの入力端子201、202、203から入力される(S503)。視点画像変換部207がカメラ情報データベース206からID(m)のカメラの属性情報を受け取る。そして、カメラの属性情報、仮想視点情報、基準面高さ情報を用いて、ID(m)のカメラの撮像データから仮想視点の画像データを生成する(S504)。次にブレ生成判断部305の出力信号(以下ブレフラグ)がYesかどうかを判断する(S505)。なお初期状態(m=1)ではブレフラグはNoであるとする。ブレフラグがYesの場合は、m−1フレームとmフレーム間の動きベクトルv(m−1)に対応したブラーをかける(S506)。カメラ切り替え判断部302がID(m)とID(m+1)が異なるか否かを判断し、異なる場合はYesの信号を、同じ場合はNoの信号を出力する(S507)。Yesの信号が出力された場合は、動きベクトル算出部304がID(m)とID(m+1)のカメラ情報をカメラ情報データベース206から受け取り、注視点高さ情報、仮想視点情報を元に仮想視点画像上の動きベクトルv(m)を算出する(S508)。ブレ生成判断部305が動きベクトルのノルムが閾値を超えたか判断し(S509)、閾値以上の場合はブレフラグをYesにする(S511)。以下S509でYesの分岐を通った場合を説明する。仮想視点画像もしくはブラー画像を動画フレームデータ出力端子210から出力する(S512)。着目フレームをmからm+1に更新する(S513)。
S507若しくはS509でNoの分岐を通った場合はブレフラグをNoにする(S510)。
mが全フレーム数Mに対し、M以下の場合はS502に戻り、Mより大きい場合は動作を終了する(S514)。
以上説明したように第1の実施形態によれば、使用するカメラが切り替わるフレーム間で注視点の動きベクトルを算出することにより、それに応じたブラーをかける。このことにより滑らかな仮想視点画像を生成することができる。
(実施例2)
実施例1ではブレ画像生成部306が画面全体に一様なブラーをかけたが、本実施例では仮想視点画像の領域を分割し、各領域毎の動きベクトルを算出する。そして各領域毎に、その領域の動きベクトルに対応したブラーをかける。図10に、実施例2にかかる画像処理装置のブロック図を示す。
図10において、図2に示す画像処理装置と同一の構成については同一の符号をつけ、説明を割愛する。
1001は仮想視点画像を領域に分割する画像分割部である。1002はブラー生成部208で生成されたブラー画像を合成する画像合成部である。本来は全てのブラー画像生成部208が仮想視点情報と注視点高さ情報を受け取るが、図示の関係上割愛した。
以下図10の画像処理装置の動作について説明する。画像合成部1001は仮想視点画像変換部207のデータを受け取り、画像を指定領域に分割する。
次に領域の代表点、分割画像データ、カメラ情報をブラー画像生成部208が受け取り、各領域の動きベクトルを算出し、領域毎にブラーをかける。この時の動きベクトルの概念図を図11に示す。図11において、1100は仮想視点画像である。1101は分割した各領域である。図11では長方形に分割しているが、分割形状は長方形に限らない。点1102は各領域の代表点である。1103は各領域の動きベクトルvである。ブラー画像生成部208のそれぞれは、対応する領域の動きベクトルvを用いてブラー処理を行う。そして、画像合成部1002が複数のブラー画像生成部208から出力された画像データを合成する。
以上説明したように実施例2によれば、画像における各領域毎に適切なブラー処理を行うことができ、滑らかな仮想視点映像を得ることができる。
(実施例3)
本実施例では仮想視点画像にシャープネスをかける場合について説明する。カメラによって撮影された画像から、仮想視点画像を生成する際に画像データに対して拡大処理する場合がある。このような場合、拡大処理で行われる補間処理によって画像がボケてしまうという弊害が発生する。本実施例では、この画像がぼけるという弊害を低減するために、仮想視点画像に拡大倍率に応じてシャープネスをかける。
図12に本実施例のブロック図を示す。図12の画像処理装置において、図2の画像処理装置と同一の構成については同一の番号をつけて説明を割愛する。シャープネス補正部1201は、仮想視点画像変換部における拡大倍率情報に応じてシャープネス処理を行う。
以下、図12の画像処理装置の動作について説明する。シャープネス補正部1201は仮想視点画像部207から仮想視点画像を生成における倍率情報を受け取り、倍率情報に応じたシャープネス補正を生成された仮想視点の画像データに対して行う。ここで、ブラー画像生成部208がブラー処理を行う場合は、シャープネス補正を行わない。これはブラー処理を行う場合は、シャープネス補正を行っても効果が得られないからである。このようにブラー処理とシャープネス処理を排他的にすることで、システムの負荷を分散させることができる。
倍率情報は以下のようにして求める。仮想視点の画像上の代表点を2点選択する。ここでは例えば、(x,y)、(x,y)とする。これを式(12)、式(13)を用いて、ID(m)のカメラの画像上の点(x(m),y(m))、(x(m),y(m))に変換する。そして、この時の変換倍率αを例えば以下の式を用いて算出する。
本実施例によれば、シャープネス処理を適応的にかけることにより、効率よく良好な仮想視点画像を得ることが可能になる。
なお、実施例1〜3では、仮想視点はシナリオに基づき予め決定されているが、ユーザ指示に応じてリアルタイムに仮想視点を制御するようにしても構わない。また、動きベクトルを画像の中心位置で算出したが、他の位置にしても構わない。また、複数箇所について動きベクトルを求め、平均値などの統計値を算出しても構わない。また、実施例1〜3では、画像から主被写体の位置を検出し、検出された位置について動きベクトルを求めても構わない。
また、上記実施例1〜3では、フレーム間の跳びを目立たなくするためにブラー処理を掛けたが、ノイズ除去などの他の目的のためにブラー処理を掛けてもかまわない。この場合は、跳びを目立たなくするためのフィルタと他の目的のためのフィルタとを合成し、合成により得られたフィルタを用いてブラー処理を行う。
また、本発明は、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)がコンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。

Claims (7)

  1. 異なる視点位置から撮影する複数の撮像部からの複数の撮影画像から、指示された視点情報に応じて選択された撮影画像を取得する取得手段と、
    前記選択された撮影画像の視点情報と前記指示された視点情報とを用いて、前記選択された撮影画像から前記指示された視点情報に応じた画像を生成する生成手段と、
    前記生成された画像に対してブラー処理を行うブラー処理手段とを有し、
    前記ブラー処理手段は、注目フレームに対して取得される撮影画像に対応する撮像部と、該注目フレームの周辺のフレームに対して取得される撮影画像に対応する撮像部とが異なる場合に、該注目フレームと該注目フレームの周辺のフレームとの間における同一被写体の動き方向に応じて、該注目フレームに対応する前記生成された画像に対して前記ブラー処理を行うことを特徴とする画像処理装置。
  2. 前記生成手段は、前記選択された撮影画像の視点情報、前記指示された視点情報および基準面の情報とを用いて、該基準面の情報により示される基準面を介して前記選択された撮影画像の画素と前記指示された視点情報に応じた画像の画素とを対応づけることにより、前記選択された撮影画像から前記指示された視点情報に応じた画像を生成することを特徴とする請求項1記載の画像処理装置。
  3. 前記ブラー処理手段は注目フレームと前記注目フレームの周辺のフレームとの間における同一被写体の動き方向を、前記同一被写体における注視点の動きベクトルにより算出し、該動きベクトルに応じてブラー処理の方向と度合いを制御すること特徴とする請求項1または2記載の画像処理装置。
  4. 前記ブラー処理手段は、注目フレームに対して取得される撮影画像に対応する撮像部と、該注目フレームの周辺のフレームに対して取得される撮影画像に対応する撮像部とが同一である場合は、該注目フレームに対応する前記生成された画像に対して前記ブラー処理を行わないことを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
  5. さらに、前記生成された画像に対してシャープネス処理を行うシャープネス処理手段を有し、
    前記シャープネス処理手段は、前記ブラー処理手段において、前記生成された画像に対して前記ブラー処理を行った場合は、該生成された画像に対して前記シャープネス処理を行わないことを特徴とする請求項1乃至4のいずれかに記載の画像処理装置。
  6. 請求項1乃至5のいずれかに記載の画像処理装置をコンピュータを用いて実現するためのコンピュータが読み取り可能なプログラム。
  7. 異なる視点位置から撮影する複数の撮像部からの複数の撮影画像から、指示された視点情報に応じて選択された撮影画像を取得する取得工程と、
    前記選択された撮影画像の視点情報と前記指示された視点情報とを用いて、前記選択された撮影画像から前記指示された視点情報に応じた画像を生成する生成工程と、
    前記生成された画像に対してブラー処理を行うブラー処理工程とを有し、
    前記ブラー処理工程は、注目フレームに対して取得される撮影画像に対応する撮像部と、該注目フレームの周辺のフレームに対して取得される撮影画像に対応する撮像部とが異なる場合に、該注目フレームと該注目フレームの周辺のフレームとの間における同一被写体の動き方向に応じて、該注目フレームに対応する前記生成された画像に対して前記ブラー処理を行うことを特徴とする画像処理方法。
JP2010095096A 2010-04-16 2010-04-16 画像処理装置および方法 Active JP5645450B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010095096A JP5645450B2 (ja) 2010-04-16 2010-04-16 画像処理装置および方法
US13/082,812 US20110254973A1 (en) 2010-04-16 2011-04-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010095096A JP5645450B2 (ja) 2010-04-16 2010-04-16 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JP2011228846A JP2011228846A (ja) 2011-11-10
JP5645450B2 true JP5645450B2 (ja) 2014-12-24

Family

ID=44787943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010095096A Active JP5645450B2 (ja) 2010-04-16 2010-04-16 画像処理装置および方法

Country Status (2)

Country Link
US (1) US20110254973A1 (ja)
JP (1) JP5645450B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8154599B2 (en) * 2005-07-29 2012-04-10 Panasonic Corporation Imaging region adjustment device
JP2013179435A (ja) * 2012-02-28 2013-09-09 Konica Minolta Inc 画像処理装置、撮像装置
EP2850592B1 (en) * 2012-05-18 2019-07-10 Thomson Licensing Processing panoramic pictures
JP6182607B2 (ja) * 2013-06-14 2017-08-16 株式会社日立製作所 映像監視システム、監視装置
US9934453B2 (en) * 2014-06-19 2018-04-03 Bae Systems Information And Electronic Systems Integration Inc. Multi-source multi-modal activity recognition in aerial video surveillance
US9704272B2 (en) * 2014-11-21 2017-07-11 Microsoft Technology Licensing, Llc Motion blur using cached texture space blur
US20160182822A1 (en) * 2014-12-19 2016-06-23 Sony Corporation System, method, and computer program product for determiing a front facing view of and centering an omnidirectional image
JP6948175B2 (ja) * 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
US11050905B2 (en) * 2017-10-05 2021-06-29 Haddon Spurgeon Kirk, III System for live streaming and/or video recording of platform tennis matches
JP2019197340A (ja) * 2018-05-09 2019-11-14 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
JPH08201941A (ja) * 1995-01-12 1996-08-09 Texas Instr Inc <Ti> 3次元画像形成方法
CN1175377C (zh) * 1998-05-20 2004-11-10 索尼电脑娱乐公司 图像处理装置及方法
EP1179958B1 (en) * 1999-04-16 2012-08-08 Panasonic Corporation Image processing device and monitoring system
US6346950B1 (en) * 1999-05-20 2002-02-12 Compaq Computer Corporation System and method for display images using anamorphic video
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US6669346B2 (en) * 2000-05-15 2003-12-30 Darrell J. Metcalf Large-audience, positionable imaging and display system for exhibiting panoramic imagery, and multimedia content featuring a circularity of action
JP2002008040A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 三次元情報検出装置及び三次元情報検出方法
JP2002232783A (ja) * 2001-02-06 2002-08-16 Sony Corp 画像処理装置および画像処理方法、並びにプログラム記憶媒体
US20030202102A1 (en) * 2002-03-28 2003-10-30 Minolta Co., Ltd. Monitoring system
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
JP3988879B2 (ja) * 2003-01-24 2007-10-10 日本電信電話株式会社 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体
JP4238586B2 (ja) * 2003-01-30 2009-03-18 ソニー株式会社 キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2007504562A (ja) * 2003-09-04 2007-03-01 サーノフ コーポレーション 1つの画像から虹彩認証を行う方法および装置
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
US8106924B2 (en) * 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor

Also Published As

Publication number Publication date
JP2011228846A (ja) 2011-11-10
US20110254973A1 (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5645450B2 (ja) 画像処理装置および方法
JP5374220B2 (ja) 動きベクトル検出装置およびその制御方法、ならびに撮像装置
JP3935500B2 (ja) 動きベクトル演算方法とこの方法を用いた手ぶれ補正装置、撮像装置、並びに動画生成装置
JP6395423B2 (ja) 画像処理装置、制御方法及びプログラム
US20180098047A1 (en) Imaging system, image processing apparatus, image processing method, and storage medium
JP5225313B2 (ja) 画像生成装置、画像生成方法、及びプログラム
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP2018061130A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6082304B2 (ja) 画像処理装置及びその処理方法
JP2011193062A (ja) パノラマ画像撮像装置及びパノラマ画像合成方法
JP2017123589A (ja) 情報処理装置、情報処理方法および映像投影システム
JP2017021430A (ja) パノラマビデオデータの処理装置、処理方法及びプログラム
JP7210180B2 (ja) 画像処理装置、画像表示装置、画像処理方法、及びプログラム
Lee Novel video stabilization for real-time optical character recognition applications
JP6545229B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP6645949B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP2015220662A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6544719B2 (ja) 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム
JP2019067419A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6667372B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP7161865B2 (ja) 映像解析装置及びそのプログラム
JP2019036902A (ja) 映像処理装置、映像処理方法および映像処理プログラム
US11488291B2 (en) Image processing apparatus for generating a combined image from plural captured images having been subjected to position alignment, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141104

R151 Written notification of patent or utility model registration

Ref document number: 5645450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151