JP2014056466A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2014056466A
JP2014056466A JP2012201478A JP2012201478A JP2014056466A JP 2014056466 A JP2014056466 A JP 2014056466A JP 2012201478 A JP2012201478 A JP 2012201478A JP 2012201478 A JP2012201478 A JP 2012201478A JP 2014056466 A JP2014056466 A JP 2014056466A
Authority
JP
Japan
Prior art keywords
image
auxiliary
boundary
viewpoint
main layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012201478A
Other languages
English (en)
Other versions
JP2014056466A5 (ja
JP6021541B2 (ja
Inventor
Masateru Kitago
正輝 北郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012201478A priority Critical patent/JP6021541B2/ja
Priority to US14/017,848 priority patent/US20140071131A1/en
Publication of JP2014056466A publication Critical patent/JP2014056466A/ja
Publication of JP2014056466A5 publication Critical patent/JP2014056466A5/ja
Application granted granted Critical
Publication of JP6021541B2 publication Critical patent/JP6021541B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】自由視点画像合成技術における各視点間の撮像画像を高精度、かつ、高速に合成する。
【解決手段】画像処理装置であって、複数の視点から撮像された複数視点画像の中から、1の代表画像及び当該代表画像とは視点が異なる1以上の補助画像を設定する設定手段と、設定された前記代表画像と前記補助画像とを用いて、自由視点位置での合成画像を生成する合成手段とを有し、前記合成手段は、前記代表画像におけるオブジェクトの境界以外を示す主層のレンダリング画像と、前記代表画像の視点からは撮像されない領域を少なくとも含む前記補助画像の補助主層のレンダリング画像とを統合する手段を備える、ことを特徴とする。
【選択図】図11

Description

本発明は、複数の視点から撮像された画像データ及び距離情報を用いた自由視点画像合成技術に関する。特に多眼方式の撮像装置で撮像された複数視点画像データの自由視点画像合成技術に関するものである。
近年、映画業界を中心に3Dコンテンツの利用が活発である。より高い臨場感を求めて複数視点撮像技術、複数視点表示技術の開発が進んでいる。
2視点表示では眼鏡式3Dディスプレイが主流である。右目用の画像データと左目用の画像データを生成し、眼鏡の制御によりそれぞれの眼で見える画像を切り替えることで、観察者は立体画像を見ることができる。また複数視点表示ではレンチキュラレンズ、パララックスバリア方式を用いた眼鏡無し3Dディスプレイが開発されており、主にデジタル・サイネージ用途で利用されている。
撮像装置においても、2視点撮像ではステレオカメラ、3視点以上の複数視点撮像ではPlenopticカメラやカメラアレイシステム、といった多眼方式の撮像装置が開発されている。また撮像装置に工夫を加えることで、既存のカメラ構成を比較的変更することなく複数視点画像を撮像できるコンピュテーショナル・フォトグラフィー(Computational Photography)と呼ばれる分野の研究も盛んに行われている。
多眼方式の撮像装置で撮像された複数視点画像を複数視点表示装置で表示する場合、撮像装置と表示装置との間の視点数の違いを調整する必要がある。例えば、3眼のカメラで撮像された3視点画像を9視点の眼鏡無し3Dディスプレイで表示するとき、撮像されていない6視点分の画像を補完生成しなければならない。またステレオカメラで撮像された画像を眼鏡式3Dディスプレイで表示する場合、どちらも2視点ではあるが、ディスプレイによって視聴に最適な視差が異なるため、撮像した画像とは異なる視点で画像を再構成して出力する場合がある。
以上のようなユースケースを実現するため、撮像された視点以外の画像データを生成する技術として自由視点画像合成技術が開発されている。
関連技術として、MPEG−3DV(3D Video Coding)の標準化作業が進行している。MPEG−3DVは複数視点の画像データと共に奥行き情報を符号化する方式である。複数視点画像データの入力から、既存の2Dディスプレイ、眼鏡式3Dディスプレイ、眼鏡無し3Dディスプレイなど様々な視点数の表示装置に出力することを想定し、自由視点画像合成技術を用いて視点数の制御を行う。また複数視点映像を対話的に視聴するための技術としても、自由視点画像合成技術が開発されている(特許文献1)。
特開2006−012161号公報
自由視点画像合成技術における課題として、合成画像の画質向上と計算量の抑制が挙げられる。自由視点画像合成では、複数視点の参照画像群から仮想視点の画像を合成する。まず、各参照画像から仮想視点の画像を生成するが、距離情報の誤差が要因で生成された仮想視点画像間にずれが生じてしまう。次に、各参照画像から生成した仮想視点画像群を合成するが、ずれのある仮想視点画像群を合成すると出来上がった合成画像にボケが生じてしまう。また、画像合成に利用する参照画像数、画像領域が多くなる程、計算量が増大してしまう。
本発明に係る画像処理装置は、複数の視点から撮像された複数視点画像の中から、1の代表画像及び当該代表画像とは視点の異なる1以上の補助画像を設定する設定手段と、設定された前記代表画像と前記補助画像とを用いて、自由視点位置での合成画像を生成する合成手段とを有し、前記合成手段は、前記代表画像におけるオブジェクトの境界以外を示す主層のレンダリング画像と、前記代表画像の視点からは撮像されない領域を少なくとも含む前記補助画像の補助主層のレンダリング画像とを統合する手段を備える、ことを特徴とする。
本発明によれば、複数視点画像データを用いた自由視点画像合成を高画質、かつ、高速に行うことができる。
複数の撮像部を備えた多眼方式による撮像装置の一例を示した図である。 多眼方式の画像処理装置の内部構成を示すブロック図である。 撮像部の内部構成を示す図である。 画像処理部の内部構成を示す機能ブロック図である。 距離情報推定処理の流れを示すフローチャートである。 図6は、距離情報推定処理の経過を説明する図である。(a)及び(c)は視点画像の例を示す図、(b)は視点画像にフィルタをかけて小領域に分割した状態を示す図、(d)はある視点画像に他の撮像部の視点画像における小領域を重ねた状態を示す図、(e)は(d)で生じているずれが解消された状態を示す図である。 ヒストグラムの一例を示す図であり、(a)は高いピークを持つヒストグラム、(b)は低いピークのヒストグラムをそれぞれ示している。 初期視差量の調整を説明する図である。 画像分離処理の流れを示すフローチャートである。 視点画像内の各画素が、境界画素、通常画素の2つに分類される様子を説明する図である。 自由視点画像生成処理の流れを示すフローチャートである。 主層の3次元モデル生成の様子を説明する図である。 主層のレンダリングの様子を説明する図である。 代表画像の主層を補助画像の視点位置でレンダリングしたときの一例を示す図である。 補助主層を生成する様子を説明する図である。 主層と補助主層のレンダリング結果の一例を示す図である。 境界層の3次元モデル生成の様子を説明する図である。 境界層のレンダリングの様子を説明する図である。 実施例2における補助主層を生成する様子を説明する図である。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。
図1は、本実施例に係る、複数の撮像部を備えた多眼方式による画像処理装置の一例を示した図である。
撮像装置100の筺体には、カラー画像データを取得する9個の撮像部101〜109及び撮影ボタン110を備えている。9個の撮像部は、すべて同一の焦点距離を有し、正方格子上に均等に配置されている。
ユーザが撮像ボタン110を押下すると、撮像部101〜109が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数のカラー画像(デジタルデータ)が同時に取得される。
このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から撮像したカラー画像群(複数視点画像データ)を得ることができる。
なお、ここでは撮像部の数を9個としたが撮像部の数は9個に限定されない。撮像装置が複数の撮像部を有する限りにおいて本発明は適用可能である。また、ここでは9個の撮像部が正方格子上に均等に配置される例について説明したが、撮像部の配置は任意である。例えば、放射状や直線状に配置してもよいし、まったくランダムに配置してもよい。
図2は、撮像装置100の内部構成を示すブロック図である。
中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。
RAM202は、CPU201の主メモリ、ワークエリア等として機能する。
ROM203は、CPU201で実行される制御プログラム等を格納している。
バス204は、各種データの転送経路であり、例えば、撮像部101〜109によって取得されたデジタルデータはこのバス204を介して所定の処理部に送られる。
操作部205は、ボタンやモードダイヤルなどが該当し、これらを介してユーザ指示が入力される。
表示部206は、撮影画像や文字の表示を行う。表示部206には一般的に液晶ディスプレイが広く用いられる。また、タッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部205の入力として扱うことも可能である。
表示制御部207は、表示部206に表示される画像や文字の表示制御を行う。
撮像部制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいた撮像系の制御を行う。
デジタル信号処理部209は、バス204を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。
エンコーダ部210は、デジタルデータを所定のファイルフォーマットに変換する処理を行う。
外部メモリ制御部211は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。
画像処理部212は、撮像部101〜109で取得された複数視点画像データ或いは、デジタル信号処理部209から出力される複数視点画像データから、距離情報を算出し、自由視点合成画像データを生成する。画像処理部212の詳細については後述する。
なお、撮像装置の構成要素は上記以外にも存在するが、本件発明の主眼ではないので、説明を省略する。
図3は、撮像部101〜109の内部構成を示す図である。
撮像部101〜109は、レンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310で構成される。レンズ301〜303は夫々、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303である。センサ309は、例えばCMOSやCCDなどのセンサである。
センサ309で被写体の光量を検知すると、検知された光量がA/D変換部310によってデジタル値に変換され、デジタルデータとなってバス204に出力される。
なお、本実施例では、撮像部101〜109で撮像される画像がすべてカラー画像であることを前提に各部の構成や処理を説明するが、撮像部101〜109で撮像される画像の一部或いは全部をモノクロ画像に変更しても構わない。その場合には、カラーフィルタ308は省略される。
図4は、画像処理部212の内部構成を示す機能ブロック図である。
画像処理部212は、距離情報推定部401、分離情報生成部402、自由視点画像生成部403を有している。実施例における画像処理部212は、撮像装置内の一構成要素として説明しているが、この画像処理部212の機能をPC等の外部装置で実現してもよい。すなわち、本実施例における画像処理部212は、撮像装置の一機能としても、又は独立した画像処理装置としても実現し得るものである。
以下、画像処理部212の各構成要素について説明する。
撮像部101〜109で取得されたカラーの複数視点画像データ或いは、デジタル信号処理部209から出力されるカラーの複数視点画像データ(本実施例ではいずれも9視点)が画像処理部212に入力されると、まず、距離情報推定部401に送られる。
距離情報推定部401は、入力された複数視点画像データ内の各視点の画像それぞれについて、撮像部から被写体までの距離を表す距離情報(以下、「距離情報」と呼ぶ。)を推定する。距離情報推定の詳細については後述する。なお、距離情報推定部401を設ける代わりに、同等の距離情報を外部から入力するように構成してもよい。
分離情報生成部402は、複数視点画像データを構成する各視点画像を、2つの層(被写体の境界である境界層、被写体の境界でない主層)に分離するための基礎となる情報(分離情報)を生成する。具体的には、各視点画像内の各画素を、被写体の境界(以下、「オブジェクト境界」と呼ぶ。)に隣接する境界画素、及び、境界画素以外の通常画素の2種類に分類し、各画素がいずれの種類に該当するかを特定可能な情報を生成する。分離情報生成の詳細については後述する。
自由視点画像生成部403は、主層(補助主層を含む)および境界層の各3次元モデルをレンダリングして、任意の視点位置における画像データ(自由視点画像データ)を生成する。自由視点画像生成の詳細については後述する。
(距離情報推定処理)
距離情報推定部401における距離情報の推定方法について説明する。図5は、本実施例に係る距離情報推定処理の流れを示すフローチャートである。以下では、入力される複数視点画像データは、図1に示した9個の撮像部101〜109を有する撮像装置100によって撮像された9視点の画像データであるものとして説明を行う。
ステップ501において、距離情報推定部401は、入力された9視点画像データ内の1の視点画像(対象視点画像)に対し、エッジ保持型の平滑化フィルタをかける。
ステップ502において、距離情報推定部401は、対象視点画像を所定のサイズの領域(以下、「小領域」と呼ぶ。)に分割する。具体的には、色差が閾値以下の隣接する画素(画素群)同士を順次統合していき、最終的に所定の画素数からなる小領域(例えば、100〜1600画素の領域)に対象視点画像を分割する。閾値は、比較される色同士が同程度の色であると判断するのにふさわしい値、例えばRGBをそれぞれ8ビット(256色)で量子化した場合であれば「6」といった値に設定される。初めは、隣り合う画素同士を比較して色差が上記閾値以下であれば、両画素を統合する。そして、次に、統合された画素群について平均色をそれぞれ求め、隣接する画素群の平均色と比較し、色差が上記閾値以下となった画素群同士を統合していく。このような処理を、画素群の大きさ(画素数)が、上述の一定の画素数で構成される小領域に達するまで繰り返す。
ステップ503において、距離情報推定部401は、9視点画像データに含まれる9つの視点画像のすべてに対して、小領域への分割が完了したかどうかを判定する。小領域への分割が完了している場合には、ステップ504に進む。一方、領域分割が完了していない場合にはステップ501に戻り、次の視点画像を対象視点画像として、平滑化フィルタをかける処理及び小領域への分割処理を行う。
ステップ504において、距離情報推定部401は、すべての視点画像について、それぞれ周囲の視点画像(ここでは、上下左右に位置する視点画像)を参照して、分割された小領域毎に初期視差量を算出する。例えば、中央の撮像部105に係る視点画像の初期視差量を算出するときは、撮像部102・104・106・108の各視点画像が参照される。端部の撮像部に係る視点画像の場合、例えば撮像部107の視点画像は撮像部104・108の各視点画像が参照され、撮像部108の視点画像の場合は撮像部105・107・109の各視点画像が参照されて、初期視差量が算出される。初期視差量の算出は以下のようにして行う。
まず、初期視差量を求める視点画像の各小領域と、参照する視点画像(参照視点画像)における対応する小領域との比較を行う。ここで、対応する小領域とは、初期視差量を求める視点画像の各小領域の位置に対して視差量分シフトした参照視点画像における小領域である。
次に、初期視差量を求める視点画像の各画素と視差量分シフトした参照視点画像における対応する画素との色差を、小領域内の全ての画素について算出し、ヒストグラムを作成する。
そして、視差量を変化させて、それぞれヒストグラムを作成する。
こうして得られたヒストグラムにおいて、ピークが高い視差量が求める初期視差量となる。なお、参照する視点画像における対応する領域は、縦方向と横方向で視差量を調整して設定する。縦方向の1ピクセルの視差量と横方向の1ピクセルの視差量が同じ距離を示さないためである。
ここまでの処理について、具体例を用いて説明する。
図6の(a)は、撮像部105の視点画像の例を示す図であり、オブジェクト601が写っている。図6の(b)は、撮像部105の視点画像にエッジ保持型のフィルタをかけ、小領域に分割した状態を示す図である。ここで、小領域の一つを小領域602、小領域602の中心座標を603とする。図6の(c)は、撮像部104の視点画像の例を示す図である。撮像部104の場合、同じオブジェクトを撮像部105の右側から撮像することになるため、撮像部104の視点画像におけるオブジェクト604は、撮像部105の視点画像におけるオブジェクト601よりも左側に写っている。
いま、対象視点画像を撮像部105の視点画像、参照する視点画像を撮像部104の視点画像として、小領域602を対象とした対応領域の比較を行う。図6の(d)は撮像部104の視点画像に、撮像部105の視点画像における小領域602を重ねた状態であり、対応領域においてずれがある。そして、撮像部105の視点画像における小領域602の画素値(エッジ保持型のフィルタをかけたもの)と撮像部104の視点画像における画素値(エッジ保持型のフィルタをかけたもの)との比較を行い、ヒストグラムを作成する。具体的には、対応する小領域の各画素の色差を取得し、横軸に色差、縦軸にマッチングした画素数を取る。そのようにして、視差量を変化させて(例えば、小領域を1画素ずつ移動させて)、視差量毎のヒストグラムを順次作成する。図7は、ヒストグラムの一例を示しており、図7の(a)のように高いピークを持つヒストグラム分布は視差量の信頼度が高く、図7の(b)のようにピークの低いヒストグラム分布は視差量の信頼度が低いと判断する。ここでは、高いピークを持つヒストグラムの視差量を、初期視差量として設定する。図6の(e)は、図6の(d)で生じているずれが解消された状態であり、撮像部105の視点画像における小領域602が撮像部104の視点画像における対応領域にずれなく重なっている。この図6の(e)における矢印605で示される視差量が、求める初期視差量に相当する。なお、ここでは小領域を1画素ずつ移動させてヒストグラムを生成したが、0.5画素ずつ移動させるなど移動量は任意に設定して構わない。
図5のフローチャートの説明に戻る。
ステップ505において、距離情報推定部401は、小領域間の色差、初期視差量の差などを用いて反復的に初期視差量を調整する。具体的には、色差が近い近隣の小領域は似た視差量を持ち、所期視差量の差が近い近隣の小領域は似た視差量を持つ可能性が高いとの考えに基づいて初期視差量の調整を行う。
図8は、初期視差量の調整を説明する図である。図8の(a)は、図6の(b)の小領域毎に初期視差量を算出した結果(調整前の状態)を示す図であり、図8の(b)は調整を行った後の状態を示す図である。図8の(a)では、オブジェクト領域800(太線の内側の領域)における3つの小領域の視差量をそれぞれ斜線801、斜線802、斜線803で表している。ここで、斜線801/803は左上から右下に向かう斜線であり、斜線802は右上から左下に向かう斜線であるが、これは両者の視差量が異なっていることを示す。この場合において、背景領域(太線の外側の領域)については右上から左下に向かう斜線が正解の視差量であり、オブジェクト領域については左上から右下に向かう斜線が正解の視差量であるとする。図8の(a)では、視差量801及び803に関しては、オブジェクト領域の視差量として正しい視差量が算出できているが、視差量802に関しては、背景領域の視差量を算出してしまっており正しい視差量ができていないことが分かる。視差量の調整では、このような小領域単位に視差量を推定したときに生じた誤りが、周囲の小領域との関係を利用して正される。例えば、図8の(a)の場合、背景領域の視差量になってしまっていた視差量802が、隣接する小領域の視差量801及び視差量803を利用して調整された結果、図8の(b)に示すとおり、左上から右下に向かう正しい視差量804となる。
ステップ506において、距離情報推定部401は、初期視差量の調整によって得られた視差量を距離に変換する処理を行って距離情報を得る。距離情報は、(カメラ間隔×焦点距離)/(視差量×1ピクセルの長さ)で算出されるが、1ピクセルの長さは縦と横とでは異なるため、縦と横の視差量が同一距離を示すように必要な変換が施される。
さらに、変換された距離情報は、例えば8ビット(256階調)に量子化される。そして8ビットに量子化された距離情報は、8ビットのグレイスケール(256階調)の画像データとして保存される。距離情報のグレイスケール画像では、オブジェクトの色は、カメラからの距離が近い程、白(値:255)に近い色、カメラからの距離が遠い程、黒(値:0)に近い色で表現される。例えば、図8におけるオブジェクト領域800は白で表現され、背景領域は黒で表現される。もちろん、距離情報は10ビット、12ビットなど他のビット数で量子化しても良いし、量子化せずバイナリファイルとして保存しても構わない。
このようにして、各視点画像の各画素に対応した距離情報が算出される。本実施例では、画像を所定の画素数からなる小領域に分割して距離を算出しているが、複数視点画像間の視差を基に距離を得るのであれば他の推定方法を用いても構わない。
上記の処理で得られた各視点画像に対応する距離情報と複数視点画像データは、後続の分離情報生成部402および自由視点画像生成部403に送られる。なお、各視点画像に対応する距離情報と複数視点画像データを分離情報生成部402のみに送り、分離情報生成部402からこれらのデータを自由視点画像生成部403に送るようにしてもよい。
(分離情報生成処理)
次に、分離情報生成部402における、各視点画像を画像中のオブジェクトの境界付近である境界層、オブジェクトの境界以外である主層の2つの層に分離する処理について説明する。図9は、本実施例に係る画像分離処理の流れを示すフローチャートである。
ステップ901において、分離情報生成部402は、複数視点画像データ、及び、距離情報推定処理によって得られた距離情報を取得する。
ステップ902において、分離情報生成部402は、視点画像内のオブジェクト境界を抽出する。本実施例では、対象画素の距離情報と近隣画素の距離情報との差分(以下、「距離情報の差分」と呼ぶ。)が閾値以上の箇所をオブジェクトの境界として特定している。具体的には、以下のとおりである。
まず、縦方向に走査し、距離情報の差分を閾値と比較して、閾値以上となる画素を特定する。次に、横方向に走査し、同様に距離情報の差分を閾値と比較して、閾値以上となる画素を特定する。そして、縦方向と横方向でそれぞれ特定された画素の和集合をとり、オブジェクト境界として特定する。なお、閾値としては、距離情報が8ビットで量子化(0〜255)されている場合においては、例えば「10」のような値に設定される。
ここでは、オブジェクト境界を距離情報に基づいて得ているが、画像を領域分割してオブジェクト境界にするなど他の方法を用いても構わない。ただ、画像の領域分割により得られるオブジェクト境界と、距離情報から得られるオブジェクト境界とは、出来る限り一致していることが望ましい。画像の領域分割によってオブジェクト境界を得たときは、得られたオブジェクト境界に合わせて距離情報を補正すると良い。
ステップ903において、分離情報生成部402は、視点画像内の各画素を、境界画素、通常画素の2種類に分類する。具体的には、ステップ901で取得した距離情報を参照して、ステップ902で特定されたオブジェクト境界に隣接する画素を境界画素と決定する。図10は、視点画像内の各画素が、境界画素、通常画素の2つに分類される様子を説明する図である。オブジェクト境界1001を跨ぐ隣接画素が境界画素1002、残りの画素が通常画素1003にそれぞれ分類されている。ここでは、オブジェクト境界1001に隣接する1画素のみを境界画素としているが、例えば、オブジェクト境界に隣接する2画素(オブジェクト境界1001から2画素の幅)を境界画素としてもよい。オブジェクト境界付近の境界画素とそれ以外の通常画素とを特定することができるのであれば、どのように分類しても構わない。
ステップ904において、分離情報生成部402は、入力された複数視点画像データに含まれるすべての視点画像について画素の分類が完了したかどうかを判定する。未処理の視点画像がある場合にはステップ902に戻り、次の視点画像に対しステップ902及びステップ903の処理を行う。一方、すべての視点画像について画素の分類が完了していた場合には、ステップ905に進む。
ステップ905において、分離情報生成部402は、境界画素、通常画素を特定可能な分離情報を自由視点画像生成部403に送る。分離情報としては、例えば境界画素と判定された画素について“1”、通常画素と判定された画素について“0”といったフラグを別途付加すること等が考えられる。ただし、境界画素が分かれば、その余の画素は通常画素であると判明するので、分離情報としては、境界画素が特定可能な情報であればよい。後述の自由視点画像生成処理では、このような分離情報を用いて、所定の視点画像が2つの層(すなわち、境界画素で構成される境界層、通常画素で構成される主層)に分離されることになる。
(自由視点画像生成処理)
続いて、自由視点画像生成部403における、自由視点画像の生成処理について説明する。図11は、本実施例に係る自由視点画像生成処理の流れを示すフローチャートである。
ステップ1101において、自由視点画像生成部403は、出力される自由視点画像における任意の視点(以下、「自由視点」と呼ぶ。)の位置情報を取得する。自由視点の位置情報は、例えば以下のような座標によって与えられる。本実施例では、撮像部105の位置を基準となる座標位置(0.0,0.0)とした場合における、自由視点の位置を示す座標情報を与えるものとする。この場合、撮像部101は(1.0,1.0)、撮像部102は(0.0,1.0)、撮像部103は(−1.0,1.0)、撮像部104は(1.0,0.0)の座標でそれぞれ表される。同様に、撮像部106は(−1.0,0.0)、撮像部107は(1.0,−1.0)、撮像部108は(0.0,−1.0)、撮像部109は(−1.0,−1.0)の座標で表される。ここで、例えば、4つの撮像部101、102、104、105の中間位置を自由視点とした画像を合成したいと考えたとき、ユーザは、座標(0.5,0.5)を入力すればよいことになる。当然のことながら、座標定義の方法は上記に限るものではなく、撮像部105以外の撮像部の位置を基準となる座標位置としてもよい。また、自由視点の位置情報の入力方法は上述した座標を直接入力する方法に限られるものではなく、例えば、撮像部の配置を示すUI画面(不図示)を表示部206に表示し、タッチ操作等によって所望の自由視点を指定するようにしてもよい。
なお、本ステップにおける取得対象としては説明していないが、上述のとおり各視点画像に対応する距離情報と複数視点画像データも、距離情報推定部401或いは分離情報生成部402から取得される。
ステップ1102において、自由視点画像生成部403は、指定された自由視点の位置における自由視点画像データの生成において参照する、複数の視点画像(以下、「参照画像群」と呼ぶ。)を設定する。本実施例では、指定された自由視点の位置に近い4つの撮像部で撮像された視点画像を参照画像群として設定する。上記のように、自由視点の位置として座標(0.5,0.5)が指定されたときの参照画像群は、撮像部101、102、104、105で撮像された4つの視点画像によって構成されることになる。もちろん、参照画像群を構成する視点画像の数は4つに限定されるものではなく、指定された自由視点の周囲の3つでも構わない。さらに、指定された自由視点の位置を内包するものであれば足り、例えば指定された自由始点位置の直近ではない4つの撮像部(例えば、撮像部101、103、107、109)で撮像された視点画像を参照画像群に設定してもよい。
ステップ1103において、自由視点画像生成部403は、設定された参照画像群に対して、1の代表画像と1以上の補助画像を設定する処理を行う。本実施例では、参照画像群のうち、指定された自由視点の位置に最も近い視点画像を代表画像とし、その他の視点画像を補助画像として設定する。例えば、自由視点の位置として座標(0.2、0.2)が指定され、撮像部101、102、104、105で撮像された4つの視点画像からなる参照画像群が設定されたとする。この場合、指定された自由視点の位置(0.2、0.2)に最も近い撮像部105で撮像された視点画像が代表画像に設定され、撮像部101、102、104で撮像された各視点画像が補助画像に設定される。もちろん、代表画像の決定方法はこれに限るものではなく、各撮像部の配置等に応じて、例えばカメラ中心により近い撮像部で撮像された視点画像を代表画像にするなど、他の方法を用いても構わない。
ステップ1104において、自由視点画像生成部403は、代表画像の主層の3次元モデルを生成する処理を行う。主層の3次元モデルは、オブジェクト境界に掛かっていない通常画素を含む4つの画素を相互に接続して四辺形メッシュを構築することにより生成する。図12は、代表画像の主層の3次元モデル生成の様子を説明する図である。図12において例えば、いずれもオブジェクト境界1001に掛かってない通常画素を含む4つの画素(2つの通常画素1003、1201及び2つの境界画素1202、1203)を接続して四辺形メッシュ1204が構築される。このような処理を繰り返し行い、主層の3次元モデルとなるすべての四辺形メッシュが構築される。このときの四辺形メッシュの大きさは最小で1画素×1画素である。本実施例では、主層は全て1画素×1画素の大きさの四辺形メッシュで構築しているが、より大きな四辺形メッシュとしてもよい。または、四辺形以外の形状、例えば三角形のメッシュを構築するようにしても構わない。
上記のようにして構築される、1画素単位の四辺形メッシュのX座標とY座標は撮像装置100のカメラパラメータから算出されたグローバル座標が相当し、Z座標は距離情報から得られる各画素における被写体までの距離が相当する。そして、各画素の色情報を四辺形メッシュにテクスチャマッピングして、主層の3次元モデルを生成する。
図11のフローチャートの説明に戻る。
ステップ1105において、自由視点画像生成部403は、代表画像の主層を補助画像の視点位置でレンダリングする。図13は、代表画像の主層のレンダリングの様子を説明する図である。横軸にX座標、縦軸にZ座標を取っている。図13において、線分1301及び1302は、代表画像の視点位置である基準視点(白塗りの逆三角1303)から3次元モデル生成した場合における主層の四辺形メッシュをそれぞれ示している。ここでは、境界画素1304と境界画素1305との間にオブジェクト境界(不図示)が存在するものとする。主層として、通常画素1306と境界画素1304とを接続した四辺形メッシュ1301、及び、通常画素1307と境界画素1305とを接続した四辺形メッシュ1302が3次元モデル生成されている。このような四辺形メッシュ1301及び1302を、補助画像の視点位置である対象視点(黒塗りの逆三角形1308)でレンダリングした画像がレンダリング画像となる。レンダリング処理において、色が存在しない画素部分は、穴として残ることになる。図13において、矢印1309/1310は、四辺形メッシュ1302が、基準視点1303/対象視点1308でどの位置から見えるかを示している。基準視点1303より左側にある対象視点1308では、四辺形メッシュ1302は、基準視点1303より右側に位置する。矢印1311/1312も同様に、四辺形メッシュ1301が、基準視点1303/対象視点1308でどの位置から見えるかを示している。
図14は、代表画像の主層を補助画像の視点位置でレンダリングしたときの一例を示した図である。ここでは、撮像部105で撮像された視点画像を代表画像とし、撮像部104で撮像された視点画像を補助画像とした場合のレンダリング結果を示す。図14の(a)は代表画像(撮像部105で撮像)、同(b)は補助画像(撮像部104で撮像)をそれぞれ示している。撮像部105と撮像部104によってオブジェクト1401が撮像されているが、撮像部105で撮像された視点画像では右側に、撮像部104で撮像された視点画像では左側にオブジェクト1401が写っているのが分かる。図14の(c)は、代表画像における主層と境界層を表しており、斜線で示された領域1402が主層であり、黒の太線で示された領域1403が境界層である。図14の(d)は、図14の(c)において斜線で示された領域1402、すなわち、代表画像の主層を、補助画像の視点位置でレンダリングした結果を示している。代表画像の境界層がレンダリングされないことから境界領域1403が穴として残り、また、代表画像の視点位置で撮像されていないオクルージョン領域1404も穴として残ることが分かる。すなわち、図14の(d)では、代表画像の主層を補助画像の視点位置でレンダリングすることにより、境界領域1403及びオクルージョン領域1404が穴として残る。
図11のフローチャートの説明に戻る。
ステップ1106において、自由視点画像生成部403は、補助画像の補助主層を生成する。ここで、補助主層とは、補助画像における主層と、ステップ1105で得られたレンダリング画像(代表画像の主層を補助画像の視点位置でレンダリングした画像)との差分に相当する。図15は、補助主層生成の様子を説明する図である。ここでも、撮像部105で撮像された視点画像を代表画像とし、撮像部104で撮像された視点画像を補助画像とする。図15の(a)は、補助画像における境界層と主層を表しており、図14の(c)と同様、斜線で示された領域1501が主層であり、黒の太線で示された領域1502が境界層である。ここで、図14の(d)で示されたように、代表画像の主層を補助画像の視点位置でレンダリングした画像では、境界領域1403及びオクルージョン領域1404が穴として残っていた。その結果、図15の(a)における斜線領域1501と図14の(d)における斜線領域1402との差分に相当する領域1503(図14の(d)におけるオクルージョン領域1404)が、補助画像の補助主層となる。このように本実施例では、補助主層の生成に視点画像の構造情報のみを利用し、色情報は利用していない。そのため、色情報のレンダリングを省略でき、結果的に計算量を削減することができる。
図11のフローチャートの説明に戻る。
ステップ1107において、自由視点画像生成部403は、補助画像の補助主層の3次元モデルを生成する処理を行う。補助主層の3次元モデルは、ステップ1104で説明した代表画像の主層の3次元モデルと同様の処理で生成される。ここでは、補助主層として設定された画素を通常画素、その他の画素を境界画素として扱う。補助主層の3次元モデルは、オブジェクト境界に掛かっていない通常画素を含む4つの画素を相互に接続して四辺形メッシュを構築することにより生成する。その他の処理はステップ1104と同様のため、ここでの説明は省略する。代表画像の主層の3次元モデリングに比べ、補助画像の補助主層の3次元モデリングは、通常画素として処理する画素数が少ないため、3次元モデル生成に要する計算量は少なくて済む。
ステップ1108において、自由視点画像生成部403は、代表画像の主層を自由視点位置でレンダリングする。代表画像の主層の3次元モデルを、ステップ1105では補助画像の視点位置でレンダリングしたが、本ステップでは、ステップ1101で取得した自由視点位置でレンダリングする。これは、図13において、基準視点1303が代表画像の視点位置を指し、対象視点1308が自由視点位置を指すことを意味する。その他の処理はステップ1105と同様のため、ここでの説明は省略する。
ステップ1109において、自由視点画像生成部403は、補助画像の補助主層を自由視点位置でレンダリングする。すなわち、ステップ1107で生成した補助画像の補助主層の3次元モデルを、ステップ1101で取得した自由視点位置でレンダリングする。これは、図13において、基準視点1303が補助画像の視点位置を指し、対象視点1308が自由視点位置を指すことを意味する。その他の処理はステップ1105と同様のため、ここでの説明は省略する。
ここまでで自由視点画像合成に必要な画像生成を行ったが、計算負荷の大きい処理を整理すると以下のようになる。
・代表画像の主層の3次元モデル生成(ステップ1104)
・補助画像の補助主層の3次元モデル生成(ステップ1107)
・代表画像の主層を補助画像の視点位置でレンダリング(ステップ1105)
・代表画像の主層を自由視点位置でレンダリング(ステップ1108)
・補助画像の補助主層を自由視点位置でレンダリング(ステップ1109)
ステップ1104及び1107における3次元モデル生成について言えば、補助画像の補助主層の画素数が代表画像の主層の画素数よりも少ないため、複数の参照画像において共に主層を利用する場合と比べて計算量を大幅に削減できる。
また、ステップ1105、1108及び1109におけるレンダリング処理を、例えばGPU(画像処理専用の演算装置)を用いて行うなど、3次元モデル生成に対してレンダリング処理を高速化できれば、本発明の効果はより大きくなる。
図11のフローチャートの説明に戻る。
ステップ1110において、自由視点画像生成部403は、自由視点位置でなされた2つのレンダリング結果(代表画像の主層のレンダリング結果と補助画像の補助主層のレンダリング結果)を統合して、主層と補助主層の統合画像データを生成する。本実施例の場合、代表画像の主層をレンダリングした1つのレンダリング画像と、補助画像の補助主層をレンダリングした3つのレンダリング画像とが統合されることになる。以下、統合処理について説明する。
まず、統合処理は、画素毎に行われる。そして、統合後の色は、様々な手法によって取得し得るが、ここでは各レンダリング画像の重み付き平均、具体的には、指定された自由視点の位置と参照画像との距離に基づく重み付き平均を用いる場合について説明する。例えば、指定された自由始点位置が、参照画像群を構成する各視点画像に対応する4つの撮像部から等距離だけ離れた位置であった場合には、0.25ずつの等しい重みとなる。指定された自由始点位置が、いずれかの撮像部に近寄った位置であった場合には、その距離が近いほど大きい重みとなる。この際、各レンダリング画像で穴が空いている箇所は、統合の色計算には用いない。つまり穴が空いていないレンダリング画像からの重み付き平均によって統合後の色は計算される。全てのレンダリング画像で穴が空いている箇所は穴として残ることになる。図16を用いて、この統合処理の様子を説明する。ただし、説明の簡易化のために、代表画像を撮像部105で撮像された視点画像、補助画像を撮像部104で撮像された1の視点画像とする。そして、自由視点位置は、撮像部105と撮像部104との中間視点とする。図16の(a)では代表画像の主層が、同(b)では補助画像の補助主層が、それぞれ斜線によって表されている。図16の(a)に示された代表画像の主層を中間視点でレンダリングした結果を表わしているのが図16の(c)であり、網掛けで示される領域1601が主層からのレンダリング領域である。境界領域1602及びオクルージョン領域1603は穴として残っている。そして、図16の(b)に示された補助画像の補助主層を中間視点でレンダリングした結果を表しているのが図16(d)であり、網掛けで示される領域1604が補助主層からのレンダリング領域である。境界領域1605とその他の領域1606は穴として残っている。図16の(c)を見ると、撮像部105の視点画像におけるオブジェクトよりも左側に(図16の(a)参照)、撮像部104の視点画像におけるオブジェクトよりも右側に(図16の(b)参照)オブジェクトが位置しているのが分かる。そして、図16の(c)では、オブジェクトの右側にオクルージョン領域1603が残っていることが分かる。一方、図16の(d)では、図16の(c)におけるオクルージョン領域1603に相当する領域1604が、補助主層からのレンダリング領域となっていることが分かる。このように、補助画像の補助主層をレンダリングした結果、代表画像の主層のレンダリング画像において欠落している部分を補うようなレンダリング領域が得られる。このような相互補完の関係にある2つのレンダリング画像(代表画像の主層のレンダリング画像と補助画像の補助主層のレンダリング画像)を統合することで、穴のない画像(図16の(e)参照)が得られることになる。ここでは、説明の便宜上2つの視点画像での中間視点画像を生成しているため、色計算の重みはそれぞれ0.5となる。そして、統合された画像における各画素の色は、共に穴が空いていない箇所については、両レンダリング画像の平均色となる。そして、いずれか一方のレンダリング画像において穴が空いている箇所は、穴が空いていない方のレンダリング画像における画素の色が採用されることになる。このようにして、撮像部105の視点画像と撮像部104の視点画像との中間視点の画像が生成される。説明の簡易化のために2つの画像(1つの代表画像と1つの補助画像)のレンダリング結果を統合する場合を例に説明したが、4つの画像(1つの代表画像と3つの補助画像)のレンダリング結果を統合する場合も考え方は同じである。なお、この統合処理で穴が埋まらない部分は、後述する境界層のレンダリング結果の統合処理によって埋められることになる。本ステップにおける統合処理では、代表画像の主層のレンダリング結果と、補助画像の補助主層のレンダリング結果との間で重複する領域が少ないため、合成時のボケを抑制できると共に、計算量も削減できる。
このようにして、主層の統合画像データが生成される。
図11のフローチャートの説明に戻る。
ステップ1111において、自由視点画像生成部403は、代表画像における境界層及び補助画像における境界層の3Dモデルを生成する。オブジェクト境界に接する境界層では、メッシュ生成時に隣接画素との接続を行わない。具体的には、1つの画素に対して1つの四辺形メッシュを構築して3次元モデルを生成する。図17は、境界層の3次元モデル生成の様子を説明する図である。本ステップでは、境界画素1701に対して、1画素×1画素の大きさの四辺形メッシュ1702が構築される。このような処理をすべての境界画素に対して繰り返し行い、境界層の3次元モデルとなるすべての四辺形メッシュを構築する。このようにして構築される、1画素単位の四辺形メッシュのX座標とY座標は、撮像装置100のカメラパラメータから算出されたグローバル座標が相当し、Z座標は距離情報から得られる各境界画素における被写体までの距離となる。そして、各境界画素の色情報を四辺形メッシュの色として境界層の3次元モデルを生成する。
図11のフローチャートの説明に戻る。
ステップ1112において、自由視点画像生成部403は、代表画像における境界及び補助画像における境界層のレンダリングを行う。図18は、境界層のレンダリングの様子を説明する図である。図13と同様、横軸にX座標、縦軸にZ座標を取っており、境界画素1304と境界画素1305との間にオブジェクト境界(不図示)が存在するものとする。図18において、線分1801、1802は、白塗りの逆三角で示される参照視点1303から3次元モデル生成した場合における境界層の四辺形メッシュを示している。そして、境界層1801は境界画素1305の距離情報と色情報を持つ1画素単位の四辺形メッシュであり、境界層1802は境界画素1304の距離情報と色情報を持つ1画素単位の四辺形メッシュである。このような1画素単位の四辺形メッシュ1801、1802を、ステップ1101で指定された自由視点の位置(図18中の黒塗りの逆三角1308)でレンダリングした画像が境界層のレンダリング画像となる。なお、境界層のレンダリングの場合も、色が存在しない画素部分は、穴として残ることになる。そして、このようなレンダリング処理を、代表画像と補助画像の双方について行い、境界層のレンダリング画像群を得る。図18において、矢印1803/1804は、四辺形メッシュ1802が、視点1303/視点1308でどの位置から見えるかを示している。視点1303より左側にある視点1308では、四辺形メッシュ1802は、視点1303より右側に位置するのが分かる。
図11のフローチャートの説明に戻る。
ステップ1113において、自由視点画像生成部403は、境界層のレンダリング画像群を統合して、境界層の統合画像データを得る。具体的には、ステップ1110と同様の統合処理によって、4つの視点画像(1つの代表画像と3つの補助画像)それぞれから生成された境界層のレンダリング画像(4つ)が統合される。
ステップ1114において、自由視点画像生成部403は、ステップ1110で得た主層と補助主層の統合画像データと、ステップ1113で得た境界層の統合画像データとを統合して、2層(主層(補助主層を含む)と境界層)の統合画像データを得る。この統合処理も画素毎に行われる。この際、主層と補助主層の統合画像の方が境界層の統合画像よりも安定的に精度の高い画像が得られることから、主層と補助主層の統合画像を優先して利用する。すなわち、主層と補助主層の統合画像に穴が空いていて、境界層の統合画像に穴が空いていないという場合にのみ、境界層の統合画像の色で補完がなされる。主層と補助主層の統合画像と境界層の統合画像との双方に穴が空いているときは、穴として残ることになる。
なお、本実施例において、主層、補助主層のレンダリング、境界層のレンダリングの順に処理を行うのは、オブジェクト境界付近の画質劣化を抑えるためである。
ステップ1115において、自由視点画像生成部403は、穴埋め処理を行う。具体的には、ステップ1114で得た2層統合画像データにおいて穴として残っている部分を周囲の色を用いて補完する。本実施例では、穴埋め対象画素に隣接する周辺画素のうち距離情報が奥にある画素を選択して穴埋め処理を行う。もちろん穴埋めの方法は他の方法を用いても構わない。
ステップ1116において、自由視点画像生成部403は、穴埋め処理の終わった自由視点画像データを、エンコーダ部210に出力する。エンコーダ部210では、任意の符号化方式(例えばJPEG方式)で符号化して画像出力される。
本実施例によれば、複数視点画像データにおける各視点間の撮像画像を高精度、かつ、高速に合成することが可能となり、撮像した画像とは視点数の異なるディスプレイにおける違和感のない表示、リフォーカス処理など画像処理の高画質化、などを実現できる。
実施例1では、補助主層の生成に、代表画像の主層を補助画像の視点位置でレンダリングしたときに穴が空いた領域の情報を利用した。つまり構造情報のみで補助主層を生成していた。次に、補助主層の生成に、構造情報に加えて色情報を利用することで、より高い画質を実現する態様について、実施例2として説明する。なお、実施例1と共通する部分(距離情報推定部401、分離情報生成部402における処理)については説明を省略し、ここでは差異点である自由視点画像生成部403における処理を中心に説明することとする。
本実施例では、自由視点画像生成処理における補助主層の生成処理において、構造情報に加えて色情報を利用する点が異なるのみである。そこで、前述の図11のフローチャートに沿って本実施例に特有な点を中心に説明する。
ステップ1101における自由視点の位置情報の取得、ステップ1102における参照する画像群の設定、ステップ1103における代表画像と補助画像の設定は、実施例1と同様である。また、ステップ1104における代表画像の主層の3Dモデルを生成する処理、ステップ1105における代表画像の主層を補助画像の視点位置でレンダリングする処理も、実施例1と同様である。
ステップ1106において、自由視点画像生成部403は、補助画像の補助主層を、色情報を用いて生成する。具体的には、以下のとおりである。
実施例1の場合と同様、撮像部105で撮像された視点画像を代表画像とし、撮像部104で撮像された視点画像を補助画像とする。本ステップでは、補助画像の境界層と主層を示す情報(図15の(a)参照)、及び代表画像の主層を補助画像の視点位置でレンダリングしたレンダリング画像の情報(図14の(d)参照)から補助画像の補助主層を生成する。
まず、実施例1と同様、構造情報を基に補助主層を決定する。この段階では、オクルージョン領域1503(図15の(b)参照)が補助主層として決定される。続いて、色情報を基に最終的な補助主層を決定する。すなわち、代表画像の主層を補助画像の視点位置でレンダリングして得られたレンダリング画像の色情報と補助画像における主層の色情報との差分を取り、当該差分の値が所定の閾値以上となる領域を、さらに補助主層として決定する。所定の閾値としては、例えば、RGBの各色が0〜255で色情報が表される場合であれば10といった任意の値である。これにより、色情報の差分値が閾値以上となるような色変化のある領域が、補助主層に追加されることになる。図19は、本実施例に係る補助主層の一例を示す図である。オクルージョン領域1503に相当する領域に加えて、2つの領域1901が補助主層として決定されているのが分かる。
このように、本実施例では、補助画像における補助主層の生成に、構造情報だけでなく色情報も利用される。
以降の処理(ステップ1107からステップ1116)は、実施例1と同様であるため、ここでの説明は省略する。
本実施例によれば、補助画像の補助主層の生成に、構造情報に加えて色情報を利用することで、代表画像の主層のみのレンダリングでは表現できない色変化のある領域に対して、補助画像の補助主層からもレンダリングして合成処理を行う。これにより、より高い画質を実現することが可能となる。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (15)

  1. 複数の視点から撮像された複数視点画像の中から、1の代表画像及び当該代表画像とは視点の異なる1以上の補助画像を設定する設定手段と、
    設定された前記代表画像と前記補助画像とを用いて、自由視点位置での合成画像を生成する合成手段と
    を有し、
    前記合成手段は、前記代表画像におけるオブジェクトの境界以外を示す主層のレンダリング画像と、前記代表画像の視点からは撮像されない領域を少なくとも含む前記補助画像の補助主層のレンダリング画像とを統合する手段を備える、
    ことを特徴とする画像処理装置。
  2. 前記合成手段は、前記代表画像におけるオブジェクトの境界以外を示す主層を前記補助画像の視点でレンダリングし、得られたレンダリング画像と前記補助画像におけるオブジェクトの境界以外を示す主層との差分を取ることにより前記代表画像の視点からは撮像されない領域となる領域を取得して、前記補助主層を生成する補助主層生成手段をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記補助主層生成手段は、さらに、前記代表画像の前記主層を前記補助画像の視点でレンダリングして得られたレンダリング画像の色情報と前記補助画像における前記主層の色情報との差分を取り、当該差分が閾値以上となる領域を前記補助主層に追加することを特徴とする請求項2に記載の画像処理装置。
  4. 前記合成手段は、前記代表画像におけるオブジェクトの境界を示す境界層のレンダリング画像と、前記補助画像におけるオブジェクトの境界を示す境界層のレンダリング画像とを統合する手段をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記代表画像におけるオブジェクトの境界を示す境界層のレンダリング画像と、前記補助画像におけるオブジェクトの境界を示す境界層のレンダリング画像との統合は、前記代表画像におけるオブジェクトの境界以外を示す主層のレンダリング画像と、前記代表画像の視点からは撮像されない領域を少なくとも含む前記補助画像の補助主層のレンダリング画像との統合よりも後に行われることを特徴とする請求項4に記載の画像処理装置。
  6. 前記主層及び前記境界層は、画像の距離情報を用いて分離されることを特徴とする請求項4又は5に記載の画像処理装置。
  7. 前記主層及び前記境界層は、画像の色情報を用いて分離されることを特徴とする請求項4又は5に記載の画像処理装置。
  8. 複数の視点から撮像された複数視点画像の中から、1の代表画像及び当該代表画像とは視点の異なる1以上の補助画像を設定する設定ステップと、
    設定された前記代表画像と前記補助画像とを用いて、自由視点位置での合成画像を生成する合成ステップと
    を含み、
    前記合成ステップは、前記代表画像におけるオブジェクトの境界以外を示す主層のレンダリング画像と、前記代表画像の視点からは撮像されない領域を少なくとも含む前記補助画像の補助主層のレンダリング画像とを統合するステップを含む、
    ことを特徴とする画像処理方法。
  9. 前記合成ステップは、前記代表画像におけるオブジェクトの境界以外を示す主層を前記補助画像の視点でレンダリングし、得られたレンダリング画像と前記補助画像におけるオブジェクトの境界以外を示す主層との差分を取ることにより前記代表画像の視点からは撮像されない領域をとなる領域を取得して、前記補助主層を生成する補助主層生成ステップをさらに含むことを特徴とする請求項8に記載の画像処理方法。
  10. 前記補助主層生成ステップは、さらに、前記代表画像の前記主層を前記補助画像の視点でレンダリングして得られたレンダリング画像の色情報と前記補助画像における前記主層の色情報との差分を取り、当該差分が閾値以上となる領域を前記補助主層に追加するステップをさらに含むことを特徴とする請求項9に記載の画像処理方法。
  11. 前記合成ステップは、前記代表画像におけるオブジェクトの境界を示す境界層のレンダリング画像と、前記補助画像におけるオブジェクトの境界を示す境界層のレンダリング画像とを統合するステップをさらに備えることを特徴とする請求項8〜10のいずれか1項に記載の画像処理方法。
  12. 前記代表画像におけるオブジェクトの境界を示す境界層のレンダリング画像と、前記補助画像におけるオブジェクトの境界を示す境界層のレンダリング画像とを統合するステップは、前記代表画像におけるオブジェクトの境界以外を示す主層のレンダリング画像と、前記代表画像の視点からは撮像されない領域を少なくとも含む前記補助画像の補助主層のレンダリング画像とを統合するステップよりも後に行われることを特徴とする請求項11に記載の画像処理方法。
  13. 前記主層及び前記境界層は、画像の距離情報を用いて分離されることを特徴とする請求項11又は12に記載の画像処理方法。
  14. 前記主層及び前記境界層は、画像の色情報を用いて分離されることを特徴とする請求項11又は12に記載の画像処理方法。
  15. コンピュータを、請求項1〜7のいずれか1項に記載の画像処理装置として機能させることを特徴とするプログラム。
JP2012201478A 2012-09-13 2012-09-13 画像処理装置及び方法 Active JP6021541B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012201478A JP6021541B2 (ja) 2012-09-13 2012-09-13 画像処理装置及び方法
US14/017,848 US20140071131A1 (en) 2012-09-13 2013-09-04 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201478A JP6021541B2 (ja) 2012-09-13 2012-09-13 画像処理装置及び方法

Publications (3)

Publication Number Publication Date
JP2014056466A true JP2014056466A (ja) 2014-03-27
JP2014056466A5 JP2014056466A5 (ja) 2015-09-17
JP6021541B2 JP6021541B2 (ja) 2016-11-09

Family

ID=50232817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201478A Active JP6021541B2 (ja) 2012-09-13 2012-09-13 画像処理装置及び方法

Country Status (2)

Country Link
US (1) US20140071131A1 (ja)
JP (1) JP6021541B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213578A (ja) * 2015-04-30 2016-12-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
WO2018016316A1 (ja) * 2016-07-19 2018-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレプレゼンスシステム
US10462497B2 (en) 2015-05-01 2019-10-29 Dentsu Inc. Free viewpoint picture data distribution system
US10873768B2 (en) 2015-06-02 2020-12-22 Dentsu Inc. Three-dimensional advertising space determination system, user terminal, and three-dimensional advertising space determination computer
JP7413049B2 (ja) 2020-01-31 2024-01-15 日本信号株式会社 地中レーダーのデータ処理方法、データ処理プログラム及び地中レーダー装置
JP7422468B2 (ja) 2018-05-09 2024-01-26 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7469084B2 (ja) 2019-03-19 2024-04-16 株式会社ソニー・インタラクティブエンタテインメント 画像を生成するための方法およびシステム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5608803B1 (ja) * 2013-10-03 2014-10-15 オリンパス株式会社 撮影機器、撮影方法及び撮影制御プログラム
KR102120864B1 (ko) * 2013-11-06 2020-06-10 삼성전자주식회사 영상 처리 방법 및 장치
US9319576B2 (en) * 2014-01-29 2016-04-19 Google Technology Holdings LLC Multi-processor support for array imagers
US9380226B2 (en) * 2014-06-04 2016-06-28 Toshiba America Electronic Components, Inc. System and method for extraction of a dynamic range zone image
KR102269600B1 (ko) * 2014-08-05 2021-06-25 삼성전자주식회사 위상차 포커스 검출 가능한 촬상소자
CN104266673B (zh) 2014-09-26 2016-06-08 博奥生物集团有限公司 一种利用摄像头识别反应单元种类的方法
CN104298970B (zh) * 2014-09-26 2017-10-27 博奥生物集团有限公司 一种基于颜色特征的摄像头识别和检测方法
DE102014115292A1 (de) * 2014-10-21 2016-04-21 Connaught Electronics Ltd. Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug
KR102412122B1 (ko) * 2015-05-27 2022-06-23 삼성전자주식회사 의료 영상 디스플레이 방법 및 장치
US9769419B2 (en) * 2015-09-30 2017-09-19 Cisco Technology, Inc. Camera system for video conference endpoints
WO2017082078A1 (ja) * 2015-11-11 2017-05-18 ソニー株式会社 画像処理装置および画像処理方法
CN107705354A (zh) * 2016-01-18 2018-02-16 盛禾东林(厦门)文创科技有限公司 3d瞬间写真系统
US10410365B2 (en) * 2016-06-02 2019-09-10 Verily Life Sciences Llc System and method for 3D scene reconstruction with dual complementary pattern illumination
EP3493540A4 (en) * 2016-07-29 2020-01-15 Sony Corporation IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US10140728B1 (en) * 2016-08-11 2018-11-27 Citrix Systems, Inc. Encoder with image filtering and associated methods
US10635894B1 (en) * 2016-10-13 2020-04-28 T Stamp Inc. Systems and methods for passive-subject liveness verification in digital media
US11373449B1 (en) * 2016-10-13 2022-06-28 T Stamp Inc. Systems and methods for passive-subject liveness verification in digital media
CN107784688A (zh) * 2017-10-17 2018-03-09 上海潮旅信息科技股份有限公司 一种基于图片的三维建模方法
JPWO2019135365A1 (ja) * 2018-01-05 2021-01-07 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US11093771B1 (en) 2018-05-04 2021-08-17 T Stamp Inc. Systems and methods for liveness-verified, biometric-based encryption
US11496315B1 (en) 2018-05-08 2022-11-08 T Stamp Inc. Systems and methods for enhanced hash transforms
US11301586B1 (en) 2019-04-05 2022-04-12 T Stamp Inc. Systems and processes for lossy biometric representations

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011138314A (ja) * 2009-12-28 2011-07-14 Sharp Corp 画像処理装置
JP2012037491A (ja) * 2010-08-11 2012-02-23 Topcon Corp 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
JP2012057960A (ja) * 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766445B2 (ja) * 1988-09-09 1995-07-19 工業技術院長 画像処理方法
US6348918B1 (en) * 1998-03-20 2002-02-19 Microsoft Corporation Stereo reconstruction employing a layered approach
US6469710B1 (en) * 1998-09-25 2002-10-22 Microsoft Corporation Inverse texture mapping using weighted pyramid blending
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
WO2005027038A2 (en) * 2003-09-08 2005-03-24 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
US7292735B2 (en) * 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US7720282B2 (en) * 2005-08-02 2010-05-18 Microsoft Corporation Stereo image segmentation
US20090167843A1 (en) * 2006-06-08 2009-07-02 Izzat Hekmat Izzat Two pass approach to three dimensional Reconstruction
US8280149B2 (en) * 2007-09-11 2012-10-02 Motorola Solutions, Inc. Method and apparatus to facilitate processing a stereoscopic image using first and second images to facilitate computing a depth/disparity image
WO2009047681A1 (en) * 2007-10-11 2009-04-16 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
FR2932911A1 (fr) * 2008-06-24 2009-12-25 France Telecom Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images.
US8106924B2 (en) * 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US8509519B2 (en) * 2009-07-29 2013-08-13 Intellectual Ventures Fund 83 Llc Adjusting perspective and disparity in stereoscopic image pairs
JP2011060116A (ja) * 2009-09-11 2011-03-24 Fujifilm Corp 画像処理装置
KR101676830B1 (ko) * 2010-08-16 2016-11-17 삼성전자주식회사 영상 처리 장치 및 방법
WO2012029058A1 (en) * 2010-08-30 2012-03-08 Bk-Imaging Ltd. Method and system for extracting three-dimensional information
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8666146B1 (en) * 2011-01-18 2014-03-04 Disney Enterprises, Inc. Discontinuous warping for 2D-to-3D conversions
JP2012186781A (ja) * 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
EP2745517A1 (en) * 2011-08-15 2014-06-25 Telefonaktiebolaget LM Ericsson (PUBL) Encoder, method in an encoder, decoder and method in a decoder for providing information concerning a spatial validity range
JP5968107B2 (ja) * 2011-09-01 2016-08-10 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011138314A (ja) * 2009-12-28 2011-07-14 Sharp Corp 画像処理装置
JP2012037491A (ja) * 2010-08-11 2012-02-23 Topcon Corp 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
JP2012057960A (ja) * 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石川 彰夫: "ウォークスルー対応自由視点映像合成技術", 画像ラボ 2008.4, vol. 第19巻 第4号, JPN6016019249, 10 April 2008 (2008-04-10), JP, pages 48 - 52, ISSN: 0003392250 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016213578A (ja) * 2015-04-30 2016-12-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム
US10462497B2 (en) 2015-05-01 2019-10-29 Dentsu Inc. Free viewpoint picture data distribution system
US10873768B2 (en) 2015-06-02 2020-12-22 Dentsu Inc. Three-dimensional advertising space determination system, user terminal, and three-dimensional advertising space determination computer
WO2018016316A1 (ja) * 2016-07-19 2018-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレプレゼンスシステム
JP7422468B2 (ja) 2018-05-09 2024-01-26 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7469084B2 (ja) 2019-03-19 2024-04-16 株式会社ソニー・インタラクティブエンタテインメント 画像を生成するための方法およびシステム
JP7413049B2 (ja) 2020-01-31 2024-01-15 日本信号株式会社 地中レーダーのデータ処理方法、データ処理プログラム及び地中レーダー装置

Also Published As

Publication number Publication date
US20140071131A1 (en) 2014-03-13
JP6021541B2 (ja) 2016-11-09

Similar Documents

Publication Publication Date Title
JP6021541B2 (ja) 画像処理装置及び方法
JP5414947B2 (ja) ステレオ撮影装置
JP6094863B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
JP5320524B1 (ja) ステレオ撮影装置
US9749601B2 (en) Imaging device, image display method, and storage medium for displaying reconstruction image
JP5291755B2 (ja) 立体視画像生成方法および立体視画像生成システム
KR20180101165A (ko) 파노라마 프레임으로의 프레임 스티칭
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP2011250125A (ja) 画像処理装置およびその方法
JP2013009274A (ja) 画像処理装置および画像処理方法、プログラム
JP6128748B2 (ja) 画像処理装置及び方法
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
RU2690757C1 (ru) Система синтеза промежуточных видов светового поля и способ ее функционирования
JP7202087B2 (ja) 映像処理装置
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
JP6021489B2 (ja) 撮像装置、画像処理装置およびその方法
JP5820985B2 (ja) 立体画像処理装置および立体画像処理方法
JP2012114910A (ja) 遮蔽レイヤの拡張
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP5931062B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP2017112526A (ja) データ記録装置、撮像装置、データ記録方法およびプログラム
JP7389565B2 (ja) 符号化装置、復号装置、及びプログラム
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP7437941B2 (ja) 立体画像生成装置及びそのプログラム
JP2014049895A (ja) 画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R151 Written notification of patent or utility model registration

Ref document number: 6021541

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151