JP2020067748A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2020067748A
JP2020067748A JP2018199167A JP2018199167A JP2020067748A JP 2020067748 A JP2020067748 A JP 2020067748A JP 2018199167 A JP2018199167 A JP 2018199167A JP 2018199167 A JP2018199167 A JP 2018199167A JP 2020067748 A JP2020067748 A JP 2020067748A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
imaging
priority
effectiveness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018199167A
Other languages
English (en)
Other versions
JP7123736B2 (ja
JP2020067748A5 (ja
Inventor
希名 板倉
Kina Itakura
希名 板倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018199167A priority Critical patent/JP7123736B2/ja
Priority to US16/658,285 priority patent/US11210842B2/en
Publication of JP2020067748A publication Critical patent/JP2020067748A/ja
Publication of JP2020067748A5 publication Critical patent/JP2020067748A5/ja
Application granted granted Critical
Publication of JP7123736B2 publication Critical patent/JP7123736B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数の撮像装置により取得された複数の画像から生成される仮想視点画像の画質を向上する。【解決手段】画像処理装置100は、複数の撮像装置によって被写体を異なる視点から撮像した複数の撮像画像から、仮想視点に応じた仮想視点画像を生成するレンダリング部250を有する。レンダリング部250は、仮想視点の視線方向と複数の撮像装置の撮影方向との関係と、複数の撮像装置による撮像画像に関する有効解像度とに基づいて、複数の撮像装置のうち1以上の撮像装置を選択し、選択された撮像装置による撮像画像を用いて、仮想視点画像の画素値を決定する。【選択図】図2

Description

本発明は、仮想視点画像を生成する技術に関する。
従来、被写体を複数の撮像装置で撮像して得られた画像(複数視点画像)から、任意の視点である仮想視点から被写体を見た際に得られる画像(仮想視点画像)を生成する技術が知られている。仮想視点画像は、例えば、仮想視点と各撮像装置との視線方向の一致度に基づいて、複数視点画像を合成して生成される。
また、特許文献1には、視線方向の一致度に加えて、撮像装置毎に算出した仮想視点画像における有効解像度を用いて、仮想視点画像を生成する方法が記載されている。この方法によると、有効解像度の高い撮像画像を優先的に用いて複数視点画像を合成することにより、仮想視点画像の画質低下を抑えることができる。
特開第2014−10804号公報
しかしながら、特許文献1に記載の技術では、視線方向の一致度が高い撮像装置による撮影画像と有効解像度が高い撮像装置による撮影画像とを区別せずに合成して仮想視点画像を生成する。そのため、例えば視線方向の一致度が高い一方で有効解像度が低い撮影画像と、有効解像度が高い撮影画像とが合成されることで、有効解像度が高い撮影画像を活かしきれず、仮想視点画像の画質を劣化させてしまうことがあった。
本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、複数の撮像装置により取得された複数の画像から生成される仮想視点画像の画質を向上することにある。
本発明の一実施形態において、複数の撮像装置によって被写体を異なる視点から撮像した複数の撮像画像から、仮想視点に応じた仮想視点画像を生成する画像処理装置は、前記仮想視点の視線方向と前記複数の撮像装置の撮影方向との関係と、前記複数の撮像装置による撮像画像に関する有効解像度とに基づいて、前記複数の撮像装置のうち1以上の撮像装置を選択する選択手段と、前記選択手段により選択された撮像装置による撮像画像を用いて、前記仮想視点画像の画素値を決定する画素値決定手段とを有する。
本発明によれば、複数の撮像装置により取得された複数の画像から生成される仮想視点画像の画質を向上することができる。
第1の実施形態における画像処理装置のハードウェア構成を示すブロック図。 第1の実施形態における画像処理装置の機能構成を示すブロック図。 第1の実施形態の仮想視点画像生成処理の流れを示すフローチャート。 第1の実施形態の仮想視点画像生成処理の概念を説明する図。 第1の実施形態の撮像装置の構成を説明する図。 第1の実施形態の効果を説明する図。 第2の実施形態における画像処理装置の機能構成を示すブロック図。 第2の実施形態の仮想視点画像生成処理の流れを示すフローチャート。 第2の実施形態の仮想視点画像生成処理の概念を説明する図。 第3の実施形態における画像処理装置の機能構成を示すブロック図。 第3の実施形態の仮想視点画像生成処理の流れを示すフローチャート。 第3の実施形態の仮想視点画像生成処理の概念を説明する図。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
<第1の実施形態>
以下では、複数の撮像装置で撮像して得られた画像を複数視点画像データと呼ぶ。まず、図4を参照して、本実施形態で行われる仮想視点画像を生成するためのレンダリング処理の概要について説明する。
本実施形態におけるレンダリング処理では、任意の視点位置にある仮想視点401の位置情報と被写体の三次元形状データを用いて、レンダリングする対象である、仮想視点画像上の画素402に対応する被写体の部位403を特定する。その後、複数視点画像データから、特定した部位403を撮像している画素(404、405)を含む画像データ(406、407)を検出し、検出した画像データを用いて仮想視点画像の画素402の画素値をレンダリングする。本実施形態では、仮想視点と撮像装置との光線角データに基づいた撮像装置の有効度と、撮像装置の有効解像度に基づき、レンダリングに用いる画像データを限定して、仮想視点画像の画素値をレンダリングする。
本実施形態では、仮想視点と撮像視点との光線角データを撮像装置毎に算出する。光線角データとは、例えば、撮像装置408から見た被写体の部位403の方向を示す撮像視点の視線方向(撮影方向)と、仮想視点401から見た被写体の部位403の方向を示す仮想視点の視線方向とのなす角を表すデータである。次に、算出した光線角データに基づいて、高画質な仮想視点画像を生成するための撮像装置の有効度を撮像装置毎に算出する。照明等の影響により、それぞれの撮像装置により得られる画像データ上の色は、被写体の同じ部位であっても異なることがある。また、三次元形状データに含まれる誤差の影響により、撮像装置により得られる画像データから被写体の部位403に対応する画素を検出する際、本来の画素404からずれた画素409を誤って検出することがある。そのような場合、レンダリングした仮想視点画像の画素値が不自然な色や誤ったテクスチャとなり、画質が劣化する。これらの影響は、仮想視点の視線方向と撮像視点の視線方向とのなす角が大きい、つまり光線角データが大きいほど強くなる。そこで、本実施形態では、光線角データが小さい撮像装置ほど、仮想視点画像を高画質にできるため、有効度を高くする。一方、光線角データが大きい撮像装置ほど、仮想視点画像の画質を劣化させる可能性が高いため、有効度を低くする。
次に、撮像装置の有効解像度を装置毎に算出する。有効解像度とは、各画像データに写る被写体の部位403の大きさを示しており、撮像装置の有効解像度が高いほど、該当する撮像装置の画像データにおいて被写体は高解像度に撮像されている。そして、解像度が高い画像データを用いて生成した仮想視点画像ほど、高画質(高解像度)になる。
さらに、算出した有効度と有効解像度とに基づいて、レンダリングに用いる画像データを選択する。本実施形態では、有効解像度が高い撮像装置順に、その撮像装置により撮像された画像データを選択する。選択された画像データに対応する撮像装置の有効度の和が、有効度の最大値(例えば、1)を超えるまで画像データを選択する。例えば、全撮像装置の中で、撮像装置408の有効解像度が最大であり、次に撮像装置410の有効解像度が大きいとする。撮像装置408の有効度が最大値の1である場合、撮像装置408で撮像された画像データ406のみが選択される。また、撮像装置408の有効度が0.8であり、撮像装置410の有効度が0.6である場合は、画像データ406と、撮像装置410で撮像された画像データ407とが選択される。
最後に、選択した画像データ毎にレンダリングに用いる重み(ブレンド重み)を決定し、決定した重みに基づいて選択した画像データの画素値をブレンド(合成)して、仮想視点画像の画素値をレンダリングする。本実施形態において、レンダリングに用いる重みは、撮像装置の有効度に基づいて決定する。基本的には、撮像装置の有効度をレンダリングに用いる重みとする。例外的に、選択した画像データに対応する有効度の和が有効度の最大値よりも大きい場合、選択した画像データの中で最小の有効度である画像データの重みは、全画像データのレンダリングに用いる重みの和が有効度の最大値を超えないように調節して設定する。上記の例に沿って、撮像装置408で撮像された画像データ406のみが選択されている場合、画像データ406のレンダリング重みを1.0として、仮想視点の画素値をレンダリングする。また、画像データ406と407とが選択されている場合、有効解像度が最大である画像データ406のレンダリング重みは有効度と同様に0.8、画像データ407のレンダリング重みは1.0−0.8の0.2として、仮想視点の画素値をブレンドする。このように、有効解像度と画質に寄与する有効度とが高い画像を限定して用い、画像データをブレンドする度合い(ブレンド重み)を有効度に基づいて決定することで、高画質な仮想視点画像を生成することができる。
以下、本実施形態の具体的な構成について述べる。図1は、本実施形態の画像処理装置のハードウェア構成の一例を示す図である。画像処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、及び出力インターフェース106を含む。画像処理装置100の各構成部は、システムバス107によって相互に接続されている。また、画像処理装置100は、入力インターフェース105を介して外部記憶装置108に接続されており、出力インターフェース106を介して外部記憶装置108および表示装置109に接続されている。
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して画像処理装置100の各構成部を統括的に制御するプロセッサである。これにより、後述する様々な処理が実行される。
二次記憶装置104は、画像処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施形態ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込みおよび二次記憶装置104に記憶されたデータの読出しを行うことができる。なお、二次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
入力インターフェース105は、例えばUSBやIEEE1394等のシリアルバスインターフェースであり、外部装置から画像処理装置100へのデータや命令等の入力は、入力インターフェース105を介して行われる。画像処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。なお、入力インターフェース105には不図示のマウスやボタンなどの入力デバイスも接続可能である。
出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394等のシリアルバスインターフェースを備える。その他に、例えばDVIやHDMI(登録商標)等の映像出力端子を用いることも可能である。画像処理装置100から外部装置へのデータ等の出力は、出力インターフェース106を介して行われる。画像処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に、処理された画像などを出力し、表示することができる。なお、画像処理装置100の構成要素は上記以外にも存在するが、ここでの説明を省略する。
以下、図2および図3を参照して、本実施形態の画像処理装置100で行われる仮想視点画像生成処理について、より詳細に説明する。図2(a)は、画像処理装置100の機能構成を示すブロック図である。図2(b)は、画像処理装置100におけるレンダリング部250の機能構成を示すブロック図である。図3(a)は、本実施形態の仮想視点画像生成処理の全体的な流れを示すフローチャートである。図3(b)は、仮想視点画像生成処理におけるレンダリング処理の詳細な流れを示すフローチャートである。
画像処理装置100は、ROM103に格納されたプログラムをCPU101がRAM102をワークメモリとして用いて実行することで、図2に示す各構成部として機能し、図3のフローチャートに示す一連の処理を実行する。なお、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全部が、CPU101以外の一つ又は複数の処理回路(すなわち、ASICや電子回路等のハードウェア)によって行われるようにしてもよい。各処理の説明における記号「S」は、当該フローチャートにおけるステップを意味する。その他のフローチャートについても同様である。以下、図3(a)を参照して、画像処理装置100の各構成部により行われる仮想視点画像生成処理の流れを説明する。
S310において、画像データ取得部210は、入力インターフェース105を介して、または二次記憶装置104から、複数の撮像装置によって被写体を複数の異なる視点から撮像した複数視点画像データを取得する。複数視点画像データは、例えば図5の被写体502の周りを取り囲むように配置された複数の撮像装置501から取得する。本実施形態では、図5に示すように、複数の撮像装置501は上方から地面(床面)を見下ろすように配置されている。また、各撮像装置は、画角及び焦点距離が異なるレンズ(ズームレンズでもよい)を装着することができ、撮像画像503や撮像画像504のように、画像上に写る被写体の大きさは撮像装置毎に異なってもよい。なお、図5に示す撮像装置の配置や装着するレンズの構成は一例にすぎず、他の構成を用いて複数視点画像データを取得してもよい。また、画像処理装置100は、複数の撮像装置と接続され、画像処理装置100及び複数の撮像装置を備える画像処理システムとして構成されてもよい。このような構成によれば、リアルタイムに仮想視点からの仮想視点画像を生成することができる。本実施形態において、取得される複数視点画像データは、RGB3チャンネルのカラー画像の場合を例に説明する。なお、複数視点画像データが1チャンネルのグレー画像や動画像データの場合についても、同様に本実施形態を適用することが可能である。複数視点画像データが動画像データである場合、画像処理装置100は、複数の撮像装置により略同時刻に撮像されたフレーム画像を用いて、以下の処理を行うことができる。さらに、画像データ取得部210は、複数視点画像データの各画像を区別するため、各画像を、撮像装置を区別する番号(以下、撮像装置番号)と対応付けて記憶する。画像データ取得部210は、複数視点画像データをレンダリング部250に出力する。
S320において、撮像視点情報取得部220は、画像データ取得部210で取得した複数視点画像データを撮像した、複数の撮像装置の位置姿勢情報(以下、撮像視点情報と呼ぶ)を撮像装置毎に取得する。本実施形態において、撮像視点とは、複数の撮像装置501それぞれの視点のことを指し、撮像視点情報とは、撮像視点についての情報のことを意味する。撮像視点情報には、所定の座標系内での撮像装置501の位置姿勢情報が含まれ、例えば、撮像装置501の位置情報及び光軸方向を示す姿勢情報を含む。また、撮像視点情報には、撮像装置501の焦点距離又は主点位置など、撮像装置501の画角に関わる情報を含めることもできる。これらの情報を用いて、撮像画像の各画素と、撮像画像内に存在する被写体の位置とを対応付けることができる。そのため、被写体の特定の部位について、撮像画像上の対応する画素を特定し、その色情報を取得することが可能となる。さらに、撮像視点情報には、撮像装置501により撮像された画像の歪曲を示す歪曲パラメータ、F値(絞り値)、シャッタースピード及びホワイトバランス等の撮影パラメータを含むことができる。撮像視点情報取得部220は、撮像視点情報をレンダリング部250に出力する。
S330において、仮想視点情報取得部230は、仮想視点に関する情報(以下、仮想視点情報と呼ぶ)を取得する。仮想視点とは、画像処理装置100が生成する仮想視点画像の視点のことを指し、仮想視点情報とは、仮想視点についての情報のことを意味する。仮想視点情報には、撮像視点情報と同様に、所定の座標系内での仮想視点の位置姿勢情報が含まれ、例えば、仮想視点の位置情報及び光軸方向を示す姿勢情報を含む。また、仮想視点情報には、仮想視点からの画角情報、仮想視点画像の解像度情報等を含むこともできる。さらに、仮想視点情報は、歪曲パラメータ及び撮像パラメータ等を含むこともできる。仮想視点情報取得部230は、仮想視点情報をレンダリング部250に出力する。
S340において、距離マップ取得部240は、空間内の被写体の位置情報を取得する。この位置情報は、仮想視点と被写体の相対的な位置関係を示す。本実施形態において、距離マップ取得部240は、仮想視点から被写体までの距離マップ(デプスマップ)として被写体の位置情報を取得する。複数の撮像装置により得られた被写体の撮像画像に基づいて距離マップを生成する方法は公知であり、任意の方法を採用することができる。例えば、視体積公差法又はステレオマッチング法を用いて、被写体の三次元モデルを生成することができる。そして、仮想視点と被写体の三次元モデルとの関係に基づいて、仮想視点画像の各画素について、仮想視点から対応する被写体までの距離を求め、距離マップを生成することができる。なお、距離マップの生成方法はこれに限られず、何らかのトラッカ−等を用いて被写体の三次元モデルを生成し、この三次元モデルに基づいて距離マップを生成してもよい。また、事前にレンジセンサなどによって、仮想視点から対応する被写体までの距離を計測することで距離マップを取得してもよい。距離マップ取得部240は、取得した距離マップをレンダリング部250に出力する。
S350において、レンダリング部250は、取得した複数視点画像データと撮像視点情報と仮想視点情報と被写体の位置情報(例えば距離マップ)とを用いて、仮想視点画像の各画素における画素値を決定する(すなわち、レンダリングを行う)。レンダリング部250は、複数視点画像データのそれぞれから、仮想視点から着目方向に存在する被写体の色情報を取得する。そして、レンダリング部250は、後述するように撮像視点と仮想視点との光線角に基づいた撮像装置の有効度と複数視点画像データの有効解像度とに応じて決定した重みを用いて、取得した色情報を合成し、着目方向に存在する被写体の色情報を決定する。レンダリング部250は、こうして仮想視点画像の各画素に対応する各着目方向について被写体の色情報を決定することにより、仮想視点画像を生成する。以下に、仮想視点画像の生成方法(すなわち、レンダリング処理)を具体的に説明する。
まず、仮想視点画像中の着目画素を定め、着目画素に写る被写体の位置を式(1)により算出する。
Figure 2020067748
ここで、(x0、y0、z0)はカメラ座標における被写体の位置、(u0、v0)は仮想視点画像中の着目画素の座標を示す。また、d0(u0、v0)は距離マップに示される、仮想視点から着目画素に写る被写体までの距離を表す。f0は仮想視点の焦点距離を表し、cx0及びcy0は仮想視点の主点位置を表す。
次に、着目画素に写る被写体について、仮想視点におけるカメラ座標を、式(2)に従って世界座標に変換する。
Figure 2020067748
ここで、(X0、Y0、Z0)は世界座標における被写体の位置を表す。R0は、仮想視点の光軸方向を表す。(Xoutput、Youtput、Zoutput)は、世界座標における仮想視点のカメラ位置を表す。
さらに、世界座標(X0、Y0、Z0)に存在する被写体が写っている、撮像視点からの撮像画像上の座標を、式(3)を解いた式(4)に従って算出する。
Figure 2020067748
ここで、Riは撮像視点iの光軸方向を表す。撮像視点iは、上述した、複数視点画像データを区別するための撮像装置の番号である。(Xcam,i、Ycam,i、Zcam,i)は撮像視点iのカメラ位置を表す。fiは、撮像視点iの焦点距離を表し、cxi及びcyiは撮像視点iの主点位置を表す。また、tは定数を表す。式(3)を(ui、vi)について解くことにより、式(4)が得られる。
Figure 2020067748
式(4)に従うと、まずtを求めることができ、さらに得られたtを用いて(ui、vi)を求めることができる。このように、仮想視点画像中の着目画素の座標(u0、v0)は、撮像画像中の画素の座標(ui、vi)に変換することができる。仮想視点画像中の着目画素(u0、v0)と撮像画像中の画素(ui、vi)とは、同じ被写体に対応する可能性が高い。したがって、撮像画像中の画素(ui、vi)の画素値(色情報)を、仮想視点画像中の着目画素(u0、v0)の画素値(色情報)として用いることができる。
本実施形態において、レンダリング部250は、複数視点画像データから、着目画素(u0、v0)に対応する画素(ui、vi)(iは撮像装置と同等の数)を特定する。そして、特定された画素から使用する画素を限定して用いて、重みづけ合成により画素値を決定する。以下に、図3(b)を参照して、レンダリング処理の流れを詳細に説明する。
S351において、歪曲補正部256は、画像データ取得部210が取得した複数視点画像データに対して歪曲補正を行い、歪曲補正後の複数視点画像データを画素値決定部257に出力する。例えば、歪曲補正部256は、複数視点画像データに対して、撮像視点情報取得部220が取得したそれぞれの撮像装置の歪曲パラメータを参照して、歪曲補正処理を行うことができる。歪曲補正された複数視点画像データを用いて仮想視点画像を生成することにより、より違和感の少ない高画質な仮想視点画像を生成することが可能となる。しかしながら、レンダリング部250が歪曲補正部256を備えることは必須ではない。
S352において、画素値決定部257は、仮想視点画像上で画素値を決定する対象である着目画素を決定する。本実施形態では、仮想視点画像において最も左上にある画素が最初の着目画素として選択される。その後、画素値の決定が完了するたびに、右下に向かって、それまでに着目画素として選択されていない画素が新たな着目画素として選択される。なお、着目画素の選択の順番はこれに限られず、どのような順番で着目画素を決定してもよい。
S353において、有効解像度決定部253は、撮像視点情報取得部220から取得した撮像視点情報と距離マップ取得部240から取得した距離マップとを用いて、複数視点画像データ内の画像データを撮像した撮像装置毎に着目画素の有効解像度を決定する。本実施形態では、着目画素(u0、v0)に写る被写体と撮像視点との距離di(ui、vi)と撮像装置の焦点距離fiとを用いて、di(ui、vi)/fiにより有効解像度を決定する。しかしながら、有効解像度の決定方法は上記に限らず、各画像データに写る被写体の大きさを示す値を決定する他の方法を用いてもよい。また、本実施形態では画素毎に有効解像度を算出しているが、撮像画像に対して一つの有効解像度を算出し、それを利用してもよい。上述した通り、撮像装置の有効解像度が高いほど、撮像装置で撮像された画像において被写体は高解像度に撮像されている。被写体と撮像視点との距離は、撮像視点情報に基づき、距離マップ取得部240から取得した、仮想視点と被写体との距離d0(u0、v0)を式(5)の撮像視点の座標系に変換することで取得する。
Figure 2020067748
ここで、A0は仮想視点の内部パラメータ行列、[R00]は外部パラメータ行列、Aiはi番目の撮像装置の内部パラメータ、[Rii]は外部パラメータ行列を表している。有効解像度決定部253は、算出した撮像装置毎の有効解像度をカメラ優先度決定部254に出力する。
S354において、光線角データ決定部251は、撮像視点情報取得部220から取得した撮像視点情報と、仮想視点情報取得部230から取得した仮想視点情報とに基づき、仮想視点と撮像視点との光線角データを撮像装置毎に算出する。ここでは、各撮像視点の視線方向を、撮像装置が設置されている平面上に射影し、正規化したベクトル間の角度を算出することで、仮想視点と各撮像視点の光線のなす角を求める。この光線のなす角を光線角データとして決定する。この場合、被写体と背景の全画素で光線角データは共通になるが、画素毎の光線の方向に基づいて被写体と背景それぞれに対して算出してもよい。また、角度でなく内積など、角度を特定できる他の形態のデータを用いてもよい。光線角データ決定部251は、決定した撮像装置毎の光線角データをカメラ有効度決定部252に出力する。
S355において、カメラ有効度決定部252は、光線角データ決定部251から取得した光線角データに基づいて、高画質な仮想視点画像を生成するための、撮像画像の有効度を撮像装置毎に決定する。上述した通り、本実施形態では、光線角データが小さい撮像装置により撮像した画像ほど高画質な仮想視点画像を生成するために利用することができるので、有効度を高くする。一方、光線角データが大きい撮像装置で撮像した画像ほど、仮想視点画像の画質を劣化させる可能性が高いため、有効度を低くする。具体的には、式(6)を用いて求めた値eiを撮像装置の有効度として決定する。
Figure 2020067748
ここで、θiは光線角データ決定部251から取得した撮像装置iの光線角データ、θmax、θthrは、それぞれ、事前に定められた最大の角度と許容する角度とを表している。最大の角度θmaxは、仮想視点と撮像視点とで被写体の同一の部位を撮像できる、視点間の最大の角度を表しており、おおよそ90度から180度の間で設定される。撮像装置の光線角データが最大の角度より大きい場合、仮想視点と撮像視点とで被写体の同一の部位は撮影できないと判断して、その撮像装置の有効度を最小値の0とする。許容する角度θthrは、仮想視点と撮像視点とで被写体の同一の部位を撮影できている可能性が高いと判断できる視点間の角度を表しており、形状推定の誤差や撮像視点情報の誤差を考慮して設定する。撮像装置の光線角データが許容する角度θthr以下である場合、撮像装置の有効度を最大値である1とする。前述の通り、視点間の角度が大きくなるにつれ形状推定の誤差の影響が強くなる。そのため、光線角データの増加に伴い、有効度が減少するように、式(6)に従って撮像装置の有効度を求める。しかしながら、有効度の算出方法は上記に限らず、光線角データの増加に伴い、有効度が非線形的に減少してもよい。また、許容する角度の設定も必須ではなく、光線角データが0である場合の有効度を最大値の1として、光線角データの増加に伴い減少するように有効度を求めるなど、様々な方法を使用してよい。カメラ有効度決定部252は、求めた撮像装置毎の有効度を、カメラ優先度決定部254とレンダリング重み決定部255に出力する。
S356において、カメラ優先度決定部254は、カメラ有効度決定部252と有効解像度決定部253とから取得した、撮像装置毎の有効度と有効解像度とを用いて、仮想視点画像を生成する際に用いる撮像装置の優先度を決定する。本実施形態では、まず、有効度が最小値0より大きい撮像装置を全撮像装置の中から選択する。その後、選択した撮像装置に対して優先順位を定める。有効度が最小値である撮像装置は、仮想視点画像の画質を劣化させる可能性が高いため、仮想視点画像を生成に使用せず、撮像装置の優先順位を定める対象から除外する。本実施形態では、選択した撮像装置の中で有効解像度が大きいほど優先順位を高くして、撮像装置の優先順位を定める。例えば、選択した撮像装置の中で番号3の撮像装置の有効解像度が最大である場合、番号3の撮像装置の優先順位を1位とする。次に、選択した撮像装置の中で2番目に有効解像度が大きい撮像装置の優先順位を2位とする。このように、順に優先順位を定めていき、選択した全撮像装置の優先順位を決定する。最後に、求めた優先順位を、撮像装置の優先度として決定する。つまり、上記例に従えば、番号3の撮像装置の優先度は1となる。なお、優先度の表現方法はこれに限らず、有効解像度が高い撮像装置ほど優先度が高いと判断できる他の表現方法を用いてもよい。カメラ優先度決定部254は、決定した撮像装置毎の優先度をレンダリング重み決定部255に出力する。
S357において、レンダリング重み決定部255は、カメラ有効度決定部252とカメラ優先度決定部254とから取得した、撮像装置毎の有効度と優先度とに基づいて、仮想視点画像をレンダリングする際の撮像装置毎の重みを決定する。
まず、全撮像装置のレンダリング重みWと全撮像装置のレンダリング重みの和Wsumを0で初期化する。次に、レンダリング重みを決定する対象となる着目撮像装置を設定する。本実施形態では、全撮像装置において優先度が最小である撮像装置(すなわち、優先順位が最も高い撮像装置)を着目撮像装置として設定する。その後、レンダリング重みが決定するたびに、それまでに着目撮像装置として選択されていない撮像装置の中で最小の優先度を有する撮像装置を新たな着目撮像装置として選択する。次に、その時点でレンダリング重みが決定している撮像装置のレンダリング重みの総和Wsumと着目撮像装置の有効度ejと式(7)とにより、着目撮像装置のレンダリング重みを決定する。ここで、jは着目撮像装置の番号を示す。
Figure 2020067748
式(7)により、全撮像装置に対するレンダリング重みを順に決定する。なお、レンダリング重みの総和を導出し、総和が1より大きくなった時点での優先度以降の優先度である撮像装置のレンダリング重みは0とする。そうすることで、レンダリング時に撮像画像を限定して用いることが可能となる。したがって、複数の撮像画像の過剰なブレンディングを抑制することができるため、高画質な仮想視点画像の生成が可能となる。レンダリング重み決定部255は、決定した撮像装置毎のレンダリング重みを画素値決定部257に出力する。
S358において、画素値決定部257は、レンダリング重み決定部255と歪曲補正部256とからそれぞれ取得した、撮像装置毎のレンダリング重みと歪曲補正後の複数視点画像データとから、仮想視点画像の着目画素における画素値を決定する。画素値決定部257は、着目画素に対応する歪曲補正後の撮像画像中の画素の画素値を、式(1)から(4)に従って抽出する。そして、画素値決定部257は、各歪曲補正後の撮像画像から抽出した画素値Iiとレンダリング重みWiの積和ΣIi×Wiによって、仮想視点画像データの着目画素における画素値を決定する。
S359において、画素値決定部257は、仮想視点画像データの全画素に対して画素値を決定したか判定する。全画素に対して画素値が決定され、全画素の処理が完了している場合、仮想視点画像データを画像出力部260に出力してレンダリング処理を終了し、図3(a)のS360に進む。一方、全画素の処理が完了していない場合、S352に戻る。
S360において、画像出力部260は、レンダリング部250から取得した仮想視点画像データを二次記憶装置104や外部記憶装置108や表示装置109に出力して、一連の処理は完了する。以上が、本実施形態における画像処理装置100が実行する、仮想視点画像生成処理である。
以下、図6を参照して、本実施形態の効果について説明する。図6では、画像データ605、606、608と比較して、画像データ607の被写体が大きく示されている。すなわち、撮像装置601、602、604と比較して、撮像装置603はより高い解像度を有する。
ここで、仮想視点609における仮想視点画像を、仮想視点画像に写る被写体の部位を撮像している画像データ605から608の全ての画像データをブレンドして生成する場合を考える。この場合、例えば、光線角の一致度と解像度の重みづけ和の結果が撮像装置601と撮像装置603とで同等程度であった場合、画像データ605と画像データ607とを同等の割合でブレンドする。したがって、画像データ607の解像度を活かすことができず、生成した仮想視点画像の画質を劣化させてしまう。
これに対し、本実施形態では、解像度の高い撮像装置順に、光線角データに基づく有効度の和が十分な値となるまで撮像装置を選択し、選択した撮像装置の画像データをブレンドして仮想視点画像を生成する。また、ブレンドする際は、解像度が高い撮像装置の画像を優先的に用いる。そのため、解像度が高くかつ有効度が十分に大きい、画像データ607を主に用いて仮想視点画像を生成することができる。その結果、画像データ607の解像度を活かした高画質な仮想視点画像を生成することができる。
<第2の実施形態>
第1の実施形態では、仮想視点と撮像装置との光線角に基づく各撮像装置における有効度と、各撮像装置における有効解像度とに基づいて、レンダリングに用いる画像を限定した。第2の実施形態では、各撮像装置における上記有効度を決定する際に、光線角に加えて被写体の位置重みを用いる。位置重みとは、撮像装置の視野内における、着目方向に位置する被写体の位置に応じて設定される撮像画像のそれぞれに対する重みである。まず、図9を参照して、撮像装置の有効度の決定に位置重みを使用する意義について説明する。
一つの撮像装置からの撮像範囲は限られているため、仮想視点画像に写る全ての被写体が一つの撮像装置の撮像画像に写っていることは少ない。そのため、仮想視点画像には、一つの撮像視点からの撮像画像に写っており、この撮像画像の色情報が反映される領域と、この撮像画像に写っていないために、この撮像画像の色情報が反映されない領域とが含まれることが多い。
例えば、図9(a)に示される仮想視点画像900には、入力視点Aからの視野内に含まれる領域910と、入力視点Bからの視野内に含まれる領域920と、入力視点A及び入力視点Bからの双方の視野内に含まれる領域930が示されている。言い換えれば、領域910は入力視点Aからの撮像画像Aにのみ写っている領域であり、領域920は入力視点Bからの撮像画像Bにのみ写っている領域であり、領域930は撮像画像A及び撮像画像Bの双方に写っている領域である。図9(b)は、図9(a)の線分X−X’に沿った撮像画像A及び撮像画像Bのそれぞれの重みの例を示す。この例において、入力視点Bと比較して、入力視点Aの向きは出力視点の向きに近いため、撮像画像Aにはより大きい重みが与えられている。図9(b)から明らかなように、撮像画像Aが寄与する領域930と、撮像画像Aが寄与しない領域920との間では、撮像画像Aの寄与が大きく異なっている。このため、領域920と領域930との境界Y付近において色が急に変化する可能性がある。本実施形態では、着目方向に存在する被写体が、撮像装置の視野の周辺部に存在する場合、撮像装置の視野の中心部に存在する場合よりも、撮像装置に小さい重みを設定する。本実施形態では、そのように設定した位置重みと光線角データの積により、撮像装置の有効度を撮像装置毎に算出する。そのため、撮像装置の視野の周辺部に存在する被写体を撮像した撮像装置の有効度は、被写体が中心部に存在する場合よりも低くなる。その結果、仮想視点画像を生成する際、その撮像装置が撮像した撮像画像を用いる重みを小さくすることができる。図9(c)の例では、領域930のうち、境界Y付近の画素については、撮像画像Aに対してより小さい重みが設定され、撮像画像Bに対してより大きい重みが設定されている。したがって、領域930のうち、境界Y付近において撮像画像Aの寄与が小さくなるため、境界Y付近における色の変化を小さくすることができる。その結果、高画質な仮想視点画像を生成することができる。
以下、本実施形態における仮想画像生成処理(特に、レンダリング処理)についてより詳細に説明する。本実施形態における仮想画像生成処理も、第1の実施形態で図1を参照して説明したハードウェア構成を有する画像処理装置100によって実施することができる。図7は、本実施形態における画像処理装置100の機能構成を示すブロック図であり、図8は、本実施形態における仮想画像生成処理の流れを示すフローチャートである。なお、第1の実施形態と同様の構成および同様の処理については、第1の実施形態と同様の符号を付して説明を省略する。
S810において、位置重み決定部710は、S352で画素値決定部257が設定した仮想視点画像の着目画素における位置重みを撮像装置毎に決定する。本実施形態では、距離マップ取得部240から取得した距離マップと撮像視点情報取得部220から取得した撮像視点情報と仮想視点情報取得部230から取得した仮想視点情報とを用いて、位置重みを決定する。以下に、位置重みの決定方法を具体的に説明する。以下の処理は、撮像装置毎に行う。
まず、仮想視点の着目画素(u0、v0)に対応する撮像画像中の画素(ui、vi)を式(1)から(4)により検出する。
次に、撮像画像上で検出した画素(ui、vi)を中心としたブロックを定義し、ブロック内に含まれる画素を、位置重みを求める際に用いる画素として決定する。なお、ブロックサイズは、仮想視点画像の被写体の大きさや、撮像画像の画像サイズや被写体の大きさに応じて定める。
次に、撮像画像上で決定したブロックに含まれる画素において、該当する画素に写る被写体と撮像視点との距離を、式(5)を用いて、ブロック内の画素毎に算出する。
さらに、ブロックの中心画素の距離と、ブロック内に含まれる中心画素以外の画素の距離とを画素毎に比較し、距離の差分があらかじめ定めた閾値以上となる画素を検出する。ここで閾値は、被写体と背景や被写体同士とを区別するために用いられ、おおよそ人の身体の厚みよりも大きい値を設定する。
最後に、距離の差分が閾値以上である画素毎に、ブロック中心からの画素距離を算出する。そして、算出した画素毎の画素距離の中で最小となる画素距離に対して、ブロックサイズで正規化した値を、仮想視点画像の着目画素(u0、v0)におけるi番目の撮像装置の位置重みとして決定する。なお、位置重みの算出方法は上記に限らず、着目画素の撮像している被写体が、撮像画像において視野内の周辺部に存在するか否かを判断できる方法であればよい。位置重み決定部710は、撮像装置毎の位置重みをカメラ有効度決定部720に出力する。
S820において、カメラ有効度決定部720は、光線角データ決定部251から取得した光線角データと位置重み決定部710から取得した位置重みとに基づいて、高画質な仮想視点画像を生成するための、撮像画像の有効度を撮像装置毎に決定する。上述した通り、本実施形態では、光線角データが小さい撮像装置により撮像した画像かつ、撮像装置により視野内の中心部を撮像している画像ほど高画質な仮想視点画像を生成することができるため、有効度を高くする。一方、光線角データが大きい撮像装置で撮像した画像若しくは、撮像装置により視野内の周辺部を撮像している画像ほど、仮想視点画像の画質を劣化させる可能性が高いため、有効度を低くする。具体的には、式(8)を用いて求めた値eiを撮像装置の有効度として決定する。
Figure 2020067748
ここで、θi、θmax、θthrは、式(7)と同様であり、piは撮像番号iの位置重みを表す。撮像装置の視野内の周辺部であり位置重みが小さい撮像装置に対しては、式(8)により有効度が減少する。カメラ有効度決定部252は、求めた撮像装置毎の有効度を、カメラ優先度決定部254とレンダリング重み決定部255に出力する。
以上説明したように、本実施形態によれば、撮像装置の解像度を活かしながら、異なる撮像画像がブレンドされている領域の境界部における急激な色の変化を抑制した、高画質な仮想視点画像を生成することができる。
<第3の実施形態>
第1の実施形態では、仮想視点と撮像装置との光線角に基づく各撮像装置における有効度と、各撮像装置における有効解像度とに基づいて、レンダリングに用いる画像と重みとを制御した。レンダリングに用いる重みは、有効解像度と有効度とが高い撮像装置に大きい重みを設定すると共に、不必要な撮像装置の重みは0とすることで、有効解像度が高い撮像装置を優先的に用いて仮想視点画像を生成した。第3の実施形態では、有効解像度と有効度とをレンダリングに用いる重みを決定する際の基準として用いて、光線角データに基づいて最終的な重みを決定する。以下に、本実施形態におけるレンダリング処理の概要と意義について説明する。
本実施形態では、まず、撮像装置毎に決定した有効度と有効解像度との積により、ブレンドする撮像装置を選択するための優先度を決定する。有効度と有効解像度は、どちらにおいても、値が高いほど高画質な仮想視点画像を生成できる可能性が高いことを示している。したがって、優先度が高い撮像装置ほど、高画質な仮想視点画像が生成できる可能性が高い。
次に、撮像装置毎に、自身の優先度以上の優先度を保持する撮像装置を検出する。そして、検出した撮像装置の中で光線角データが小さい撮像装置を、ブレンドに用いる撮像装置として少なくとも一つ以上選択する。また、対応する優先度をブレンド重みとして決定する。
最後に、全撮像装置における、ブレンド重みと選択された撮像装置とを統合して、撮像装置毎にレンダリング重みを決定する。
例えば、図12に示されるカメラ構成においては、仮想視点1201の左右に撮像装置1202と1203が配置されている。ここで、撮像装置1202と1203のどちらにおいても光線角データに基づいて決定した有効度と有効解像度とが同等程度であり、有効度は最大値を保持しているとする。また、仮想視点1201から見た画像における画素1206においては、対応する被写体の部位1204の撮像装置1202における有効解像度が撮像装置1203よりも大きいとする。一方、仮想視点1201から見た画像における画素1207においては、対応する被写体の部位1205の撮像装置1203における有効解像度が撮像装置1202よりも大きいとする。この場合、第1の実施形態によれば、どちらの撮像装置の有効度も最大値であるため、画素1206は撮像装置1202により撮像した画像のみを用いてレンダリングされ、画素1207は撮像装置1203により撮像した画像のみを用いてレンダリングされる。したがって、画素1206、1207のどちらにおいても、不必要なブレンディングが抑えられ、高解像度(高画質)な仮想視点画像を生成することができる。
しかしながら、上述の通り、照明等の影響により、それぞれの撮像装置により得られる画像データ上の色は、被写体の同じ部位であっても異なることがある。また、三次元形状データに含まれる誤差の影響により、撮像装置により得られる画像データから被写体の部位に対応する画素を検出する際、本来の画素からずれた画素を誤って検出することがある。この撮像装置毎のテクスチャや色の違いにより、仮想視点画像の画素1206と画素1207との境界において、色やテクスチャが急に変化する可能性がある。そこで、第3の実施形態では、有効度と有効解像度のみからレンダリングに使用する画像や重みを決定せずに、有効度と有効解像度とを反映した優先度が同等以上である全ての撮像装置を検出した上で、光線角データに基づいて各撮像装置の重みを決定する。上記の例であれば、仮想視点画像の画素1206に対して優先度が同等である撮像装置1202と1203とが検出される。検出した撮像装置に対して、撮像装置が保持する光線角データに基づいたブレンド重みを算出し、算出したブレンド重みに基づいて撮像装置1202と撮像装置1203との画像をブレンドして、仮想視点画像の画素1206の画素値をレンダリングする。これにより、撮像装置ごとのテクスチャや色の違いを軽減することができる。また、全撮像装置の中から、優先度が同等程度の撮像装置のみを選択してブレンディングするため、不必要なブレンディングを抑えて、高解像度(高画質)な仮想視点画像を生成することができる。
以下、本実施形態における仮想画像生成処理(特に、レンダリング処理)についてより詳細に説明する。本実施形態における仮想画像生成処理も、第1の実施形態で図1を参照して説明したハードウェア構成を有する画像処理装置100によって実施することができる。図10は、本実施形態における画像処理装置100の機能構成を示すブロック図であり、図11は、本実施形態における仮想画像生成処理の流れを示すフローチャートである。なお、第1の実施形態及び第2の実施形態と同様の構成および同様の処理については、第1の実施形態及び第2の実施形態と同様の符号を付して説明を省略する。
S1101において、カメラ優先度決定部1001は、カメラ有効度決定部720と有効解像度決定部253から取得した撮像装置毎の有効度と有効解像度とから、撮像装置の優先度を撮像装置毎に決定する。本実施形態では、有効度と有効解像度の積を優先度として決定する。なお、優先度の表現方法は上記に限らず、有効度と有効解像度の和など、有効度と有効解像度の上下関係を反映できる表現方法であれば、他の方法を用いてもよい。カメラ優先度決定部1001は、決定した優先度をブレンド情報決定部1002に出力する。
S1102において、ブレンド情報決定部1002は、カメラ優先度決定部1001から取得した撮像装置毎の優先度の中で、着目する優先度を選択する。本実施形態では、全ての優先度の中で最小となる優先度を着目する優先度として選択する。その後、着目した優先度に対する処理が完了するたびに、優先度の高い方へと、それまでに着目優先度として選択されていない優先度が新たな着目優先度として選択される。
S1103において、ブレンド情報決定部1002は、撮像装置の中で着目優先度以上の優先度を保持する撮像装置を検出し、光線角データ決定部251から取得した光線角データに基づき、検出した撮像装置の中でブレンドに用いる撮像装置を選択する。本実施形態では、撮像装置の中から、仮想視点から時計周りと反時計周りのそれぞれの方向において、仮想視点と撮像視点との光線角データが最小となる撮像装置を選択する。図12の例を用いた場合、撮像装置1202が時計周りの撮像装置、撮像装置1203が反時計周りの撮像装置として合計2台の撮像装置を選択する。しかしながら、必ずしも2台の撮像装置を選択する必要はなく、全撮像装置の中で最小の光線角データとなる1台の撮像装置を選択してもよい。
S1104において、ブレンド情報決定部1002は、着目優先度で選択した撮像装置に対して、撮像装置毎にブレンド重みを決定する。本実施形態では、選択した撮像装置間のなす角度に対する仮想視点と撮像視点のなす角に応じて、仮想視点と撮像視点のなす角が大きくなるにつれ線形的に重みが減少するようにブレンド重みを決定する。具体的には、撮像装置間のなす角をθsum、仮想視点と撮像視点のなす角をそれぞれθ1、θ2とした場合、それぞれのブレンド重みはb1=−θ1/θsum+1、b2=−θ2/θsum+1とする。しかしながら、ブレンド重みの算出方法はこれに限らず、角度に応じた非線形的な重みの減少や、ある一定の角度以上からの急激な重みの減少など、角度の増加に伴い重みが減少する様々な方法を用いてよい。ブレンド情報決定部1002は、着目優先度において選択した撮像装置の番号と撮像装置のそれぞれに対するブレンド重みとを、着目優先度に対するブレンド情報として決定する。
S1105において、ブレンド情報決定部1002は、カメラ優先度決定部1001から取得した全ての優先度に対してブレンド情報を決定したか判定する。全ての優先度に対してブレンド情報が決定されている場合、S1106へ進み、各優先度に対して決定されたブレンド情報をレンダリング重み決定部1003に出力する。一方、全ての優先度に対してブレンド情報が決定されていない場合、S1102に戻る。
S1106において、レンダリング重み決定部1003は、ブレンド情報決定部1002から取得した、優先度毎のブレンド情報を統合して、撮像装置毎にレンダリング重みを決定する。本実施形態では、まず、全撮像装置のレンダリング重みを0で初期化する。その後、撮像装置毎に全ての優先度におけるブレンド情報を確認し、自身の撮像装置の番号が含まれている優先度を検出する。そして、検出した優先度毎に、優先度と自身の撮像装置のブレンド重みとの積を求める。最後に、検出した全ての優先度において、優先度毎に求めた優先度とブレンド重みとの積の総和を導出し、その結果を撮像装置のレンダリング重みとして決定する。レンダリング重み決定部1003は、決定したレンダリング重みを画素値決定部257に出力する。
以上説明したように、本実施形態によれば、複数視点画像データに含まれる色の違いや距離マップの誤差によらず、異なる撮像画像がブレンドされている領域の境界部における急激な色の変化を抑制した、高画質な仮想視点画像を生成することができる。また、撮像装置の解像度も活かすことができる。
なお、本実施形態では、撮像装置の有効度を算出する際、光線角データのみを用いる場合を例に説明したが、第2の実施形態で説明した位置重みをも用いて有効度を算出してもよい。その場合、本実施形態に係る処理を単独で実行した場合に比べて、より高画質な仮想視点画像を生成することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理装置
210 画像データ取得部
220 撮像視点情報取得部
230 仮想視点情報取得部
240 距離マップ取得部
250 レンダリング部
251 光線角データ決定部
252 カメラ有効度決定部
253 有効解像度決定部
254 カメラ優先度決定部
255 レンダリング重み決定部
256 歪曲補正部
257 画素値決定部
260 画像出力部

Claims (15)

  1. 複数の撮像装置によって被写体を異なる視点から撮像した複数の撮像画像から、仮想視点に応じた仮想視点画像を生成する画像処理装置であって、
    前記仮想視点の視線方向と前記複数の撮像装置の撮影方向との関係と、前記複数の撮像装置による撮像画像に関する有効解像度とに基づいて、前記複数の撮像装置のうち1以上の撮像装置を選択する選択手段と、
    前記選択手段により選択された撮像装置による撮像画像を用いて、前記仮想視点画像の画素値を決定する画素値決定手段と
    を有することを特徴とする画像処理装置。
  2. 前記仮想視点の視線方向と前記複数の撮像装置の撮影方向との違いを示す光線角に基づいて、前記複数の撮像装置の有効度を決定する有効度決定手段と、
    前記複数の撮像装置の少なくとも何れかに対して、前記有効解像度と前記有効度とに基づく優先度を決定する優先度決定手段と、
    前記選択手段により選択された撮像装置による撮像画像のレンダリング重みを前記優先度に基づいて決定するレンダリング重み決定手段と、を有し、
    前記画素値決定手段は、前記レンダリング重みに基づいて前記仮想視点画像の画素値を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記レンダリング重み決定手段は、前記優先度の順に前記レンダリング重みの総和を導出し、前記総和が所定の値を超えた場合は、それ以降のレンダリング重みを0とすることを特徴とする請求項2に記載の画像処理装置。
  4. 前記レンダリング重み決定手段は、前記有効度と前記優先度とがともに高い撮像装置ほど、前記レンダリング重みを大きく設定することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記有効度決定手段は、前記光線角が大きい撮像装置ほど前記有効度が低く、前記光線角が小さい撮像装置ほど前記有効度が小さくなるように、前記有効度を決定することを特徴とする請求項2乃至4のいずれか一項に記載の画像処理装置。
  6. 前記仮想視点画像に含まれる被写体の位置に基づき、前記複数の撮像装置の位置重みを決定する位置重み決定手段をさらに有し、
    前記被写体が前記撮像装置の視野の中心部に近いほど前記位置重みは大きく、前記被写体が前記撮像装置の視野の周辺部にいくほど前記位置重みは小さくなることを特徴とする請求項2乃至5のいずれか一項に記載の画像処理装置。
  7. 前記有効度決定手段は、前記位置重みと前記光線角とを用いて、前記複数の撮像装置の有効度を決定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記有効度決定手段は、前記位置重みが大きく、かつ、前記光線角が小さい撮像装置ほど有効度を高く設定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記優先度決定手段は、前記有効解像度が高い順に、前記撮像装置に高い優先度を設定することを特徴とする請求項2乃至8のいずれか一項に記載の画像処理装置。
  10. 前記優先度決定手段は、前記有効解像度と前記有効度との積もしくは和の組み合わせによって、前記優先度を決定することを特徴とする請求項2乃至9のいずれか一項に記載の画像処理装置。
  11. 前記撮像装置の優先度に基づいて、前記仮想視点画像の生成に用いる撮像装置とそのブレンド重みとを示すブレンド情報を優先度毎に決定するブレンド情報決定手段を更に有し、
    前記レンダリング重み決定手段は、前記優先度毎のブレンド情報を撮像装置毎に統合し、前記レンダリング重みを決定することを特徴とする請求項2乃至10のいずれか一項に記載の画像処理装置。
  12. 前記ブレンド情報決定手段は、前記撮像装置毎に、自身の優先度以上の優先度を保持する撮像装置の中で前記光線角が小さい少なくとも1つ以上の撮像装置を選択し、自身の優先度のブレンド情報における撮像装置として決定することを特徴とする請求項11に記載の画像処理装置。
  13. 前記ブレンド情報決定手段は、前記ブレンド情報における撮像装置として決定した撮像装置と仮想視点との光線角に基づき前記ブレンド情報における前記ブレンド重みを決定し、前記光線角が小さい撮像装置ほど前記ブレンド重みを大きくすることを特徴とする請求項12に記載の画像処理装置。
  14. 複数の撮像装置によって被写体を異なる視点から撮像した複数の撮像画像から、仮想視点に応じた仮想視点画像を生成する画像処理方法であって、
    前記仮想視点の視線方向と前記複数の撮像装置の撮影方向との関係と、前記複数の撮像装置による撮像画像に関する有効解像度とに基づいて、前記複数の撮像装置のうち1以上の撮像装置を選択する選択工程と、
    前記選択工程において選択された撮像装置による撮像画像を用いて、前記仮想視点画像の画素値を決定する画素値決定工程と
    を含むことを特徴とする画像処理方法。
  15. コンピュータを請求項1乃至13のいずれか一項に記載の画像処理装置として機能させるプログラム。
JP2018199167A 2018-10-23 2018-10-23 画像処理装置、画像処理方法、およびプログラム Active JP7123736B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018199167A JP7123736B2 (ja) 2018-10-23 2018-10-23 画像処理装置、画像処理方法、およびプログラム
US16/658,285 US11210842B2 (en) 2018-10-23 2019-10-21 Image processing apparatus, image processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018199167A JP7123736B2 (ja) 2018-10-23 2018-10-23 画像処理装置、画像処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2020067748A true JP2020067748A (ja) 2020-04-30
JP2020067748A5 JP2020067748A5 (ja) 2021-12-09
JP7123736B2 JP7123736B2 (ja) 2022-08-23

Family

ID=70280760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018199167A Active JP7123736B2 (ja) 2018-10-23 2018-10-23 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11210842B2 (ja)
JP (1) JP7123736B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法
WO2020004162A1 (ja) 2018-06-27 2020-01-02 キヤノン株式会社 撮像システム、配置決定装置、配置決定方法およびプログラム
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
CN113538316B (zh) * 2021-08-24 2023-08-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113850186A (zh) * 2021-09-24 2021-12-28 中国劳动关系学院 基于卷积神经网络的智能流媒体视频大数据分析方法
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010804A (ja) * 2012-07-03 2014-01-20 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、画像処理方法及び画像処理プログラム
JP2018042237A (ja) * 2016-08-31 2018-03-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0684585B1 (en) * 1994-04-22 2003-02-05 Canon Kabushiki Kaisha Image forming method and apparatus
JP3745475B2 (ja) * 1996-12-06 2006-02-15 株式会社セガ ゲーム装置及び画像処理装置
US6856324B2 (en) * 2001-03-27 2005-02-15 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with guiding graphics
KR100779634B1 (ko) * 2003-06-20 2007-11-26 니폰 덴신 덴와 가부시끼가이샤 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치
US7667700B1 (en) * 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
JP2006107213A (ja) * 2004-10-06 2006-04-20 Canon Inc 立体画像印刷システム
EP2023298A4 (en) * 2006-05-09 2010-07-21 Sega Corp IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROGRAM
JP5164714B2 (ja) * 2008-07-24 2013-03-21 キヤノン株式会社 送信装置及び方法、プログラム
CN102239506B (zh) * 2008-10-02 2014-07-09 弗兰霍菲尔运输应用研究公司 中间视合成和多视点数据信号的提取
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2013065951A (ja) * 2011-09-15 2013-04-11 Sony Corp 表示装置、表示方法、及びプログラム
JP2014014034A (ja) * 2012-07-05 2014-01-23 Toshiba Corp 視差画像生成装置及び視差画像生成方法
JP6182607B2 (ja) * 2013-06-14 2017-08-16 株式会社日立製作所 映像監視システム、監視装置
JP6452360B2 (ja) * 2013-12-19 2019-01-16 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6691351B2 (ja) * 2015-03-31 2020-04-28 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
CN107960150B (zh) * 2015-05-08 2021-05-11 索尼公司 图像处理装置和方法
US10607409B2 (en) * 2016-07-19 2020-03-31 The Boeing Company Synthetic geotagging for computer-generated images
EP3493164B1 (en) * 2016-07-29 2024-03-27 Sony Group Corporation Image processing device and image processing method
US10559095B2 (en) * 2016-08-31 2020-02-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium
JP2018036898A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置及びその制御方法
ES2756677T3 (es) * 2016-09-26 2020-04-27 Canon Kk Aparato de procesamiento de imágenes, procedimiento de procesamiento de imágenes y programa
JP6407225B2 (ja) * 2016-09-30 2018-10-17 キヤノン株式会社 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010804A (ja) * 2012-07-03 2014-01-20 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、画像処理方法及び画像処理プログラム
JP2018042237A (ja) * 2016-08-31 2018-03-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US11210842B2 (en) 2021-12-28
JP7123736B2 (ja) 2022-08-23
US20200126290A1 (en) 2020-04-23

Similar Documents

Publication Publication Date Title
JP2020067748A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
WO2020259271A1 (zh) 图像畸变校正方法和装置
JP6371553B2 (ja) 映像表示装置および映像表示システム
US8224069B2 (en) Image processing apparatus, image matching method, and computer-readable recording medium
US10559095B2 (en) Image processing apparatus, image processing method, and medium
US8942506B2 (en) Image processing apparatus, image processing method, and program
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP4813517B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2010041419A (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
US11575834B2 (en) Image stabilization apparatus, method of controlling same, and storage medium
US11282176B2 (en) Image refocusing
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6494402B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP2009301181A (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
US20120038785A1 (en) Method for producing high resolution image
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
WO2017187935A1 (en) Information processing apparatus, information processing method, and program
JP2009302731A (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
CN111091513B (zh) 图像处理方法、装置、计算机可读存储介质及电子设备
JP4789964B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R151 Written notification of patent or utility model registration

Ref document number: 7123736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151